JP7406502B2 - Information processing device, program and information processing method - Google Patents

Information processing device, program and information processing method Download PDF

Info

Publication number
JP7406502B2
JP7406502B2 JP2020559812A JP2020559812A JP7406502B2 JP 7406502 B2 JP7406502 B2 JP 7406502B2 JP 2020559812 A JP2020559812 A JP 2020559812A JP 2020559812 A JP2020559812 A JP 2020559812A JP 7406502 B2 JP7406502 B2 JP 7406502B2
Authority
JP
Japan
Prior art keywords
information
user
movement
facial
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020559812A
Other languages
Japanese (ja)
Other versions
JPWO2020116069A1 (en
Inventor
寛子 川添
文香 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Publication of JPWO2020116069A1 publication Critical patent/JPWO2020116069A1/en
Application granted granted Critical
Publication of JP7406502B2 publication Critical patent/JP7406502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Description

本発明は、情報処理装置プログラム及び情報処理方法に関する。
The present invention relates to an information processing device , a program , and an information processing method .

一般に、他人に対する印象を決定付ける要因の1つとして、顔の表情が挙げられる。例えば、眉をひそめる表情は、他人に対してネガティブな印象を与える。一方で、生活習慣などに起因して表情癖が生じることがある。例えば、パソコンを長時間使用する人は、無意識的に眉をひそめる表情癖ができ得る。この表情癖を有する人は、ポジティブな感情を持っていたとしても、意図せずに他人に対してネガティブな印象を与える。また、長年にわたる表情癖は、シワ又はたるみ等の肌特徴の表れの一因となり得る。
しかし、人は通常、自身の顔を鏡で見る際には表情を作っていることが多いため、本来の表情癖を知らない。近年、美容に関する関心が高まり、表情癖及び表情癖の影響で表れ得る肌特徴等を改善したいというニーズが高まっている。そのためには、まず、自身の表情癖を知ることが必要である。
Generally, facial expressions are one of the factors that determine impressions of others. For example, a frowning facial expression gives a negative impression to others. On the other hand, facial expressions may develop due to lifestyle habits. For example, people who use computers for long periods of time may unconsciously frown. Even if people with this facial expression habit have positive emotions, they unintentionally give others a negative impression. Furthermore, long-standing facial expression habits can contribute to the appearance of skin characteristics such as wrinkles or sagging.
However, because people usually make facial expressions when looking at themselves in the mirror, they are unaware of their natural facial expression habits. In recent years, interest in beauty has increased, and there has been an increasing need to improve facial expressions and skin characteristics that may be affected by facial expressions. To do this, it is first necessary to know your own facial expressions.

人の顔の部位の動きを分析する技術として、例えば、特開2008-071179号公報に記載のものがある。特開2008-071179号公報では、時系列的に連続して撮影した複数の画像から得られた人の顔における各部位の状態を示す情報が、実在する人の顔における各部位の動きとして認められるか否かを、登録されている各部位の動きパターンに基づいて判定することが記載されている。 As a technique for analyzing the movement of parts of a person's face, there is a technique described in, for example, Japanese Patent Laid-Open No. 2008-071179. In Japanese Unexamined Patent Publication No. 2008-071179, information indicating the state of each part of a person's face obtained from multiple images taken consecutively in chronological order is recognized as the movement of each part of a real person's face. It is described that it is determined based on registered movement patterns of each part.

特開2008-071179号公報では、顔画像における対象人物の顔の部位の動きが人らしい自然な動きに当てはまっているか否かを判定して、その顔画像の人物が実在する人か否かを判定するものであるため、対象人物の表情癖は判定されない。 In Japanese Patent Application Laid-Open No. 2008-071179, it is determined whether or not the movements of the facial parts of a target person in a facial image correspond to natural human movements, thereby determining whether or not the person in the facial image is a real person. Since this is a determination, the facial expressions of the target person are not determined.

本発明の目的は、ユーザの表情癖を判定することである。 An object of the present invention is to determine a user's facial expression habits.

本発明の一態様は、
ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、
情報処理装置である。
One aspect of the present invention is
Equipped with means for acquiring video image information of the user's face,
comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
comprising means for identifying facial movement habits of the user based on the movement information;
It is an information processing device.

本発明によれば、ユーザの表情癖を判定することができる。 According to the present invention, a user's facial expression habits can be determined.

本実施形態の情報処理システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an information processing system according to the present embodiment. 本実施形態の概要の説明図である。It is an explanatory diagram of an outline of this embodiment. 本実施形態の動き指示情報データベースのデータ構造を示す図である。FIG. 3 is a diagram showing a data structure of a movement instruction information database according to the present embodiment. 本実施形態の表情癖情報データベースのデータ構造を示す図である。FIG. 3 is a diagram showing the data structure of the facial expression habit information database according to the present embodiment. 本実施形態の表情癖判定処理のシーケンス図である。FIG. 2 is a sequence diagram of facial expression habit determination processing according to the present embodiment. 図5の情報処理において表示される画面例を示す図である。6 is a diagram showing an example of a screen displayed in the information processing of FIG. 5. FIG. 変形例1の個人特性関連情報データベースのデータ構造を示す図である。7 is a diagram illustrating a data structure of a personal characteristic related information database of Modification 1. FIG. 変形例1の肌状態関連情報データベースのデータ構造を示す図である。7 is a diagram illustrating a data structure of a skin condition related information database according to modification 1. FIG. 変形例1の表情癖判定処理のシーケンス図である。FIG. 7 is a sequence diagram of facial expression habit determination processing according to modification example 1; 図9の情報処理において表示される画面例を示す図である。10 is a diagram showing an example of a screen displayed in the information processing of FIG. 9. FIG. 変形例2の表情癖情報データベースのデータ構造を示す図であるFIG. 7 is a diagram showing a data structure of a facial expression habit information database in modification example 2. 変形例2の表情癖判定処理のシーケンス図である。FIG. 7 is a sequence diagram of facial expression habit determination processing according to modification example 2; 図12の情報処理において表示される画面例を示す図である。13 is a diagram showing an example of a screen displayed in the information processing of FIG. 12. FIG. 変形例3の表情癖情報データベースのデータ構造を示す図である。12 is a diagram showing a data structure of a facial expression habit information database according to modification 3. FIG. 変形例3の表情癖判定処理のシーケンス図である。FIG. 12 is a sequence diagram of facial expression habit determination processing according to modification example 3; 図15の情報処理において表示される画面例を示す図である。16 is a diagram showing an example of a screen displayed in the information processing of FIG. 15. FIG. 変形例4の情報処理において表示される画面例を示す図である。12 is a diagram illustrating an example of a screen displayed in information processing of Modification 4. FIG. 変形例5の表情癖情報データベースのデータ構造を示す図である。11 is a diagram showing a data structure of a facial expression habit information database according to modification 5. FIG. 変形例5の情報処理において表示される画面例を示す図である。12 is a diagram illustrating an example of a screen displayed in information processing according to modification 5. FIG.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, one embodiment of the present invention will be described in detail based on the drawings. In addition, in the drawings for explaining the embodiments, the same components are generally designated by the same reference numerals, and repeated explanations thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be explained. FIG. 1 is a block diagram showing the configuration of an information processing system according to this embodiment.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (eg, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that sends a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10. Server 30 is, for example, a web server.

(1-1)クライアント装置の構成
クライアント装置10の構成について説明する。
(1-1) Configuration of Client Device The configuration of the client device 10 will be explained.

図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、を備える。 As shown in FIG. 1, the client device 10 includes a storage device 11, a processor 12, an input/output interface 13, a communication interface 14, and a camera 15.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of ROM (Read Only Memory), RAM (Random Access Memory), and storage (for example, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The programs include, for example, the following programs.
・OS (Operating System) program ・Application program that executes information processing (e.g. web browser)

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
・Databases referenced in information processing ・Data obtained by executing information processing (that is, execution results of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to implement the functions of the client device 10 by activating a program stored in the storage device 11. Processor 12 is an example of a computer.

入出力インタフェース13は、カメラ15に接続される。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 13 is connected to the camera 15.
The input/output interface 13 is configured to obtain user instructions from an input device connected to the client device 10 and output information to an output device connected to the client device 10 .
The input device is, for example, a keyboard, pointing device, touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 Communication interface 14 is configured to control communication between client device 10 and server 30.

カメラ15は、動画像(例えば、ユーザの顔の動画像)を撮像するように構成される。 The camera 15 is configured to capture a moving image (for example, a moving image of a user's face).

(1-2)サーバの構成
サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the server 30 will be explained.

図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 1, the server 30 includes a storage device 31, a processor 32, an input/output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of ROM, RAM, and storage (eg, flash memory or hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The programs include, for example, the following programs.
・OS program ・Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・Databases referenced in information processing ・Execution results of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to implement the functions of the server 30 by activating a program stored in the storage device 31. Processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input/output interface 33 is configured to obtain user instructions from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, pointing device, touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 Communication interface 34 is configured to control communication between server 30 and client device 10 .

(2)実施形態の概要
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。
(2) Overview of the embodiment An overview of the present embodiment will be described. FIG. 2 is an explanatory diagram outlining the present embodiment.

図2に示すように、サーバ30は、クライアント装置10を介して、ユーザの顔の動画像情報を取得する。
サーバ30は、ユーザの顔の動画像情報に基づいて、ユーザの顔の動きに関する動き情報を抽出する。
サーバ30は、ユーザの顔の動きに関する動き情報に基づいて、ユーザの顔の動きの癖を特定する。
As shown in FIG. 2, the server 30 acquires moving image information of the user's face via the client device 10.
The server 30 extracts motion information regarding the movement of the user's face based on the moving image information of the user's face.
The server 30 identifies the user's facial movement habits based on movement information regarding the user's facial movements.

本実施形態によれば、ユーザの表情癖が判定される。これにより、ユーザは、自身の表情癖を知ることができる。 According to this embodiment, the user's facial expression habits are determined. This allows the user to know his own facial expressions.

なお、本実施形態において、「顔の動きの癖」と「表情癖」とは同義であり、交換可能に使用される。 In this embodiment, "facial movement habit" and "facial expression habit" have the same meaning and are used interchangeably.

(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of this embodiment will be explained. The following database is stored in the storage device 31.

(3-1)動き指示情報データベース
本実施形態の動き指示情報データベースについて説明する。図3は、本実施形態の動き指示情報データベースのデータ構造を示す図である。
(3-1) Movement instruction information database The movement instruction information database of this embodiment will be explained. FIG. 3 is a diagram showing the data structure of the movement instruction information database of this embodiment.

図3の動き指示情報データベースには、ユーザに対して提示する顔の動きを促すメッセージに関する動き指示情報が格納される。動き指示情報データベースは、「動き指示ID」フィールドと、「メッセージ内容」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The movement instruction information database shown in FIG. 3 stores movement instruction information related to a message to be presented to the user to encourage facial movement. The movement instruction information database includes a "movement instruction ID" field and a "message content" field. Each field is associated with each other.

「動き指示ID」フィールドには、動き指示IDが格納される。動き指示IDは、動き指示を識別する動き指示識別情報の一例である。 A motion instruction ID is stored in the "movement instruction ID" field. The movement instruction ID is an example of movement instruction identification information that identifies a movement instruction.

「メッセージ内容」フィールドには、ユーザに対して提示する顔の動きを促すメッセージに関する情報(例えば、テキスト)が格納される。なお、本実施形態では、説明を単純化するために、3つのレコードが格納されているものとする。 The "message content" field stores information (for example, text) regarding a message to be presented to the user that encourages facial movement. Note that in this embodiment, in order to simplify the explanation, it is assumed that three records are stored.

(3-2)表情癖情報データベース
本実施形態の表情癖情報データベースについて説明する。図4は、本実施形態の表情癖情報データベースのデータ構造を示す図である。
(3-2) Facial expression information database The facial expression information database of this embodiment will be explained. FIG. 4 is a diagram showing the data structure of the facial expression habit information database of this embodiment.

図4の表情癖情報データベースには、人の顔の動きの癖(以下「表情癖」という)に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression information database shown in FIG. 4 stores facial expression information related to the movement habits of a person's face (hereinafter referred to as "expression habits"). The facial expression information database includes a "facial quirk ID" field, a "feature amount" field, a "facial quirk name" field, and an "advice" field. Each field is associated with each other.

「表情癖ID」フィールドには、表情癖IDが格納される。表情癖IDは、表情癖を識別する表情癖識別情報の一例である。 The “facial expression habit ID” field stores the facial expression habit ID. The facial expression habit ID is an example of facial expression habit identification information that identifies a facial expression habit.

「特徴量」フィールドには、対応する表情癖についての顔の動画像における顔の各部位の特徴量に関する情報が格納される。特徴量は、例えば、顔の各部位の特徴点における変化量(例えば、顔の各部位の特徴点における相対的な位置の変化量(例えば、動きベクトル)及び顔の各部位の特徴点における色味の変化量のうちの少なくとも1つ)で示される。特徴量は、複数の人物から得られた顔の動画像に基づいてモデル化したものである。「特徴量」フィールドは、複数のサブフィールド(各「動き指示ID」フィールド)を含む。同じ表情癖でも動き指示IDが異なると特徴量も異なる。 The “feature amount” field stores information regarding the feature amount of each part of the face in the moving image of the face for the corresponding facial expression. The feature amount is, for example, the amount of change in the feature point of each part of the face (for example, the amount of change in relative position (e.g., motion vector) of the feature point of each part of the face, and the color at the feature point of each part of the face). (at least one of the amount of change in taste). The feature amounts are modeled based on moving images of faces obtained from multiple people. The “feature quantity” field includes a plurality of subfields (each “motion instruction ID” field). Even if the facial expression is the same, the feature amount will be different if the movement instruction ID is different.

「表情癖名」フィールドには、表情癖の名称(以下「表情癖名」という)に関する情報(例えば、テキスト)が格納される。 The "Facial expression habit name" field stores information (for example, text) regarding the name of the facial expression habit (hereinafter referred to as "Facial expression habit name").

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。表情癖の影響で表れ得る肌特徴は、例えば、シワ、たるみ、及びくすみのうちの少なくとも1つである。表情癖の影響で表れ得る顔特徴は、例えば、表情筋の変化である。なお、「対処する」とは、例えば、改善する、予防する、進行を抑止する、又は進行を緩やかにすることをいう。 The "advice" field stores advice information (for example, text or image data) for dealing with at least one of the corresponding facial expression and the skin characteristics and facial features that may appear under the influence of the facial expression. Skin characteristics that may appear due to facial expressions include, for example, at least one of wrinkles, sagging, and dullness. Facial features that may appear due to the influence of facial expressions include, for example, changes in facial muscles. Note that "to deal with" refers to, for example, improving, preventing, inhibiting progression, or slowing progression.

(4)情報処理
本実施形態の情報処理について説明する。図5は、本実施形態の表情癖判定処理のシーケンス図である。図6は、図5の情報処理において表示される画面例を示す図である。
(4) Information processing Information processing of this embodiment will be explained. FIG. 5 is a sequence diagram of the facial expression habit determination process of this embodiment. FIG. 6 is a diagram showing an example of a screen displayed in the information processing of FIG.

図5に示すように、クライアント装置10は、判定条件の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 5, the client device 10 executes acceptance of determination conditions (S100).
Specifically, processor 12 displays screen P100 (FIG. 6) on the display.

画面P100は、表示オブジェクトA100a~A100dと、操作オブジェクトB100a~B100cと、を含む。
表示オブジェクトA100a~A100cは、ユーザに対して顔の動きを促すメッセージを含む。
表示オブジェクトA100dは、クライアント装置10に接続されたカメラ15が撮影する動画像を含む。
操作オブジェクトB100a~B100cは、動画像の撮影を実行するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB100a~B100cは、それぞれ、表示オブジェクトA100a~A100cと対応している。操作オブジェクトB100a~B100cには、対応する動き指示IDが割り当てられている。
Screen P100 includes display objects A100a to A100d and operation objects B100a to B100c.
Display objects A100a to A100c include messages encouraging the user to move his or her face.
The display object A100d includes a moving image captured by the camera 15 connected to the client device 10.
The operation objects B100a to B100c are objects that accept user instructions for shooting moving images. The operation objects B100a to B100c correspond to the display objects A100a to A100c, respectively. Corresponding motion instruction IDs are assigned to the operation objects B100a to B100c.

ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100aを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100aに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100aを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100aに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100aに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B100a while pointing the camera 15 toward his or her face, the processor 12 generates moving image data of the moving image included in the display object A100d. Specifically, the user operates the operation object B100a while moving each part of the face in accordance with the content of the message displayed on the display object A100a.
The processor 12 uses the moving image data of the moving image captured by the camera 15 (that is, the moving image of the user's face in response to the message displayed on the display object A 100a) and the movement instruction ID assigned to the operation object B 100a. , are stored in the storage device 11 in association with each other.

ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100bを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100bに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100bを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100bに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100bに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B100b while pointing the camera 15 toward his or her face, the processor 12 generates moving image data of the moving image included in the display object A100d. Specifically, the user operates the operation object B 100b while moving each part of the face in accordance with the message content displayed on the display object A 100b.
The processor 12 uses the moving image data of the moving image captured by the camera 15 (that is, the moving image of the user's face in response to the message displayed on the display object A 100b) and the movement instruction ID assigned to the operation object B 100b. , are stored in the storage device 11 in association with each other.

ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100cを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100cに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100cを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100cに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100cに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B100c while pointing the camera 15 toward his or her face, the processor 12 generates moving image data of the moving image included in the display object A100d. Specifically, the user operates the operation object B100c while moving each part of the face in accordance with the content of the message displayed on the display object A100c.
The processor 12 uses the moving image data of the moving image captured by the camera 15 (that is, the moving image of the user's face in response to the message displayed on the display object A 100c) and the movement instruction ID assigned to the operation object B 100c. , are stored in the storage device 11 in association with each other.

プロセッサ12は、画面P101(図6)をディスプレイに表示する。 The processor 12 displays screen P101 (FIG. 6) on the display.

画面P101は、表示オブジェクトA101と、操作オブジェクトB101と、を含む。
表示オブジェクトA101は、ユーザに対して動画像の撮影が完了した旨を知らせるメッセージを含む。
操作オブジェクトB101は、生成された動画像データの送信を実行するためのユーザ指示を受け付けるオブジェクトである。
Screen P101 includes a display object A101 and an operation object B101.
The display object A101 includes a message informing the user that the shooting of the moving image has been completed.
The operation object B101 is an object that accepts a user instruction for transmitting generated moving image data.

ステップS100の後、クライアント装置10は、判定リクエスト(S101)を実行する。
具体的には、ユーザが、操作オブジェクトB101を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS100で記憶装置11に記憶された動画像データと動き指示IDの組合せ
After step S100, the client device 10 executes a determination request (S101).
Specifically, when the user operates the operation object B101, the processor 12 transmits determination request data to the server 30.
The judgment request data includes the following information.
- Combination of the moving image data and motion instruction ID stored in the storage device 11 in step S100

ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる動画像データから顔の各部位の特徴量を算出する。
プロセッサ32は、表情癖情報データベース(図4)を参照して、判定リクエストデータに含まれる動き指示IDに対応する各特徴量と、判定リクエストデータに含まれる動画像データから算出した特徴量とを比較し、動画像データにおける顔の動きについてその表情癖に該当するか否かを判断する。これを各表情癖について行う。例えば、動き指示ID「MES001」に関連付けられた動画像データについては、動き指示ID「MES001」に関連付けられた「特徴量」フィールドの各特徴量と比較する。
プロセッサ32は、表情癖情報データベース(図4)を参照して、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。
After step S101, the server 30 identifies facial expression habits (S300).
Specifically, the processor 32 calculates the feature amount of each part of the face from the moving image data included in the determination request data.
The processor 32 refers to the facial expression habit information database (FIG. 4) and calculates each feature amount corresponding to the movement instruction ID included in the determination request data and the feature amount calculated from the moving image data included in the determination request data. A comparison is made to determine whether or not the facial movement in the video data corresponds to the facial expression. Do this for each facial expression habit. For example, the moving image data associated with the motion instruction ID "MES001" is compared with each feature amount in the "feature amount" field associated with the motion instruction ID "MES001."
The processor 32 refers to the facial expression habit information database (FIG. 4) and specifies information regarding the name of the facial expression habit determined to be applicable and corresponding advice information.

ステップS300の後、サーバ30は、判定レスポンス(S301)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS300で特定された表情癖名に関する情報
・ステップS300で特定されたアドバイス情報
After step S300, the server 30 executes a determination response (S301).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
- Information regarding the facial expression name identified in step S300 - Advice information identified in step S300

ステップS301の後、クライアント装置10は、判定結果の提示(S102)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P102(図6)をディスプレイに表示する。
After step S301, the client device 10 presents the determination result (S102).
Specifically, the processor 12 displays screen P102 (FIG. 6) on the display based on the determination response data.

画面P102は、表示オブジェクトA102を含む。
表示オブジェクトA102は、表情癖名、及び、対応するアドバイス情報を含む。アドバイス情報は、例えば、以下のうちの少なくとも1つであり得る。
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための化粧品に関する情報(例えば、製品名、塗布部位、塗布量、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容器具に関する情報(例えば、製品名、使用方法、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容施術に関する情報(例えば、施術の種類(マッサージ、エステ、ヨガ等)、やり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのエクササイズに関する情報(例えば、ユーザ自身で行う表情エクササイズのやり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのその他のアドバイス情報
Screen P102 includes display object A102.
The display object A102 includes a facial expression name and corresponding advice information. The advice information may be, for example, at least one of the following.
・Information regarding cosmetics to address at least one of facial expressions and skin characteristics and facial features that may appear due to facial expressions (e.g., product name, application site, amount of application, product image, etc.)
・Information regarding beauty appliances for addressing at least one of facial expressions and skin characteristics and facial features that may appear as a result of facial expressions (e.g., product name, usage instructions, product images, etc.)
・Information regarding beauty treatments to address at least one of facial expressions and skin characteristics and facial features that may be affected by facial expressions (e.g. type of treatment (massage, beauty salon, yoga, etc.), method, etc.)
・Information about facial expressions and exercises to deal with at least one of the skin characteristics and facial features that may appear as a result of facial expressions (for example, how to perform facial expression exercises by the user)
・Other advice information for dealing with facial expressions and at least one of the skin characteristics and facial features that may appear as a result of facial expressions

本実施形態によれば、顔の動画像をクライアント装置10に与えることにより、表情癖が判定される。これにより、ユーザは、自身の表情癖を知ることができる。また、表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報が提示される。これにより、ユーザは、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための対策をとることができる。 According to this embodiment, facial expression habits are determined by providing a moving image of a face to the client device 10. This allows the user to know his own facial expressions. Further, advice information for dealing with at least one of the facial expressions and the skin characteristics and facial features that may appear under the influence of the facial expressions is presented. Thereby, the user can take measures to more appropriately deal with facial expressions and at least one of the skin characteristics and facial features that may appear under the influence of facial expressions.

また、表示されたメッセージに応じたユーザの顔の動きの動画像データと、対応する動き指示IDと、を関連付けて記憶することにより、ステップS300において動き指示のメッセージ内容に対応する特徴量を参照することができる。そのため、精度よく表情癖を特定することができる。 Further, by storing the moving image data of the user's facial movement in response to the displayed message in association with the corresponding movement instruction ID, the feature amount corresponding to the message content of the movement instruction is referenced in step S300. can do. Therefore, facial expression habits can be identified with high accuracy.

(5)変形例
本実施形態の変形例について説明する。
(5) Modification Example A modification example of this embodiment will be explained.

(5-1)変形例1
変形例1について説明する。変形例1は、ユーザ情報に基づいてユーザの表情癖を推測し、推測された表情癖に関する情報を提示する例である。
(5-1) Modification example 1
Modification 1 will be explained. Modification 1 is an example in which a user's facial expressions are estimated based on user information and information regarding the estimated facial expressions is presented.

(5-1-1)個人特性関連情報データベース
変形例1の個人特性関連情報データベースについて説明する。図7は、変形例1の個人特性関連情報データベースのデータ構造を示す図である。
(5-1-1) Personal characteristics related information database The personal characteristics related information database of Modification 1 will be explained. FIG. 7 is a diagram showing the data structure of the personal characteristics related information database of Modification 1.

図7の個人特性関連情報データベースには、個人特性と表情癖との関係性に関する情報が格納される。個人特性関連情報データベースは、「個人特性ID」フィールドと、「個人特性タイプ」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。 The personal characteristic related information database in FIG. 7 stores information regarding the relationship between personal characteristics and facial expression habits. The personal characteristic related information database includes a "personal characteristic ID" field, a "personal characteristic type" field, a "facial expression name" field, and an "advice" field.

「個人特性ID」フィールドには、個人特性を識別する個人特性IDが格納される。個人特性IDは、個人特性を識別する個人特性識別情報の一例である。 The "personal characteristic ID" field stores a personal characteristic ID that identifies personal characteristics. The personal characteristic ID is an example of personal characteristic identification information that identifies personal characteristics.

「個人特性タイプ」フィールドには、個人特性のタイプに関する情報が格納される。「個人特性」とは、内面特性(例えば、性格特性、価値観特性、美容意識)及び行動特性(例えば、ライフスタイル、習慣)のうちの少なくとも1つを含む。 The "personal characteristic type" field stores information regarding the type of personal characteristic. "Personal characteristics" include at least one of internal characteristics (e.g., personality characteristics, value characteristics, beauty consciousness) and behavioral characteristics (e.g., lifestyle, habits).

「表情癖名」フィールドには、そのレコードにおける個人特性のタイプに該当する人物が有すると推測される表情癖の名称(表情癖名)に関する情報(例えば、テキスト)が格納される。個人特性のタイプから推測される表情癖は、複数の人物から得られた統計データに基づいている。 The "facial quirk name" field stores information (for example, text) regarding the name of a facial quirk (facial quirk name) that is presumed to be possessed by a person corresponding to the type of personal characteristic in the record. Facial expression habits inferred from types of personal characteristics are based on statistical data obtained from multiple people.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。 The "advice" field stores advice information (for example, text or image data) for dealing with at least one of the corresponding facial expression and the skin characteristics and facial features that may appear under the influence of the facial expression.

(5-1-2)肌状態関連情報データベース
変形例1の肌状態関連情報データベースについて説明する。図8は、変形例1の肌状態関連情報データベースのデータ構造を示す図である。
(5-1-2) Skin Condition Related Information Database The skin condition related information database of Modified Example 1 will be explained. FIG. 8 is a diagram showing the data structure of the skin condition related information database of Modification 1.

図8の肌状態関連情報データベースには、肌の状態(以下「肌状態」という)と表情癖との関係性に関する情報が格納される。肌状態関連情報データベースは、「肌状態ID」フィールドと、「肌状態タイプ」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。 The skin condition related information database in FIG. 8 stores information regarding the relationship between skin conditions (hereinafter referred to as "skin conditions") and facial expressions. The skin condition related information database includes a "skin condition ID" field, a "skin condition type" field, a "facial expression name" field, and an "advice" field.

「肌状態ID」フィールドには、肌状態を識別する肌状態IDが格納される。肌状態IDは、肌状態を識別する肌状態識別情報の一例である。 The "skin condition ID" field stores a skin condition ID that identifies a skin condition. The skin condition ID is an example of skin condition identification information that identifies a skin condition.

「肌状態タイプ」フィールドには、肌状態のタイプに関する情報が格納される。「肌状態」とは、人の肌の状態を指す。肌状態は、例えば、シワ、皮膚の粘弾性、皮膚の水分量、皮膚の水分蒸散量等に関する。 The "skin condition type" field stores information regarding the type of skin condition. "Skin condition" refers to the condition of a person's skin. The skin condition relates to, for example, wrinkles, skin viscoelasticity, skin moisture content, skin moisture evaporation rate, and the like.

「表情癖名」フィールドには、そのレコードにおける肌状態のタイプに該当する人物が有すると推測される表情癖の名称(表情癖名)に関する情報(例えば、テキスト)が格納される。肌状態のタイプから推測される表情癖は、複数の人物から得られた統計データに基づいている。 The "facial habit name" field stores information (for example, text) regarding the name of the facial habit (facial habit name) that is presumed to be possessed by a person corresponding to the type of skin condition in the record. Facial expressions inferred from skin condition types are based on statistical data obtained from multiple people.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。 The "advice" field stores advice information (for example, text or image data) for dealing with at least one of the corresponding facial expression and the skin characteristics and facial features that may appear under the influence of the facial expression.

(5-1-3)情報処理
変形例1の情報処理について説明する。図9は、変形例1の表情癖判定処理のシーケンス図である。図10は、図9の情報処理において表示される画面例を示す図である。
(5-1-3) Information Processing Information processing of Modified Example 1 will be explained. FIG. 9 is a sequence diagram of facial expression habit determination processing according to modification 1. FIG. 10 is a diagram showing an example of a screen displayed in the information processing of FIG.

図9に示すように、クライアント装置10は、判定条件の受付(S110)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 9, the client device 10 executes acceptance of determination conditions (S110).
Specifically, processor 12 displays screen P100 (FIG. 6) on the display.

ユーザは、図6と同様に、操作オブジェクトB100a、B100b及びB100cを操作する。これにより、表示オブジェクトA100a~A100cのそれぞれに対応するユーザの顔の動画像の動画像データが生成される。各動画像データには、対応する動き指示IDが関連づけられている。各動画像データは、記憶装置11に記憶される。 The user operates the operation objects B100a, B100b, and B100c similarly to FIG. 6. As a result, moving image data of a moving image of the user's face corresponding to each of the display objects A100a to A100c is generated. Each moving image data is associated with a corresponding motion instruction ID. Each moving image data is stored in the storage device 11.

プロセッサ12は、画面P201(図10)をディスプレイに表示する。 The processor 12 displays screen P201 (FIG. 10) on the display.

画面P201は、フィールドオブジェクトF201a~F201bと、操作オブジェクトB201と、を含む。
フィールドオブジェクトF201aは、個人特性に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。個人特性に関する情報は、例えば、ユーザが自己認識している個人特性のタイプに関する情報、個人特性を判定するアプリケーションによる判定結果に関する情報、又は、個人特性をサーバ30が判定するための所定の質問事項に対する回答に関する情報である。
フィールドオブジェクトF201bは、肌状態に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。肌状態に関する情報は、例えば、ユーザが自己認識している肌状態のタイプに関する情報、肌状態を判定するアプリケーションもしくは測定装置による判定結果に関する情報、肌状態をサーバ30が判定するための所定の質問事項に対する回答に関する情報、又は、顔の肌を含む画像データ(静止画像データもしくは動画像データ)である。
操作オブジェクトB201は、生成された動画像データ及びフィールドオブジェクトF201a~F201bに入力されたユーザ指示をサーバ30に送信するためのユーザ指示を受け付けるオブジェクトである。
Screen P201 includes field objects F201a to F201b and operation object B201.
Field object F201a is an object that accepts user instructions for specifying information regarding personal characteristics. The information regarding personal characteristics is, for example, information regarding the type of personal characteristics that the user self-recognizes, information regarding the determination result by an application that determines personal characteristics, or predetermined questions for the server 30 to determine personal characteristics. This is information regarding the answer to.
Field object F201b is an object that accepts user instructions for specifying information regarding skin conditions. The information regarding the skin condition includes, for example, information regarding the type of skin condition that the user self-recognizes, information regarding the determination result by an application or measuring device that determines the skin condition, and a predetermined question for the server 30 to determine the skin condition. This is information related to answers to questions, or image data (still image data or moving image data) that includes facial skin.
The operation object B201 is an object that accepts user instructions for transmitting generated moving image data and user instructions input into the field objects F201a to F201b to the server 30.

ステップS110の後、クライアント装置10は、判定リクエスト(S111)を実行する。
具体的には、ユーザが、フィールドオブジェクトF201a及びフィールドオブジェクトF201bにユーザ指示を入力し、かつ、操作オブジェクトB201を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS110で記憶装置11に記憶された動画像データと動き指示IDの組合せ
・フィールドオブジェクトF201aに指定された個人特性に関する情報
・フィールドオブジェクトF201bに指定された肌状態に関する情報
After step S110, the client device 10 executes a determination request (S111).
Specifically, when the user inputs user instructions to the field object F201a and field object F201b and operates the operation object B201, the processor 12 transmits determination request data to the server 30.
The judgment request data includes the following information.
・A combination of the moving image data and movement instruction ID stored in the storage device 11 in step S110 ・Information regarding personal characteristics specified in the field object F201a ・Information regarding the skin condition specified in the field object F201b

ステップS111の後、サーバ30は、図5と同様に、表情癖の特定(S300)を実行する。 After step S111, the server 30 executes the identification of facial expression habits (S300) as in FIG. 5.

ステップS300の後、サーバ30は、表情癖の推測(S311)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる個人特性に関する情報に基づいて、ユーザの個人特性のタイプを特定する。
プロセッサ32は、個人特性関連情報データベース(図7)を参照して、特定された個人特性のタイプに関連付けられた個人特性IDを特定する。
プロセッサ32は、個人特性関連情報データベース(図7)を参照して、特定された個人特性IDに関連付けられた表情癖名に関する情報を特定する。プロセッサ32は、特定された表情癖名に関する情報のうち、ステップS300で特定されていない表情癖名に関する情報を特定する。この表情癖名に係る表情癖は、ユーザがステップS110の時点では有していないが、将来的に有する可能性がある表情癖(以下「推測表情癖」という)を示す。
プロセッサ32は、推測表情癖に関し、個人特性関連情報データベース(図7)を参照して、特定された表情癖名に関する情報に対応するアドバイス情報を特定する。
プロセッサ32は、判定リクエストデータに含まれる肌状態に関する情報に基づいて、ユーザの肌状態のタイプを特定する。
プロセッサ32は、肌状態関連情報データベース(図8)を参照して、特定された肌状態のタイプに関連付けられた肌状態IDを特定する。
プロセッサ32は、肌状態関連情報データベース(図8)を参照して、特定された肌状態IDに関連付けられた表情癖名に関する情報を特定する。プロセッサ32は、特定された表情癖名に関する情報のうち、ステップS300で特定されていない表情癖名に関する情報を特定する。この表情癖名に係る表情癖は、ユーザがステップS110の時点では有していないが、将来的に有する可能性がある表情癖(推測表情癖)を示す。
プロセッサ32は、推測表情癖に関し、肌状態関連情報データベース(図8)を参照して、特定された表情癖名に関する情報に対応するアドバイス情報を特定する。
After step S300, the server 30 performs facial expression estimation (S311).
Specifically, the processor 32 identifies the type of the user's personal characteristics based on the information regarding the personal characteristics included in the determination request data.
The processor 32 refers to the personal characteristic related information database (FIG. 7) to identify the personal characteristic ID associated with the identified personal characteristic type.
The processor 32 refers to the personal characteristic related information database (FIG. 7) and specifies information regarding the facial expression name associated with the specified personal characteristic ID. The processor 32 identifies information regarding the facial expression quirk names that have not been specified in step S300, from among the information regarding the identified facial expression quirk names. The facial expression habit related to this facial expression habit name indicates a facial expression habit that the user does not have at the time of step S110 but may have in the future (hereinafter referred to as "estimated facial expression habit").
Regarding the estimated facial expression habit, the processor 32 refers to the personal characteristics related information database (FIG. 7) and specifies advice information corresponding to the information regarding the specified facial expression habit name.
The processor 32 identifies the type of skin condition of the user based on the information regarding the skin condition included in the determination request data.
The processor 32 refers to the skin condition related information database (FIG. 8) and identifies the skin condition ID associated with the identified skin condition type.
The processor 32 refers to the skin condition related information database (FIG. 8) and specifies information regarding the facial expression name associated with the specified skin condition ID. The processor 32 identifies information regarding the facial expression quirk names that have not been specified in step S300, from among the information regarding the identified facial expression quirk names. The facial expression habit associated with this facial expression habit name indicates a facial expression habit (estimated facial habit) that the user does not have at the time of step S110 but may have in the future.
Regarding the estimated facial expression habit, the processor 32 refers to the skin condition related information database (FIG. 8) and specifies advice information corresponding to information regarding the specified facial expression habit name.

ステップS311の後、サーバ30は、判定レスポンス(S312)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS300で特定された表情癖名に関する情報
・ステップS300で特定されたアドバイス情報
・ステップS311で特定された推測表情癖の表情癖名に関する情報
・ステップS311で特定されたアドバイス情報
After step S311, the server 30 executes a determination response (S312).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
・Information regarding the facial expression habit name specified in step S300 ・Advice information specified in step S300 ・Information regarding the facial expression habit name of the guessed facial habit identified in step S311 ・Advice information specified in step S311

ステップS312の後、クライアント装置10は、判定結果の提示(S112)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P202(図10)をディスプレイに表示する。
After step S312, the client device 10 presents the determination result (S112).
Specifically, the processor 12 displays screen P202 (FIG. 10) on the display based on the determination response data.

画面P202は、表示オブジェクトA202a~A202bを含む。
表示オブジェクトA202aは、ステップS300で特定された表情癖名及び対応するアドバイス情報を含む。
表示オブジェクトA202bは、ステップS311で特定された推測表情癖の表情癖名及び対応するアドバイス情報を含む。アドバイス情報は、例えば、以下のうちの少なくとも1つであり得る。
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための化粧品に関する情報(例えば、製品名、塗布部位、塗布量、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容器具に関する情報(例えば、製品名、使用方法、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容施術に関する情報(例えば、施術の種類(マッサージ、エステ、ヨガ等)、やり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのエクササイズに関する情報(例えば、ユーザ自身で行う表情エクササイズのやり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのその他のアドバイス情報
変形例1によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。
Screen P202 includes display objects A202a to A202b.
The display object A202a includes the name of the facial expression specified in step S300 and the corresponding advice information.
The display object A202b includes the name of the estimated facial habit identified in step S311 and the corresponding advice information. The advice information may be, for example, at least one of the following.
・Information regarding cosmetics to address at least one of facial expressions and skin characteristics and facial features that may appear due to facial expressions (e.g., product name, application site, amount of application, product image, etc.)
・Information regarding beauty appliances for addressing at least one of facial expressions and skin characteristics and facial features that may appear as a result of facial expressions (e.g., product name, usage instructions, product images, etc.)
・Information regarding beauty treatments to address at least one of facial expressions and skin characteristics and facial features that may be affected by facial expressions (e.g. type of treatment (massage, beauty salon, yoga, etc.), method, etc.)
・Information about facial expressions and exercises to deal with at least one of the skin characteristics and facial features that may appear as a result of facial expressions (for example, how to perform facial expression exercises by the user)
・Other advice information for dealing with at least one of facial expression habits and skin characteristics and facial features that may appear under the influence of facial expression habits According to modification example 1, the user can understand the facial expressions that the user is likely to have in the future. You can learn about habits. Therefore, by taking measures based on advice information etc. before the facial expression habit actually appears on the user's face, the facial expression habit and at least one of the skin characteristics and facial features that may appear under the influence of the facial expression habit will appear. possibility can be reduced.

(5-2)変形例2
変形例2について説明する。変形例2は、ユーザ情報に基づいて表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する例である。
(5-2) Modification example 2
Modification 2 will be explained. Modification 2 is an example in which advice information for dealing with at least one of a facial expression and at least one of skin characteristics and facial features that may appear due to the influence of the facial expression is selected based on user information.

(5-2-1)表情癖情報データベース
変形例2の表情癖情報データベースについて説明する。図11は、変形例2の表情癖情報データベースのデータ構造を示す図である。
(5-2-1) Facial expression information database The facial expression information database of Modification 2 will be explained. FIG. 11 is a diagram showing the data structure of the facial expression habit information database of Modification 2.

図11の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「個人特性タイプ」フィールドと、「アドバイス」フィールドと、「表情癖名」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression information database shown in FIG. 11 stores facial expression information related to facial expression habits. The facial expression information database includes a "facial quirk ID" field, a "feature amount" field, a "personal characteristic type" field, an "advice" field, and a "facial quirk name" field. Each field is associated with each other.

「表情癖ID」フィールド、「特徴量」フィールド、及び、「表情癖名」フィールドは、図4の説明と同様である。 The "facial expression habit ID" field, the "feature amount" field, and the "facial expression habit name" field are the same as those described in FIG. 4.

「個人特性タイプ」フィールドには、個人特性のタイプに関する情報が格納される。 The "personal characteristic type" field stores information regarding the type of personal characteristic.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。1つの表情癖IDに対して複数のアドバイス情報が格納される。アドバイス情報は、個人特性のタイプに関する情報と関連付けられている。 The "advice" field stores advice information (for example, text or image data) for dealing with at least one of the corresponding facial expression and the skin characteristics and facial features that may appear under the influence of the facial expression. A plurality of pieces of advice information are stored for one facial expression habit ID. The advice information is associated with information regarding types of personal characteristics.

(5-2-2)情報処理
変形例2の情報処理について説明する。図12は、変形例2の表情癖判定処理のシーケンス図である。図13は、図12の情報処理において表示される画面例を示す図である。
(5-2-2) Information Processing Information processing in Modified Example 2 will be explained. FIG. 12 is a sequence diagram of facial expression habit determination processing according to modification 2. FIG. 13 is a diagram showing an example of a screen displayed in the information processing of FIG. 12.

図12に示すように、クライアント装置10は、判定条件の受付(S120)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 12, the client device 10 accepts the determination condition (S120).
Specifically, processor 12 displays screen P100 (FIG. 6) on the display.

ユーザは、図6と同様に、操作オブジェクトB100a、B100b及びB100cを操作する。これにより、表示オブジェクトA100a~A100cのそれぞれに対応するユーザの顔の動画像の動画像データが生成される。各動画像データには、対応する動き指示IDが関連づけられている。各動画像データは、記憶装置11に記憶される。 The user operates the operation objects B100a, B100b, and B100c similarly to FIG. 6. As a result, moving image data of a moving image of the user's face corresponding to each of the display objects A100a to A100c is generated. Each moving image data is associated with a corresponding motion instruction ID. Each moving image data is stored in the storage device 11.

プロセッサ12は、画面P301(図13)をディスプレイに表示する。 The processor 12 displays screen P301 (FIG. 13) on the display.

画面P301は、フィールドオブジェクトF301と、操作オブジェクトB301と、を含む。
フィールドオブジェクトF301は、個人特性に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。個人特性に関する情報は、例えば、ユーザが自己認識している個人特性のタイプに関する情報、個人特性を判定するアプリケーションによる判定結果に関する情報、又は、個人特性をサーバ30が判定するための所定の質問事項に対する回答に関する情報である。
操作オブジェクトB301は、生成された動画像データ及びフィールドオブジェクトF301に入力されたユーザ指示をサーバ30に送信するためのユーザ指示を受け付けるオブジェクトである。
Screen P301 includes a field object F301 and an operation object B301.
Field object F301 is an object that accepts user instructions for specifying information regarding personal characteristics. The information regarding personal characteristics is, for example, information regarding the type of personal characteristics that the user self-recognizes, information regarding the determination result by an application that determines personal characteristics, or predetermined questions for the server 30 to determine personal characteristics. This is information regarding the answer to.
The operation object B301 is an object that accepts a user instruction for transmitting the generated moving image data and the user instruction input into the field object F301 to the server 30.

ステップS120の後、クライアント装置10は、判定リクエスト(S121)を実行する。
具体的には、ユーザが、フィールドオブジェクトF201にユーザ指示を入力し、かつ、操作オブジェクトB301を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS120で記憶装置11に記憶された動画像データと動き指示IDの組合せ
・フィールドオブジェクトF301に指定された個人特性に関する情報
After step S120, the client device 10 executes a determination request (S121).
Specifically, when the user inputs a user instruction into the field object F201 and operates the operation object B301, the processor 12 transmits determination request data to the server 30.
The judgment request data includes the following information.
- Combination of the moving image data and movement instruction ID stored in the storage device 11 in step S120 - Information regarding the personal characteristics specified in the field object F301

ステップS121の後、サーバ30は、表情癖の特定(S320)を実行する。
具体的には、プロセッサ32は、表情癖情報データベース(図11)を参照して、図5と同様に、動画像データにおける顔の動きについて各表情癖に該当するか否かを判断する。
プロセッサ32は、表情癖情報データベース(図11)を参照して、該当すると判断した表情癖の表情癖名に関する情報を特定する。
After step S121, the server 30 identifies facial expression habits (S320).
Specifically, the processor 32 refers to the facial expression habit information database (FIG. 11), and similarly to FIG. 5, determines whether the facial movement in the video data corresponds to each facial expression habit.
The processor 32 refers to the facial expression information database (FIG. 11) and specifies information regarding the name of the facial expression determined to be applicable.

ステップS320の後、サーバ30は、アドバイス情報の特定(S321)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる個人特性に関する情報に基づいて、ユーザの個人特性のタイプを特定する。プロセッサ32は、表情癖情報データベース(図11)を参照して、S320で特定された表情癖名のレコードにおいて、特定された個人特性のタイプに関連付けられたアドバイス情報を特定する。
After step S320, the server 30 specifies advice information (S321).
Specifically, the processor 32 identifies the type of the user's personal characteristics based on the information regarding the personal characteristics included in the determination request data. The processor 32 refers to the facial expression habit information database (FIG. 11) and identifies advice information associated with the specified personal characteristic type in the record of the facial expression habit name specified in S320.

ステップS321の後、サーバ30は、判定レスポンス(S322)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS320で特定された表情癖名に関する情報
・ステップS321で特定されたアドバイス情報
After step S321, the server 30 executes a determination response (S322).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
・Information regarding the facial expression name specified in step S320 ・Advice information specified in step S321

ステップS322の後、クライアント装置10は、判定結果の提示(S122)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P302(図13)をディスプレイに表示する。
画面P302は、表示オブジェクトA302を含む。
表示オブジェクトA302は、表情癖名、及び、対応するアドバイス情報を含む。
変形例2によれば、ユーザは、ユーザ情報に基づいたアドバイス情報を得ることができる。例えば、同じ表情癖について、「1つのことを辛抱強く続ける」特性であるユーザに対しては「基礎化粧品Aを半年間毎日使用する」というアドバイス情報が提示される一方、「様々なことに挑戦する」特性であるユーザに対しては「美顔器Bとマッサージ法Cとを交互に1週間おきに3ヶ月間施す」というアドバイス情報が提示される。そのため、ユーザは、自身に適したアドバイス情報に従った対策をとることができる。
After step S322, the client device 10 presents the determination result (S122).
Specifically, the processor 12 displays screen P302 (FIG. 13) on the display based on the determination response data.
Screen P302 includes display object A302.
Display object A302 includes a facial expression name and corresponding advice information.
According to the second modification, the user can obtain advice information based on user information. For example, regarding the same facial expression, a user who has the characteristic of ``persisting with one thing'' will be presented with advice information such as ``Use basic cosmetics A every day for six months,'' while the other user will be presented with advice such as ``Use basic cosmetics A every day for six months.'''' characteristic, advice information such as ``apply facial beauty device B and massage method C alternately every other week for 3 months'' is presented to the user. Therefore, the user can take measures according to the advice information suitable for the user.

(5-3)変形例3
変形例3について説明する。変形例3は、ユーザの肌の状態の推測情報を提示する例である。
(5-3) Modification example 3
Modification 3 will be explained. Modification 3 is an example in which estimated information about the user's skin condition is presented.

(5-3-1)表情癖情報データベース
変形例3の表情癖情報データベースについて説明する。図14は、変形例3の表情癖情報データベースのデータ構造を示す図である。
(5-3-1) Facial expression information database The facial expression information database of Modification 3 will be explained. FIG. 14 is a diagram illustrating the data structure of the facial expression information database of Modification 3.

図14の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、「参照肌状態」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression information database shown in FIG. 14 stores facial expression information related to facial expressions. The facial expression information database includes a "facial quirk ID" field, a "feature amount" field, a "facial quirk name" field, an "advice" field, and a "reference skin condition" field. Each field is associated with each other.

「表情癖ID」フィールド、「特徴量」フィールド、「表情癖名」フィールド、及び、「アドバイス」フィールドは、図4の説明と同様である。 The "Facial expression habit ID" field, the "Feature value" field, the "Facial expression habit name" field, and the "Advice" field are the same as those described in FIG. 4.

「参照肌状態」フィールドには、そのレコードにおける表情癖を有する人物が備えていると推測される肌状態に関する情報(例えば、テキスト)が格納される。表情癖から推測される肌状態は、複数の人物から得られた統計データに基づいている。 The "reference skin condition" field stores information (for example, text) regarding the skin condition that is presumed to be possessed by the person who has the facial expression in the record. Skin conditions inferred from facial expressions are based on statistical data obtained from multiple people.

(5-3-2)情報処理
変形例3の情報処理について説明する。図15は、変形例3の表情癖判定処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(5-3-2) Information Processing Information processing of Modified Example 3 will be explained. FIG. 15 is a sequence diagram of facial expression habit determination processing according to modification 3. FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG. 15.

図15に示すように、クライアント装置10は、図5と同様に、判定条件の受付(S100)及び判定リクエスト(S101)を実行する。 As shown in FIG. 15, the client device 10 receives a determination condition (S100) and executes a determination request (S101), similarly to FIG.

ステップS101の後、サーバ30は、表情癖情報データベース(図14)を参照して、図5と同様に、表情癖の特定(S330)を実行する。 After step S101, the server 30 refers to the facial expression habit information database (FIG. 14) and executes the identification of facial expression habits (S330) in the same manner as in FIG.

ステップS330の後、サーバ30は、肌状態の推測(S331)を実行する。
具体的には、プロセッサ32は、表情癖情報データベース(図14)を参照して、ステップS330で特定された表情癖名に関する情報に関連付けられた参照肌状態に関する情報を、推測肌状態として特定する。
After step S330, the server 30 performs skin condition estimation (S331).
Specifically, the processor 32 refers to the facial expression habit information database (FIG. 14) and specifies, as the estimated skin condition, the information regarding the reference skin condition associated with the information regarding the facial expression habit name identified in step S330. .

ステップS331の後、サーバ30は、判定レスポンス(S332)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS330で特定された表情癖名に関する情報
・ステップS330で特定されたアドバイス情報
・ステップS331で特定された推測肌状態に関する情報
After step S331, the server 30 executes a determination response (S332).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
- Information regarding the facial expression name specified in step S330 - Advice information specified in step S330 - Information regarding the estimated skin condition specified in step S331

ステップS332の後、クライアント装置10は、判定結果の提示(S132)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P402(図16)をディスプレイに表示する。
After step S332, the client device 10 presents the determination result (S132).
Specifically, the processor 12 displays screen P402 (FIG. 16) on the display based on the determination response data.

画面P402は、表示オブジェクトA402を含む。
表示オブジェクトA402は、表情癖名、対応するアドバイス情報、及び、推測肌状態を含む。
変形例3によれば、ユーザは、推測される肌の状態を知ることができる。そのため、ユーザは、表情癖の原因となっている可能性がある肌の状態、又は、将来的な肌の状態を知ることができ、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処することができる。
Screen P402 includes display object A402.
Display object A402 includes a facial expression name, corresponding advice information, and estimated skin condition.
According to the third modification, the user can know the estimated skin condition. Therefore, the user can know the skin condition that may be the cause of the facial expression habit or the future skin condition, and more appropriately understand the facial expression habit and the skin characteristics that may appear due to the influence of the facial expression habit. and facial features.

(5-4)変形例4
変形例4について説明する。変形例4は、1つの動画像データで複数のメッセージ内容に対応する例である。
(5-4) Modification example 4
Modification 4 will be explained. Modification 4 is an example in which one moving image data corresponds to a plurality of message contents.

(5-4-1)情報処理
変形例4の情報処理について説明する。図17は、変形例4の情報処理において表示される画面例を示す図である。
(5-4-1) Information Processing Information processing of Modified Example 4 will be explained. FIG. 17 is a diagram showing an example of a screen displayed in the information processing of Modification 4.

図5に示すように、クライアント装置10は、判定条件の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P500(図17)をディスプレイに表示する。
As shown in FIG. 5, the client device 10 executes acceptance of determination conditions (S100).
Specifically, processor 12 displays screen P500 (FIG. 17) on the display.

画面P500は、表示オブジェクトA500a~A500bと、操作オブジェクトB500と、を含む。
表示オブジェクトA500aは、ユーザに対して顔の動きを促すメッセージを含む。
表示オブジェクトA500bは、クライアント装置10に接続されたカメラ15が撮影する動画像を含む。
操作オブジェクトB500は、動画像の撮影を実行するためのユーザ指示を受け付けるオブジェクトである。
Screen P500 includes display objects A500a to A500b and operation object B500.
Display object A500a includes a message urging the user to move his or her face.
The display object A500b includes a moving image captured by the camera 15 connected to the client device 10.
The operation object B500 is an object that accepts user instructions for shooting a moving image.

ユーザが操作オブジェクトB500を操作すると、プロセッサ12は、ステップS100(図5)において、操作オブジェクトB500の操作からn秒毎に表示オブジェクトA100に異なるメッセージ内容を表示する。
ユーザがメッセージ内容に合わせて顔の各部位を動かすと、プロセッサ12は、カメラ15が撮像した動画像データと、操作オブジェクトB100の操作からの経過時間nと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B500, the processor 12 displays different message contents on the display object A100 every n seconds after the operation of the operation object B500 in step S100 (FIG. 5).
When the user moves each part of the face in accordance with the content of the message, the processor 12 associates the moving image data captured by the camera 15 with the elapsed time n since the operation of the operation object B100 and stores them in the storage device 11. .

プロセッサ12は、画面P101(図6)をディスプレイに表示する。
ステップS100の後、クライアント装置10は、判定リクエスト(S101)を実行する。
具体的には、ユーザが、操作オブジェクトB101を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS100で記憶装置11に記憶された動画像データと経過時間nとの組合せ
The processor 12 displays screen P101 (FIG. 6) on the display.
After step S100, the client device 10 executes a determination request (S101).
Specifically, when the user operates the operation object B101, the processor 12 transmits determination request data to the server 30.
The judgment request data includes the following information.
- Combination of the moving image data stored in the storage device 11 in step S100 and the elapsed time n

ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、記憶装置31には、経過時間nと、メッセージ内容と、が関連付けて記憶されている。
プロセッサ32は、判定リクエストデータに含まれる動画像データと経過時間nの組合せに基づいて、当該動画像データに対応するメッセージ内容を特定する。
図5と同様に、プロセッサ32は、特徴量の比較を行い、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。
After step S101, the server 30 identifies facial expression habits (S300).
Specifically, the storage device 31 stores the elapsed time n and message content in association with each other.
The processor 32 identifies the message content corresponding to the moving image data based on the combination of the moving image data and the elapsed time n included in the determination request data.
Similarly to FIG. 5, the processor 32 compares the feature amounts and specifies information regarding the name of the facial expression habit determined to be applicable and corresponding advice information.

ステップS300の後、サーバ30は、図5と同様に、判定レスポンス(S301)を実行する。 After step S300, the server 30 executes a determination response (S301) similarly to FIG. 5.

ステップS301の後、クライアント装置10は、図5と同様に、判定結果の提示(S102)を実行する。 After step S301, the client device 10 executes presentation of the determination result (S102) similarly to FIG. 5.

変形例4によれば、1つの動画像データで複数のメッセージ内容に対応することできる。そのため、ユーザは、より簡単な操作で判定条件を指定することができる。 According to the fourth modification, one moving image data can correspond to a plurality of message contents. Therefore, the user can specify the determination conditions with a simpler operation.

(5-5)変形例5
変形例5について説明する。変形例5は、アドバイス情報がメッセージ内容によって異なる例である。
(5-5) Modification example 5
Modification 5 will be explained. Modification 5 is an example in which advice information differs depending on message content.

(5-5-1)表情癖情報データベース
変形例5の表情癖情報データベースについて説明する。図18は、変形例5の表情癖情報データベースのデータ構造を示す図である。
(5-5-1) Facial expression information database The facial expression information database of modification 5 will be explained. FIG. 18 is a diagram showing the data structure of the facial expression habit information database of modification 5.

図18の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。各フィールドは、互いに関連付けられている。
表情癖情報データベースは、動き指示IDに関連付けられている。
The facial expression information database shown in FIG. 18 stores facial expression information related to facial expressions. The facial expression information database includes a "facial quirk ID" field, a "feature amount" field, a "facial quirk name" field, and an "advice" field. Each field is associated with each other.
The facial expression information database is associated with the movement instruction ID.

「表情癖ID」フィールド、「特徴量」フィールド、及び、「表情癖名」フィールドは、図4の説明と同様である。 The "facial expression habit ID" field, the "feature amount" field, and the "facial expression habit name" field are the same as those described in FIG. 4.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。変形例5では、同じ表情癖でも動き指示IDが異なるとアドバイス情報も異なる。 The "advice" field stores advice information (for example, text or image data) for dealing with at least one of the corresponding facial expression and the skin characteristics and facial features that may appear as a result of the facial expression. In modification 5, even if the facial expressions are the same, the advice information will be different if the movement instruction ID is different.

(5-5-2)情報処理
変形例5の情報処理について説明する。図19は、変形例5の情報処理において表示される画面例を示す図である。
(5-5-2) Information Processing Information processing in Modified Example 5 will be described. FIG. 19 is a diagram illustrating an example of a screen displayed in information processing of modification 5.

クライアント装置10は、図5と同様に、判定条件の受付(S100)及び判定リクエスト(S101)を実行する。 The client device 10 receives a determination condition (S100) and executes a determination request (S101), as in FIG. 5.

ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、変形例5では、プロセッサ32は、判定リクエストデータに含まれる動き指示IDに関連付けられた表情癖情報データベース(図18)を参照して、各特徴量と、判定リクエストデータに含まれる動画像データから算出した特徴量とを比較し、動画像データにおける顔の動きについてその表情癖に該当するか否かを判断する。
プロセッサ32は、表情癖情報データベース(図18)を参照して、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。
After step S101, the server 30 identifies facial expression habits (S300).
Specifically, in Modification 5, the processor 32 refers to the facial expression information database (FIG. 18) associated with the movement instruction ID included in the determination request data, and determines each feature amount and the information included in the determination request data. It is compared with the feature amount calculated from the moving image data, and it is determined whether the facial movement in the moving image data corresponds to the facial expression.
The processor 32 refers to the facial expression habit information database (FIG. 18) and specifies information regarding the name of the facial expression habit determined to be applicable and corresponding advice information.

ステップS300の後、サーバ30は、図5と同様に、判定レスポンス(S301)を実行する。 After step S300, the server 30 executes a determination response (S301) similarly to FIG. 5.

ステップS301の後、クライアント装置10は、判定結果の提示(S102)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P602(図19)をディスプレイに表示する。
After step S301, the client device 10 presents the determination result (S102).
Specifically, the processor 12 displays screen P602 (FIG. 19) on the display based on the determination response data.

画面P602は、表示オブジェクトA602を含む。
表示オブジェクトA602は、表情癖名、及び、対応するアドバイス情報を含む。
Screen P602 includes display object A602.
Display object A602 includes a facial expression name and corresponding advice information.

変形例5によれば、メッセージ内容が考慮されたアドバイス情報が提示される。そのため、ユーザは、より的確なアドバイス情報を知ることができる。 According to modification 5, advice information that takes the message content into consideration is presented. Therefore, the user can know more accurate advice information.

(6)本実施形態の小括
本実施形態について小括する。
(6) Summary of this embodiment This embodiment will be summarized.

本実施形態の第1態様は、
ユーザの顔の動画像情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
動画像情報に基づいて、ユーザの顔の動きに関する動き情報を抽出する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
動き情報に基づいて、ユーザの顔の動きの癖を特定する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
The first aspect of this embodiment is
comprising means for acquiring moving image information of the user's face (for example, a processor 32 that executes the process of step S300),
comprising means (for example, a processor 32 that executes the process of step S300) for extracting movement information regarding the movement of the user's face based on the moving image information,
comprising means (for example, a processor 32 that executes the process of step S300) for identifying the user's facial movement habits based on the movement information;
It is an information processing device (for example, server 30).

第1態様によれば、ユーザの顔の動きの癖(表情癖)が判定される。これにより、ユーザが自身の表情癖を知るための結果を生成することができる。 According to the first aspect, the user's facial movement habits (facial expression habits) are determined. Thereby, it is possible to generate results that allow the user to know his or her own facial expression habits.

本実施形態の第2態様は、
特定された動きの癖に関する情報を提示する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備える、
情報処理装置である。
The second aspect of this embodiment is
comprising means for presenting information regarding the identified movement habit (for example, a processor 32 that executes the process of step S301);
It is an information processing device.

第2態様によれば、ユーザに表情癖を知るための結果が提示される。これにより、ユーザは、自身の表情癖を知ることができる。 According to the second aspect, results for knowing facial expression habits are presented to the user. This allows the user to know his own facial expressions.

本実施形態の第3態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、ユーザの顔の動きの癖を推測する手段(例えば、ステップS311の処理を実行するプロセッサ32)を備え、
推測された動きの癖に関する情報を提示する手段(例えば、ステップS312の処理を実行するプロセッサ32)を備える、
情報処理装置である。
The third aspect of this embodiment is
comprising means for acquiring user information regarding the user (for example, a processor 32 that executes the process of step S300),
comprising means (for example, a processor 32 that executes the process of step S311) for estimating the user's facial movement habits based on the user information,
comprising means (for example, processor 32 that executes the process of step S312) for presenting information regarding the estimated movement habit;
It is an information processing device.

第3態様によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。 According to the third aspect, the user can know facial expression habits that the user is likely to have in the future. Therefore, by taking measures based on advice information etc. before the facial expression habit actually appears on the user's face, the facial expression habit and at least one of the skin characteristics and facial features that may appear under the influence of the facial expression habit will appear. possibility can be reduced.

本実施形態の第4態様は、
ユーザ情報は、ユーザの個人特性、及び体調のうちの少なくとも1つに関する情報を含む、
情報処理装置である。
The fourth aspect of this embodiment is
The user information includes information regarding at least one of the user's personal characteristics and physical condition.
It is an information processing device.

第4態様によれば、ユーザは、個人特性、及び体調のうちの少なくとも1つと相関のある将来的に有する可能性がある表情癖を知ることができる。 According to the fourth aspect, the user can learn facial expressions that the user may have in the future that are correlated with at least one of personal characteristics and physical condition.

本実施形態の第5態様は、
ユーザ情報はユーザの肌又は顔の状態に関する情報を含む、
情報処理装置である。
The fifth aspect of this embodiment is
The user information includes information regarding the user's skin or facial condition.
It is an information processing device.

第5態様によれば、ユーザは、肌又は顔の状態と相関のある将来的に有する可能性がある表情癖を知ることができる。 According to the fifth aspect, the user can know facial expressions that the user may have in the future that are correlated with the condition of the skin or face.

本実施形態の第6態様は、
動きの癖に関する情報は、動きの癖及び動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、
情報処理装置である。
The sixth aspect of this embodiment is
The information regarding the movement habit includes advice information for dealing with at least one of the movement habit and the skin characteristics and facial features that may appear due to the influence of the movement habit.
It is an information processing device.

第6態様によれば、表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報が提示される。これにより、ユーザは、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための対策をとることができる。 According to the sixth aspect, advice information for dealing with at least one of facial expression habits and skin characteristics and facial features that may appear under the influence of facial expression habits is presented. Thereby, the user can take measures to more appropriately deal with facial expressions and at least one of the skin characteristics and facial features that may appear under the influence of facial expressions.

本実施形態の第7態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS320の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、動きの癖及び動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する手段(例えば、ステップS321の処理を実行するプロセッサ32)を備え、
選択されたアドバイス情報が提示される、
情報処理装置である。
The seventh aspect of this embodiment is
comprising means for acquiring user information regarding the user (for example, the processor 32 that executes the process of step S320),
Means for selecting, based on user information, advice information for dealing with at least one of a movement habit and a skin feature and a facial feature that may appear due to the influence of the movement habit (for example, executing the process of step S321) processor 32);
Selected advice information is presented,
It is an information processing device.

第7態様によれば、ユーザ情報に基づいたアドバイス情報を得ることができる。そのため、ユーザは、自身に適したアドバイス情報に従った対策をとることができる。 According to the seventh aspect, advice information based on user information can be obtained. Therefore, the user can take measures according to the advice information suitable for the user.

本実施形態の第8態様は、
動きの癖に関する情報は、ユーザの肌又は顔の状態の推測情報を含む、
情報処理装置である。
The eighth aspect of this embodiment is
The information regarding movement habits includes estimated information about the condition of the user's skin or face.
It is an information processing device.

第8態様によれば、ユーザは、推測される肌の状態を知ることができる。そのため、ユーザは、表情癖の原因となっている可能性がある肌の状態、又は、将来的な肌の状態を知ることができ、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処することができる。 According to the eighth aspect, the user can know the estimated skin condition. Therefore, the user can know the skin condition that may be the cause of the facial expression habit or the future skin condition, and more appropriately understand the facial expression habit and the skin characteristics that may appear due to the influence of the facial expression habit. and facial features.

本実施形態の第9態様は、
動画像情報を取得する手段は、ユーザに対して顔の動きを促すメッセージに応じた顔の動きの動画像情報を取得し、
メッセージに関する情報と動画像情報とを関連付けて記憶する手段を備える、
情報処理装置である。
The ninth aspect of this embodiment is
The means for acquiring moving image information acquires moving image information of facial movements in response to a message prompting the user to make facial movements;
comprising means for associating and storing information regarding the message and video information;
It is an information processing device.

第9態様によれば、メッセージ内容を考慮して表情癖が特定される。そのため、ユーザは、より正確な表情癖を知ることができる。また、メッセージ内容が考慮されたアドバイス情報が提示される。そのため、ユーザは、より的確なアドバイス情報を知ることができる。 According to the ninth aspect, facial expression habits are identified in consideration of message content. Therefore, the user can know more accurate facial expressions. Additionally, advice information is presented that takes the message content into consideration. Therefore, the user can know more accurate advice information.

本実施形態の第10態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、顔の動きの癖を推測する手段(例えば、ステップS311の処理を実行するプロセッサ32)を備え、
推測された動きの癖に関する情報を提示する手段(例えば、ステップS312の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
The tenth aspect of this embodiment is
comprising means for acquiring user information regarding the user (for example, a processor 32 that executes the process of step S300),
comprising means (for example, a processor 32 that executes the process of step S311) for estimating facial movement habits based on user information;
comprising means (for example, processor 32 that executes the process of step S312) for presenting information regarding the estimated movement habit;
It is an information processing device (for example, server 30).

第10態様によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。 According to the tenth aspect, the user can know facial expression habits that the user is likely to have in the future. Therefore, by taking measures based on advice information etc. before the facial expression habit actually appears on the user's face, the facial expression habit and at least one of the skin characteristics and facial features that may appear under the influence of the facial expression habit will appear. possibility can be reduced.

本実施形態の第11態様は、
コンピュータ(例えば、プロセッサ32)を、上記の各手段として機能させるためのプログラムである。
The eleventh aspect of this embodiment is
This is a program for causing a computer (for example, processor 32) to function as each of the above means.

(7)その他の変形例 (7) Other variations

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
1つの装置がネットワークを介さずに全ての情報処理を行ってもよい。
Each step of the above information processing can be executed by either the client device 10 or the server 30.
One device may perform all information processing without going through a network.

本実施形態では、ユーザに対して提示する顔の動きを促すメッセージに関する情報がテキストである例を示したが、本実施形態はこれに限られない。当該メッセージに関する情報は、動画像であってもよい。動画像は、例えば、様々な表情をする顔のアニメーション動画像であり、ユーザはその表情を真似しながら、画面P100における操作オブジェクトB100を操作し、ユーザの顔の動画像の動画像データが生成されてもよい。 In the present embodiment, an example has been shown in which the information regarding the message prompting the user to make facial movements is text, but the present embodiment is not limited to this. The information regarding the message may be a moving image. The moving image is, for example, an animated moving image of a face with various expressions, and the user operates the operation object B100 on the screen P100 while imitating the facial expressions, and the moving image data of the moving image of the user's face is generated. may be done.

本実施形態では、カメラ15から取得した動画像に基づいて表情癖を判定する例を示したが、本実施形態はこれに限られない。記憶装置11又は記憶装置31に記憶された動画像に基づいて表情癖を判定してもよい。 In the present embodiment, an example is shown in which facial expressions are determined based on a moving image acquired from the camera 15, but the present embodiment is not limited to this. Facial expression habits may be determined based on moving images stored in the storage device 11 or the storage device 31.

本実施形態では、画面P100にカメラ15が撮影する動画像を含む表示オブジェクトA100dが含まれる例を示したが、本実施形態はこれに限られない。画面P100に表示オブジェクトA100dは含まれなくてもよい。この場合、ユーザは顔の各部位を動かす際に自身の顔を一切見られないため、本来の表情になり易く、より正確に表情癖を判定することができる。 In the present embodiment, an example has been shown in which the screen P100 includes the display object A100d that includes a moving image captured by the camera 15, but the present embodiment is not limited to this. The display object A100d may not be included in the screen P100. In this case, since the user cannot see his or her own face at all when moving each part of the face, it is more likely that the user's original facial expression will appear, and facial expression habits can be determined more accurately.

本実施形態では、表情癖に関する情報として表情癖名及びアドバイス情報が提示される例を示したが、本実施形態はこれに限られない。提示される表情癖に関する情報は、例えば、表情癖名及びアドバイス情報の何れか一方であってもよい。 In this embodiment, an example is shown in which the name of facial expression and advice information are presented as information regarding facial expression, but this embodiment is not limited to this. The information regarding facial expressions that is presented may be, for example, either the name of facial expressions or advice information.

変形例1では、推測される表情癖に関する情報として表情癖名及びアドバイス情報が提示される例を示したが、本実施形態はこれに限られない。提示される表情癖に関する情報は、例えば、表情癖名及びアドバイス情報の何れか一方であってもよい。 In Modification 1, an example was shown in which the name of facial expression and advice information are presented as information regarding the estimated facial expression, but the present embodiment is not limited to this. The information regarding facial expressions that is presented may be, for example, either the name of facial expressions or advice information.

本実施形態及び変形例1において、提示される表情癖名は、状態に関する文脈(例えば、「眉上がり」)である例を示したが、本実施形態はこれに限られない。提示される表情癖名に関する情報は、例えば、状態と、程度、顔の部位、及び、シチュエーションのうちの少なくとも1つと、の組み合わせの文脈であってもよい。具体的には、状態と程度との組合せの文脈(例えば、「強度の眉上がり」)、状態と顔の部位との組合せの文脈(例えば、「右目の目尻シワ」)、並びに、状態とシチュエーションとの組合せの文脈(例えば、「笑顔を作る際に口角がほとんど上がっていない」)のうちの少なくとも1つであってもよい。また、提示される表情癖に関する情報は、メッセージ内容に関する情報を含んでいてもよい。 In the present embodiment and Modification 1, an example was shown in which the presented facial expression name is a context related to the state (for example, "raised eyebrows"), but the present embodiment is not limited to this. The information regarding the name of the facial expression that is presented may be, for example, the context of a combination of a state, a degree, a facial part, and at least one of a situation. Specifically, the context of the combination of condition and degree (for example, ``severe raised eyebrows''), the context of the combination of condition and facial part (for example, ``right eye wrinkles''), and the condition and situation. (for example, "the corners of the mouth are hardly raised when smiling"). Further, the information regarding facial expressions that is presented may include information regarding message content.

変形例1において、ユーザ情報がユーザの個人特性に関する情報及びユーザの肌の状態に関する情報である例を示したが、本実施形態はこれに限られない。ユーザ情報は、例えば、ユーザの個人特性、ユーザの体調、ユーザの肌の状態、ユーザの顔の状態、及び、ユーザの属性のうちの少なくとも1つであってもよい。「顔の状態」とは、人の顔の状態を指す。顔の状態は、例えば、顔の血流、顔の3D形状等に関する。「ユーザの属性」としては、例えば、年齢、性別、職業等が挙げられる。 In Modification 1, an example was shown in which the user information is information regarding the user's personal characteristics and information regarding the user's skin condition, but the present embodiment is not limited to this. The user information may be, for example, at least one of the user's personal characteristics, the user's physical condition, the user's skin condition, the user's facial condition, and the user's attributes. "Facial condition" refers to the condition of a person's face. The facial condition relates to, for example, facial blood flow, facial 3D shape, and the like. Examples of the "user attributes" include age, gender, and occupation.

変形例1では、肌状態はフィールドオブジェクトF201bに指定する例を示したが、本実施形態はこれに限られない。肌状態は、画面P100(図6)の操作オブジェクトB100a~B100cの操作により生成された動画像データから画像解析で特定されてもよい。 Although the first modification shows an example in which the skin condition is specified in the field object F201b, the present embodiment is not limited to this. The skin condition may be identified by image analysis from moving image data generated by operating the operation objects B100a to B100c on the screen P100 (FIG. 6).

変形例2では、ユーザ情報がユーザの個人特性に関する情報である例を示したが、本実施形態はこれに限られない。ユーザ情報は、例えば、ユーザの個人特性、ユーザの体調、ユーザの肌の状態、ユーザの顔の状態、及び、ユーザの属性のうちの少なくとも1つであってもよい。 Although the second modification shows an example in which the user information is information regarding the user's personal characteristics, the present embodiment is not limited to this. The user information may be, for example, at least one of the user's personal characteristics, the user's physical condition, the user's skin condition, the user's facial condition, and the user's attributes.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Moreover, various improvements and changes can be made to the embodiments described above without departing from the spirit of the present invention. Furthermore, the above embodiments and modifications can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1 : Information processing system 10 : Client device 11 : Storage device 12 : Processor 13 : Input/output interface 14 : Communication interface 15 : Camera 30 : Server 31 : Storage device 32 : Processor 33 : Input/output interface 34 : Communication interface

Claims (14)

ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備え、
前記ユーザに関するユーザ情報を取得する手段を備え、
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測する手段を備え、
推測された前記動きの癖に関する情報を提示する手段を備え、
前記ユーザ情報は、前記ユーザの肌又は顔の状態に関する情報を含む
情報処理装置。
Equipped with means for acquiring video image information of the user's face,
comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
comprising means for identifying facial movement habits of the user based on the movement information;
comprising means for acquiring user information regarding the user,
comprising means for estimating facial movement habits of the user based on the user information;
comprising means for presenting information regarding the estimated movement habit;
The user information includes information regarding the condition of the user's skin or face ,
Information processing device.
ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、
特定された前記動きの癖に関する情報を提示する手段を備え、
前記動きの癖に関する情報は、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む情報処理装置。
Equipped with means for acquiring video image information of the user's face,
comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
comprising means for identifying facial movement habits of the user based on the movement information;
comprising means for presenting information regarding the identified movement habit;
The information processing apparatus , wherein the information regarding the movement habit includes advice information for dealing with at least one of the movement habit and skin characteristics and facial features that may appear due to the movement habit.
ユーザの顔の動画像情報を取得する手段を備え、 Equipped with means for acquiring video image information of the user's face,
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、 comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、 comprising means for identifying facial movement habits of the user based on the movement information;
前記ユーザに関するユーザ情報を取得する手段を備え、 comprising means for acquiring user information regarding the user,
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測する手段を備え、 comprising means for estimating facial movement habits of the user based on the user information;
推測された前記動きの癖に関する情報を提示する手段を備え、 comprising means for presenting information regarding the estimated movement habit;
前記動きの癖に関する情報は、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、情報処理装置。 The information processing apparatus, wherein the information regarding the movement habit includes advice information for dealing with at least one of the movement habit and skin characteristics and facial features that may appear due to the movement habit.
前記ユーザ情報に基づいて、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する手段を備え、
前記選択されたアドバイス情報を提示する手段を備える
請求項に記載の情報処理装置。
comprising means for selecting, based on the user information, advice information for dealing with the movement habit and at least one of skin characteristics and facial features that may appear under the influence of the movement habit;
comprising means for presenting the selected advice information;
The information processing device according to claim 3 .
ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備え、
特定された前記動きの癖に関する情報を提示する手段を備え、
前記動きの癖に関する情報は、前記ユーザの肌又は顔の状態の推測情報を含む
情報処理装置。
Equipped with means for acquiring video image information of the user's face,
comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
comprising means for identifying facial movement habits of the user based on the movement information;
comprising means for presenting information regarding the identified movement habit;
The information regarding the movement habit includes estimated information about the condition of the user's skin or face .
Information processing device.
ユーザの顔の動画像情報を取得する手段を備え、 Equipped with means for acquiring video image information of the user's face,
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、 comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備え、 comprising means for identifying facial movement habits of the user based on the movement information;
前記ユーザに関するユーザ情報を取得する手段を備え、 comprising means for acquiring user information regarding the user,
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測する手段を備え、 comprising means for estimating facial movement habits of the user based on the user information;
推測された前記動きの癖に関する情報を提示する手段を備え、 comprising means for presenting information regarding the estimated movement habit;
前記動きの癖に関する情報は、前記ユーザの肌又は顔の状態の推測情報を含む、 The information regarding the movement habit includes estimated information about the condition of the user's skin or face.
情報処理装置。Information processing device.
ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備え、
前記動画像情報を取得する手段は、前記ユーザに対して顔の動きを促すメッセージに応じた顔の動きの動画像情報を取得し、
前記メッセージに関する情報と前記動画像情報とを関連付けて記憶する手段を備える
情報処理装置。
Equipped with means for acquiring video image information of the user's face,
comprising means for extracting movement information regarding the movement of the user's face based on the moving image information,
comprising means for identifying facial movement habits of the user based on the movement information;
The means for acquiring moving image information acquires moving image information of facial movements in response to a message urging the user to move his/her face,
comprising means for storing information related to the message and the video information in association with each other ;
Information processing device.
コンピュータを、請求項1~請求項7の何れかに記載の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means according to any one of claims 1 to 7. コンピュータが、 The computer is
ユーザの顔の動画像情報を取得するステップを実行し、 performing the step of obtaining video information of the user's face;
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出するステップを実行し、 Executing the step of extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定するステップを実行し、 identifying facial movement habits of the user based on the movement information;
前記ユーザに関するユーザ情報を取得するステップを実行し、 performing the step of obtaining user information regarding the user;
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測するステップを実行し、 performing a step of estimating facial movement habits of the user based on the user information;
推測された前記動きの癖に関する情報を提示するステップを実行し、 presenting information regarding the inferred movement habit;
前記ユーザ情報は、前記ユーザの肌又は顔の状態に関する情報を含む、 The user information includes information regarding the condition of the user's skin or face,
情報処理方法。Information processing method.
コンピュータが、 The computer is
ユーザの顔の動画像情報を取得するステップを実行し、 performing the step of obtaining video information of the user's face;
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出するステップを実行し、 Executing the step of extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定するステップを実行しる、 identifying facial movement habits of the user based on the movement information;
特定された前記動きの癖に関する情報を提示するステップを実行し、 presenting information regarding the identified movement habit;
前記動きの癖に関する情報は、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、情報処理方法。 The information processing method, wherein the information regarding the movement habit includes advice information for dealing with at least one of the movement habit and skin characteristics and facial features that may appear under the influence of the movement habit.
コンピュータが、 The computer is
ユーザの顔の動画像情報を取得するステップを実行し、 performing the step of obtaining video information of the user's face;
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出するステップを実行し、 Executing the step of extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定するステップを実行しる、 identifying facial movement habits of the user based on the movement information;
前記ユーザに関するユーザ情報を取得するステップを実行し、 performing the step of obtaining user information regarding the user;
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測するステップを実行し、 performing a step of estimating facial movement habits of the user based on the user information;
推測された前記動きの癖に関する情報を提示するステップを実行し、 presenting information regarding the inferred movement habit;
前記動きの癖に関する情報は、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、情報処理方法。 The information processing method, wherein the information regarding the movement habit includes advice information for dealing with at least one of the movement habit and skin characteristics and facial features that may appear under the influence of the movement habit.
コンピュータが、 The computer is
ユーザの顔の動画像情報を取得するステップを実行し、 performing the step of obtaining video information of the user's face;
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出するステップを実行し、 Executing the step of extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定するステップを実行し、 identifying facial movement habits of the user based on the movement information;
特定された前記動きの癖に関する情報を提示するステップを実行し、 presenting information regarding the identified movement habit;
前記動きの癖に関する情報は、前記ユーザの肌又は顔の状態の推測情報を含む、 The information regarding the movement habit includes estimated information about the condition of the user's skin or face.
情報処理方法。Information processing method.
コンピュータが、 The computer is
ユーザの顔の動画像情報を取得するステップを実行し、 performing the step of obtaining video information of the user's face;
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出するステップを実行し、 Executing the step of extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定するステップを実行し、 identifying facial movement habits of the user based on the movement information;
前記ユーザに関するユーザ情報を取得するステップを実行し、 performing the step of obtaining user information regarding the user;
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測するステップを実行し、 performing a step of estimating facial movement habits of the user based on the user information;
推測された前記動きの癖に関する情報を提示するステップを実行し、 presenting information regarding the inferred movement habit;
前記動きの癖に関する情報は、前記ユーザの肌又は顔の状態の推測情報を含む、 The information regarding the movement habit includes estimated information about the condition of the user's skin or face.
情報処理方法。Information processing method.
コンピュータが、 The computer is
ユーザの顔の動画像情報を取得するステップを実行し、 performing the step of obtaining video information of the user's face;
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出するステップを実行し、 Executing the step of extracting movement information regarding the movement of the user's face based on the moving image information,
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定するステップを実行し、 identifying facial movement habits of the user based on the movement information;
前記動画像情報を取得する手段は、前記ユーザに対して顔の動きを促すメッセージに応じた顔の動きの動画像情報を取得し、 The means for acquiring moving image information acquires moving image information of facial movements in response to a message urging the user to move his/her face,
前記メッセージに関する情報と前記動画像情報とを関連付けて記憶するステップを実行しる、 executing a step of storing information related to the message and the video information in association with each other;
情報処理方法。Information processing method.
JP2020559812A 2018-12-07 2019-11-05 Information processing device, program and information processing method Active JP7406502B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018230053 2018-12-07
JP2018230053 2018-12-07
PCT/JP2019/043304 WO2020116069A1 (en) 2018-12-07 2019-11-05 Information processing device and program

Publications (2)

Publication Number Publication Date
JPWO2020116069A1 JPWO2020116069A1 (en) 2021-10-21
JP7406502B2 true JP7406502B2 (en) 2023-12-27

Family

ID=70973607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559812A Active JP7406502B2 (en) 2018-12-07 2019-11-05 Information processing device, program and information processing method

Country Status (2)

Country Link
JP (1) JP7406502B2 (en)
WO (1) WO2020116069A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057965A1 (en) * 2022-09-15 2024-03-21 ソニーグループ株式会社 Information processing device, information processing method, and information analysis system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264785A (en) 2006-03-27 2007-10-11 Toyota Motor Corp Drowsiness detection apparatus
JP2012070222A (en) 2010-09-24 2012-04-05 Nec Casio Mobile Communications Ltd Imaging device, imaging method, and imaging program
JP2015064823A (en) 2013-09-26 2015-04-09 ポーラ化成工業株式会社 Cosmetic evaluation method, and facial expression wrinkle quantitation method
WO2016076140A1 (en) 2014-11-14 2016-05-19 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264785A (en) 2006-03-27 2007-10-11 Toyota Motor Corp Drowsiness detection apparatus
JP2012070222A (en) 2010-09-24 2012-04-05 Nec Casio Mobile Communications Ltd Imaging device, imaging method, and imaging program
JP2015064823A (en) 2013-09-26 2015-04-09 ポーラ化成工業株式会社 Cosmetic evaluation method, and facial expression wrinkle quantitation method
WO2016076140A1 (en) 2014-11-14 2016-05-19 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JPWO2020116069A1 (en) 2021-10-21
WO2020116069A1 (en) 2020-06-11

Similar Documents

Publication Publication Date Title
JP5190560B2 (en) Content output apparatus, content output method, content output program, and recording medium on which content output program is recorded
US20190196576A1 (en) Virtual reality device and a virtual reality server
JP2006048729A (en) Methods for evaluating degree of typological characteristics of body
US10559102B2 (en) Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program
WO2011045422A1 (en) Method and system for measuring emotional probabilities of a facial image
US20210097730A1 (en) Face Image Generation With Pose And Expression Control
CN116051115A (en) Face-brushing payment prompting method, device and equipment
WO2015122195A1 (en) Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, program, and program recording medium
WO2021261188A1 (en) Avatar generation method, program, avatar generation system, and avatar display method
Israel et al. Presenting your products in virtual reality: do not underestimate cybersickness
JP7423994B2 (en) Recommendation device and recommendation method
JP7406502B2 (en) Information processing device, program and information processing method
JP7278972B2 (en) Information processing device, information processing system, information processing method, and program for evaluating monitor reaction to merchandise using facial expression analysis technology
JP2020067720A (en) Personal attribute estimation system, and information processing apparatus and information processing method using the same
JP6970641B2 (en) Emotion Guessing Method, Emotion Guessing Device and Program
JP7253325B2 (en) Information processing device, program, and information processing method
JP2019028691A (en) Information output system, information output program, and information output method, relating to care for skin conditions
JP2018190176A (en) Image display device, skin-condition support system, image display program, and image display method
WO2020261531A1 (en) Information processing device, method for generating learned model of make-up simulation, method for realizing make-up simulation, and program
JP6320844B2 (en) Apparatus, program, and method for estimating emotion based on degree of influence of parts
CN115668279A (en) Oral care based digital imaging system and method for determining perceived appeal of facial image portions
Ortuño et al. Neurometrics applied to banknote and security features design
JP6659011B2 (en) Search system, data collection device and search program
WO2023187866A1 (en) Product search device, product search method, and recording medium
WO2020170845A1 (en) Information processing device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231215

R150 Certificate of patent or registration of utility model

Ref document number: 7406502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150