JPWO2020116069A1 - Information processing equipment and programs - Google Patents

Information processing equipment and programs Download PDF

Info

Publication number
JPWO2020116069A1
JPWO2020116069A1 JP2020559812A JP2020559812A JPWO2020116069A1 JP WO2020116069 A1 JPWO2020116069 A1 JP WO2020116069A1 JP 2020559812 A JP2020559812 A JP 2020559812A JP 2020559812 A JP2020559812 A JP 2020559812A JP WO2020116069 A1 JPWO2020116069 A1 JP WO2020116069A1
Authority
JP
Japan
Prior art keywords
information
user
facial expression
habit
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020559812A
Other languages
Japanese (ja)
Other versions
JP7406502B2 (en
Inventor
寛子 川添
文香 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Original Assignee
Shiseido Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd filed Critical Shiseido Co Ltd
Publication of JPWO2020116069A1 publication Critical patent/JPWO2020116069A1/en
Application granted granted Critical
Publication of JP7406502B2 publication Critical patent/JP7406502B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

情報処理装置は、ユーザの顔の動画像情報を取得する手段と、前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段と、前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段と、を備える。 The information processing device includes means for acquiring moving image information of the user's face, means for extracting motion information related to the movement of the user's face based on the moving image information, and the user based on the motion information. It is provided with a means for identifying the habit of facial movement.

Description

本発明は、情報処理装置、及び、プログラムに関する。 The present invention relates to an information processing device and a program.

一般に、他人に対する印象を決定付ける要因の1つとして、顔の表情が挙げられる。例えば、眉をひそめる表情は、他人に対してネガティブな印象を与える。一方で、生活習慣などに起因して表情癖が生じることがある。例えば、パソコンを長時間使用する人は、無意識的に眉をひそめる表情癖ができ得る。この表情癖を有する人は、ポジティブな感情を持っていたとしても、意図せずに他人に対してネガティブな印象を与える。また、長年にわたる表情癖は、シワ又はたるみ等の肌特徴の表れの一因となり得る。
しかし、人は通常、自身の顔を鏡で見る際には表情を作っていることが多いため、本来の表情癖を知らない。近年、美容に関する関心が高まり、表情癖及び表情癖の影響で表れ得る肌特徴等を改善したいというニーズが高まっている。そのためには、まず、自身の表情癖を知ることが必要である。
In general, facial expression is one of the factors that determine the impression of others. For example, a frowning expression gives a negative impression to others. On the other hand, facial expression habits may occur due to lifestyle habits. For example, a person who uses a personal computer for a long time may have a facial expression habit of unconsciously frowning. People with this facial habit unintentionally give a negative impression to others, even if they have positive emotions. In addition, facial expression habits over many years can contribute to the appearance of skin characteristics such as wrinkles or sagging.
However, people usually do not know their original facial habits because they often make facial expressions when looking at their faces in the mirror. In recent years, interest in cosmetology has increased, and there has been an increasing need for facial habits and the need to improve skin characteristics that may appear due to the effects of facial habits. For that purpose, it is first necessary to know one's facial expression habits.

人の顔の部位の動きを分析する技術として、例えば、特開2008−071179号公報に記載のものがある。特開2008−071179号公報では、時系列的に連続して撮影した複数の画像から得られた人の顔における各部位の状態を示す情報が、実在する人の顔における各部位の動きとして認められるか否かを、登録されている各部位の動きパターンに基づいて判定することが記載されている。 As a technique for analyzing the movement of a part of a human face, for example, there is one described in Japanese Patent Application Laid-Open No. 2008-071179. In Japanese Unexamined Patent Publication No. 2008-071179, information indicating the state of each part of a human face obtained from a plurality of images taken continuously in time series is recognized as the movement of each part of an existing human face. It is described that it is determined based on the movement pattern of each registered part.

特開2008−071179号公報では、顔画像における対象人物の顔の部位の動きが人らしい自然な動きに当てはまっているか否かを判定して、その顔画像の人物が実在する人か否かを判定するものであるため、対象人物の表情癖は判定されない。 In Japanese Unexamined Patent Publication No. 2008-071179, it is determined whether or not the movement of the facial part of the target person in the face image corresponds to the natural human-like movement, and whether or not the person in the face image actually exists. Since it is a judgment, the facial expression habit of the target person is not judged.

本発明の目的は、ユーザの表情癖を判定することである。 An object of the present invention is to determine a user's facial expression habit.

本発明の一態様は、
ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、
情報処理装置である。
One aspect of the present invention is
Equipped with a means to acquire moving image information of the user's face
A means for extracting motion information related to the movement of the user's face based on the moving image information is provided.
A means for identifying the movement habit of the user's face based on the movement information is provided.
It is an information processing device.

本発明によれば、ユーザの表情癖を判定することができる。 According to the present invention, the facial expression habit of the user can be determined.

本実施形態の情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system of this embodiment. 本実施形態の概要の説明図である。It is explanatory drawing of the outline of this embodiment. 本実施形態の動き指示情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the motion instruction information database of this embodiment. 本実施形態の表情癖情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the facial expression habit information database of this embodiment. 本実施形態の表情癖判定処理のシーケンス図である。It is a sequence diagram of the facial expression habit determination process of this embodiment. 図5の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 変形例1の個人特性関連情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the personal characteristic-related information database of the modification 1. 変形例1の肌状態関連情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the skin condition-related information database of the modification 1. 変形例1の表情癖判定処理のシーケンス図である。It is a sequence diagram of the facial expression habit determination process of the modification 1. 図9の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 変形例2の表情癖情報データベースのデータ構造を示す図であるIt is a figure which shows the data structure of the facial expression habit information database of the modification 2. 変形例2の表情癖判定処理のシーケンス図である。It is a sequence diagram of the facial expression habit determination process of the modification 2. 図12の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 変形例3の表情癖情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the facial expression habit information database of the modification 3. 変形例3の表情癖判定処理のシーケンス図である。It is a sequence diagram of the facial expression habit determination process of the modification 3. 図15の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example displayed in the information processing of FIG. 変形例4の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example which is displayed in the information processing of the modification 4. 変形例5の表情癖情報データベースのデータ構造を示す図である。It is a figure which shows the data structure of the facial expression habit information database of the modification 5. 変形例5の情報処理において表示される画面例を示す図である。It is a figure which shows the screen example which is displayed in the information processing of the modification 5.

以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.

(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。
(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing a configuration of an information processing system of the present embodiment.

図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。
As shown in FIG. 1, the information processing system 1 includes a client device 10 and a server 30.
The client device 10 and the server 30 are connected via a network (for example, the Internet or an intranet) NW.

クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。 The client device 10 is an example of an information processing device that transmits a request to the server 30. The client device 10 is, for example, a smartphone, a tablet terminal, or a personal computer.

サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。 The server 30 is an example of an information processing device that provides the client device 10 with a response in response to a request transmitted from the client device 10. The server 30 is, for example, a web server.

(1−1)クライアント装置の構成
クライアント装置10の構成について説明する。
(1-1) Configuration of Client Device The configuration of the client device 10 will be described.

図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、を備える。 As shown in FIG. 1, the client device 10 includes a storage device 11, a processor 12, an input / output interface 13, a communication interface 14, and a camera 15.

記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 11 is configured to store programs and data. The storage device 11 is, for example, a combination of a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
The program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)

プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。 The processor 12 is configured to realize the function of the client device 10 by activating the program stored in the storage device 11. The processor 12 is an example of a computer.

入出力インタフェース13は、カメラ15に接続される。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 13 is connected to the camera 15.
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the client device 10 and output information to an output device connected to the client device 10.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。 The communication interface 14 is configured to control communication between the client device 10 and the server 30.

カメラ15は、動画像(例えば、ユーザの顔の動画像)を撮像するように構成される。 The camera 15 is configured to capture a moving image (for example, a moving image of a user's face).

(1−2)サーバの構成
サーバ30の構成について説明する。
(1-2) Server Configuration The configuration of the server 30 will be described.

図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。 As shown in FIG. 1, the server 30 includes a storage device 31, a processor 32, an input / output interface 33, and a communication interface 34.

記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。 The storage device 31 is configured to store programs and data. The storage device 31 is, for example, a combination of a ROM, a RAM, and a storage (for example, a flash memory or a hard disk).

プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
The program includes, for example, the following program.
・ OS program ・ Application program that executes information processing

データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
The data includes, for example, the following data.
・ Database referred to in information processing ・ Execution result of information processing

プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。 The processor 32 is configured to realize the function of the server 30 by activating the program stored in the storage device 31. The processor 32 is an example of a computer.

入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。
The input / output interface 33 is configured to acquire a user's instruction from an input device connected to the server 30 and output information to an output device connected to the server 30.
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.

通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。 The communication interface 34 is configured to control communication between the server 30 and the client device 10.

(2)実施形態の概要
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。
(2) Outline of the Embodiment The outline of the present embodiment will be described. FIG. 2 is an explanatory diagram of an outline of the present embodiment.

図2に示すように、サーバ30は、クライアント装置10を介して、ユーザの顔の動画像情報を取得する。
サーバ30は、ユーザの顔の動画像情報に基づいて、ユーザの顔の動きに関する動き情報を抽出する。
サーバ30は、ユーザの顔の動きに関する動き情報に基づいて、ユーザの顔の動きの癖を特定する。
As shown in FIG. 2, the server 30 acquires the moving image information of the user's face via the client device 10.
The server 30 extracts motion information related to the movement of the user's face based on the motion image information of the user's face.
The server 30 identifies the habit of the user's face movement based on the movement information regarding the user's face movement.

本実施形態によれば、ユーザの表情癖が判定される。これにより、ユーザは、自身の表情癖を知ることができる。 According to this embodiment, the facial expression habit of the user is determined. As a result, the user can know his / her facial expression habit.

なお、本実施形態において、「顔の動きの癖」と「表情癖」とは同義であり、交換可能に使用される。 In the present embodiment, "face movement habit" and "facial expression habit" are synonymous and are used interchangeably.

(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。
(3) Database The database of the present embodiment will be described. The following database is stored in the storage device 31.

(3−1)動き指示情報データベース
本実施形態の動き指示情報データベースについて説明する。図3は、本実施形態の動き指示情報データベースのデータ構造を示す図である。
(3-1) Motion instruction information database The motion instruction information database of the present embodiment will be described. FIG. 3 is a diagram showing a data structure of the motion instruction information database of the present embodiment.

図3の動き指示情報データベースには、ユーザに対して提示する顔の動きを促すメッセージに関する動き指示情報が格納される。動き指示情報データベースは、「動き指示ID」フィールドと、「メッセージ内容」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The movement instruction information database of FIG. 3 stores movement instruction information related to a message prompting the movement of the face presented to the user. The motion instruction information database includes a "motion instruction ID" field and a "message content" field. Each field is associated with each other.

「動き指示ID」フィールドには、動き指示IDが格納される。動き指示IDは、動き指示を識別する動き指示識別情報の一例である。 A movement instruction ID is stored in the "movement instruction ID" field. The movement instruction ID is an example of the movement instruction identification information for identifying the movement instruction.

「メッセージ内容」フィールドには、ユーザに対して提示する顔の動きを促すメッセージに関する情報(例えば、テキスト)が格納される。なお、本実施形態では、説明を単純化するために、3つのレコードが格納されているものとする。 The "message content" field stores information (for example, text) about a message prompting the user to move the face. In this embodiment, it is assumed that three records are stored in order to simplify the explanation.

(3−2)表情癖情報データベース
本実施形態の表情癖情報データベースについて説明する。図4は、本実施形態の表情癖情報データベースのデータ構造を示す図である。
(3-2) Facial expression habit information database The facial expression habit information database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the facial expression habit information database of the present embodiment.

図4の表情癖情報データベースには、人の顔の動きの癖(以下「表情癖」という)に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression habit information database of FIG. 4 stores facial expression habit information related to the habit of movement of a person's face (hereinafter referred to as "facial expression habit"). The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "facial expression habit name" field, and an "advice" field. Each field is associated with each other.

「表情癖ID」フィールドには、表情癖IDが格納される。表情癖IDは、表情癖を識別する表情癖識別情報の一例である。 The facial expression habit ID is stored in the "facial expression habit ID" field. The facial expression habit ID is an example of facial expression habit identification information for identifying facial expression habits.

「特徴量」フィールドには、対応する表情癖についての顔の動画像における顔の各部位の特徴量に関する情報が格納される。特徴量は、例えば、顔の各部位の特徴点における変化量(例えば、顔の各部位の特徴点における相対的な位置の変化量(例えば、動きベクトル)及び顔の各部位の特徴点における色味の変化量のうちの少なくとも1つ)で示される。特徴量は、複数の人物から得られた顔の動画像に基づいてモデル化したものである。「特徴量」フィールドは、複数のサブフィールド(各「動き指示ID」フィールド)を含む。同じ表情癖でも動き指示IDが異なると特徴量も異なる。 The "feature amount" field stores information about the feature amount of each part of the face in the moving image of the face for the corresponding facial expression habit. The feature amount is, for example, the amount of change at the feature point of each part of the face (for example, the amount of change in the relative position at the feature point of each part of the face (for example, motion vector) and the color at the feature point of each part of the face). It is indicated by at least one of the changes in taste). The feature amount is modeled based on moving images of faces obtained from a plurality of people. The "feature amount" field includes a plurality of subfields (each "movement instruction ID" field). Even with the same facial expression habit, if the movement instruction ID is different, the feature amount is also different.

「表情癖名」フィールドには、表情癖の名称(以下「表情癖名」という)に関する情報(例えば、テキスト)が格納される。 In the "facial expression habit name" field, information (for example, text) regarding the name of the facial expression habit (hereinafter referred to as "facial expression habit name") is stored.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。表情癖の影響で表れ得る肌特徴は、例えば、シワ、たるみ、及びくすみのうちの少なくとも1つである。表情癖の影響で表れ得る顔特徴は、例えば、表情筋の変化である。なお、「対処する」とは、例えば、改善する、予防する、進行を抑止する、又は進行を緩やかにすることをいう。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits. The skin feature that can be manifested by the effects of facial habits is, for example, at least one of wrinkles, sagging, and dullness. Facial features that can appear under the influence of facial habits are, for example, changes in facial muscles. In addition, "to deal with" means, for example, improvement, prevention, restraint of progress, or slowing of progress.

(4)情報処理
本実施形態の情報処理について説明する。図5は、本実施形態の表情癖判定処理のシーケンス図である。図6は、図5の情報処理において表示される画面例を示す図である。
(4) Information processing The information processing of the present embodiment will be described. FIG. 5 is a sequence diagram of the facial expression habit determination process of the present embodiment. FIG. 6 is a diagram showing an example of a screen displayed in the information processing of FIG.

図5に示すように、クライアント装置10は、判定条件の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 5, the client device 10 executes the reception of the determination condition (S100).
Specifically, the processor 12 displays the screen P100 (FIG. 6) on the display.

画面P100は、表示オブジェクトA100a〜A100dと、操作オブジェクトB100a〜B100cと、を含む。
表示オブジェクトA100a〜A100cは、ユーザに対して顔の動きを促すメッセージを含む。
表示オブジェクトA100dは、クライアント装置10に接続されたカメラ15が撮影する動画像を含む。
操作オブジェクトB100a〜B100cは、動画像の撮影を実行するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB100a〜B100cは、それぞれ、表示オブジェクトA100a〜A100cと対応している。操作オブジェクトB100a〜B100cには、対応する動き指示IDが割り当てられている。
The screen P100 includes display objects A100a to A100d and operation objects B100a to B100c.
The display objects A100a to A100c include a message prompting the user to move his / her face.
The display object A100d includes a moving image taken by the camera 15 connected to the client device 10.
The operation objects B100a to B100c are objects that receive user instructions for executing the shooting of moving images. The operation objects B100a to B100c correspond to the display objects A100a to A100c, respectively. Corresponding movement instruction IDs are assigned to the operation objects B100a to B100c.

ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100aを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100aに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100aを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100aに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100aに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B100a while pointing the camera 15 at his / her face, the processor 12 generates the moving image data of the moving image included in the display object A100d. Specifically, the user operates the operation object B100a while moving each part of the face according to the message content displayed on the display object A100a.
The processor 12 includes moving image data of a moving image captured by the camera 15 (that is, a moving image of the user's face in response to a message displayed on the display object A100a), and a movement instruction ID assigned to the operation object B100a. , Are associated with each other and stored in the storage device 11.

ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100bを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100bに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100bを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100bに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100bに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B100b while pointing the camera 15 at his / her face, the processor 12 generates the moving image data of the moving image included in the display object A100d. Specifically, the user operates the operation object B100b while moving each part of the face according to the message content displayed on the display object A100b.
The processor 12 includes moving image data of a moving image captured by the camera 15 (that is, a moving image of the user's face in response to a message displayed on the display object A100b), and a movement instruction ID assigned to the operation object B100b. , Are associated with each other and stored in the storage device 11.

ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100cを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100cに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100cを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100cに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100cに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B100c while pointing the camera 15 at his / her face, the processor 12 generates the moving image data of the moving image included in the display object A100d. Specifically, the user operates the operation object B100c while moving each part of the face according to the message content displayed on the display object A100c.
The processor 12 includes moving image data of a moving image captured by the camera 15 (that is, a moving image of the user's face in response to a message displayed on the display object A100c), and a movement instruction ID assigned to the operation object B100c. , Are associated with each other and stored in the storage device 11.

プロセッサ12は、画面P101(図6)をディスプレイに表示する。 The processor 12 displays the screen P101 (FIG. 6) on the display.

画面P101は、表示オブジェクトA101と、操作オブジェクトB101と、を含む。
表示オブジェクトA101は、ユーザに対して動画像の撮影が完了した旨を知らせるメッセージを含む。
操作オブジェクトB101は、生成された動画像データの送信を実行するためのユーザ指示を受け付けるオブジェクトである。
The screen P101 includes a display object A101 and an operation object B101.
The display object A101 includes a message notifying the user that the shooting of the moving image is completed.
The operation object B101 is an object that receives a user instruction for executing the transmission of the generated moving image data.

ステップS100の後、クライアント装置10は、判定リクエスト(S101)を実行する。
具体的には、ユーザが、操作オブジェクトB101を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS100で記憶装置11に記憶された動画像データと動き指示IDの組合せ
After step S100, the client device 10 executes the determination request (S101).
Specifically, when the user operates the operation object B101, the processor 12 transmits the determination request data to the server 30.
The judgment request data includes the following information.
A combination of the moving image data stored in the storage device 11 in step S100 and the movement instruction ID.

ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる動画像データから顔の各部位の特徴量を算出する。
プロセッサ32は、表情癖情報データベース(図4)を参照して、判定リクエストデータに含まれる動き指示IDに対応する各特徴量と、判定リクエストデータに含まれる動画像データから算出した特徴量とを比較し、動画像データにおける顔の動きについてその表情癖に該当するか否かを判断する。これを各表情癖について行う。例えば、動き指示ID「MES001」に関連付けられた動画像データについては、動き指示ID「MES001」に関連付けられた「特徴量」フィールドの各特徴量と比較する。
プロセッサ32は、表情癖情報データベース(図4)を参照して、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。
After step S101, the server 30 executes the identification of facial expression habits (S300).
Specifically, the processor 32 calculates the feature amount of each part of the face from the moving image data included in the determination request data.
The processor 32 refers to the facial expression habit information database (FIG. 4), and obtains each feature amount corresponding to the movement instruction ID included in the judgment request data and a feature amount calculated from the moving image data included in the judgment request data. By comparing, it is determined whether or not the movement of the face in the moving image data corresponds to the facial habit. Do this for each facial habit. For example, the moving image data associated with the movement instruction ID "MES001" is compared with each feature amount in the "feature amount" field associated with the movement instruction ID "MES001".
The processor 32 refers to the facial expression habit information database (FIG. 4), and identifies the information regarding the facial expression habit name of the facial expression habit determined to be applicable and the corresponding advice information.

ステップS300の後、サーバ30は、判定レスポンス(S301)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS300で特定された表情癖名に関する情報
・ステップS300で特定されたアドバイス情報
After step S300, the server 30 executes the determination response (S301).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
-Information on facial expression habit names specified in step S300-Advice information specified in step S300

ステップS301の後、クライアント装置10は、判定結果の提示(S102)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P102(図6)をディスプレイに表示する。
After step S301, the client device 10 executes the presentation of the determination result (S102).
Specifically, the processor 12 displays the screen P102 (FIG. 6) on the display based on the determination response data.

画面P102は、表示オブジェクトA102を含む。
表示オブジェクトA102は、表情癖名、及び、対応するアドバイス情報を含む。アドバイス情報は、例えば、以下のうちの少なくとも1つであり得る。
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための化粧品に関する情報(例えば、製品名、塗布部位、塗布量、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容器具に関する情報(例えば、製品名、使用方法、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容施術に関する情報(例えば、施術の種類(マッサージ、エステ、ヨガ等)、やり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのエクササイズに関する情報(例えば、ユーザ自身で行う表情エクササイズのやり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのその他のアドバイス情報
The screen P102 includes a display object A102.
The display object A102 includes a facial expression habit name and corresponding advice information. The advice information can be, for example, at least one of the following:
-Facial expression habits and information on cosmetics for dealing with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, product name, application site, application amount, product image, etc.)
-Information on facial habits and beauty equipment for dealing with at least one of the skin features and facial features that may appear due to the effects of facial habits (eg, product name, usage, product image, etc.)
-Information on facial habits and beauty treatments to deal with at least one of the skin and facial features that may be affected by facial habits (eg, type of treatment (massage, esthetics, yoga, etc.), method, etc.)
-Facial expression habits and information on exercises to deal with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, how to perform facial expression exercises by the user).
• Other advice information for dealing with facial habits and at least one of the skin and facial features that may be affected by facial habits.

本実施形態によれば、顔の動画像をクライアント装置10に与えることにより、表情癖が判定される。これにより、ユーザは、自身の表情癖を知ることができる。また、表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報が提示される。これにより、ユーザは、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための対策をとることができる。 According to the present embodiment, the facial expression habit is determined by giving the moving image of the face to the client device 10. As a result, the user can know his / her facial expression habit. In addition, advice information for dealing with at least one of the facial habits and the skin features and facial features that may appear due to the influence of the facial habits is presented. Thereby, the user can take measures to more appropriately deal with the facial expression habit and at least one of the skin features and facial features that may appear due to the influence of the facial expression habit.

また、表示されたメッセージに応じたユーザの顔の動きの動画像データと、対応する動き指示IDと、を関連付けて記憶することにより、ステップS300において動き指示のメッセージ内容に対応する特徴量を参照することができる。そのため、精度よく表情癖を特定することができる。 Further, by storing the moving image data of the movement of the user's face according to the displayed message and the corresponding movement instruction ID in association with each other, the feature amount corresponding to the message content of the movement instruction is referred to in step S300. can do. Therefore, the facial expression habit can be identified with high accuracy.

(5)変形例
本実施形態の変形例について説明する。
(5) Modification Example A modification of the present embodiment will be described.

(5−1)変形例1
変形例1について説明する。変形例1は、ユーザ情報に基づいてユーザの表情癖を推測し、推測された表情癖に関する情報を提示する例である。
(5-1) Modification 1
Modification 1 will be described. The first modification is an example in which the user's facial expression habit is estimated based on the user information and information on the inferred facial expression habit is presented.

(5−1−1)個人特性関連情報データベース
変形例1の個人特性関連情報データベースについて説明する。図7は、変形例1の個人特性関連情報データベースのデータ構造を示す図である。
(5-1-1) Personal Characteristic Related Information Database The personal characteristic related information database of Modification 1 will be described. FIG. 7 is a diagram showing a data structure of the personal characteristic-related information database of the first modification.

図7の個人特性関連情報データベースには、個人特性と表情癖との関係性に関する情報が格納される。個人特性関連情報データベースは、「個人特性ID」フィールドと、「個人特性タイプ」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。 The personal characteristic-related information database of FIG. 7 stores information on the relationship between personal characteristics and facial expression habits. The personal trait related information database includes a "personal trait ID" field, a "personal trait type" field, a "facial expression habit name" field, and an "advice" field.

「個人特性ID」フィールドには、個人特性を識別する個人特性IDが格納される。個人特性IDは、個人特性を識別する個人特性識別情報の一例である。 In the "personal characteristic ID" field, a personal characteristic ID that identifies the individual characteristic is stored. The personal characteristic ID is an example of personal characteristic identification information that identifies an individual characteristic.

「個人特性タイプ」フィールドには、個人特性のタイプに関する情報が格納される。「個人特性」とは、内面特性(例えば、性格特性、価値観特性、美容意識)及び行動特性(例えば、ライフスタイル、習慣)のうちの少なくとも1つを含む。 The Personal Characteristic Type field stores information about the type of personal characteristic. The "individual trait" includes at least one of internal traits (eg, personality traits, values traits, cosmetological consciousness) and behavioral traits (eg, lifestyle, habits).

「表情癖名」フィールドには、そのレコードにおける個人特性のタイプに該当する人物が有すると推測される表情癖の名称(表情癖名)に関する情報(例えば、テキスト)が格納される。個人特性のタイプから推測される表情癖は、複数の人物から得られた統計データに基づいている。 The "facial expression habit name" field stores information (for example, text) regarding the name of the facial expression habit (facial expression habit name) that is presumed to be possessed by the person corresponding to the type of personal characteristic in the record. Facial habits inferred from the type of personal trait are based on statistical data obtained from multiple individuals.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits.

(5−1−2)肌状態関連情報データベース
変形例1の肌状態関連情報データベースについて説明する。図8は、変形例1の肌状態関連情報データベースのデータ構造を示す図である。
(5-1-2) Skin Condition-Related Information Database The skin condition-related information database of Modification 1 will be described. FIG. 8 is a diagram showing a data structure of the skin condition-related information database of the first modification.

図8の肌状態関連情報データベースには、肌の状態(以下「肌状態」という)と表情癖との関係性に関する情報が格納される。肌状態関連情報データベースは、「肌状態ID」フィールドと、「肌状態タイプ」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。 The skin condition-related information database of FIG. 8 stores information on the relationship between the skin condition (hereinafter referred to as “skin condition”) and facial expression habits. The skin condition related information database includes a "skin condition ID" field, a "skin condition type" field, a "facial expression habit name" field, and an "advice" field.

「肌状態ID」フィールドには、肌状態を識別する肌状態IDが格納される。肌状態IDは、肌状態を識別する肌状態識別情報の一例である。 In the "skin condition ID" field, a skin condition ID that identifies the skin condition is stored. The skin condition ID is an example of skin condition identification information for identifying the skin condition.

「肌状態タイプ」フィールドには、肌状態のタイプに関する情報が格納される。「肌状態」とは、人の肌の状態を指す。肌状態は、例えば、シワ、皮膚の粘弾性、皮膚の水分量、皮膚の水分蒸散量等に関する。 The "Skin Condition Type" field stores information about the type of skin condition. "Skin condition" refers to the condition of human skin. The skin condition relates to, for example, wrinkles, viscoelasticity of the skin, water content of the skin, water evaporation of the skin, and the like.

「表情癖名」フィールドには、そのレコードにおける肌状態のタイプに該当する人物が有すると推測される表情癖の名称(表情癖名)に関する情報(例えば、テキスト)が格納される。肌状態のタイプから推測される表情癖は、複数の人物から得られた統計データに基づいている。 The "facial expression habit name" field stores information (for example, text) regarding the name of the facial expression habit (facial expression habit name) presumed to be possessed by the person corresponding to the type of skin condition in the record. Facial habits inferred from the type of skin condition are based on statistical data obtained from multiple individuals.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits.

(5−1−3)情報処理
変形例1の情報処理について説明する。図9は、変形例1の表情癖判定処理のシーケンス図である。図10は、図9の情報処理において表示される画面例を示す図である。
(5-1-3) Information Processing The information processing of Modification 1 will be described. FIG. 9 is a sequence diagram of the facial expression habit determination process of the first modification. FIG. 10 is a diagram showing an example of a screen displayed in the information processing of FIG.

図9に示すように、クライアント装置10は、判定条件の受付(S110)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 9, the client device 10 executes the reception of the determination condition (S110).
Specifically, the processor 12 displays the screen P100 (FIG. 6) on the display.

ユーザは、図6と同様に、操作オブジェクトB100a、B100b及びB100cを操作する。これにより、表示オブジェクトA100a〜A100cのそれぞれに対応するユーザの顔の動画像の動画像データが生成される。各動画像データには、対応する動き指示IDが関連づけられている。各動画像データは、記憶装置11に記憶される。 The user operates the operation objects B100a, B100b and B100c in the same manner as in FIG. As a result, moving image data of the moving image of the user's face corresponding to each of the display objects A100a to A100c is generated. A corresponding motion instruction ID is associated with each motion image data. Each moving image data is stored in the storage device 11.

プロセッサ12は、画面P201(図10)をディスプレイに表示する。 The processor 12 displays the screen P201 (FIG. 10) on the display.

画面P201は、フィールドオブジェクトF201a〜F201bと、操作オブジェクトB201と、を含む。
フィールドオブジェクトF201aは、個人特性に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。個人特性に関する情報は、例えば、ユーザが自己認識している個人特性のタイプに関する情報、個人特性を判定するアプリケーションによる判定結果に関する情報、又は、個人特性をサーバ30が判定するための所定の質問事項に対する回答に関する情報である。
フィールドオブジェクトF201bは、肌状態に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。肌状態に関する情報は、例えば、ユーザが自己認識している肌状態のタイプに関する情報、肌状態を判定するアプリケーションもしくは測定装置による判定結果に関する情報、肌状態をサーバ30が判定するための所定の質問事項に対する回答に関する情報、又は、顔の肌を含む画像データ(静止画像データもしくは動画像データ)である。
操作オブジェクトB201は、生成された動画像データ及びフィールドオブジェクトF201a〜F201bに入力されたユーザ指示をサーバ30に送信するためのユーザ指示を受け付けるオブジェクトである。
The screen P201 includes field objects F201a to F201b and operation objects B201.
The field object F201a is an object that receives a user instruction for designating information regarding personal characteristics. The information about the personal characteristic is, for example, information about the type of personal characteristic that the user is self-recognizing, information about the judgment result by the application for determining the personal characteristic, or a predetermined question for the server 30 to judge the personal characteristic. Information about the answer to.
The field object F201b is an object that receives a user instruction for designating information regarding the skin condition. The information on the skin condition includes, for example, information on the type of skin condition that the user is self-recognizing, information on the determination result by the application or measuring device for determining the skin condition, and a predetermined question for the server 30 to determine the skin condition. Information about the answer to the matter, or image data (still image data or moving image data) including the skin of the face.
The operation object B201 is an object that receives the user instructions for transmitting the generated moving image data and the user instructions input to the field objects F201a to F201b to the server 30.

ステップS110の後、クライアント装置10は、判定リクエスト(S111)を実行する。
具体的には、ユーザが、フィールドオブジェクトF201a及びフィールドオブジェクトF201bにユーザ指示を入力し、かつ、操作オブジェクトB201を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS110で記憶装置11に記憶された動画像データと動き指示IDの組合せ
・フィールドオブジェクトF201aに指定された個人特性に関する情報
・フィールドオブジェクトF201bに指定された肌状態に関する情報
After step S110, the client device 10 executes the determination request (S111).
Specifically, when the user inputs a user instruction to the field object F201a and the field object F201b and operates the operation object B201, the processor 12 transmits the determination request data to the server 30.
The judgment request data includes the following information.
-Combination of moving image data and movement instruction ID stored in the storage device 11 in step S110-Information on personal characteristics specified in field object F201a-Information on skin condition specified in field object F201b

ステップS111の後、サーバ30は、図5と同様に、表情癖の特定(S300)を実行する。 After step S111, the server 30 executes the identification of facial expression habits (S300) as in FIG.

ステップS300の後、サーバ30は、表情癖の推測(S311)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる個人特性に関する情報に基づいて、ユーザの個人特性のタイプを特定する。
プロセッサ32は、個人特性関連情報データベース(図7)を参照して、特定された個人特性のタイプに関連付けられた個人特性IDを特定する。
プロセッサ32は、個人特性関連情報データベース(図7)を参照して、特定された個人特性IDに関連付けられた表情癖名に関する情報を特定する。プロセッサ32は、特定された表情癖名に関する情報のうち、ステップS300で特定されていない表情癖名に関する情報を特定する。この表情癖名に係る表情癖は、ユーザがステップS110の時点では有していないが、将来的に有する可能性がある表情癖(以下「推測表情癖」という)を示す。
プロセッサ32は、推測表情癖に関し、個人特性関連情報データベース(図7)を参照して、特定された表情癖名に関する情報に対応するアドバイス情報を特定する。
プロセッサ32は、判定リクエストデータに含まれる肌状態に関する情報に基づいて、ユーザの肌状態のタイプを特定する。
プロセッサ32は、肌状態関連情報データベース(図8)を参照して、特定された肌状態のタイプに関連付けられた肌状態IDを特定する。
プロセッサ32は、肌状態関連情報データベース(図8)を参照して、特定された肌状態IDに関連付けられた表情癖名に関する情報を特定する。プロセッサ32は、特定された表情癖名に関する情報のうち、ステップS300で特定されていない表情癖名に関する情報を特定する。この表情癖名に係る表情癖は、ユーザがステップS110の時点では有していないが、将来的に有する可能性がある表情癖(推測表情癖)を示す。
プロセッサ32は、推測表情癖に関し、肌状態関連情報データベース(図8)を参照して、特定された表情癖名に関する情報に対応するアドバイス情報を特定する。
After step S300, the server 30 executes the estimation of the facial expression habit (S311).
Specifically, the processor 32 identifies the type of personal trait of the user based on the information about the personal trait contained in the determination request data.
The processor 32 refers to the personal trait association information database (FIG. 7) to identify the personal trait ID associated with the identified personal trait type.
The processor 32 refers to the personal trait-related information database (FIG. 7) to identify information about the facial expression habit name associated with the identified personal trait ID. The processor 32 identifies the information related to the facial expression habit name not specified in step S300 among the information related to the specified facial expression habit name. The facial expression habit related to the facial expression habit name indicates a facial expression habit that the user does not have at the time of step S110, but may have in the future (hereinafter referred to as “guessed facial expression habit”).
The processor 32 refers to the personal characteristic-related information database (FIG. 7) regarding the guessed facial expression habit, and identifies the advice information corresponding to the information regarding the specified facial expression habit name.
The processor 32 identifies the type of skin condition of the user based on the information about the skin condition included in the determination request data.
The processor 32 identifies the skin condition ID associated with the identified skin condition type with reference to the skin condition related information database (FIG. 8).
The processor 32 refers to the skin condition-related information database (FIG. 8) and identifies the information regarding the facial expression habit name associated with the specified skin condition ID. The processor 32 identifies the information related to the facial expression habit name not specified in step S300 among the information related to the specified facial expression habit name. The facial expression habit related to the facial expression habit name indicates a facial expression habit (guessed facial expression habit) that the user does not have at the time of step S110 but may have in the future.
The processor 32 refers to the skin condition-related information database (FIG. 8) with respect to the guessed facial expression habit, and identifies the advice information corresponding to the information regarding the specified facial expression habit name.

ステップS311の後、サーバ30は、判定レスポンス(S312)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS300で特定された表情癖名に関する情報
・ステップS300で特定されたアドバイス情報
・ステップS311で特定された推測表情癖の表情癖名に関する情報
・ステップS311で特定されたアドバイス情報
After step S311 the server 30 executes the determination response (S312).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
-Information on the facial expression habit name specified in step S300-Advice information specified in step S300-Information on the facial expression habit name of the guessed facial expression habit specified in step S311-Advice information specified in step S311

ステップS312の後、クライアント装置10は、判定結果の提示(S112)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P202(図10)をディスプレイに表示する。
After step S312, the client device 10 executes the presentation of the determination result (S112).
Specifically, the processor 12 displays the screen P202 (FIG. 10) on the display based on the determination response data.

画面P202は、表示オブジェクトA202a〜A202bを含む。
表示オブジェクトA202aは、ステップS300で特定された表情癖名及び対応するアドバイス情報を含む。
表示オブジェクトA202bは、ステップS311で特定された推測表情癖の表情癖名及び対応するアドバイス情報を含む。アドバイス情報は、例えば、以下のうちの少なくとも1つであり得る。
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための化粧品に関する情報(例えば、製品名、塗布部位、塗布量、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容器具に関する情報(例えば、製品名、使用方法、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容施術に関する情報(例えば、施術の種類(マッサージ、エステ、ヨガ等)、やり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのエクササイズに関する情報(例えば、ユーザ自身で行う表情エクササイズのやり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのその他のアドバイス情報
変形例1によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。
The screen P202 includes display objects A202a to A202b.
The display object A202a includes the facial expression habit name identified in step S300 and the corresponding advice information.
The display object A202b includes the facial expression habit name of the guessed facial expression habit identified in step S311 and the corresponding advice information. The advice information can be, for example, at least one of the following:
-Facial expression habits and information on cosmetics for dealing with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, product name, application site, application amount, product image, etc.)
-Information on facial habits and beauty equipment for dealing with at least one of the skin features and facial features that may appear due to the effects of facial habits (eg, product name, usage, product image, etc.)
-Information on facial habits and beauty treatments to deal with at least one of the skin and facial features that may be affected by facial habits (eg, type of treatment (massage, esthetics, yoga, etc.), method, etc.)
-Facial expression habits and information on exercises to deal with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, how to perform facial expression exercises by the user).
-Facial expression habits and other advice information for dealing with at least one of the skin features and facial features that may appear due to the effects of facial expression habits According to the first modification, the user may have facial expressions in the future. You can know the habit. Therefore, the user takes measures based on the advice information and the like before the facial expression habit actually appears on the face, so that at least one of the skin feature and the facial feature that can appear due to the influence of the facial expression habit and the facial expression habit appears. The possibility can be reduced.

(5−2)変形例2
変形例2について説明する。変形例2は、ユーザ情報に基づいて表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する例である。
(5-2) Modification 2
Modification 2 will be described. The second modification is an example in which the facial expression habit and the advice information for coping with at least one of the skin features and the facial features that may appear due to the influence of the facial expression habit are selected based on the user information.

(5−2−1)表情癖情報データベース
変形例2の表情癖情報データベースについて説明する。図11は、変形例2の表情癖情報データベースのデータ構造を示す図である。
(5-2-1) Facial expression habit information database The facial expression habit information database of Modification 2 will be described. FIG. 11 is a diagram showing a data structure of the facial expression habit information database of the second modification.

図11の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「個人特性タイプ」フィールドと、「アドバイス」フィールドと、「表情癖名」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression habit information database of FIG. 11 stores facial expression habit information related to facial expression habits. The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "personal characteristic type" field, an "advice" field, and a "facial expression habit name" field. Each field is associated with each other.

「表情癖ID」フィールド、「特徴量」フィールド、及び、「表情癖名」フィールドは、図4の説明と同様である。 The “facial expression habit ID” field, the “feature amount” field, and the “facial expression habit name” field are the same as those described in FIG.

「個人特性タイプ」フィールドには、個人特性のタイプに関する情報が格納される。 The Personal Characteristic Type field stores information about the type of personal characteristic.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。1つの表情癖IDに対して複数のアドバイス情報が格納される。アドバイス情報は、個人特性のタイプに関する情報と関連付けられている。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits. A plurality of advice information is stored for one facial expression habit ID. Advice information is associated with information about the type of personal trait.

(5−2−2)情報処理
変形例2の情報処理について説明する。図12は、変形例2の表情癖判定処理のシーケンス図である。図13は、図12の情報処理において表示される画面例を示す図である。
(5-2-2) Information processing The information processing of the modified example 2 will be described. FIG. 12 is a sequence diagram of the facial expression habit determination process of the second modification. FIG. 13 is a diagram showing an example of a screen displayed in the information processing of FIG.

図12に示すように、クライアント装置10は、判定条件の受付(S120)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。
As shown in FIG. 12, the client device 10 executes the reception of the determination condition (S120).
Specifically, the processor 12 displays the screen P100 (FIG. 6) on the display.

ユーザは、図6と同様に、操作オブジェクトB100a、B100b及びB100cを操作する。これにより、表示オブジェクトA100a〜A100cのそれぞれに対応するユーザの顔の動画像の動画像データが生成される。各動画像データには、対応する動き指示IDが関連づけられている。各動画像データは、記憶装置11に記憶される。 The user operates the operation objects B100a, B100b and B100c in the same manner as in FIG. As a result, moving image data of the moving image of the user's face corresponding to each of the display objects A100a to A100c is generated. A corresponding motion instruction ID is associated with each motion image data. Each moving image data is stored in the storage device 11.

プロセッサ12は、画面P301(図13)をディスプレイに表示する。 The processor 12 displays the screen P301 (FIG. 13) on the display.

画面P301は、フィールドオブジェクトF301と、操作オブジェクトB301と、を含む。
フィールドオブジェクトF301は、個人特性に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。個人特性に関する情報は、例えば、ユーザが自己認識している個人特性のタイプに関する情報、個人特性を判定するアプリケーションによる判定結果に関する情報、又は、個人特性をサーバ30が判定するための所定の質問事項に対する回答に関する情報である。
操作オブジェクトB301は、生成された動画像データ及びフィールドオブジェクトF301に入力されたユーザ指示をサーバ30に送信するためのユーザ指示を受け付けるオブジェクトである。
The screen P301 includes a field object F301 and an operation object B301.
The field object F301 is an object that receives a user instruction for designating information regarding personal characteristics. The information about the personal characteristic is, for example, information about the type of personal characteristic that the user is self-recognizing, information about the judgment result by the application for determining the personal characteristic, or a predetermined question for the server 30 to judge the personal characteristic. Information about the answer to.
The operation object B301 is an object that receives the user instruction for transmitting the generated moving image data and the user instruction input to the field object F301 to the server 30.

ステップS120の後、クライアント装置10は、判定リクエスト(S121)を実行する。
具体的には、ユーザが、フィールドオブジェクトF201にユーザ指示を入力し、かつ、操作オブジェクトB301を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS120で記憶装置11に記憶された動画像データと動き指示IDの組合せ
・フィールドオブジェクトF301に指定された個人特性に関する情報
After step S120, the client device 10 executes the determination request (S121).
Specifically, when the user inputs a user instruction to the field object F201 and operates the operation object B301, the processor 12 transmits the determination request data to the server 30.
The judgment request data includes the following information.
-Combination of the moving image data and the movement instruction ID stored in the storage device 11 in step S120-Information on the personal characteristics specified in the field object F301.

ステップS121の後、サーバ30は、表情癖の特定(S320)を実行する。
具体的には、プロセッサ32は、表情癖情報データベース(図11)を参照して、図5と同様に、動画像データにおける顔の動きについて各表情癖に該当するか否かを判断する。
プロセッサ32は、表情癖情報データベース(図11)を参照して、該当すると判断した表情癖の表情癖名に関する情報を特定する。
After step S121, the server 30 executes facial expression habit identification (S320).
Specifically, the processor 32 refers to the facial expression habit information database (FIG. 11) and determines whether or not each facial expression habit is applicable to the movement of the face in the moving image data, as in FIG.
The processor 32 refers to the facial expression habit information database (FIG. 11) and identifies information regarding the facial expression habit name of the facial expression habit determined to be applicable.

ステップS320の後、サーバ30は、アドバイス情報の特定(S321)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる個人特性に関する情報に基づいて、ユーザの個人特性のタイプを特定する。プロセッサ32は、表情癖情報データベース(図11)を参照して、S320で特定された表情癖名のレコードにおいて、特定された個人特性のタイプに関連付けられたアドバイス情報を特定する。
After step S320, the server 30 executes the identification of the advice information (S321).
Specifically, the processor 32 identifies the type of personal trait of the user based on the information about the personal trait contained in the determination request data. The processor 32 refers to the facial expression habit information database (FIG. 11) to identify the advice information associated with the type of personal trait identified in the record of the facial expression habit name identified in S320.

ステップS321の後、サーバ30は、判定レスポンス(S322)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS320で特定された表情癖名に関する情報
・ステップS321で特定されたアドバイス情報
After step S321, the server 30 executes the determination response (S322).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
-Information on facial expression habit names specified in step S320-Advice information specified in step S321

ステップS322の後、クライアント装置10は、判定結果の提示(S122)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P302(図13)をディスプレイに表示する。
画面P302は、表示オブジェクトA302を含む。
表示オブジェクトA302は、表情癖名、及び、対応するアドバイス情報を含む。
変形例2によれば、ユーザは、ユーザ情報に基づいたアドバイス情報を得ることができる。例えば、同じ表情癖について、「1つのことを辛抱強く続ける」特性であるユーザに対しては「基礎化粧品Aを半年間毎日使用する」というアドバイス情報が提示される一方、「様々なことに挑戦する」特性であるユーザに対しては「美顔器Bとマッサージ法Cとを交互に1週間おきに3ヶ月間施す」というアドバイス情報が提示される。そのため、ユーザは、自身に適したアドバイス情報に従った対策をとることができる。
After step S322, the client device 10 executes the presentation of the determination result (S122).
Specifically, the processor 12 displays the screen P302 (FIG. 13) on the display based on the determination response data.
The screen P302 includes the display object A302.
The display object A302 includes a facial expression habit name and corresponding advice information.
According to the second modification, the user can obtain advice information based on the user information. For example, for users who have the same facial habit of "keeping one thing patiently", advice information "use basic cosmetics A every day for half a year" is presented, while "trying various things". For the user who has the characteristic, the advice information that "facial expression device B and massage method C are alternately applied every other week for 3 months" is presented. Therefore, the user can take measures according to the advice information suitable for himself / herself.

(5−3)変形例3
変形例3について説明する。変形例3は、ユーザの肌の状態の推測情報を提示する例である。
(5-3) Modification 3
Modification 3 will be described. Modification 3 is an example of presenting estimation information of the user's skin condition.

(5−3−1)表情癖情報データベース
変形例3の表情癖情報データベースについて説明する。図14は、変形例3の表情癖情報データベースのデータ構造を示す図である。
(5-3-1) Facial expression habit information database The facial expression habit information database of Modification 3 will be described. FIG. 14 is a diagram showing a data structure of the facial expression habit information database of the modified example 3.

図14の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、「参照肌状態」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression habit information database of FIG. 14 stores facial expression habit information related to facial expression habits. The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "facial expression habit name" field, an "advice" field, and a "reference skin condition" field. Each field is associated with each other.

「表情癖ID」フィールド、「特徴量」フィールド、「表情癖名」フィールド、及び、「アドバイス」フィールドは、図4の説明と同様である。 The “facial expression habit ID” field, the “feature amount” field, the “facial expression habit name” field, and the “advice” field are the same as those described in FIG.

「参照肌状態」フィールドには、そのレコードにおける表情癖を有する人物が備えていると推測される肌状態に関する情報(例えば、テキスト)が格納される。表情癖から推測される肌状態は、複数の人物から得られた統計データに基づいている。 The "reference skin condition" field stores information (eg, text) about the skin condition that is presumed to be possessed by the person having the facial expression habit in the record. The skin condition inferred from facial habits is based on statistical data obtained from multiple persons.

(5−3−2)情報処理
変形例3の情報処理について説明する。図15は、変形例3の表情癖判定処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。
(5-3-2) Information processing The information processing of the modified example 3 will be described. FIG. 15 is a sequence diagram of the facial expression habit determination process of the modified example 3. FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG.

図15に示すように、クライアント装置10は、図5と同様に、判定条件の受付(S100)及び判定リクエスト(S101)を実行する。 As shown in FIG. 15, the client device 10 executes the reception of the determination condition (S100) and the determination request (S101) in the same manner as in FIG.

ステップS101の後、サーバ30は、表情癖情報データベース(図14)を参照して、図5と同様に、表情癖の特定(S330)を実行する。 After step S101, the server 30 refers to the facial expression habit information database (FIG. 14) and executes the identification of the facial expression habit (S330) in the same manner as in FIG.

ステップS330の後、サーバ30は、肌状態の推測(S331)を実行する。
具体的には、プロセッサ32は、表情癖情報データベース(図14)を参照して、ステップS330で特定された表情癖名に関する情報に関連付けられた参照肌状態に関する情報を、推測肌状態として特定する。
After step S330, the server 30 performs skin condition estimation (S331).
Specifically, the processor 32 refers to the facial expression habit information database (FIG. 14) and specifies the information related to the reference skin condition associated with the information related to the facial expression habit name specified in step S330 as the estimated skin state. ..

ステップS331の後、サーバ30は、判定レスポンス(S332)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS330で特定された表情癖名に関する情報
・ステップS330で特定されたアドバイス情報
・ステップS331で特定された推測肌状態に関する情報
After step S331, the server 30 executes the determination response (S332).
Specifically, the processor 32 transmits the determination response data to the client device 10.
The judgment response data includes the following information.
-Information on facial expression habit names specified in step S330-Advice information specified in step S330-Information on estimated skin condition specified in step S331

ステップS332の後、クライアント装置10は、判定結果の提示(S132)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P402(図16)をディスプレイに表示する。
After step S332, the client device 10 executes the presentation of the determination result (S132).
Specifically, the processor 12 displays the screen P402 (FIG. 16) on the display based on the determination response data.

画面P402は、表示オブジェクトA402を含む。
表示オブジェクトA402は、表情癖名、対応するアドバイス情報、及び、推測肌状態を含む。
変形例3によれば、ユーザは、推測される肌の状態を知ることができる。そのため、ユーザは、表情癖の原因となっている可能性がある肌の状態、又は、将来的な肌の状態を知ることができ、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処することができる。
The screen P402 includes the display object A402.
The display object A402 includes a facial expression habit name, corresponding advice information, and a guessed skin condition.
According to the third modification, the user can know the presumed skin condition. Therefore, the user can know the skin condition that may be the cause of the facial expression habit or the future skin condition, and the skin characteristics that can be more appropriately expressed by the facial expression habit and the influence of the facial expression habit. And at least one of facial features can be addressed.

(5−4)変形例4
変形例4について説明する。変形例4は、1つの動画像データで複数のメッセージ内容に対応する例である。
(5-4) Modification 4
A modification 4 will be described. Modification 4 is an example in which one moving image data corresponds to a plurality of message contents.

(5−4−1)情報処理
変形例4の情報処理について説明する。図17は、変形例4の情報処理において表示される画面例を示す図である。
(5-4-1) Information processing The information processing of the modified example 4 will be described. FIG. 17 is a diagram showing an example of a screen displayed in the information processing of the modified example 4.

図5に示すように、クライアント装置10は、判定条件の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P500(図17)をディスプレイに表示する。
As shown in FIG. 5, the client device 10 executes the reception of the determination condition (S100).
Specifically, the processor 12 displays the screen P500 (FIG. 17) on the display.

画面P500は、表示オブジェクトA500a〜A500bと、操作オブジェクトB500と、を含む。
表示オブジェクトA500aは、ユーザに対して顔の動きを促すメッセージを含む。
表示オブジェクトA500bは、クライアント装置10に接続されたカメラ15が撮影する動画像を含む。
操作オブジェクトB500は、動画像の撮影を実行するためのユーザ指示を受け付けるオブジェクトである。
The screen P500 includes display objects A500a to A500b and operation objects B500.
The display object A500a includes a message prompting the user to move his / her face.
The display object A500b includes a moving image taken by the camera 15 connected to the client device 10.
The operation object B500 is an object that receives a user instruction for executing shooting of a moving image.

ユーザが操作オブジェクトB500を操作すると、プロセッサ12は、ステップS100(図5)において、操作オブジェクトB500の操作からn秒毎に表示オブジェクトA100に異なるメッセージ内容を表示する。
ユーザがメッセージ内容に合わせて顔の各部位を動かすと、プロセッサ12は、カメラ15が撮像した動画像データと、操作オブジェクトB100の操作からの経過時間nと、を関連付けて記憶装置11に記憶する。
When the user operates the operation object B500, the processor 12 displays different message contents on the display object A100 every n seconds from the operation of the operation object B500 in step S100 (FIG. 5).
When the user moves each part of the face according to the content of the message, the processor 12 stores the moving image data captured by the camera 15 and the elapsed time n from the operation of the operation object B100 in the storage device 11 in association with each other. ..

プロセッサ12は、画面P101(図6)をディスプレイに表示する。
ステップS100の後、クライアント装置10は、判定リクエスト(S101)を実行する。
具体的には、ユーザが、操作オブジェクトB101を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS100で記憶装置11に記憶された動画像データと経過時間nとの組合せ
The processor 12 displays the screen P101 (FIG. 6) on the display.
After step S100, the client device 10 executes the determination request (S101).
Specifically, when the user operates the operation object B101, the processor 12 transmits the determination request data to the server 30.
The judgment request data includes the following information.
A combination of the moving image data stored in the storage device 11 in step S100 and the elapsed time n.

ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、記憶装置31には、経過時間nと、メッセージ内容と、が関連付けて記憶されている。
プロセッサ32は、判定リクエストデータに含まれる動画像データと経過時間nの組合せに基づいて、当該動画像データに対応するメッセージ内容を特定する。
図5と同様に、プロセッサ32は、特徴量の比較を行い、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。
After step S101, the server 30 executes the identification of facial expression habits (S300).
Specifically, the storage device 31 stores the elapsed time n and the message content in association with each other.
The processor 32 identifies the message content corresponding to the moving image data based on the combination of the moving image data included in the determination request data and the elapsed time n.
Similar to FIG. 5, the processor 32 compares the feature quantities and specifies the information regarding the facial expression habit name of the facial expression habit determined to be applicable and the corresponding advice information.

ステップS300の後、サーバ30は、図5と同様に、判定レスポンス(S301)を実行する。 After step S300, the server 30 executes the determination response (S301) as in FIG.

ステップS301の後、クライアント装置10は、図5と同様に、判定結果の提示(S102)を実行する。 After step S301, the client device 10 executes the presentation of the determination result (S102) in the same manner as in FIG.

変形例4によれば、1つの動画像データで複数のメッセージ内容に対応することできる。そのため、ユーザは、より簡単な操作で判定条件を指定することができる。 According to the fourth modification, one moving image data can correspond to a plurality of message contents. Therefore, the user can specify the determination condition with a simpler operation.

(5−5)変形例5
変形例5について説明する。変形例5は、アドバイス情報がメッセージ内容によって異なる例である。
(5-5) Modification 5
A modified example 5 will be described. Modification 5 is an example in which the advice information differs depending on the content of the message.

(5−5−1)表情癖情報データベース
変形例5の表情癖情報データベースについて説明する。図18は、変形例5の表情癖情報データベースのデータ構造を示す図である。
(5-5-1) Facial Expression Habit Information Database The facial expression habit information database of Modification 5 will be described. FIG. 18 is a diagram showing a data structure of the facial expression habit information database of the modified example 5.

図18の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。各フィールドは、互いに関連付けられている。
表情癖情報データベースは、動き指示IDに関連付けられている。
The facial expression habit information database of FIG. 18 stores facial expression habit information related to facial expression habits. The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "facial expression habit name" field, and an "advice" field. Each field is associated with each other.
The facial expression habit information database is associated with the movement instruction ID.

「表情癖ID」フィールド、「特徴量」フィールド、及び、「表情癖名」フィールドは、図4の説明と同様である。 The “facial expression habit ID” field, the “feature amount” field, and the “facial expression habit name” field are the same as those described in FIG.

「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。変形例5では、同じ表情癖でも動き指示IDが異なるとアドバイス情報も異なる。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits. In the modified example 5, even if the facial expression habit is the same, if the movement instruction ID is different, the advice information is also different.

(5−5−2)情報処理
変形例5の情報処理について説明する。図19は、変形例5の情報処理において表示される画面例を示す図である。
(5-5-2) Information Processing The information processing of the modified example 5 will be described. FIG. 19 is a diagram showing an example of a screen displayed in the information processing of the modified example 5.

クライアント装置10は、図5と同様に、判定条件の受付(S100)及び判定リクエスト(S101)を実行する。 The client device 10 executes the reception of the determination condition (S100) and the determination request (S101) in the same manner as in FIG.

ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、変形例5では、プロセッサ32は、判定リクエストデータに含まれる動き指示IDに関連付けられた表情癖情報データベース(図18)を参照して、各特徴量と、判定リクエストデータに含まれる動画像データから算出した特徴量とを比較し、動画像データにおける顔の動きについてその表情癖に該当するか否かを判断する。
プロセッサ32は、表情癖情報データベース(図18)を参照して、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。
After step S101, the server 30 executes the identification of facial expression habits (S300).
Specifically, in the modification 5, the processor 32 refers to the facial habit information database (FIG. 18) associated with the movement instruction ID included in the determination request data, and includes each feature amount and the determination request data. By comparing with the feature amount calculated from the moving image data, it is determined whether or not the movement of the face in the moving image data corresponds to the facial habit.
The processor 32 refers to the facial expression habit information database (FIG. 18), and identifies the information regarding the facial expression habit name of the facial expression habit determined to be applicable and the corresponding advice information.

ステップS300の後、サーバ30は、図5と同様に、判定レスポンス(S301)を実行する。 After step S300, the server 30 executes the determination response (S301) as in FIG.

ステップS301の後、クライアント装置10は、判定結果の提示(S102)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P602(図19)をディスプレイに表示する。
After step S301, the client device 10 executes the presentation of the determination result (S102).
Specifically, the processor 12 displays the screen P602 (FIG. 19) on the display based on the determination response data.

画面P602は、表示オブジェクトA602を含む。
表示オブジェクトA602は、表情癖名、及び、対応するアドバイス情報を含む。
The screen P602 includes a display object A602.
The display object A602 includes a facial expression habit name and corresponding advice information.

変形例5によれば、メッセージ内容が考慮されたアドバイス情報が提示される。そのため、ユーザは、より的確なアドバイス情報を知ることができる。 According to the fifth modification, the advice information in consideration of the message content is presented. Therefore, the user can know more accurate advice information.

(6)本実施形態の小括
本実施形態について小括する。
(6) Summary of the present embodiment A summary of the present embodiment will be given.

本実施形態の第1態様は、
ユーザの顔の動画像情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
動画像情報に基づいて、ユーザの顔の動きに関する動き情報を抽出する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
動き情報に基づいて、ユーザの顔の動きの癖を特定する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
The first aspect of this embodiment is
A means for acquiring moving image information of a user's face (for example, a processor 32 that executes the process of step S300) is provided.
A means for extracting motion information related to the movement of the user's face based on the motion image information (for example, a processor 32 that executes the process of step S300) is provided.
A means for identifying a user's facial movement habit based on motion information (for example, a processor 32 that executes the process of step S300) is provided.
An information processing device (for example, a server 30).

第1態様によれば、ユーザの顔の動きの癖(表情癖)が判定される。これにより、ユーザが自身の表情癖を知るための結果を生成することができる。 According to the first aspect, the user's facial movement habit (facial expression habit) is determined. As a result, the user can generate a result for knowing his / her facial expression habit.

本実施形態の第2態様は、
特定された動きの癖に関する情報を提示する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備える、
情報処理装置である。
The second aspect of this embodiment is
A means for presenting information about the identified movement habits (eg, a processor 32 that executes the process of step S301).
It is an information processing device.

第2態様によれば、ユーザに表情癖を知るための結果が提示される。これにより、ユーザは、自身の表情癖を知ることができる。 According to the second aspect, the result for knowing the facial expression habit is presented to the user. As a result, the user can know his / her facial expression habit.

本実施形態の第3態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、ユーザの顔の動きの癖を推測する手段(例えば、ステップS311の処理を実行するプロセッサ32)を備え、
推測された動きの癖に関する情報を提示する手段(例えば、ステップS312の処理を実行するプロセッサ32)を備える、
情報処理装置である。
The third aspect of this embodiment is
A means for acquiring user information about a user (for example, a processor 32 that executes the process of step S300) is provided.
A means for estimating a user's facial movement habit based on user information (for example, a processor 32 that executes the process of step S311) is provided.
A means (for example, a processor 32 that executes the process of step S312) for presenting information about the inferred movement habit is provided.
It is an information processing device.

第3態様によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。 According to the third aspect, the user can know the facial expression habits that may be possessed in the future. Therefore, the user takes measures based on the advice information and the like before the facial expression habit actually appears on the face, so that at least one of the skin feature and the facial feature that can appear due to the influence of the facial expression habit and the facial expression habit appears. The possibility can be reduced.

本実施形態の第4態様は、
ユーザ情報は、ユーザの個人特性、及び体調のうちの少なくとも1つに関する情報を含む、
情報処理装置である。
The fourth aspect of this embodiment is
User information includes information about at least one of the user's personal characteristics and physical condition.
It is an information processing device.

第4態様によれば、ユーザは、個人特性、及び体調のうちの少なくとも1つと相関のある将来的に有する可能性がある表情癖を知ることができる。 According to the fourth aspect, the user can know the personal characteristics and the facial expression habits that may have in the future that correlate with at least one of the physical conditions.

本実施形態の第5態様は、
ユーザ情報はユーザの肌又は顔の状態に関する情報を含む、
情報処理装置である。
A fifth aspect of this embodiment is
User information includes information about the condition of the user's skin or face,
It is an information processing device.

第5態様によれば、ユーザは、肌又は顔の状態と相関のある将来的に有する可能性がある表情癖を知ることができる。 According to the fifth aspect, the user can know the facial expression habits that may be possessed in the future that correlate with the skin or facial condition.

本実施形態の第6態様は、
動きの癖に関する情報は、動きの癖及び動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、
情報処理装置である。
The sixth aspect of this embodiment is
Information about movement habits includes advice information for dealing with at least one of the skin and facial features that may be manifested by movement habits and the effects of movement habits.
It is an information processing device.

第6態様によれば、表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報が提示される。これにより、ユーザは、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための対策をとることができる。 According to the sixth aspect, the facial expression habit and the advice information for dealing with at least one of the skin characteristics and the facial features that may appear due to the influence of the facial expression habit are presented. Thereby, the user can take measures to more appropriately deal with the facial expression habit and at least one of the skin features and facial features that may appear due to the influence of the facial expression habit.

本実施形態の第7態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS320の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、動きの癖及び動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する手段(例えば、ステップS321の処理を実行するプロセッサ32)を備え、
選択されたアドバイス情報が提示される、
情報処理装置である。
The seventh aspect of this embodiment is
A means for acquiring user information about a user (for example, a processor 32 that executes the process of step S320) is provided.
Based on the user information, a means for selecting advice information for dealing with at least one of the movement habit and the skin feature and the face feature that may appear due to the influence of the movement habit (for example, the process of step S321 is executed). Equipped with a processor 32)
Selected advice information is presented,
It is an information processing device.

第7態様によれば、ユーザ情報に基づいたアドバイス情報を得ることができる。そのため、ユーザは、自身に適したアドバイス情報に従った対策をとることができる。 According to the seventh aspect, advice information based on user information can be obtained. Therefore, the user can take measures according to the advice information suitable for himself / herself.

本実施形態の第8態様は、
動きの癖に関する情報は、ユーザの肌又は顔の状態の推測情報を含む、
情報処理装置である。
The eighth aspect of this embodiment is
Information about movement habits includes guessing information about the user's skin or facial condition.
It is an information processing device.

第8態様によれば、ユーザは、推測される肌の状態を知ることができる。そのため、ユーザは、表情癖の原因となっている可能性がある肌の状態、又は、将来的な肌の状態を知ることができ、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処することができる。 According to the eighth aspect, the user can know the presumed skin condition. Therefore, the user can know the skin condition that may be the cause of the facial expression habit or the future skin condition, and the skin characteristics that can be more appropriately expressed by the facial expression habit and the influence of the facial expression habit. And at least one of facial features can be addressed.

本実施形態の第9態様は、
動画像情報を取得する手段は、ユーザに対して顔の動きを促すメッセージに応じた顔の動きの動画像情報を取得し、
メッセージに関する情報と動画像情報とを関連付けて記憶する手段を備える、
情報処理装置である。
The ninth aspect of this embodiment is
The means for acquiring the moving image information is to acquire the moving image information of the facial movement in response to the message prompting the user to move the face.
A means for associating and storing information about a message with moving image information.
It is an information processing device.

第9態様によれば、メッセージ内容を考慮して表情癖が特定される。そのため、ユーザは、より正確な表情癖を知ることができる。また、メッセージ内容が考慮されたアドバイス情報が提示される。そのため、ユーザは、より的確なアドバイス情報を知ることができる。 According to the ninth aspect, the facial expression habit is specified in consideration of the message content. Therefore, the user can know a more accurate facial expression habit. In addition, advice information that takes into account the content of the message is presented. Therefore, the user can know more accurate advice information.

本実施形態の第10態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、顔の動きの癖を推測する手段(例えば、ステップS311の処理を実行するプロセッサ32)を備え、
推測された動きの癖に関する情報を提示する手段(例えば、ステップS312の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。
The tenth aspect of this embodiment is
A means for acquiring user information about a user (for example, a processor 32 that executes the process of step S300) is provided.
A means for estimating facial movement habits based on user information (for example, a processor 32 that executes the process of step S311) is provided.
A means (for example, a processor 32 that executes the process of step S312) for presenting information about the inferred movement habit is provided.
An information processing device (for example, a server 30).

第10態様によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。 According to the tenth aspect, the user can know the facial expression habits that may be possessed in the future. Therefore, the user takes measures based on the advice information and the like before the facial expression habit actually appears on the face, so that at least one of the skin feature and the facial feature that can appear due to the influence of the facial expression habit and the facial expression habit appears. The possibility can be reduced.

本実施形態の第11態様は、
コンピュータ(例えば、プロセッサ32)を、上記の各手段として機能させるためのプログラムである。
The eleventh aspect of this embodiment is
It is a program for making a computer (for example, a processor 32) function as each of the above means.

(7)その他の変形例 (7) Other modifications

記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。 The storage device 11 may be connected to the client device 10 via the network NW. The storage device 31 may be connected to the server 30 via the network NW.

上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
1つの装置がネットワークを介さずに全ての情報処理を行ってもよい。
Each step of the above information processing can be executed by either the client device 10 or the server 30.
One device may perform all information processing without going through the network.

本実施形態では、ユーザに対して提示する顔の動きを促すメッセージに関する情報がテキストである例を示したが、本実施形態はこれに限られない。当該メッセージに関する情報は、動画像であってもよい。動画像は、例えば、様々な表情をする顔のアニメーション動画像であり、ユーザはその表情を真似しながら、画面P100における操作オブジェクトB100を操作し、ユーザの顔の動画像の動画像データが生成されてもよい。 In the present embodiment, an example is shown in which the information regarding the message prompting the movement of the face presented to the user is text, but the present embodiment is not limited to this. The information about the message may be a moving image. The moving image is, for example, an animated moving image of a face having various facial expressions, and the user operates the operation object B100 on the screen P100 while imitating the facial expression, and the moving image data of the moving image of the user's face is generated. May be done.

本実施形態では、カメラ15から取得した動画像に基づいて表情癖を判定する例を示したが、本実施形態はこれに限られない。記憶装置11又は記憶装置31に記憶された動画像に基づいて表情癖を判定してもよい。 In the present embodiment, an example of determining a facial expression habit based on a moving image acquired from the camera 15 has been shown, but the present embodiment is not limited to this. The facial expression habit may be determined based on the moving image stored in the storage device 11 or the storage device 31.

本実施形態では、画面P100にカメラ15が撮影する動画像を含む表示オブジェクトA100dが含まれる例を示したが、本実施形態はこれに限られない。画面P100に表示オブジェクトA100dは含まれなくてもよい。この場合、ユーザは顔の各部位を動かす際に自身の顔を一切見られないため、本来の表情になり易く、より正確に表情癖を判定することができる。 In the present embodiment, an example is shown in which the screen P100 includes a display object A100d including a moving image captured by the camera 15, but the present embodiment is not limited to this. The display object A100d may not be included in the screen P100. In this case, since the user cannot see his / her own face at all when moving each part of the face, the original facial expression is likely to be obtained, and the facial expression habit can be determined more accurately.

本実施形態では、表情癖に関する情報として表情癖名及びアドバイス情報が提示される例を示したが、本実施形態はこれに限られない。提示される表情癖に関する情報は、例えば、表情癖名及びアドバイス情報の何れか一方であってもよい。 In the present embodiment, an example in which the facial expression habit name and the advice information are presented as information on the facial expression habit is shown, but the present embodiment is not limited to this. The information regarding the presented facial expression habit may be, for example, either the facial expression habit name or the advice information.

変形例1では、推測される表情癖に関する情報として表情癖名及びアドバイス情報が提示される例を示したが、本実施形態はこれに限られない。提示される表情癖に関する情報は、例えば、表情癖名及びアドバイス情報の何れか一方であってもよい。 In the first modification, the facial expression habit name and the advice information are presented as the information regarding the inferred facial expression habit, but the present embodiment is not limited to this. The information regarding the presented facial expression habit may be, for example, either the facial expression habit name or the advice information.

本実施形態及び変形例1において、提示される表情癖名は、状態に関する文脈(例えば、「眉上がり」)である例を示したが、本実施形態はこれに限られない。提示される表情癖名に関する情報は、例えば、状態と、程度、顔の部位、及び、シチュエーションのうちの少なくとも1つと、の組み合わせの文脈であってもよい。具体的には、状態と程度との組合せの文脈(例えば、「強度の眉上がり」)、状態と顔の部位との組合せの文脈(例えば、「右目の目尻シワ」)、並びに、状態とシチュエーションとの組合せの文脈(例えば、「笑顔を作る際に口角がほとんど上がっていない」)のうちの少なくとも1つであってもよい。また、提示される表情癖に関する情報は、メッセージ内容に関する情報を含んでいてもよい。 In the present embodiment and the first modification, the facial expression habit name presented is an example in which the context relating to the state (for example, “raising the eyebrows”) is shown, but the present embodiment is not limited to this. The information about the facial expression habit name presented may be, for example, in the context of a combination of condition and degree, facial features, and at least one of the situations. Specifically, the context of the combination of state and degree (eg, "strong eyebrow rise"), the context of the combination of state and facial area (eg, "wrinkles at the corners of the right eye"), and the state and situation. It may be at least one of the contexts of the combination with (for example, "the corner of the mouth is barely raised when making a smile"). In addition, the information on the presented facial expression habit may include information on the content of the message.

変形例1において、ユーザ情報がユーザの個人特性に関する情報及びユーザの肌の状態に関する情報である例を示したが、本実施形態はこれに限られない。ユーザ情報は、例えば、ユーザの個人特性、ユーザの体調、ユーザの肌の状態、ユーザの顔の状態、及び、ユーザの属性のうちの少なくとも1つであってもよい。「顔の状態」とは、人の顔の状態を指す。顔の状態は、例えば、顔の血流、顔の3D形状等に関する。「ユーザの属性」としては、例えば、年齢、性別、職業等が挙げられる。 In the first modification, an example is shown in which the user information is information on the personal characteristics of the user and information on the skin condition of the user, but the present embodiment is not limited to this. The user information may be, for example, at least one of the personal characteristics of the user, the physical condition of the user, the skin condition of the user, the facial condition of the user, and the attributes of the user. "Face condition" refers to the condition of a person's face. The facial condition relates to, for example, facial blood flow, facial 3D shape, and the like. Examples of the "user attribute" include age, gender, occupation, and the like.

変形例1では、肌状態はフィールドオブジェクトF201bに指定する例を示したが、本実施形態はこれに限られない。肌状態は、画面P100(図6)の操作オブジェクトB100a〜B100cの操作により生成された動画像データから画像解析で特定されてもよい。 In the first modification, the skin condition is specified in the field object F201b, but the present embodiment is not limited to this. The skin condition may be specified by image analysis from the moving image data generated by the operation of the operation objects B100a to B100c on the screen P100 (FIG. 6).

変形例2では、ユーザ情報がユーザの個人特性に関する情報である例を示したが、本実施形態はこれに限られない。ユーザ情報は、例えば、ユーザの個人特性、ユーザの体調、ユーザの肌の状態、ユーザの顔の状態、及び、ユーザの属性のうちの少なくとも1つであってもよい。 In the second modification, an example is shown in which the user information is information related to the personal characteristics of the user, but the present embodiment is not limited to this. The user information may be, for example, at least one of the personal characteristics of the user, the physical condition of the user, the skin condition of the user, the facial condition of the user, and the attributes of the user.

以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.

1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Camera 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface

Claims (10)

ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、
情報処理装置。
Equipped with a means to acquire moving image information of the user's face
A means for extracting motion information related to the movement of the user's face based on the moving image information is provided.
A means for identifying the movement habit of the user's face based on the movement information is provided.
Information processing device.
特定された前記動きの癖に関する情報を提示する手段を備える、
請求項1に記載の情報処理装置。
Provided with means for presenting information about the identified movement habits.
The information processing device according to claim 1.
前記ユーザに関するユーザ情報を取得する手段を備え、
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測する手段を備え、
推測された前記動きの癖に関する情報を提示する手段を備える、
請求項1又は2に記載の情報処理装置。
A means for acquiring user information about the user is provided.
A means for estimating the facial movement habit of the user based on the user information is provided.
A means for presenting information about the inferred movement habit,
The information processing device according to claim 1 or 2.
前記ユーザ情報は、前記ユーザの個人特性、及び体調のうちの少なくとも1つに関する情報を含む、
請求項3に記載の情報処理装置。
The user information includes information about at least one of the user's personal characteristics and physical condition.
The information processing device according to claim 3.
前記ユーザ情報は、前記ユーザの肌又は顔の状態に関する情報を含む、
請求項3又は4に記載の情報処理装置。
The user information includes information on the skin or face condition of the user.
The information processing device according to claim 3 or 4.
前記動きの癖に関する情報は、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、
請求項2〜5の何れかに記載の情報処理装置。
The information regarding the movement habits includes advice information for dealing with the movement habits and at least one of the skin features and facial features that may appear due to the influence of the movement habits.
The information processing device according to any one of claims 2 to 5.
前記ユーザに関するユーザ情報を取得する手段を備え、
前記ユーザ情報に基づいて、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する手段を備え、
前記選択されたアドバイス情報が提示される、
請求項6に記載の情報処理装置。
A means for acquiring user information about the user is provided.
A means for selecting advice information for dealing with at least one of the movement habit and the skin feature and the face feature that may appear due to the influence of the movement habit based on the user information.
The selected advice information is presented,
The information processing device according to claim 6.
前記動きの癖に関する情報は、前記ユーザの肌又は顔の状態の推測情報を含む、
請求項2〜7の何れかに記載の情報処理装置。
The information regarding the movement habit includes the estimation information of the skin or face condition of the user.
The information processing device according to any one of claims 2 to 7.
前記動画像情報を取得する手段は、前記ユーザに対して顔の動きを促すメッセージに応じた顔の動きの動画像情報を取得し、
前記メッセージに関する情報と前記動画像情報とを関連付けて記憶する手段を備える、
請求項1〜8の何れかに記載の情報処理装置。
The means for acquiring the moving image information acquires the moving image information of the facial movement in response to the message prompting the user to move the face.
A means for associating and storing information about the message with the moving image information is provided.
The information processing device according to any one of claims 1 to 8.
コンピュータを、請求項1〜9の何れかに記載の各手段として機能させるためのプログラム。 A program for operating a computer as each means according to any one of claims 1 to 9.
JP2020559812A 2018-12-07 2019-11-05 Information processing device, program and information processing method Active JP7406502B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018230053 2018-12-07
JP2018230053 2018-12-07
PCT/JP2019/043304 WO2020116069A1 (en) 2018-12-07 2019-11-05 Information processing device and program

Publications (2)

Publication Number Publication Date
JPWO2020116069A1 true JPWO2020116069A1 (en) 2021-10-21
JP7406502B2 JP7406502B2 (en) 2023-12-27

Family

ID=70973607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559812A Active JP7406502B2 (en) 2018-12-07 2019-11-05 Information processing device, program and information processing method

Country Status (2)

Country Link
JP (1) JP7406502B2 (en)
WO (1) WO2020116069A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024057965A1 (en) * 2022-09-15 2024-03-21 ソニーグループ株式会社 Information processing device, information processing method, and information analysis system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264785A (en) * 2006-03-27 2007-10-11 Toyota Motor Corp Drowsiness detection apparatus
JP2012070222A (en) * 2010-09-24 2012-04-05 Nec Casio Mobile Communications Ltd Imaging device, imaging method, and imaging program
JP2015064823A (en) * 2013-09-26 2015-04-09 ポーラ化成工業株式会社 Cosmetic evaluation method, and facial expression wrinkle quantitation method
WO2016076140A1 (en) * 2014-11-14 2016-05-19 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007264785A (en) * 2006-03-27 2007-10-11 Toyota Motor Corp Drowsiness detection apparatus
JP2012070222A (en) * 2010-09-24 2012-04-05 Nec Casio Mobile Communications Ltd Imaging device, imaging method, and imaging program
JP2015064823A (en) * 2013-09-26 2015-04-09 ポーラ化成工業株式会社 Cosmetic evaluation method, and facial expression wrinkle quantitation method
WO2016076140A1 (en) * 2014-11-14 2016-05-19 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
WO2020116069A1 (en) 2020-06-11
JP7406502B2 (en) 2023-12-27

Similar Documents

Publication Publication Date Title
JP7083809B2 (en) Systems and methods for identifying and / or identifying and / or pain, fatigue, mood, and intent with privacy protection
JP5190560B2 (en) Content output apparatus, content output method, content output program, and recording medium on which content output program is recorded
CN114502061A (en) Image-based automatic skin diagnosis using deep learning
US10559102B2 (en) Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program
WO2015122195A1 (en) Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, program, and program recording medium
JP2006048729A (en) Methods for evaluating degree of typological characteristics of body
WO2021261188A1 (en) Avatar generation method, program, avatar generation system, and avatar display method
JPWO2019049298A1 (en) 3D data system and 3D data processing method
Israel et al. Presenting your products in virtual reality: do not underestimate cybersickness
WO2019146405A1 (en) Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique
JP7406502B2 (en) Information processing device, program and information processing method
JP2020091770A (en) Information processing device, information processing system, information processing method, program and storage medium
CN115668279A (en) Oral care based digital imaging system and method for determining perceived appeal of facial image portions
JP6922768B2 (en) Information processing device
JP2019028691A (en) Information output system, information output program, and information output method, relating to care for skin conditions
JP7253325B2 (en) Information processing device, program, and information processing method
JP2018190176A (en) Image display device, skin-condition support system, image display program, and image display method
Lee et al. RU-FEMOIN—A database of facial expressions: Utilization for robotic mood transition of patient robots
Ortuño et al. Neurometrics applied to banknote and security features design
JP7378743B2 (en) Information processing system, information processing method and program
WO2023171162A1 (en) Psychological state estimation device and psychological state estimation method
JP7438132B2 (en) Information processing device, cosmetic production device, program, simulation method, and information processing system
WO2020170845A1 (en) Information processing device, and program
Ugail et al. Computational Techniques for Human Smile Analysis
Rodrigues et al. User-Centered Rating of Well-Being in Older Adults

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231215

R150 Certificate of patent or registration of utility model

Ref document number: 7406502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150