JPWO2020116069A1 - Information processing equipment and programs - Google Patents
Information processing equipment and programs Download PDFInfo
- Publication number
- JPWO2020116069A1 JPWO2020116069A1 JP2020559812A JP2020559812A JPWO2020116069A1 JP WO2020116069 A1 JPWO2020116069 A1 JP WO2020116069A1 JP 2020559812 A JP2020559812 A JP 2020559812A JP 2020559812 A JP2020559812 A JP 2020559812A JP WO2020116069 A1 JPWO2020116069 A1 JP WO2020116069A1
- Authority
- JP
- Japan
- Prior art keywords
- information
- user
- facial expression
- habit
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 63
- 230000033001 locomotion Effects 0.000 claims abstract description 94
- 230000001815 facial effect Effects 0.000 claims abstract description 82
- 230000004044 response Effects 0.000 claims description 26
- 230000008921 facial expression Effects 0.000 description 211
- 230000004048 modification Effects 0.000 description 50
- 238000012986 modification Methods 0.000 description 50
- 238000010586 diagram Methods 0.000 description 24
- 238000000034 method Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 20
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 10
- 230000000694 effects Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 8
- 230000003796 beauty Effects 0.000 description 4
- 238000011282 treatment Methods 0.000 description 4
- 230000037303 wrinkles Effects 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000007665 sagging Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000017531 blood circulation Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000008020 evaporation Effects 0.000 description 1
- 238000001704 evaporation Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
情報処理装置は、ユーザの顔の動画像情報を取得する手段と、前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段と、前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段と、を備える。 The information processing device includes means for acquiring moving image information of the user's face, means for extracting motion information related to the movement of the user's face based on the moving image information, and the user based on the motion information. It is provided with a means for identifying the habit of facial movement.
Description
本発明は、情報処理装置、及び、プログラムに関する。 The present invention relates to an information processing device and a program.
一般に、他人に対する印象を決定付ける要因の1つとして、顔の表情が挙げられる。例えば、眉をひそめる表情は、他人に対してネガティブな印象を与える。一方で、生活習慣などに起因して表情癖が生じることがある。例えば、パソコンを長時間使用する人は、無意識的に眉をひそめる表情癖ができ得る。この表情癖を有する人は、ポジティブな感情を持っていたとしても、意図せずに他人に対してネガティブな印象を与える。また、長年にわたる表情癖は、シワ又はたるみ等の肌特徴の表れの一因となり得る。
しかし、人は通常、自身の顔を鏡で見る際には表情を作っていることが多いため、本来の表情癖を知らない。近年、美容に関する関心が高まり、表情癖及び表情癖の影響で表れ得る肌特徴等を改善したいというニーズが高まっている。そのためには、まず、自身の表情癖を知ることが必要である。In general, facial expression is one of the factors that determine the impression of others. For example, a frowning expression gives a negative impression to others. On the other hand, facial expression habits may occur due to lifestyle habits. For example, a person who uses a personal computer for a long time may have a facial expression habit of unconsciously frowning. People with this facial habit unintentionally give a negative impression to others, even if they have positive emotions. In addition, facial expression habits over many years can contribute to the appearance of skin characteristics such as wrinkles or sagging.
However, people usually do not know their original facial habits because they often make facial expressions when looking at their faces in the mirror. In recent years, interest in cosmetology has increased, and there has been an increasing need for facial habits and the need to improve skin characteristics that may appear due to the effects of facial habits. For that purpose, it is first necessary to know one's facial expression habits.
人の顔の部位の動きを分析する技術として、例えば、特開2008−071179号公報に記載のものがある。特開2008−071179号公報では、時系列的に連続して撮影した複数の画像から得られた人の顔における各部位の状態を示す情報が、実在する人の顔における各部位の動きとして認められるか否かを、登録されている各部位の動きパターンに基づいて判定することが記載されている。 As a technique for analyzing the movement of a part of a human face, for example, there is one described in Japanese Patent Application Laid-Open No. 2008-071179. In Japanese Unexamined Patent Publication No. 2008-071179, information indicating the state of each part of a human face obtained from a plurality of images taken continuously in time series is recognized as the movement of each part of an existing human face. It is described that it is determined based on the movement pattern of each registered part.
特開2008−071179号公報では、顔画像における対象人物の顔の部位の動きが人らしい自然な動きに当てはまっているか否かを判定して、その顔画像の人物が実在する人か否かを判定するものであるため、対象人物の表情癖は判定されない。 In Japanese Unexamined Patent Publication No. 2008-071179, it is determined whether or not the movement of the facial part of the target person in the face image corresponds to the natural human-like movement, and whether or not the person in the face image actually exists. Since it is a judgment, the facial expression habit of the target person is not judged.
本発明の目的は、ユーザの表情癖を判定することである。 An object of the present invention is to determine a user's facial expression habit.
本発明の一態様は、
ユーザの顔の動画像情報を取得する手段を備え、
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、
情報処理装置である。One aspect of the present invention is
Equipped with a means to acquire moving image information of the user's face
A means for extracting motion information related to the movement of the user's face based on the moving image information is provided.
A means for identifying the movement habit of the user's face based on the movement information is provided.
It is an information processing device.
本発明によれば、ユーザの表情癖を判定することができる。 According to the present invention, the facial expression habit of the user can be determined.
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。 Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In addition, in the drawing for demonstrating the embodiment, the same components are in principle the same reference numerals, and the repeated description thereof will be omitted.
(1)情報処理システムの構成
情報処理システムの構成について説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。(1) Configuration of information processing system The configuration of the information processing system will be described. FIG. 1 is a block diagram showing a configuration of an information processing system of the present embodiment.
図1に示すように、情報処理システム1は、クライアント装置10と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(例えば、インターネット又はイントラネット)NWを介して接続される。As shown in FIG. 1, the
The
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、例えば、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
The
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、例えば、ウェブサーバである。
The
(1−1)クライアント装置の構成
クライアント装置10の構成について説明する。(1-1) Configuration of Client Device The configuration of the
図1に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14と、カメラ15と、を備える。
As shown in FIG. 1, the
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
The
プログラムは、例えば、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラムThe program includes, for example, the following program.
・ OS (Operating System) program ・ Application (for example, web browser) program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)The data includes, for example, the following data.
-Database referenced in information processing-Data obtained by executing information processing (that is, the execution result of information processing)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
The
入出力インタフェース13は、カメラ15に接続される。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。The input / output interface 13 is connected to the
The input / output interface 13 is configured to acquire a user's instruction from an input device connected to the
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
The communication interface 14 is configured to control communication between the
カメラ15は、動画像(例えば、ユーザの顔の動画像)を撮像するように構成される。
The
(1−2)サーバの構成
サーバ30の構成について説明する。(1-2) Server Configuration The configuration of the
図1に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
As shown in FIG. 1, the
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、例えば、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
The
プログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラムThe program includes, for example, the following program.
・ OS program ・ Application program that executes information processing
データは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果The data includes, for example, the following data.
・ Database referred to in information processing ・ Execution result of information processing
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
The
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、例えば、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、例えば、ディスプレイである。The input /
The input device is, for example, a keyboard, a pointing device, a touch panel, or a combination thereof.
The output device is, for example, a display.
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
The communication interface 34 is configured to control communication between the
(2)実施形態の概要
本実施形態の概要について説明する。図2は、本実施形態の概要の説明図である。(2) Outline of the Embodiment The outline of the present embodiment will be described. FIG. 2 is an explanatory diagram of an outline of the present embodiment.
図2に示すように、サーバ30は、クライアント装置10を介して、ユーザの顔の動画像情報を取得する。
サーバ30は、ユーザの顔の動画像情報に基づいて、ユーザの顔の動きに関する動き情報を抽出する。
サーバ30は、ユーザの顔の動きに関する動き情報に基づいて、ユーザの顔の動きの癖を特定する。As shown in FIG. 2, the
The
The
本実施形態によれば、ユーザの表情癖が判定される。これにより、ユーザは、自身の表情癖を知ることができる。 According to this embodiment, the facial expression habit of the user is determined. As a result, the user can know his / her facial expression habit.
なお、本実施形態において、「顔の動きの癖」と「表情癖」とは同義であり、交換可能に使用される。 In the present embodiment, "face movement habit" and "facial expression habit" are synonymous and are used interchangeably.
(3)データベース
本実施形態のデータベースについて説明する。以下のデータベースは、記憶装置31に記憶される。(3) Database The database of the present embodiment will be described. The following database is stored in the
(3−1)動き指示情報データベース
本実施形態の動き指示情報データベースについて説明する。図3は、本実施形態の動き指示情報データベースのデータ構造を示す図である。(3-1) Motion instruction information database The motion instruction information database of the present embodiment will be described. FIG. 3 is a diagram showing a data structure of the motion instruction information database of the present embodiment.
図3の動き指示情報データベースには、ユーザに対して提示する顔の動きを促すメッセージに関する動き指示情報が格納される。動き指示情報データベースは、「動き指示ID」フィールドと、「メッセージ内容」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The movement instruction information database of FIG. 3 stores movement instruction information related to a message prompting the movement of the face presented to the user. The motion instruction information database includes a "motion instruction ID" field and a "message content" field. Each field is associated with each other.
「動き指示ID」フィールドには、動き指示IDが格納される。動き指示IDは、動き指示を識別する動き指示識別情報の一例である。 A movement instruction ID is stored in the "movement instruction ID" field. The movement instruction ID is an example of the movement instruction identification information for identifying the movement instruction.
「メッセージ内容」フィールドには、ユーザに対して提示する顔の動きを促すメッセージに関する情報(例えば、テキスト)が格納される。なお、本実施形態では、説明を単純化するために、3つのレコードが格納されているものとする。 The "message content" field stores information (for example, text) about a message prompting the user to move the face. In this embodiment, it is assumed that three records are stored in order to simplify the explanation.
(3−2)表情癖情報データベース
本実施形態の表情癖情報データベースについて説明する。図4は、本実施形態の表情癖情報データベースのデータ構造を示す図である。(3-2) Facial expression habit information database The facial expression habit information database of the present embodiment will be described. FIG. 4 is a diagram showing a data structure of the facial expression habit information database of the present embodiment.
図4の表情癖情報データベースには、人の顔の動きの癖(以下「表情癖」という)に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression habit information database of FIG. 4 stores facial expression habit information related to the habit of movement of a person's face (hereinafter referred to as "facial expression habit"). The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "facial expression habit name" field, and an "advice" field. Each field is associated with each other.
「表情癖ID」フィールドには、表情癖IDが格納される。表情癖IDは、表情癖を識別する表情癖識別情報の一例である。 The facial expression habit ID is stored in the "facial expression habit ID" field. The facial expression habit ID is an example of facial expression habit identification information for identifying facial expression habits.
「特徴量」フィールドには、対応する表情癖についての顔の動画像における顔の各部位の特徴量に関する情報が格納される。特徴量は、例えば、顔の各部位の特徴点における変化量(例えば、顔の各部位の特徴点における相対的な位置の変化量(例えば、動きベクトル)及び顔の各部位の特徴点における色味の変化量のうちの少なくとも1つ)で示される。特徴量は、複数の人物から得られた顔の動画像に基づいてモデル化したものである。「特徴量」フィールドは、複数のサブフィールド(各「動き指示ID」フィールド)を含む。同じ表情癖でも動き指示IDが異なると特徴量も異なる。 The "feature amount" field stores information about the feature amount of each part of the face in the moving image of the face for the corresponding facial expression habit. The feature amount is, for example, the amount of change at the feature point of each part of the face (for example, the amount of change in the relative position at the feature point of each part of the face (for example, motion vector) and the color at the feature point of each part of the face). It is indicated by at least one of the changes in taste). The feature amount is modeled based on moving images of faces obtained from a plurality of people. The "feature amount" field includes a plurality of subfields (each "movement instruction ID" field). Even with the same facial expression habit, if the movement instruction ID is different, the feature amount is also different.
「表情癖名」フィールドには、表情癖の名称(以下「表情癖名」という)に関する情報(例えば、テキスト)が格納される。 In the "facial expression habit name" field, information (for example, text) regarding the name of the facial expression habit (hereinafter referred to as "facial expression habit name") is stored.
「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。表情癖の影響で表れ得る肌特徴は、例えば、シワ、たるみ、及びくすみのうちの少なくとも1つである。表情癖の影響で表れ得る顔特徴は、例えば、表情筋の変化である。なお、「対処する」とは、例えば、改善する、予防する、進行を抑止する、又は進行を緩やかにすることをいう。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits. The skin feature that can be manifested by the effects of facial habits is, for example, at least one of wrinkles, sagging, and dullness. Facial features that can appear under the influence of facial habits are, for example, changes in facial muscles. In addition, "to deal with" means, for example, improvement, prevention, restraint of progress, or slowing of progress.
(4)情報処理
本実施形態の情報処理について説明する。図5は、本実施形態の表情癖判定処理のシーケンス図である。図6は、図5の情報処理において表示される画面例を示す図である。(4) Information processing The information processing of the present embodiment will be described. FIG. 5 is a sequence diagram of the facial expression habit determination process of the present embodiment. FIG. 6 is a diagram showing an example of a screen displayed in the information processing of FIG.
図5に示すように、クライアント装置10は、判定条件の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。As shown in FIG. 5, the
Specifically, the
画面P100は、表示オブジェクトA100a〜A100dと、操作オブジェクトB100a〜B100cと、を含む。
表示オブジェクトA100a〜A100cは、ユーザに対して顔の動きを促すメッセージを含む。
表示オブジェクトA100dは、クライアント装置10に接続されたカメラ15が撮影する動画像を含む。
操作オブジェクトB100a〜B100cは、動画像の撮影を実行するためのユーザ指示を受け付けるオブジェクトである。操作オブジェクトB100a〜B100cは、それぞれ、表示オブジェクトA100a〜A100cと対応している。操作オブジェクトB100a〜B100cには、対応する動き指示IDが割り当てられている。The screen P100 includes display objects A100a to A100d and operation objects B100a to B100c.
The display objects A100a to A100c include a message prompting the user to move his / her face.
The display object A100d includes a moving image taken by the
The operation objects B100a to B100c are objects that receive user instructions for executing the shooting of moving images. The operation objects B100a to B100c correspond to the display objects A100a to A100c, respectively. Corresponding movement instruction IDs are assigned to the operation objects B100a to B100c.
ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100aを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100aに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100aを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100aに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100aに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。When the user operates the operation object B100a while pointing the
The
ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100bを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100bに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100bを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100bに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100bに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。When the user operates the operation object B100b while pointing the
The
ユーザが、カメラ15を自身の顔に向けながら操作オブジェクトB100cを操作すると、プロセッサ12は、表示オブジェクトA100dに含まれる動画像の動画像データを生成する。具体的には、ユーザは、表示オブジェクトA100cに表示されているメッセージ内容に合わせて顔の各部位を動かしながら、操作オブジェクトB100cを操作する。
プロセッサ12は、カメラ15によって撮像された動画像(つまり、表示オブジェクトA100cに表示されたメッセージに応じたユーザの顔の動画像)の動画像データと、操作オブジェクトB100cに割り当てられた動き指示IDと、を関連付けて記憶装置11に記憶する。When the user operates the operation object B100c while pointing the
The
プロセッサ12は、画面P101(図6)をディスプレイに表示する。
The
画面P101は、表示オブジェクトA101と、操作オブジェクトB101と、を含む。
表示オブジェクトA101は、ユーザに対して動画像の撮影が完了した旨を知らせるメッセージを含む。
操作オブジェクトB101は、生成された動画像データの送信を実行するためのユーザ指示を受け付けるオブジェクトである。The screen P101 includes a display object A101 and an operation object B101.
The display object A101 includes a message notifying the user that the shooting of the moving image is completed.
The operation object B101 is an object that receives a user instruction for executing the transmission of the generated moving image data.
ステップS100の後、クライアント装置10は、判定リクエスト(S101)を実行する。
具体的には、ユーザが、操作オブジェクトB101を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS100で記憶装置11に記憶された動画像データと動き指示IDの組合せAfter step S100, the
Specifically, when the user operates the operation object B101, the
The judgment request data includes the following information.
A combination of the moving image data stored in the
ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる動画像データから顔の各部位の特徴量を算出する。
プロセッサ32は、表情癖情報データベース(図4)を参照して、判定リクエストデータに含まれる動き指示IDに対応する各特徴量と、判定リクエストデータに含まれる動画像データから算出した特徴量とを比較し、動画像データにおける顔の動きについてその表情癖に該当するか否かを判断する。これを各表情癖について行う。例えば、動き指示ID「MES001」に関連付けられた動画像データについては、動き指示ID「MES001」に関連付けられた「特徴量」フィールドの各特徴量と比較する。
プロセッサ32は、表情癖情報データベース(図4)を参照して、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。After step S101, the
Specifically, the
The
The
ステップS300の後、サーバ30は、判定レスポンス(S301)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS300で特定された表情癖名に関する情報
・ステップS300で特定されたアドバイス情報After step S300, the
Specifically, the
The judgment response data includes the following information.
-Information on facial expression habit names specified in step S300-Advice information specified in step S300
ステップS301の後、クライアント装置10は、判定結果の提示(S102)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P102(図6)をディスプレイに表示する。After step S301, the
Specifically, the
画面P102は、表示オブジェクトA102を含む。
表示オブジェクトA102は、表情癖名、及び、対応するアドバイス情報を含む。アドバイス情報は、例えば、以下のうちの少なくとも1つであり得る。
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための化粧品に関する情報(例えば、製品名、塗布部位、塗布量、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容器具に関する情報(例えば、製品名、使用方法、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容施術に関する情報(例えば、施術の種類(マッサージ、エステ、ヨガ等)、やり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのエクササイズに関する情報(例えば、ユーザ自身で行う表情エクササイズのやり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのその他のアドバイス情報The screen P102 includes a display object A102.
The display object A102 includes a facial expression habit name and corresponding advice information. The advice information can be, for example, at least one of the following:
-Facial expression habits and information on cosmetics for dealing with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, product name, application site, application amount, product image, etc.)
-Information on facial habits and beauty equipment for dealing with at least one of the skin features and facial features that may appear due to the effects of facial habits (eg, product name, usage, product image, etc.)
-Information on facial habits and beauty treatments to deal with at least one of the skin and facial features that may be affected by facial habits (eg, type of treatment (massage, esthetics, yoga, etc.), method, etc.)
-Facial expression habits and information on exercises to deal with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, how to perform facial expression exercises by the user).
• Other advice information for dealing with facial habits and at least one of the skin and facial features that may be affected by facial habits.
本実施形態によれば、顔の動画像をクライアント装置10に与えることにより、表情癖が判定される。これにより、ユーザは、自身の表情癖を知ることができる。また、表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報が提示される。これにより、ユーザは、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための対策をとることができる。
According to the present embodiment, the facial expression habit is determined by giving the moving image of the face to the
また、表示されたメッセージに応じたユーザの顔の動きの動画像データと、対応する動き指示IDと、を関連付けて記憶することにより、ステップS300において動き指示のメッセージ内容に対応する特徴量を参照することができる。そのため、精度よく表情癖を特定することができる。 Further, by storing the moving image data of the movement of the user's face according to the displayed message and the corresponding movement instruction ID in association with each other, the feature amount corresponding to the message content of the movement instruction is referred to in step S300. can do. Therefore, the facial expression habit can be identified with high accuracy.
(5)変形例
本実施形態の変形例について説明する。(5) Modification Example A modification of the present embodiment will be described.
(5−1)変形例1
変形例1について説明する。変形例1は、ユーザ情報に基づいてユーザの表情癖を推測し、推測された表情癖に関する情報を提示する例である。(5-1)
(5−1−1)個人特性関連情報データベース
変形例1の個人特性関連情報データベースについて説明する。図7は、変形例1の個人特性関連情報データベースのデータ構造を示す図である。(5-1-1) Personal Characteristic Related Information Database The personal characteristic related information database of
図7の個人特性関連情報データベースには、個人特性と表情癖との関係性に関する情報が格納される。個人特性関連情報データベースは、「個人特性ID」フィールドと、「個人特性タイプ」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。 The personal characteristic-related information database of FIG. 7 stores information on the relationship between personal characteristics and facial expression habits. The personal trait related information database includes a "personal trait ID" field, a "personal trait type" field, a "facial expression habit name" field, and an "advice" field.
「個人特性ID」フィールドには、個人特性を識別する個人特性IDが格納される。個人特性IDは、個人特性を識別する個人特性識別情報の一例である。 In the "personal characteristic ID" field, a personal characteristic ID that identifies the individual characteristic is stored. The personal characteristic ID is an example of personal characteristic identification information that identifies an individual characteristic.
「個人特性タイプ」フィールドには、個人特性のタイプに関する情報が格納される。「個人特性」とは、内面特性(例えば、性格特性、価値観特性、美容意識)及び行動特性(例えば、ライフスタイル、習慣)のうちの少なくとも1つを含む。 The Personal Characteristic Type field stores information about the type of personal characteristic. The "individual trait" includes at least one of internal traits (eg, personality traits, values traits, cosmetological consciousness) and behavioral traits (eg, lifestyle, habits).
「表情癖名」フィールドには、そのレコードにおける個人特性のタイプに該当する人物が有すると推測される表情癖の名称(表情癖名)に関する情報(例えば、テキスト)が格納される。個人特性のタイプから推測される表情癖は、複数の人物から得られた統計データに基づいている。 The "facial expression habit name" field stores information (for example, text) regarding the name of the facial expression habit (facial expression habit name) that is presumed to be possessed by the person corresponding to the type of personal characteristic in the record. Facial habits inferred from the type of personal trait are based on statistical data obtained from multiple individuals.
「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits.
(5−1−2)肌状態関連情報データベース
変形例1の肌状態関連情報データベースについて説明する。図8は、変形例1の肌状態関連情報データベースのデータ構造を示す図である。(5-1-2) Skin Condition-Related Information Database The skin condition-related information database of
図8の肌状態関連情報データベースには、肌の状態(以下「肌状態」という)と表情癖との関係性に関する情報が格納される。肌状態関連情報データベースは、「肌状態ID」フィールドと、「肌状態タイプ」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。 The skin condition-related information database of FIG. 8 stores information on the relationship between the skin condition (hereinafter referred to as “skin condition”) and facial expression habits. The skin condition related information database includes a "skin condition ID" field, a "skin condition type" field, a "facial expression habit name" field, and an "advice" field.
「肌状態ID」フィールドには、肌状態を識別する肌状態IDが格納される。肌状態IDは、肌状態を識別する肌状態識別情報の一例である。 In the "skin condition ID" field, a skin condition ID that identifies the skin condition is stored. The skin condition ID is an example of skin condition identification information for identifying the skin condition.
「肌状態タイプ」フィールドには、肌状態のタイプに関する情報が格納される。「肌状態」とは、人の肌の状態を指す。肌状態は、例えば、シワ、皮膚の粘弾性、皮膚の水分量、皮膚の水分蒸散量等に関する。 The "Skin Condition Type" field stores information about the type of skin condition. "Skin condition" refers to the condition of human skin. The skin condition relates to, for example, wrinkles, viscoelasticity of the skin, water content of the skin, water evaporation of the skin, and the like.
「表情癖名」フィールドには、そのレコードにおける肌状態のタイプに該当する人物が有すると推測される表情癖の名称(表情癖名)に関する情報(例えば、テキスト)が格納される。肌状態のタイプから推測される表情癖は、複数の人物から得られた統計データに基づいている。 The "facial expression habit name" field stores information (for example, text) regarding the name of the facial expression habit (facial expression habit name) presumed to be possessed by the person corresponding to the type of skin condition in the record. Facial habits inferred from the type of skin condition are based on statistical data obtained from multiple individuals.
「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits.
(5−1−3)情報処理
変形例1の情報処理について説明する。図9は、変形例1の表情癖判定処理のシーケンス図である。図10は、図9の情報処理において表示される画面例を示す図である。(5-1-3) Information Processing The information processing of
図9に示すように、クライアント装置10は、判定条件の受付(S110)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。As shown in FIG. 9, the
Specifically, the
ユーザは、図6と同様に、操作オブジェクトB100a、B100b及びB100cを操作する。これにより、表示オブジェクトA100a〜A100cのそれぞれに対応するユーザの顔の動画像の動画像データが生成される。各動画像データには、対応する動き指示IDが関連づけられている。各動画像データは、記憶装置11に記憶される。
The user operates the operation objects B100a, B100b and B100c in the same manner as in FIG. As a result, moving image data of the moving image of the user's face corresponding to each of the display objects A100a to A100c is generated. A corresponding motion instruction ID is associated with each motion image data. Each moving image data is stored in the
プロセッサ12は、画面P201(図10)をディスプレイに表示する。
The
画面P201は、フィールドオブジェクトF201a〜F201bと、操作オブジェクトB201と、を含む。
フィールドオブジェクトF201aは、個人特性に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。個人特性に関する情報は、例えば、ユーザが自己認識している個人特性のタイプに関する情報、個人特性を判定するアプリケーションによる判定結果に関する情報、又は、個人特性をサーバ30が判定するための所定の質問事項に対する回答に関する情報である。
フィールドオブジェクトF201bは、肌状態に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。肌状態に関する情報は、例えば、ユーザが自己認識している肌状態のタイプに関する情報、肌状態を判定するアプリケーションもしくは測定装置による判定結果に関する情報、肌状態をサーバ30が判定するための所定の質問事項に対する回答に関する情報、又は、顔の肌を含む画像データ(静止画像データもしくは動画像データ)である。
操作オブジェクトB201は、生成された動画像データ及びフィールドオブジェクトF201a〜F201bに入力されたユーザ指示をサーバ30に送信するためのユーザ指示を受け付けるオブジェクトである。The screen P201 includes field objects F201a to F201b and operation objects B201.
The field object F201a is an object that receives a user instruction for designating information regarding personal characteristics. The information about the personal characteristic is, for example, information about the type of personal characteristic that the user is self-recognizing, information about the judgment result by the application for determining the personal characteristic, or a predetermined question for the
The field object F201b is an object that receives a user instruction for designating information regarding the skin condition. The information on the skin condition includes, for example, information on the type of skin condition that the user is self-recognizing, information on the determination result by the application or measuring device for determining the skin condition, and a predetermined question for the
The operation object B201 is an object that receives the user instructions for transmitting the generated moving image data and the user instructions input to the field objects F201a to F201b to the
ステップS110の後、クライアント装置10は、判定リクエスト(S111)を実行する。
具体的には、ユーザが、フィールドオブジェクトF201a及びフィールドオブジェクトF201bにユーザ指示を入力し、かつ、操作オブジェクトB201を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS110で記憶装置11に記憶された動画像データと動き指示IDの組合せ
・フィールドオブジェクトF201aに指定された個人特性に関する情報
・フィールドオブジェクトF201bに指定された肌状態に関する情報After step S110, the
Specifically, when the user inputs a user instruction to the field object F201a and the field object F201b and operates the operation object B201, the
The judgment request data includes the following information.
-Combination of moving image data and movement instruction ID stored in the
ステップS111の後、サーバ30は、図5と同様に、表情癖の特定(S300)を実行する。
After step S111, the
ステップS300の後、サーバ30は、表情癖の推測(S311)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる個人特性に関する情報に基づいて、ユーザの個人特性のタイプを特定する。
プロセッサ32は、個人特性関連情報データベース(図7)を参照して、特定された個人特性のタイプに関連付けられた個人特性IDを特定する。
プロセッサ32は、個人特性関連情報データベース(図7)を参照して、特定された個人特性IDに関連付けられた表情癖名に関する情報を特定する。プロセッサ32は、特定された表情癖名に関する情報のうち、ステップS300で特定されていない表情癖名に関する情報を特定する。この表情癖名に係る表情癖は、ユーザがステップS110の時点では有していないが、将来的に有する可能性がある表情癖(以下「推測表情癖」という)を示す。
プロセッサ32は、推測表情癖に関し、個人特性関連情報データベース(図7)を参照して、特定された表情癖名に関する情報に対応するアドバイス情報を特定する。
プロセッサ32は、判定リクエストデータに含まれる肌状態に関する情報に基づいて、ユーザの肌状態のタイプを特定する。
プロセッサ32は、肌状態関連情報データベース(図8)を参照して、特定された肌状態のタイプに関連付けられた肌状態IDを特定する。
プロセッサ32は、肌状態関連情報データベース(図8)を参照して、特定された肌状態IDに関連付けられた表情癖名に関する情報を特定する。プロセッサ32は、特定された表情癖名に関する情報のうち、ステップS300で特定されていない表情癖名に関する情報を特定する。この表情癖名に係る表情癖は、ユーザがステップS110の時点では有していないが、将来的に有する可能性がある表情癖(推測表情癖)を示す。
プロセッサ32は、推測表情癖に関し、肌状態関連情報データベース(図8)を参照して、特定された表情癖名に関する情報に対応するアドバイス情報を特定する。After step S300, the
Specifically, the
The
The
The
The
The
The
The
ステップS311の後、サーバ30は、判定レスポンス(S312)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS300で特定された表情癖名に関する情報
・ステップS300で特定されたアドバイス情報
・ステップS311で特定された推測表情癖の表情癖名に関する情報
・ステップS311で特定されたアドバイス情報After step S311 the
Specifically, the
The judgment response data includes the following information.
-Information on the facial expression habit name specified in step S300-Advice information specified in step S300-Information on the facial expression habit name of the guessed facial expression habit specified in step S311-Advice information specified in step S311
ステップS312の後、クライアント装置10は、判定結果の提示(S112)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P202(図10)をディスプレイに表示する。After step S312, the
Specifically, the
画面P202は、表示オブジェクトA202a〜A202bを含む。
表示オブジェクトA202aは、ステップS300で特定された表情癖名及び対応するアドバイス情報を含む。
表示オブジェクトA202bは、ステップS311で特定された推測表情癖の表情癖名及び対応するアドバイス情報を含む。アドバイス情報は、例えば、以下のうちの少なくとも1つであり得る。
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための化粧品に関する情報(例えば、製品名、塗布部位、塗布量、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容器具に関する情報(例えば、製品名、使用方法、製品画像等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための美容施術に関する情報(例えば、施術の種類(マッサージ、エステ、ヨガ等)、やり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのエクササイズに関する情報(例えば、ユーザ自身で行う表情エクササイズのやり方等)
・表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのその他のアドバイス情報
変形例1によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。The screen P202 includes display objects A202a to A202b.
The display object A202a includes the facial expression habit name identified in step S300 and the corresponding advice information.
The display object A202b includes the facial expression habit name of the guessed facial expression habit identified in step S311 and the corresponding advice information. The advice information can be, for example, at least one of the following:
-Facial expression habits and information on cosmetics for dealing with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, product name, application site, application amount, product image, etc.)
-Information on facial habits and beauty equipment for dealing with at least one of the skin features and facial features that may appear due to the effects of facial habits (eg, product name, usage, product image, etc.)
-Information on facial habits and beauty treatments to deal with at least one of the skin and facial features that may be affected by facial habits (eg, type of treatment (massage, esthetics, yoga, etc.), method, etc.)
-Facial expression habits and information on exercises to deal with at least one of the skin features and facial features that may appear due to the effects of facial expression habits (for example, how to perform facial expression exercises by the user).
-Facial expression habits and other advice information for dealing with at least one of the skin features and facial features that may appear due to the effects of facial expression habits According to the first modification, the user may have facial expressions in the future. You can know the habit. Therefore, the user takes measures based on the advice information and the like before the facial expression habit actually appears on the face, so that at least one of the skin feature and the facial feature that can appear due to the influence of the facial expression habit and the facial expression habit appears. The possibility can be reduced.
(5−2)変形例2
変形例2について説明する。変形例2は、ユーザ情報に基づいて表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する例である。(5-2) Modification 2
Modification 2 will be described. The second modification is an example in which the facial expression habit and the advice information for coping with at least one of the skin features and the facial features that may appear due to the influence of the facial expression habit are selected based on the user information.
(5−2−1)表情癖情報データベース
変形例2の表情癖情報データベースについて説明する。図11は、変形例2の表情癖情報データベースのデータ構造を示す図である。(5-2-1) Facial expression habit information database The facial expression habit information database of Modification 2 will be described. FIG. 11 is a diagram showing a data structure of the facial expression habit information database of the second modification.
図11の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「個人特性タイプ」フィールドと、「アドバイス」フィールドと、「表情癖名」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression habit information database of FIG. 11 stores facial expression habit information related to facial expression habits. The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "personal characteristic type" field, an "advice" field, and a "facial expression habit name" field. Each field is associated with each other.
「表情癖ID」フィールド、「特徴量」フィールド、及び、「表情癖名」フィールドは、図4の説明と同様である。 The “facial expression habit ID” field, the “feature amount” field, and the “facial expression habit name” field are the same as those described in FIG.
「個人特性タイプ」フィールドには、個人特性のタイプに関する情報が格納される。 The Personal Characteristic Type field stores information about the type of personal characteristic.
「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。1つの表情癖IDに対して複数のアドバイス情報が格納される。アドバイス情報は、個人特性のタイプに関する情報と関連付けられている。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits. A plurality of advice information is stored for one facial expression habit ID. Advice information is associated with information about the type of personal trait.
(5−2−2)情報処理
変形例2の情報処理について説明する。図12は、変形例2の表情癖判定処理のシーケンス図である。図13は、図12の情報処理において表示される画面例を示す図である。(5-2-2) Information processing The information processing of the modified example 2 will be described. FIG. 12 is a sequence diagram of the facial expression habit determination process of the second modification. FIG. 13 is a diagram showing an example of a screen displayed in the information processing of FIG.
図12に示すように、クライアント装置10は、判定条件の受付(S120)を実行する。
具体的には、プロセッサ12は、画面P100(図6)をディスプレイに表示する。As shown in FIG. 12, the
Specifically, the
ユーザは、図6と同様に、操作オブジェクトB100a、B100b及びB100cを操作する。これにより、表示オブジェクトA100a〜A100cのそれぞれに対応するユーザの顔の動画像の動画像データが生成される。各動画像データには、対応する動き指示IDが関連づけられている。各動画像データは、記憶装置11に記憶される。
The user operates the operation objects B100a, B100b and B100c in the same manner as in FIG. As a result, moving image data of the moving image of the user's face corresponding to each of the display objects A100a to A100c is generated. A corresponding motion instruction ID is associated with each motion image data. Each moving image data is stored in the
プロセッサ12は、画面P301(図13)をディスプレイに表示する。
The
画面P301は、フィールドオブジェクトF301と、操作オブジェクトB301と、を含む。
フィールドオブジェクトF301は、個人特性に関する情報を指定するためのユーザ指示を受け付けるオブジェクトである。個人特性に関する情報は、例えば、ユーザが自己認識している個人特性のタイプに関する情報、個人特性を判定するアプリケーションによる判定結果に関する情報、又は、個人特性をサーバ30が判定するための所定の質問事項に対する回答に関する情報である。
操作オブジェクトB301は、生成された動画像データ及びフィールドオブジェクトF301に入力されたユーザ指示をサーバ30に送信するためのユーザ指示を受け付けるオブジェクトである。The screen P301 includes a field object F301 and an operation object B301.
The field object F301 is an object that receives a user instruction for designating information regarding personal characteristics. The information about the personal characteristic is, for example, information about the type of personal characteristic that the user is self-recognizing, information about the judgment result by the application for determining the personal characteristic, or a predetermined question for the
The operation object B301 is an object that receives the user instruction for transmitting the generated moving image data and the user instruction input to the field object F301 to the
ステップS120の後、クライアント装置10は、判定リクエスト(S121)を実行する。
具体的には、ユーザが、フィールドオブジェクトF201にユーザ指示を入力し、かつ、操作オブジェクトB301を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS120で記憶装置11に記憶された動画像データと動き指示IDの組合せ
・フィールドオブジェクトF301に指定された個人特性に関する情報After step S120, the
Specifically, when the user inputs a user instruction to the field object F201 and operates the operation object B301, the
The judgment request data includes the following information.
-Combination of the moving image data and the movement instruction ID stored in the
ステップS121の後、サーバ30は、表情癖の特定(S320)を実行する。
具体的には、プロセッサ32は、表情癖情報データベース(図11)を参照して、図5と同様に、動画像データにおける顔の動きについて各表情癖に該当するか否かを判断する。
プロセッサ32は、表情癖情報データベース(図11)を参照して、該当すると判断した表情癖の表情癖名に関する情報を特定する。After step S121, the
Specifically, the
The
ステップS320の後、サーバ30は、アドバイス情報の特定(S321)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる個人特性に関する情報に基づいて、ユーザの個人特性のタイプを特定する。プロセッサ32は、表情癖情報データベース(図11)を参照して、S320で特定された表情癖名のレコードにおいて、特定された個人特性のタイプに関連付けられたアドバイス情報を特定する。After step S320, the
Specifically, the
ステップS321の後、サーバ30は、判定レスポンス(S322)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS320で特定された表情癖名に関する情報
・ステップS321で特定されたアドバイス情報After step S321, the
Specifically, the
The judgment response data includes the following information.
-Information on facial expression habit names specified in step S320-Advice information specified in step S321
ステップS322の後、クライアント装置10は、判定結果の提示(S122)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P302(図13)をディスプレイに表示する。
画面P302は、表示オブジェクトA302を含む。
表示オブジェクトA302は、表情癖名、及び、対応するアドバイス情報を含む。
変形例2によれば、ユーザは、ユーザ情報に基づいたアドバイス情報を得ることができる。例えば、同じ表情癖について、「1つのことを辛抱強く続ける」特性であるユーザに対しては「基礎化粧品Aを半年間毎日使用する」というアドバイス情報が提示される一方、「様々なことに挑戦する」特性であるユーザに対しては「美顔器Bとマッサージ法Cとを交互に1週間おきに3ヶ月間施す」というアドバイス情報が提示される。そのため、ユーザは、自身に適したアドバイス情報に従った対策をとることができる。After step S322, the
Specifically, the
The screen P302 includes the display object A302.
The display object A302 includes a facial expression habit name and corresponding advice information.
According to the second modification, the user can obtain advice information based on the user information. For example, for users who have the same facial habit of "keeping one thing patiently", advice information "use basic cosmetics A every day for half a year" is presented, while "trying various things". For the user who has the characteristic, the advice information that "facial expression device B and massage method C are alternately applied every other week for 3 months" is presented. Therefore, the user can take measures according to the advice information suitable for himself / herself.
(5−3)変形例3
変形例3について説明する。変形例3は、ユーザの肌の状態の推測情報を提示する例である。(5-3) Modification 3
Modification 3 will be described. Modification 3 is an example of presenting estimation information of the user's skin condition.
(5−3−1)表情癖情報データベース
変形例3の表情癖情報データベースについて説明する。図14は、変形例3の表情癖情報データベースのデータ構造を示す図である。(5-3-1) Facial expression habit information database The facial expression habit information database of Modification 3 will be described. FIG. 14 is a diagram showing a data structure of the facial expression habit information database of the modified example 3.
図14の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、「参照肌状態」フィールドと、を含む。各フィールドは、互いに関連付けられている。 The facial expression habit information database of FIG. 14 stores facial expression habit information related to facial expression habits. The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "facial expression habit name" field, an "advice" field, and a "reference skin condition" field. Each field is associated with each other.
「表情癖ID」フィールド、「特徴量」フィールド、「表情癖名」フィールド、及び、「アドバイス」フィールドは、図4の説明と同様である。 The “facial expression habit ID” field, the “feature amount” field, the “facial expression habit name” field, and the “advice” field are the same as those described in FIG.
「参照肌状態」フィールドには、そのレコードにおける表情癖を有する人物が備えていると推測される肌状態に関する情報(例えば、テキスト)が格納される。表情癖から推測される肌状態は、複数の人物から得られた統計データに基づいている。 The "reference skin condition" field stores information (eg, text) about the skin condition that is presumed to be possessed by the person having the facial expression habit in the record. The skin condition inferred from facial habits is based on statistical data obtained from multiple persons.
(5−3−2)情報処理
変形例3の情報処理について説明する。図15は、変形例3の表情癖判定処理のシーケンス図である。図16は、図15の情報処理において表示される画面例を示す図である。(5-3-2) Information processing The information processing of the modified example 3 will be described. FIG. 15 is a sequence diagram of the facial expression habit determination process of the modified example 3. FIG. 16 is a diagram showing an example of a screen displayed in the information processing of FIG.
図15に示すように、クライアント装置10は、図5と同様に、判定条件の受付(S100)及び判定リクエスト(S101)を実行する。
As shown in FIG. 15, the
ステップS101の後、サーバ30は、表情癖情報データベース(図14)を参照して、図5と同様に、表情癖の特定(S330)を実行する。
After step S101, the
ステップS330の後、サーバ30は、肌状態の推測(S331)を実行する。
具体的には、プロセッサ32は、表情癖情報データベース(図14)を参照して、ステップS330で特定された表情癖名に関する情報に関連付けられた参照肌状態に関する情報を、推測肌状態として特定する。After step S330, the
Specifically, the
ステップS331の後、サーバ30は、判定レスポンス(S332)を実行する。
具体的には、プロセッサ32は、判定レスポンスデータをクライアント装置10に送信する。
判定レスポンスデータは、以下の情報を含む。
・ステップS330で特定された表情癖名に関する情報
・ステップS330で特定されたアドバイス情報
・ステップS331で特定された推測肌状態に関する情報After step S331, the
Specifically, the
The judgment response data includes the following information.
-Information on facial expression habit names specified in step S330-Advice information specified in step S330-Information on estimated skin condition specified in step S331
ステップS332の後、クライアント装置10は、判定結果の提示(S132)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P402(図16)をディスプレイに表示する。After step S332, the
Specifically, the
画面P402は、表示オブジェクトA402を含む。
表示オブジェクトA402は、表情癖名、対応するアドバイス情報、及び、推測肌状態を含む。
変形例3によれば、ユーザは、推測される肌の状態を知ることができる。そのため、ユーザは、表情癖の原因となっている可能性がある肌の状態、又は、将来的な肌の状態を知ることができ、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処することができる。The screen P402 includes the display object A402.
The display object A402 includes a facial expression habit name, corresponding advice information, and a guessed skin condition.
According to the third modification, the user can know the presumed skin condition. Therefore, the user can know the skin condition that may be the cause of the facial expression habit or the future skin condition, and the skin characteristics that can be more appropriately expressed by the facial expression habit and the influence of the facial expression habit. And at least one of facial features can be addressed.
(5−4)変形例4
変形例4について説明する。変形例4は、1つの動画像データで複数のメッセージ内容に対応する例である。(5-4) Modification 4
A modification 4 will be described. Modification 4 is an example in which one moving image data corresponds to a plurality of message contents.
(5−4−1)情報処理
変形例4の情報処理について説明する。図17は、変形例4の情報処理において表示される画面例を示す図である。(5-4-1) Information processing The information processing of the modified example 4 will be described. FIG. 17 is a diagram showing an example of a screen displayed in the information processing of the modified example 4.
図5に示すように、クライアント装置10は、判定条件の受付(S100)を実行する。
具体的には、プロセッサ12は、画面P500(図17)をディスプレイに表示する。As shown in FIG. 5, the
Specifically, the
画面P500は、表示オブジェクトA500a〜A500bと、操作オブジェクトB500と、を含む。
表示オブジェクトA500aは、ユーザに対して顔の動きを促すメッセージを含む。
表示オブジェクトA500bは、クライアント装置10に接続されたカメラ15が撮影する動画像を含む。
操作オブジェクトB500は、動画像の撮影を実行するためのユーザ指示を受け付けるオブジェクトである。The screen P500 includes display objects A500a to A500b and operation objects B500.
The display object A500a includes a message prompting the user to move his / her face.
The display object A500b includes a moving image taken by the
The operation object B500 is an object that receives a user instruction for executing shooting of a moving image.
ユーザが操作オブジェクトB500を操作すると、プロセッサ12は、ステップS100(図5)において、操作オブジェクトB500の操作からn秒毎に表示オブジェクトA100に異なるメッセージ内容を表示する。
ユーザがメッセージ内容に合わせて顔の各部位を動かすと、プロセッサ12は、カメラ15が撮像した動画像データと、操作オブジェクトB100の操作からの経過時間nと、を関連付けて記憶装置11に記憶する。When the user operates the operation object B500, the
When the user moves each part of the face according to the content of the message, the
プロセッサ12は、画面P101(図6)をディスプレイに表示する。
ステップS100の後、クライアント装置10は、判定リクエスト(S101)を実行する。
具体的には、ユーザが、操作オブジェクトB101を操作すると、プロセッサ12は、判定リクエストデータをサーバ30に送信する。
判定リクエストデータは、以下の情報を含む。
・ステップS100で記憶装置11に記憶された動画像データと経過時間nとの組合せThe
After step S100, the
Specifically, when the user operates the operation object B101, the
The judgment request data includes the following information.
A combination of the moving image data stored in the
ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、記憶装置31には、経過時間nと、メッセージ内容と、が関連付けて記憶されている。
プロセッサ32は、判定リクエストデータに含まれる動画像データと経過時間nの組合せに基づいて、当該動画像データに対応するメッセージ内容を特定する。
図5と同様に、プロセッサ32は、特徴量の比較を行い、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。After step S101, the
Specifically, the
The
Similar to FIG. 5, the
ステップS300の後、サーバ30は、図5と同様に、判定レスポンス(S301)を実行する。
After step S300, the
ステップS301の後、クライアント装置10は、図5と同様に、判定結果の提示(S102)を実行する。
After step S301, the
変形例4によれば、1つの動画像データで複数のメッセージ内容に対応することできる。そのため、ユーザは、より簡単な操作で判定条件を指定することができる。 According to the fourth modification, one moving image data can correspond to a plurality of message contents. Therefore, the user can specify the determination condition with a simpler operation.
(5−5)変形例5
変形例5について説明する。変形例5は、アドバイス情報がメッセージ内容によって異なる例である。(5-5) Modification 5
A modified example 5 will be described. Modification 5 is an example in which the advice information differs depending on the content of the message.
(5−5−1)表情癖情報データベース
変形例5の表情癖情報データベースについて説明する。図18は、変形例5の表情癖情報データベースのデータ構造を示す図である。(5-5-1) Facial Expression Habit Information Database The facial expression habit information database of Modification 5 will be described. FIG. 18 is a diagram showing a data structure of the facial expression habit information database of the modified example 5.
図18の表情癖情報データベースには、表情癖に関する表情癖情報が格納される。表情癖情報データベースは、「表情癖ID」フィールドと、「特徴量」フィールドと、「表情癖名」フィールドと、「アドバイス」フィールドと、を含む。各フィールドは、互いに関連付けられている。
表情癖情報データベースは、動き指示IDに関連付けられている。The facial expression habit information database of FIG. 18 stores facial expression habit information related to facial expression habits. The facial expression habit information database includes a "facial expression habit ID" field, a "feature amount" field, a "facial expression habit name" field, and an "advice" field. Each field is associated with each other.
The facial expression habit information database is associated with the movement instruction ID.
「表情癖ID」フィールド、「特徴量」フィールド、及び、「表情癖名」フィールドは、図4の説明と同様である。 The “facial expression habit ID” field, the “feature amount” field, and the “facial expression habit name” field are the same as those described in FIG.
「アドバイス」フィールドには、対応する表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報(例えば、テキスト又は画像データ)が格納される。変形例5では、同じ表情癖でも動き指示IDが異なるとアドバイス情報も異なる。 The "advice" field stores advice information (eg, text or image data) for dealing with the corresponding facial habits and at least one of the skin features and facial features that may appear under the influence of the facial habits. In the modified example 5, even if the facial expression habit is the same, if the movement instruction ID is different, the advice information is also different.
(5−5−2)情報処理
変形例5の情報処理について説明する。図19は、変形例5の情報処理において表示される画面例を示す図である。(5-5-2) Information Processing The information processing of the modified example 5 will be described. FIG. 19 is a diagram showing an example of a screen displayed in the information processing of the modified example 5.
クライアント装置10は、図5と同様に、判定条件の受付(S100)及び判定リクエスト(S101)を実行する。
The
ステップS101の後、サーバ30は、表情癖の特定(S300)を実行する。
具体的には、変形例5では、プロセッサ32は、判定リクエストデータに含まれる動き指示IDに関連付けられた表情癖情報データベース(図18)を参照して、各特徴量と、判定リクエストデータに含まれる動画像データから算出した特徴量とを比較し、動画像データにおける顔の動きについてその表情癖に該当するか否かを判断する。
プロセッサ32は、表情癖情報データベース(図18)を参照して、該当すると判断した表情癖の表情癖名に関する情報及び対応するアドバイス情報を特定する。After step S101, the
Specifically, in the modification 5, the
The
ステップS300の後、サーバ30は、図5と同様に、判定レスポンス(S301)を実行する。
After step S300, the
ステップS301の後、クライアント装置10は、判定結果の提示(S102)を実行する。
具体的には、プロセッサ12は、判定レスポンスデータに基づいて、画面P602(図19)をディスプレイに表示する。After step S301, the
Specifically, the
画面P602は、表示オブジェクトA602を含む。
表示オブジェクトA602は、表情癖名、及び、対応するアドバイス情報を含む。The screen P602 includes a display object A602.
The display object A602 includes a facial expression habit name and corresponding advice information.
変形例5によれば、メッセージ内容が考慮されたアドバイス情報が提示される。そのため、ユーザは、より的確なアドバイス情報を知ることができる。 According to the fifth modification, the advice information in consideration of the message content is presented. Therefore, the user can know more accurate advice information.
(6)本実施形態の小括
本実施形態について小括する。(6) Summary of the present embodiment A summary of the present embodiment will be given.
本実施形態の第1態様は、
ユーザの顔の動画像情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
動画像情報に基づいて、ユーザの顔の動きに関する動き情報を抽出する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
動き情報に基づいて、ユーザの顔の動きの癖を特定する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。The first aspect of this embodiment is
A means for acquiring moving image information of a user's face (for example, a
A means for extracting motion information related to the movement of the user's face based on the motion image information (for example, a
A means for identifying a user's facial movement habit based on motion information (for example, a
An information processing device (for example, a server 30).
第1態様によれば、ユーザの顔の動きの癖(表情癖)が判定される。これにより、ユーザが自身の表情癖を知るための結果を生成することができる。 According to the first aspect, the user's facial movement habit (facial expression habit) is determined. As a result, the user can generate a result for knowing his / her facial expression habit.
本実施形態の第2態様は、
特定された動きの癖に関する情報を提示する手段(例えば、ステップS301の処理を実行するプロセッサ32)を備える、
情報処理装置である。The second aspect of this embodiment is
A means for presenting information about the identified movement habits (eg, a
It is an information processing device.
第2態様によれば、ユーザに表情癖を知るための結果が提示される。これにより、ユーザは、自身の表情癖を知ることができる。 According to the second aspect, the result for knowing the facial expression habit is presented to the user. As a result, the user can know his / her facial expression habit.
本実施形態の第3態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、ユーザの顔の動きの癖を推測する手段(例えば、ステップS311の処理を実行するプロセッサ32)を備え、
推測された動きの癖に関する情報を提示する手段(例えば、ステップS312の処理を実行するプロセッサ32)を備える、
情報処理装置である。The third aspect of this embodiment is
A means for acquiring user information about a user (for example, a
A means for estimating a user's facial movement habit based on user information (for example, a
A means (for example, a
It is an information processing device.
第3態様によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。 According to the third aspect, the user can know the facial expression habits that may be possessed in the future. Therefore, the user takes measures based on the advice information and the like before the facial expression habit actually appears on the face, so that at least one of the skin feature and the facial feature that can appear due to the influence of the facial expression habit and the facial expression habit appears. The possibility can be reduced.
本実施形態の第4態様は、
ユーザ情報は、ユーザの個人特性、及び体調のうちの少なくとも1つに関する情報を含む、
情報処理装置である。The fourth aspect of this embodiment is
User information includes information about at least one of the user's personal characteristics and physical condition.
It is an information processing device.
第4態様によれば、ユーザは、個人特性、及び体調のうちの少なくとも1つと相関のある将来的に有する可能性がある表情癖を知ることができる。 According to the fourth aspect, the user can know the personal characteristics and the facial expression habits that may have in the future that correlate with at least one of the physical conditions.
本実施形態の第5態様は、
ユーザ情報はユーザの肌又は顔の状態に関する情報を含む、
情報処理装置である。A fifth aspect of this embodiment is
User information includes information about the condition of the user's skin or face,
It is an information processing device.
第5態様によれば、ユーザは、肌又は顔の状態と相関のある将来的に有する可能性がある表情癖を知ることができる。 According to the fifth aspect, the user can know the facial expression habits that may be possessed in the future that correlate with the skin or facial condition.
本実施形態の第6態様は、
動きの癖に関する情報は、動きの癖及び動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を含む、
情報処理装置である。The sixth aspect of this embodiment is
Information about movement habits includes advice information for dealing with at least one of the skin and facial features that may be manifested by movement habits and the effects of movement habits.
It is an information processing device.
第6態様によれば、表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報が提示される。これにより、ユーザは、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するための対策をとることができる。 According to the sixth aspect, the facial expression habit and the advice information for dealing with at least one of the skin characteristics and the facial features that may appear due to the influence of the facial expression habit are presented. Thereby, the user can take measures to more appropriately deal with the facial expression habit and at least one of the skin features and facial features that may appear due to the influence of the facial expression habit.
本実施形態の第7態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS320の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、動きの癖及び動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する手段(例えば、ステップS321の処理を実行するプロセッサ32)を備え、
選択されたアドバイス情報が提示される、
情報処理装置である。The seventh aspect of this embodiment is
A means for acquiring user information about a user (for example, a
Based on the user information, a means for selecting advice information for dealing with at least one of the movement habit and the skin feature and the face feature that may appear due to the influence of the movement habit (for example, the process of step S321 is executed). Equipped with a processor 32)
Selected advice information is presented,
It is an information processing device.
第7態様によれば、ユーザ情報に基づいたアドバイス情報を得ることができる。そのため、ユーザは、自身に適したアドバイス情報に従った対策をとることができる。 According to the seventh aspect, advice information based on user information can be obtained. Therefore, the user can take measures according to the advice information suitable for himself / herself.
本実施形態の第8態様は、
動きの癖に関する情報は、ユーザの肌又は顔の状態の推測情報を含む、
情報処理装置である。The eighth aspect of this embodiment is
Information about movement habits includes guessing information about the user's skin or facial condition.
It is an information processing device.
第8態様によれば、ユーザは、推測される肌の状態を知ることができる。そのため、ユーザは、表情癖の原因となっている可能性がある肌の状態、又は、将来的な肌の状態を知ることができ、より適切に表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処することができる。 According to the eighth aspect, the user can know the presumed skin condition. Therefore, the user can know the skin condition that may be the cause of the facial expression habit or the future skin condition, and the skin characteristics that can be more appropriately expressed by the facial expression habit and the influence of the facial expression habit. And at least one of facial features can be addressed.
本実施形態の第9態様は、
動画像情報を取得する手段は、ユーザに対して顔の動きを促すメッセージに応じた顔の動きの動画像情報を取得し、
メッセージに関する情報と動画像情報とを関連付けて記憶する手段を備える、
情報処理装置である。The ninth aspect of this embodiment is
The means for acquiring the moving image information is to acquire the moving image information of the facial movement in response to the message prompting the user to move the face.
A means for associating and storing information about a message with moving image information.
It is an information processing device.
第9態様によれば、メッセージ内容を考慮して表情癖が特定される。そのため、ユーザは、より正確な表情癖を知ることができる。また、メッセージ内容が考慮されたアドバイス情報が提示される。そのため、ユーザは、より的確なアドバイス情報を知ることができる。 According to the ninth aspect, the facial expression habit is specified in consideration of the message content. Therefore, the user can know a more accurate facial expression habit. In addition, advice information that takes into account the content of the message is presented. Therefore, the user can know more accurate advice information.
本実施形態の第10態様は、
ユーザに関するユーザ情報を取得する手段(例えば、ステップS300の処理を実行するプロセッサ32)を備え、
ユーザ情報に基づいて、顔の動きの癖を推測する手段(例えば、ステップS311の処理を実行するプロセッサ32)を備え、
推測された動きの癖に関する情報を提示する手段(例えば、ステップS312の処理を実行するプロセッサ32)を備える、
情報処理装置(例えば、サーバ30)である。The tenth aspect of this embodiment is
A means for acquiring user information about a user (for example, a
A means for estimating facial movement habits based on user information (for example, a
A means (for example, a
An information processing device (for example, a server 30).
第10態様によれば、ユーザは、将来的に有する可能性がある表情癖を知ることができる。そのため、ユーザは、当該表情癖が実際に顔に現れる前にアドバイス情報等に基づく対策を施すことによって、当該表情癖並びに表情癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つが現れる可能性を低下させることができる。 According to the tenth aspect, the user can know the facial expression habits that may be possessed in the future. Therefore, the user takes measures based on the advice information and the like before the facial expression habit actually appears on the face, so that at least one of the skin feature and the facial feature that can appear due to the influence of the facial expression habit and the facial expression habit appears. The possibility can be reduced.
本実施形態の第11態様は、
コンピュータ(例えば、プロセッサ32)を、上記の各手段として機能させるためのプログラムである。The eleventh aspect of this embodiment is
It is a program for making a computer (for example, a processor 32) function as each of the above means.
(7)その他の変形例 (7) Other modifications
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
The
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
1つの装置がネットワークを介さずに全ての情報処理を行ってもよい。Each step of the above information processing can be executed by either the
One device may perform all information processing without going through the network.
本実施形態では、ユーザに対して提示する顔の動きを促すメッセージに関する情報がテキストである例を示したが、本実施形態はこれに限られない。当該メッセージに関する情報は、動画像であってもよい。動画像は、例えば、様々な表情をする顔のアニメーション動画像であり、ユーザはその表情を真似しながら、画面P100における操作オブジェクトB100を操作し、ユーザの顔の動画像の動画像データが生成されてもよい。 In the present embodiment, an example is shown in which the information regarding the message prompting the movement of the face presented to the user is text, but the present embodiment is not limited to this. The information about the message may be a moving image. The moving image is, for example, an animated moving image of a face having various facial expressions, and the user operates the operation object B100 on the screen P100 while imitating the facial expression, and the moving image data of the moving image of the user's face is generated. May be done.
本実施形態では、カメラ15から取得した動画像に基づいて表情癖を判定する例を示したが、本実施形態はこれに限られない。記憶装置11又は記憶装置31に記憶された動画像に基づいて表情癖を判定してもよい。
In the present embodiment, an example of determining a facial expression habit based on a moving image acquired from the
本実施形態では、画面P100にカメラ15が撮影する動画像を含む表示オブジェクトA100dが含まれる例を示したが、本実施形態はこれに限られない。画面P100に表示オブジェクトA100dは含まれなくてもよい。この場合、ユーザは顔の各部位を動かす際に自身の顔を一切見られないため、本来の表情になり易く、より正確に表情癖を判定することができる。
In the present embodiment, an example is shown in which the screen P100 includes a display object A100d including a moving image captured by the
本実施形態では、表情癖に関する情報として表情癖名及びアドバイス情報が提示される例を示したが、本実施形態はこれに限られない。提示される表情癖に関する情報は、例えば、表情癖名及びアドバイス情報の何れか一方であってもよい。 In the present embodiment, an example in which the facial expression habit name and the advice information are presented as information on the facial expression habit is shown, but the present embodiment is not limited to this. The information regarding the presented facial expression habit may be, for example, either the facial expression habit name or the advice information.
変形例1では、推測される表情癖に関する情報として表情癖名及びアドバイス情報が提示される例を示したが、本実施形態はこれに限られない。提示される表情癖に関する情報は、例えば、表情癖名及びアドバイス情報の何れか一方であってもよい。 In the first modification, the facial expression habit name and the advice information are presented as the information regarding the inferred facial expression habit, but the present embodiment is not limited to this. The information regarding the presented facial expression habit may be, for example, either the facial expression habit name or the advice information.
本実施形態及び変形例1において、提示される表情癖名は、状態に関する文脈(例えば、「眉上がり」)である例を示したが、本実施形態はこれに限られない。提示される表情癖名に関する情報は、例えば、状態と、程度、顔の部位、及び、シチュエーションのうちの少なくとも1つと、の組み合わせの文脈であってもよい。具体的には、状態と程度との組合せの文脈(例えば、「強度の眉上がり」)、状態と顔の部位との組合せの文脈(例えば、「右目の目尻シワ」)、並びに、状態とシチュエーションとの組合せの文脈(例えば、「笑顔を作る際に口角がほとんど上がっていない」)のうちの少なくとも1つであってもよい。また、提示される表情癖に関する情報は、メッセージ内容に関する情報を含んでいてもよい。 In the present embodiment and the first modification, the facial expression habit name presented is an example in which the context relating to the state (for example, “raising the eyebrows”) is shown, but the present embodiment is not limited to this. The information about the facial expression habit name presented may be, for example, in the context of a combination of condition and degree, facial features, and at least one of the situations. Specifically, the context of the combination of state and degree (eg, "strong eyebrow rise"), the context of the combination of state and facial area (eg, "wrinkles at the corners of the right eye"), and the state and situation. It may be at least one of the contexts of the combination with (for example, "the corner of the mouth is barely raised when making a smile"). In addition, the information on the presented facial expression habit may include information on the content of the message.
変形例1において、ユーザ情報がユーザの個人特性に関する情報及びユーザの肌の状態に関する情報である例を示したが、本実施形態はこれに限られない。ユーザ情報は、例えば、ユーザの個人特性、ユーザの体調、ユーザの肌の状態、ユーザの顔の状態、及び、ユーザの属性のうちの少なくとも1つであってもよい。「顔の状態」とは、人の顔の状態を指す。顔の状態は、例えば、顔の血流、顔の3D形状等に関する。「ユーザの属性」としては、例えば、年齢、性別、職業等が挙げられる。 In the first modification, an example is shown in which the user information is information on the personal characteristics of the user and information on the skin condition of the user, but the present embodiment is not limited to this. The user information may be, for example, at least one of the personal characteristics of the user, the physical condition of the user, the skin condition of the user, the facial condition of the user, and the attributes of the user. "Face condition" refers to the condition of a person's face. The facial condition relates to, for example, facial blood flow, facial 3D shape, and the like. Examples of the "user attribute" include age, gender, occupation, and the like.
変形例1では、肌状態はフィールドオブジェクトF201bに指定する例を示したが、本実施形態はこれに限られない。肌状態は、画面P100(図6)の操作オブジェクトB100a〜B100cの操作により生成された動画像データから画像解析で特定されてもよい。 In the first modification, the skin condition is specified in the field object F201b, but the present embodiment is not limited to this. The skin condition may be specified by image analysis from the moving image data generated by the operation of the operation objects B100a to B100c on the screen P100 (FIG. 6).
変形例2では、ユーザ情報がユーザの個人特性に関する情報である例を示したが、本実施形態はこれに限られない。ユーザ情報は、例えば、ユーザの個人特性、ユーザの体調、ユーザの肌の状態、ユーザの顔の状態、及び、ユーザの属性のうちの少なくとも1つであってもよい。 In the second modification, an example is shown in which the user information is information related to the personal characteristics of the user, but the present embodiment is not limited to this. The user information may be, for example, at least one of the personal characteristics of the user, the physical condition of the user, the skin condition of the user, the facial condition of the user, and the attributes of the user.
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。 Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited to the above embodiments. Further, the above-described embodiment can be improved or modified in various ways without departing from the spirit of the present invention. Moreover, the above-described embodiment and modification can be combined.
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
15 :カメラ
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース1: Information processing system 10: Client device 11: Storage device 12: Processor 13: Input / output interface 14: Communication interface 15: Camera 30: Server 31: Storage device 32: Processor 33: Input / output interface 34: Communication interface
Claims (10)
前記動画像情報に基づいて、前記ユーザの顔の動きに関する動き情報を抽出する手段を備え、
前記動き情報に基づいて、前記ユーザの顔の動きの癖を特定する手段を備える、
情報処理装置。Equipped with a means to acquire moving image information of the user's face
A means for extracting motion information related to the movement of the user's face based on the moving image information is provided.
A means for identifying the movement habit of the user's face based on the movement information is provided.
Information processing device.
請求項1に記載の情報処理装置。Provided with means for presenting information about the identified movement habits.
The information processing device according to claim 1.
前記ユーザ情報に基づいて、前記ユーザの顔の動きの癖を推測する手段を備え、
推測された前記動きの癖に関する情報を提示する手段を備える、
請求項1又は2に記載の情報処理装置。A means for acquiring user information about the user is provided.
A means for estimating the facial movement habit of the user based on the user information is provided.
A means for presenting information about the inferred movement habit,
The information processing device according to claim 1 or 2.
請求項3に記載の情報処理装置。The user information includes information about at least one of the user's personal characteristics and physical condition.
The information processing device according to claim 3.
請求項3又は4に記載の情報処理装置。The user information includes information on the skin or face condition of the user.
The information processing device according to claim 3 or 4.
請求項2〜5の何れかに記載の情報処理装置。The information regarding the movement habits includes advice information for dealing with the movement habits and at least one of the skin features and facial features that may appear due to the influence of the movement habits.
The information processing device according to any one of claims 2 to 5.
前記ユーザ情報に基づいて、前記動きの癖並びに前記動きの癖の影響で表れ得る肌特徴及び顔特徴のうちの少なくとも1つに対処するためのアドバイス情報を選択する手段を備え、
前記選択されたアドバイス情報が提示される、
請求項6に記載の情報処理装置。A means for acquiring user information about the user is provided.
A means for selecting advice information for dealing with at least one of the movement habit and the skin feature and the face feature that may appear due to the influence of the movement habit based on the user information.
The selected advice information is presented,
The information processing device according to claim 6.
請求項2〜7の何れかに記載の情報処理装置。The information regarding the movement habit includes the estimation information of the skin or face condition of the user.
The information processing device according to any one of claims 2 to 7.
前記メッセージに関する情報と前記動画像情報とを関連付けて記憶する手段を備える、
請求項1〜8の何れかに記載の情報処理装置。The means for acquiring the moving image information acquires the moving image information of the facial movement in response to the message prompting the user to move the face.
A means for associating and storing information about the message with the moving image information is provided.
The information processing device according to any one of claims 1 to 8.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018230053 | 2018-12-07 | ||
JP2018230053 | 2018-12-07 | ||
PCT/JP2019/043304 WO2020116069A1 (en) | 2018-12-07 | 2019-11-05 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020116069A1 true JPWO2020116069A1 (en) | 2021-10-21 |
JP7406502B2 JP7406502B2 (en) | 2023-12-27 |
Family
ID=70973607
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020559812A Active JP7406502B2 (en) | 2018-12-07 | 2019-11-05 | Information processing device, program and information processing method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7406502B2 (en) |
WO (1) | WO2020116069A1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024057965A1 (en) * | 2022-09-15 | 2024-03-21 | ソニーグループ株式会社 | Information processing device, information processing method, and information analysis system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264785A (en) * | 2006-03-27 | 2007-10-11 | Toyota Motor Corp | Drowsiness detection apparatus |
JP2012070222A (en) * | 2010-09-24 | 2012-04-05 | Nec Casio Mobile Communications Ltd | Imaging device, imaging method, and imaging program |
JP2015064823A (en) * | 2013-09-26 | 2015-04-09 | ポーラ化成工業株式会社 | Cosmetic evaluation method, and facial expression wrinkle quantitation method |
WO2016076140A1 (en) * | 2014-11-14 | 2016-05-19 | ソニー株式会社 | Information processing device, information processing method, and program |
-
2019
- 2019-11-05 JP JP2020559812A patent/JP7406502B2/en active Active
- 2019-11-05 WO PCT/JP2019/043304 patent/WO2020116069A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007264785A (en) * | 2006-03-27 | 2007-10-11 | Toyota Motor Corp | Drowsiness detection apparatus |
JP2012070222A (en) * | 2010-09-24 | 2012-04-05 | Nec Casio Mobile Communications Ltd | Imaging device, imaging method, and imaging program |
JP2015064823A (en) * | 2013-09-26 | 2015-04-09 | ポーラ化成工業株式会社 | Cosmetic evaluation method, and facial expression wrinkle quantitation method |
WO2016076140A1 (en) * | 2014-11-14 | 2016-05-19 | ソニー株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2020116069A1 (en) | 2020-06-11 |
JP7406502B2 (en) | 2023-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7083809B2 (en) | Systems and methods for identifying and / or identifying and / or pain, fatigue, mood, and intent with privacy protection | |
JP5190560B2 (en) | Content output apparatus, content output method, content output program, and recording medium on which content output program is recorded | |
CN114502061A (en) | Image-based automatic skin diagnosis using deep learning | |
US10559102B2 (en) | Makeup simulation assistance apparatus, makeup simulation assistance method, and non-transitory computer-readable recording medium storing makeup simulation assistance program | |
WO2015122195A1 (en) | Impression analysis device, game device, health management device, advertising support device, impression analysis system, impression analysis method, program, and program recording medium | |
JP2006048729A (en) | Methods for evaluating degree of typological characteristics of body | |
WO2021261188A1 (en) | Avatar generation method, program, avatar generation system, and avatar display method | |
JPWO2019049298A1 (en) | 3D data system and 3D data processing method | |
Israel et al. | Presenting your products in virtual reality: do not underestimate cybersickness | |
WO2019146405A1 (en) | Information processing device, information processing system, and program for evaluating tester reaction to product using expression analysis technique | |
JP7406502B2 (en) | Information processing device, program and information processing method | |
JP2020091770A (en) | Information processing device, information processing system, information processing method, program and storage medium | |
CN115668279A (en) | Oral care based digital imaging system and method for determining perceived appeal of facial image portions | |
JP6922768B2 (en) | Information processing device | |
JP2019028691A (en) | Information output system, information output program, and information output method, relating to care for skin conditions | |
JP7253325B2 (en) | Information processing device, program, and information processing method | |
JP2018190176A (en) | Image display device, skin-condition support system, image display program, and image display method | |
Lee et al. | RU-FEMOIN—A database of facial expressions: Utilization for robotic mood transition of patient robots | |
Ortuño et al. | Neurometrics applied to banknote and security features design | |
JP7378743B2 (en) | Information processing system, information processing method and program | |
WO2023171162A1 (en) | Psychological state estimation device and psychological state estimation method | |
JP7438132B2 (en) | Information processing device, cosmetic production device, program, simulation method, and information processing system | |
WO2020170845A1 (en) | Information processing device, and program | |
Ugail et al. | Computational Techniques for Human Smile Analysis | |
Rodrigues et al. | User-Centered Rating of Well-Being in Older Adults |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7406502 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |