JP7280333B2 - image display device - Google Patents

image display device Download PDF

Info

Publication number
JP7280333B2
JP7280333B2 JP2021180161A JP2021180161A JP7280333B2 JP 7280333 B2 JP7280333 B2 JP 7280333B2 JP 2021180161 A JP2021180161 A JP 2021180161A JP 2021180161 A JP2021180161 A JP 2021180161A JP 7280333 B2 JP7280333 B2 JP 7280333B2
Authority
JP
Japan
Prior art keywords
user
execution
score
condition
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021180161A
Other languages
Japanese (ja)
Other versions
JP2022031676A (en
Inventor
智紀 本川
朋美 加藤
優 及川
類子 中西
隆 飯田
幸信 横田
淳 村越
知彦 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Orbis Holdings Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017091970A external-priority patent/JP6974029B2/en
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2021180161A priority Critical patent/JP7280333B2/en
Publication of JP2022031676A publication Critical patent/JP2022031676A/en
Priority to JP2023068387A priority patent/JP7437549B2/en
Application granted granted Critical
Publication of JP7280333B2 publication Critical patent/JP7280333B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、画像表示装置に関する。 The present invention relates to an image display device .

従来、肌状態のケアに関する様々なツールが知られている。 Conventionally, various tools are known for the care of skin conditions.

例えば、特許文献1には、化粧品販売員等がユーザに対して用いるカウンセリングツールとして、肌状態の典型的なパターンに対し、その肌の状態の説明をする肌状態説明部と、その肌の状態に必要なスキンケア方法の説明表示部とを備えたカウンセリングツールが記載されている。 For example, Patent Literature 1 describes a skin condition explanation section for explaining typical patterns of skin conditions as a counseling tool used by cosmetics salespeople for users, and a skin condition explanation part for explaining the skin conditions. describes a counseling tool provided with an explanation display part of a skin care method necessary for skin care.

肌状態説明部は、肌状態の典型的なパターンとしての「水分が不足しがちな状態」という小見出しと、当該肌の状態についての「お肌を外的刺激から守るバリア機能も低下しやすく、………考えられます。」という説明文とを含む。 The skin condition explanation part has a subheading of "a condition that tends to be dehydrated" as a typical pattern of skin conditions, and a subheading of the skin condition in question, "The barrier function that protects the skin from external stimuli is also likely to decrease, … is considered.”

スキンケア方法の説明表示部は、当該肌状態におけるスキンケア方法としての「やや不足している方 W保湿」及び「不足している方 W保湿+ローションマスク・クリーム」という見出しとが含まれている。 The description display portion of the skin care method includes the headings "Somewhat insufficient W moisturizing" and "Insufficient W moisturizing + lotion mask/cream" as skin care methods for the relevant skin condition.

化粧品販売員は、例えば、顧客の肌状態が水分がやや不足している状態であると判断した場合、スキンケア方法の説明表示部に表示された「W保湿」を行うよう勧めるなど、顧客の肌状態とカウンセリングツールとを突き合わせることで、肌のパターンに応じた施策を即座にユーザに対して提示することができる。 For example, when judging that the customer's skin condition is slightly lacking in moisture, the cosmetics salesperson recommends that the customer perform "double moisturizing" displayed in the explanation display part of the skin care method. By comparing the condition with the counseling tool, it is possible to immediately present the user with measures according to the skin pattern.

特許第4299080号公報Japanese Patent No. 4299080

しかし、特許文献1の技術では、提案された施策をどの程度の実行の度合い(時間、量、1日当たりの回数、実行の頻度等)で行えばどのような肌状態になるのかをユーザに把握させることは難しかった。 However, with the technique disclosed in Patent Document 1, the user can grasp what kind of skin condition the proposed measures should be executed (time, amount, number of times per day, frequency of execution, etc.). It was difficult to let

そこで、本発明は、ユーザに施策の実行の度合いと肌状態との関係を認識させることができる画像表示装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image display device that allows a user to recognize the relationship between the degree of execution of a measure and the skin condition.

第1発明の画像表示装置は、
情報を出力する画像表示部と、
ユーザの入力を検知する入力部と、
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、当該ユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザの、当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする。
The image display device of the first invention is
an image display unit that outputs information;
an input unit for detecting user input;
At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad ;
a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit ;
a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The user recognized by analyzing information on the degree of execution of the group of measures by the user and information on at least one of the skin condition, mental condition, and physical condition, with the value of the degree of execution obtained as input. , is configured to recognize using information indicating the correlation between the degree of execution for each policy group and the good or bad of the prediction score,
The output control unit causes the image display unit to output a display showing the predicted score.
It is characterized by

また、第2発明の画像表示装置は、 Further, the image display device of the second invention is
情報を出力する画像表示部と、 an image display unit that outputs information;
ユーザの入力を検知する入力部と、 an input unit for detecting user input;
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、 At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad;
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、 a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit;
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、 a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、複数のユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該複数のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、 The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The value of the degree of execution is input, and the information of the degree of execution of the group of measures of a plurality of users and the information of at least one of the skin condition, mental condition, and physical condition are analyzed and recognized. It is configured to recognize using information indicating the correlation between the degree of execution of each policy group by a plurality of users and the quality of the prediction score,
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる The output control unit causes the image display unit to output a display showing the predicted score.
ことを特徴とする。It is characterized by

これらの構成の画像表示装置によれば、スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とが、出力制御部によって画像表示部に出力される。
そして、指定認識部がユーザによる施策群の実行の度合いの値の指定を認識した場合に、スコア認識部により、当該施策群を当該指定された実行の度合いで実行したときのユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアが認識され、出力制御部により当該予測スコアを示す表示が画像表示部に出力される。
これにより、施策の実行の度合いを変更したときのユーザの肌状態、心状態及び体状態のうちの少なくとも1つの予測スコアの表示を通じて、ユーザに施策の実行の度合いと肌状態との関係を直感的に認識させることができる。
According to the image display device having these configurations, the display indicating the degree of execution of the user's policy group recognized by the score recognition unit and at least one of the user's skin condition, mental condition, and physical condition A display showing the two scores is output to the image display section by the output control section.
Then, when the designation recognition unit recognizes the user's designation of the degree of execution of the measure group, the score recognition unit executes the measure group at the designated degree of execution, the user's skin condition, A predicted score, which is a predicted value of the score of at least one of the mental state and the body state, is recognized, and a display showing the predicted score is output to the image display unit by the output control unit.
This allows the user to intuitively understand the relationship between the degree of execution of the measure and the skin condition through the display of the predicted score of at least one of the user's skin condition, mental condition, and body condition when the degree of execution of the measure is changed. can be recognizable.

また第1発明においては、予測スコアは、当該ユーザの施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザの、当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識されるので、ユーザ自身の施策群の実行の度合いと、肌状態、心状態又は体状態の関係性の実態に即した予測スコアをユーザに認識させることができる。 In addition, in the first invention, the prediction score of the user is recognized by analyzing information on the degree of execution of the group of measures by the user and information on at least one of skin condition, mental condition and physical condition. , is recognized using information indicating the correlation between the degree of execution for each measure group and the good or bad of the prediction score. It is possible to make the user recognize the predicted score that is in line with the actual state of the relationship.

そして第2発明においては、予測スコアは、複数のユーザの施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該複数のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識されるので、ユーザ自身のデータだけでなく、豊富なユーザの施策群の実行の度合いと、肌状態、心状態又は体状態の関係性の実態に即した予測スコアをユーザに認識させることができる。 In the second invention, the predicted score is recognized by analyzing information on the degree of execution of the group of measures by a plurality of users and information on at least one of skin condition, mental condition and physical condition. Since it is recognized using information indicating the correlation between the degree of execution of each policy group by the user and the quality of the prediction score, not only the user's own data but also the rich user's execution of the policy group It is possible to make the user recognize a predicted score that is in line with the reality of the relationship between the degree and the skin condition, mental condition, or body condition.

また、第2発明の画像表示装置において、 Further, in the image display device of the second invention,
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記複数のユーザの前記施策群の実行の度合いの情報と、属性を示す情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザと同様の属性を持つ他のユーザの前記相関関係を示す情報を用いて認識するように構成されている The score recognition unit recognizes the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution. and recognized by analyzing information on the degree of execution of the group of measures by the plurality of users, information indicating attributes, and information on at least one of skin condition, mental condition, and physical condition. , is configured to be recognized using information indicating the correlation of other users who have attributes similar to that of the user
ことが好ましい。is preferred.

同様の属性(例えば年齢、性別、住んでいる地域、嗜好、肌の特性、心の特性、体の特性など)を持つユーザの施策の実行の度合いとユーザの肌状態、心状態及び体状態との関係性は、相互に類似している蓋然性が高い。 The degree of execution of measures by users with similar attributes (e.g. age, gender, area of residence, preferences, skin characteristics, mental characteristics, physical characteristics, etc.) and the skin condition, mental condition, and physical condition of the user are highly likely to be similar to each other.
本構成の画像表示装置によれば、予測スコアは、複数のユーザの施策群の実行の度合いの情報と、属性を示す情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザと同様の属性を持つ他のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識される。 According to the image display device of this configuration, the predicted score is obtained by combining information on the degree of execution of a group of measures by a plurality of users, information indicating attributes, and information on at least one of skin condition, mental condition, and physical condition. Recognition is performed using information indicating the correlation between the degree of execution of each policy group by other users who have the same attribute as the user and the quality of the prediction score, which is recognized by analysis.
これにより、ユーザと同様の属性を持つ、すなわち施策の実行の度合いとユーザの肌状態、心状態及び体状態との関係性が類似している蓋然性の高い、他のユーザの施策群の実行の度合いと、肌状態、心状態又は体状態の関係性の実態に即した予測スコアをユーザに認識させることができる。 As a result, other users who have the same attributes as the user, that is, have a high probability that the relationship between the degree of execution of the measures and the user's skin condition, mental condition, and physical condition are similar, will be able to perform the group of measures. It is possible to make the user recognize a predicted score that is in line with the reality of the relationship between the degree and the skin condition, mental condition, or body condition.

本発明の画像表示装置において、 In the image display device of the present invention,
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記出力制御部は、 The output control unit is
前記画像表示部に出力させる前記施策群の実行度合いの値を前記指定認識部が認識した前記施策群の実行の度合いの値に変更し、かつ changing the value of the degree of execution of the group of measures to be output to the image display unit to the value of the degree of execution of the group of measures recognized by the designation recognition unit;
前記画像表示部に出力させる前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアの値を、前記スコア認識部が認識した前記予測スコアの値に変更するように構成されている The score value of at least one of the user's skin condition, mental condition, and body condition to be output to the image display unit is changed to the predicted score value recognized by the score recognition unit.
ことが好ましい。is preferred.

当該構成の画像表示装置によれば、ユーザによる施策群の実行の度合いの値の指定に応じて、画像表示部に出力される施策群の実行度合いの値が当該指定された値に変更されるとともに、画像表示部に出力される肌状態、心状態及び体状態のうち少なくとも1つのスコアの値が、スコア認識部により認識された予測スコアの値に変更される。 According to the image display device having this configuration, the value of the degree of execution of the group of measures output to the image display unit is changed to the specified value in accordance with the user's designation of the value of the degree of execution of the group of measures. At the same time, the score value of at least one of the skin condition, mental condition, and body condition output to the image display unit is changed to the predicted score value recognized by the score recognition unit.
これにより、施策の実行の度合いを変更したときのユーザの肌状態、心状態及び体状態のうちの少なくとも1つの予測スコアの表示を通じて、ユーザに施策の実行の度合いと肌状態との関係をより直感的に認識させることができる。 This allows the user to better understand the relationship between the degree of execution of the measure and the skin condition through the display of the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the degree of execution of the measure is changed. It can be recognized intuitively.

本発明の画像表示装置において、 In the image display device of the present invention,
前記スコア認識部は、所定期間における、前記施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した前記スコアを認識し、 The score recognizing unit calculates, during a predetermined period, a value of the user's degree of execution of the measure group, and the skin condition, mental state, and body condition of the user when the measure group is executed at the value of the degree of execution. recognizing the score that quantifies the goodness or badness of at least one of the conditions;
前記所定の期間は、前記スコア認識部が前記予測スコアを認識する処理を実行する時点以前の所定の期間であり、 The predetermined period of time is a predetermined period of time before the score recognition unit executes processing for recognizing the predicted score,
前記出力制御部は、前記スコア認識部が認識した、前記所定期間における前記ユーザの前記施策群の実行の度合いの値を示す表示と、当該所定期間における当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアを示す表示と、を前記画像表示部に出力させ、 The output control unit displays the value of the degree of execution of the measure group by the user during the predetermined period recognized by the score recognition unit, and the skin condition, mental condition, and body condition of the user during the predetermined period. a display showing the score of at least one of
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記スコア認識部は、前記施策群を前記指定された実行の度合いで、前記所定期間と同一の期間において実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記相関関係を示す情報を用いて認識するように構成されている The score recognition unit is configured to determine at least one of the predicted score of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution for the same period as the predetermined period. is configured to recognize the specified execution degree value as an input and using the information indicating the correlation
ことが好ましい。is preferred.

当該構成の画像表示装置によれば、スコア認識部は、所定期間における、施策群のユーザの実行の度合いの値を入力とし、当該施策群を実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアを認識するように構成されている。なお、所定の期間は、スコア認識部が予測スコアを認識する処理を実行する時点以前の所定の期間である。 According to the image display device having the above configuration, the score recognition unit receives as input the value of the degree of execution of the measure group by the user in the predetermined period, and the score when the measure group is executed at the degree of the value of the degree of execution. It is configured to recognize a score, which is information obtained by quantifying at least one of the user's skin condition, mental condition, and body condition. Note that the predetermined period is a predetermined period before the time when the score recognition unit executes processing for recognizing the predicted score.
また指定認識部が施策群の実行の度合いの値の指定を認識した場合に、スコア認識部により、施策群を指定された実行の度合いで、所定期間と同一の期間において実行したときのユーザの肌状態、心状態及び体状態のうち少なくとも1つの予測スコアが認識される。 In addition, when the designation recognition unit recognizes the designation of the value of the degree of execution of the measure group, the score recognition unit recognizes the user's performance when the measure group is executed with the specified degree of execution for the same period as the predetermined period. A predicted score of at least one of skin condition, mind condition and body condition is recognized.
すなわち、予測スコアを認識する処理を実行する時点以前の所定の期間の施策の実行の度合いに基づいて、ある未来の時点の予測スコアではなく、当該同一期間において、施策群の実行の度合いが異なることによってユーザの肌状態、心状態及び体状態がどのように変化したはずだったかの予測スコアをユーザに認識させることができる。 That is, based on the degree of execution of measures during a predetermined period prior to the execution of processing for recognizing prediction scores, the degree of execution of a group of measures differs during the same period, rather than the prediction score at a certain future point in time. This allows the user to recognize the predicted score of how the user's skin condition, mental condition, and body condition should have changed.
これにより、本来であればもう少し施策の実行を頑張るべきだった、あるいはもう少し力を緩めてもよかったということを、ユーザに実感をもって認識させることができる。 This makes it possible for the user to realize that he or she should have put in a little more effort in implementing the measures, or that they should have relaxed a little more.

肌状態認識システムの利用形態の説明図。Explanatory drawing of the utilization form of a skin condition recognition system. 肌状態認識システム及びユーザ端末の構成図。FIG. 2 is a configuration diagram of a skin condition recognition system and a user terminal; 肌状態認識システムによる一連の肌サポート処理の説明図。Explanatory drawing of a series of skin support processing by a skin condition recognition system. 肌状態認識システムにおける処理の第1のフローチャート。The first flow chart of processing in the skin condition recognition system. 肌状態認識システムにおける処理の第2のフローチャート。A second flow chart of processing in the skin condition recognition system. ユーザ端末における処理の第1のフローチャート。4 is a first flowchart of processing in a user terminal; ユーザ端末における処理の第2のフローチャート。The second flowchart of processing in the user terminal. 主観データ及び客観データによる肌、心、体の初期データの解析処理の説明図。Explanatory drawing of the analysis processing of the initial data of the skin, the mind, and the body based on the subjective data and the objective data. 体状態の数値化の説明図。Explanatory drawing of digitization of a body state. 心状態の数値化の説明図。Explanatory drawing of digitization of the state of mind. 図11Aは各施策とその施策の改善傾向等との関係を示す図で、図11Bは各工程のスケジュールを示す図で、図11Cはなりたい肌と肌状態の主観状態、客観状態との関係を示す図。FIG. 11A is a diagram showing the relationship between each measure and its improvement trend, etc., FIG. 11B is a diagram showing the schedule of each process, and FIG. illustration. 画像表示を実施している期間における日々のモニタリングに基づく進捗表の説明図。Explanatory diagram of a progress table based on daily monitoring during the period of image display. 特殊事例による肌状態への影響の説明図。Explanatory drawing of the influence on the skin condition by a special case. ユーザ端末における肌状態の改善度の表示画面の説明図。FIG. 10 is an explanatory diagram of a display screen of a skin condition improvement degree on a user terminal; 施策の評価方法の説明図であり、図15Aは施策の評価基準を示し、図15Bは施策の評価例を示している。15A is an explanatory diagram of an evaluation method of measures, FIG. 15A shows evaluation criteria of measures, and FIG. 15B shows an example of evaluation of measures. 暮らし及び特殊事例の評価方法の説明図であり、図16Aは暮らし及び特殊事例の評価基準を示し、図16Bは暮らし及び特殊事例の評価例を示している。It is explanatory drawing of the evaluation method of a living and a special case, FIG. 16A shows the evaluation criteria of a living and a special case, and FIG. 16B shows the evaluation example of a living and a special case. ゴール達成度の判定方法の説明図。Explanatory drawing of the determination method of a goal achievement level. 2次データの説明図。Explanatory drawing of secondary data. シミュレーション処理のフローチャート。Flowchart of simulation processing. 図20Aは、所定の期間におけるユーザの肌状態のスコア、心状態のスコア及び体状態のスコアを示す図、図20Bは、所定の期間におけるユーザの施策の実施状況を示す図。20A is a diagram showing the user's skin condition score, mental condition score, and body condition score during a predetermined period; FIG. 20B is a diagram showing the implementation status of the user's measures during the predetermined period; 図21Aは、所定の期間におけるユーザの各施策の実行の度合いを示す図、図21Bは、所定の期間におけるユーザの各カテゴリーの実行の度合いを示す図。FIG. 21A is a diagram showing the degree of execution of each policy by a user during a predetermined period; FIG. 21B is a diagram showing the degree of execution of each category by a user during a predetermined period; シミュレーション画面を示す図。The figure which shows a simulation screen. カテゴリーバーが押圧された時のシミュレーション画面を示す図。The figure which shows the simulation screen when a category bar is pressed. 施策の実行度合いと、各スコアとの関係を示すグラフ。A graph showing the relationship between the degree of implementation of measures and each score. 他の実施形態におけるシミュレーション画面の一例を示す図。The figure which shows an example of the simulation screen in other embodiment. 他の実施形態におけるシミュレーション画面の別の例を示す図。The figure which shows another example of the simulation screen in other embodiment.

本発明の実施形態の一例について、図1~図18を参照して説明する。 An example of an embodiment of the present invention will be described with reference to FIGS. 1 to 18. FIG.

[A.肌状態認識システムの利用形態]
図1を参照して、肌状態認識システム10の構成および本発明を構成する系に対する位置付けを説明する。肌状態認識システム10は、CPU、メモリ、各種インターフェース回路等を備えたコンピュータシステムにより構成される。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することによって、複数のユーザU(図1ではUa,Ub,Ucを例示)の肌状態を改善又は維持するための処理
(画像表示処理)を実行する機能を実現する。
[A. Usage form of skin condition recognition system]
The configuration of the skin condition recognition system 10 and its positioning with respect to the system constituting the present invention will be described with reference to FIG. The skin condition recognition system 10 is configured by a computer system including a CPU, memory, various interface circuits, and the like. The skin condition recognition system 10 improves or maintains the skin condition of a plurality of users U (Ua, Ub, and Uc are exemplified in FIG. 1) by executing the image display program held in the memory by the CPU. (image display processing).

肌状態認識システム10は、インターネット等の通信ネットワーク1を介して、複数のユーザUの通信端末(ユーザ端末)30(図1では30a,30b,30cを例示)との間でデータ通信を行うことにより、ユーザUの肌状態の改善又は維持をサポートする。ユーザ端末30が、本発明の「画像表示装置」に相当する。 The skin condition recognition system 10 performs data communication with communication terminals (user terminals) 30 (30a, 30b, and 30c are illustrated in FIG. 1) of a plurality of users U via a communication network 1 such as the Internet. Supports the improvement or maintenance of the user U's skin condition. The user terminal 30 corresponds to the "image display device" of the present invention.

通信ネットワーク1には、担当者T(図1ではTa,Tbを例示)の通信端末50(図1では50a,50bを例示)も接続されている。担当者Tは、通信端末50を介して、ユーザUの肌の特徴や趣味嗜好、生活スタイル等を考慮した適切な肌ケア法等の情報を含むデータを、肌状態認識システム10及びユーザ端末30に送信することにより、ユーザUの肌状態の改善に対するアドバイスを行う。なお、担当者Tの通信端末50とユーザUのユーザ端末30とは必ずしも一対一である必要はなく、肌状態認識システム10、担当者Tの通信端末50、通信ネットワーク1を合わせた系全体によってユーザUの肌状態の改善に対するアドバイスがユーザUのユーザ端末30に提供されればよい。例えば、ユーザUの1又は複数のユーザ端末30に対して、複数の担当者Tによってそれぞれの通信端末50を介してアドバイスを提供する方法でも良い。 Communication terminals 50 (50a and 50b are exemplified in FIG. 1) of persons in charge T (Ta and Tb are exemplified in FIG. 1) are also connected to the communication network 1. FIG. The person in charge T transmits data including information such as appropriate skin care methods in consideration of user U's skin characteristics, hobbies and tastes, lifestyle, etc. to the skin condition recognition system 10 and the user terminal 30 via the communication terminal 50. to provide advice on improving the skin condition of the user U. The communication terminal 50 of the person in charge T and the user terminal 30 of the user U do not necessarily have to be one-to-one. The user terminal 30 of the user U may be provided with advice on improving the user U's skin condition. For example, a method of providing advice to one or a plurality of user terminals 30 of a user U by a plurality of persons in charge T via respective communication terminals 50 may be used.

さらに、肌状態認識システム10は、複数のユーザUのユーザ端末30から送信される各ユーザの固有データを解析して、汎用的に活用可能な2次データを生成する機能を有し、この2次データを通信ネットワーク1を介して他のシステム60に提供するサービスも行うことができる。 Furthermore, the skin condition recognition system 10 has a function of analyzing unique data of each user transmitted from the user terminals 30 of a plurality of users U and generating secondary data that can be used for general purposes. A service of providing the next data to another system 60 via the communication network 1 can also be provided.

[B.肌状態認識システム、及びユーザ端末の構成]
図2を参照して、肌状態認識システム10およびユーザ端末30の構成について説明する。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することにより、肌状態認識部11、施策グループ選択部12、施策情報送信部13、及び2次データ生成部19として機能する。これらの構成による処理については後述する。また、肌状態認識システム10は、ユーザUの画像表示処理に使用する各種データを保持するサポートDB(データベース)20を備えている。このサポートDB20はたとえばRAM上に展開され、後述する主観および客観データの更新によって書き換え可能である。
[B. Configuration of skin condition recognition system and user terminal]
The configurations of the skin condition recognition system 10 and the user terminal 30 will be described with reference to FIG. The skin condition recognition system 10 executes the image display program held in the memory by the CPU, whereby the skin condition recognition unit 11, the measure group selection unit 12, the measure information transmission unit 13, and the secondary data generation unit 19. function as Processing by these configurations will be described later. The skin condition recognition system 10 also includes a support DB (database) 20 that holds various data used for image display processing of the user U. FIG. This support DB 20 is developed, for example, on a RAM, and can be rewritten by updating subjective and objective data, which will be described later.

次に、本実施形態のユーザ端末30は、表示器31、タッチパネル32、カメラ33、マイク34、CPU35、及びメモリ36等を備えている。表示器31が、本発明の「画像表示部」に相当する。タッチパネル32が、本発明の「入力部」に相当する。これに代えてまたは加えて、カメラ33で撮像したユーザUの画像又はマイク34から入力されたユーザUの音声に基づいてユーザの指定を認識することにより、カメラ33又はマイク34を本発明の「入力部」として機能させてもよい。 Next, the user terminal 30 of this embodiment includes a display 31, a touch panel 32, a camera 33, a microphone 34, a CPU 35, a memory 36, and the like. The display 31 corresponds to the "image display section" of the present invention. The touch panel 32 corresponds to the "input section" of the present invention. Instead of or in addition to this, by recognizing the designation of the user based on the image of the user U captured by the camera 33 or the voice of the user U input from the microphone 34, the camera 33 or the microphone 34 can be used as the " It may function as an "input unit".

なお、一の装置が情報を「認識する」とは、一の装置が他の装置から当該情報を受信すること、一の装置が当該一の装置に接続された記憶媒体に記憶された情報を読み取ること、一の装置が当該一の装置に接続されたセンサから出力された信号に基づいて情報を取得すること、一の装置が、受信した情報又は記憶媒体に記憶された情報又はセンサから取得した情報に基づいて、所定の演算処理(計算処理又は検索処理など)を実行することにより当該情報を導出すること、一の装置が他の装置による演算処理結果としての当該情報を当該他の装置から受信すること、一の装置が当該受信信号にしたがって内部記憶装置又は外部記憶装置から当該情報を読み取ること等、当該情報を取得するためのあらゆる演算処理が実行されることを意味する。 It should be noted that the fact that one device "recognizes" information means that one device receives the information from another device, and that one device recognizes information stored in a storage medium connected to the one device. reading, obtaining information by a device based on a signal output from a sensor connected to the device, or obtaining information received by a device or information stored in a storage medium or from a sensor Derivation of the information by executing predetermined arithmetic processing (calculation processing, search processing, etc.) based on the information obtained, one device passing the information as a result of arithmetic processing by another device to the other device It means that any arithmetic processing for obtaining the information is performed, such as receiving from, or reading the information from an internal storage device or an external storage device according to the received signal.

本実施形態においては、ユーザ端末30は例えばスマートフォンであるため、カメラ33やマイク34等を備えているが、ユーザ端末と有線無線にかかわらずやり取りできる構成であれば、外付けでの構成であったり、専門的な撮像装置を用いても良い。CPU35は、メモリ36に保持された画像表示用のアプリケーション35a(以下、肌サポートアプリ35aという)のプログラムを実行することにより、ユーザUが肌サポートアプリ35aを介して肌状態認識システム10によるサポートを享受可能な状態とする。肌サポートアプリ35aを実行したCPU35が、本発明の「スコア認識部」「出力制御部」及び「指定認識部」に相当する。 In the present embodiment, the user terminal 30 is, for example, a smart phone, and is equipped with a camera 33, a microphone 34, and the like. Alternatively, a specialized imaging device may be used. The CPU 35 executes a program of an image display application 35a (hereinafter referred to as a skin support application 35a) held in the memory 36, thereby allowing the user U to receive support from the skin condition recognition system 10 via the skin support application 35a. be in a state of enjoyment. The CPU 35 executing the skin support application 35a corresponds to the "score recognition section", "output control section" and "designation recognition section" of the present invention.

また、ユーザUは、肌の細胞を取得するための角質採取テープ37(図1では37a、37b、37cを例示)を別途有している。この角質採取テープ37は、予め担当者TによりユーザUに提供されたものであってもよいし、ユーザUが市販の角質採取テープ37を購入してもよい。 In addition, the user U separately has a keratin collecting tape 37 (37a, 37b, and 37c are illustrated in FIG. 1) for obtaining skin cells. The keratin collecting tape 37 may be provided to the user U in advance by the person in charge T, or the user U may purchase a commercially available keratin collecting tape 37 .

なお、以下の説明では、説明の便宜のため、肌状態の改善又は維持のサポート処理の対象のユーザをユーザUaと表し、「ユーザUa」と異なるユーザを「他のユーザUb、Uc」と表す。 In the following description, for convenience of explanation, the user who is the target of the support process for improving or maintaining the skin condition is referred to as user Ua, and users different from "user Ua" are referred to as "other users Ub and Uc". .

[C.肌状態認識システムによる一連の処理]
次に、図3を参照して、肌状態認識システムによる一連の処理について説明する。肌状態認識システム10は、「1.ゴール設定」、「2.スケジュール決定」、「3.モニタリング」、「4.スケジュール修正」、[5.ゴール判定]及び「6.2次データ生成」の各工程の処理を、図4,5に示したフローチャートに従って実行する。また、ユーザ端末30は、各工程における肌状態認識システム10による処理に応じて、図6,7に示したフローチャートによる処理を実行する。以下では、各工程における肌状態認識システム10及びユーザ端末30のCPU35の処理について、図4~7に示したフローチャートを参照しつつ説明する。
[C. A series of processing by the skin condition recognition system]
Next, a series of processes by the skin condition recognition system will be described with reference to FIG. The skin condition recognition system 10 performs "1. goal setting", "2. schedule determination", "3. monitoring", "4. schedule correction", and [5. Goal Judgment] and “6. Secondary Data Generation” are executed according to the flowcharts shown in FIGS. Further, the user terminal 30 executes the processing according to the flowcharts shown in FIGS. 6 and 7 according to the processing by the skin condition recognition system 10 in each step. The processing of the skin condition recognition system 10 and the CPU 35 of the user terminal 30 in each step will be described below with reference to the flowcharts shown in FIGS.

ユーザUaは、図6のSTEP50で、肌サポートアプリ35aのプログラムをユーザ端末30にダウンロードして肌サポートアプリ35aを起動する。そして、ユーザUaは肌サポートアプリ35aへの登録申請を行う。 In STEP 50 of FIG. 6, the user Ua downloads the program of the skin support application 35a to the user terminal 30 and activates the skin support application 35a. Then, the user Ua applies for registration with the skin support application 35a.

肌状態認識システム10は、図4のSTEP10で、ユーザUaからの登録申請を受け付けたときに、「ユーザUaからの登録申請を受け付けた」と認識し、STEP11に処理を進める。そしてSTEP11以降の画像表示処理を開始する。 When the skin condition recognition system 10 receives the registration application from the user Ua in STEP10 of FIG. Then, image display processing after STEP 11 is started.

[D.ゴール設定工程]
図3に示した「1.ゴール設定」の工程は、肌状態認識部11及び施策グループ選択部12により実行される。施策グループ選択部12は、図4のSTEP11でユーザ端末30にユーザUaの現状の肌、体、心の各状態、及びユーザUaが要望する肌状態を把握するための情報入力を促す初期情報要求データを送信する。
[D. Goal setting process]
Goal setting” shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure group selection unit 12 . The measure group selection unit 12 prompts the user terminal 30 in STEP 11 of FIG. Send data.

この初期情報要求データを受信したユーザ端末30では、肌サポートアプリ35aが、図6のSTEP51で、ユーザUaに対して、現状の肌、体、心の各状態、及びユーザUaが要望する肌状態の入力を促す画面を表示器31に表示する。それに対してユーザ端末30は、ユーザUaが入力した情報を含む初期ユーザ情報データを、肌状態認識システム10に送信する。 肌状態認識部11は、図4のSTEP11において、初期ユーザ情報データを受信して、初期ユーザ情報データから認識したユーザUaの肌、心、体の各状態と、ユーザUaが要望する肌状態とに基づいて、肌状態の目標レベル(ゴール)を設定する。 In the user terminal 30 that has received this initial information request data, the skin support application 35a, in STEP 51 of FIG. is displayed on the display 31 to prompt the input of . In response, the user terminal 30 transmits initial user information data including information input by the user Ua to the skin condition recognition system 10 . The skin condition recognition unit 11 receives the initial user information data in STEP 11 of FIG. Based on this, a target level (goal) for skin condition is set.

ここで、初期ユーザ情報データには、肌状態、体状態、及び心状態についての主観データ及び客観データが含まれている。詳細な定義は後述するが、主観データはユーザの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。肌状態の主観データは、現状の肌状態に対するユーザUaの満足度を、例えば10段階で示したデータである。肌状態の客観データは、ユーザUaの肌画像データである。なお、肌状態の客観データには、初期ユーザ情報データに含まれる肌状態の客観データに加え、角質採取テープ37により採取されたユーザUaの角層細胞の解析データが含まれても良い。角層細胞の解析データは、具体的には例えば保水能力と皮脂適格性に関するデータである。この場合、角層細胞の解析を、例えばユーザ端末30に接続された測定機器45により行うことで、或は、角質採取テープ37の画像データをユーザ端末30から肌状態認識システム10に送信し、肌状態認識システム10側で角質採取テープ37の画像を分析して保水能力と皮脂適格性などを測定してもよい。 Here, the initial user information data includes subjective data and objective data regarding skin condition, body condition, and mental condition. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user, and objective data is data based on inspection results, image analysis, and factual information. The subjective data of the skin condition is data indicating the satisfaction level of the user Ua with respect to the current skin condition, for example, in 10 stages. The objective data of the skin condition is skin image data of the user Ua. In addition to the objective skin condition data included in the initial user information data, the objective skin condition data may include analysis data of the stratum corneum cells of the user Ua collected by the horny material collecting tape 37 . Specifically, the analytical data of stratum corneum cells are, for example, data relating to water retention capacity and sebum suitability. In this case, the stratum corneum cells are analyzed by, for example, a measuring device 45 connected to the user terminal 30, or the image data of the keratin sampling tape 37 is transmitted from the user terminal 30 to the skin condition recognition system 10, The skin condition recognition system 10 may analyze the image of the keratin collecting tape 37 to measure water retention capacity, sebum suitability, and the like.

ユーザUaの満足度は肌サポートアプリ35aにおけるアンケート入力によって取得される。また、肌画像データは、ユーザ端末30のカメラ33又は接続端子40に接続された外部カメラによってユーザUaがユーザUaの顔を撮像することによって取得した画像データである。 The degree of satisfaction of the user Ua is acquired by inputting a questionnaire in the skin support application 35a. The skin image data is image data obtained by the user Ua capturing an image of the user Ua's face using the camera 33 of the user terminal 30 or an external camera connected to the connection terminal 40 .

また、肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用方法を表示器31に表示し、角質採取テープ37の使用と別途の郵送とを促す。肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用と肌画像の撮像を促し、撮像された画像が肌状態認識システム10に送信されるようにしてもよい。 In addition, the skin support application 35a displays the usage of the keratin collecting tape 37 on the display 31 to the user Ua, and prompts the user Ua to use the keratin collecting tape 37 and mail it separately. The skin support application 35a may prompt the user Ua to use the keratin collecting tape 37 and capture a skin image, and the captured image may be transmitted to the skin condition recognition system 10 .

肌状態認識部11は、図8に示したように、肌状態の初期値を、主観のスコアをたとえば3、肌画像のスコアを3、保水能力のスコアを2、皮脂適格性のスコアを1に割り当てて、合計した値を肌状態のスコアとする。なお、スコアは正の整数ではなく、小数で表現されていてもよいし、負の数で表されてもよい。 As shown in FIG. 8, the skin condition recognition unit 11 sets the initial value of the skin condition to a subjective score of 3, a skin image score of 3, a water retention ability score of 2, and a sebum suitability score of 1. , and the total value is used as the skin condition score. The score may be represented by a decimal number instead of a positive integer, or may be represented by a negative number.

角層細胞の解析による保水能力スコア及び皮脂適格性のスコアの認識を第1認識方法と呼ぶ。第1認識方法は、これに代えてまたは加えて、角層水分量計によりユーザの肌の水分量を計測する方法及び皮脂量計によりユーザの肌の皮脂量を計測する方法のうち少なくとも1つを含む。また、第1の認識方法によるユーザの肌の認識を定期的に行うため、肌状態認識部11は、定期的にユーザ端末30に角質採取テープ37等の使用を促すメッセージを送信したりすることにより、ユーザに行動を促す。このときの「定期的」というのは厳密に時間的に等間隔である必要はなく、肌状態に影響が出ない範囲で等間隔であれば良い。例えば、3ヶ月ごとに第1の認識方法を実施する場合において、1月1日に初回を実施した場合、ちょうど3か月後の4月1日のみならず、例えばその1週間前の3月24日前後にユーザ端末30にメッセージを送信してもよいし、例えばその1週間後の4月8日前後にユーザ端末30にメッセージを送信してもよい。また、長期的にサービスを提供するときなどは、例えば細かい改善を調べたい時は1ヶ月ごとに第1の認識方法を設定し、肌状態に対する季節変化の影響を調べるために3か月ごとに第1の認識方法を設定するなど、認識のタイミングは変更可能である。 Recognition of the water retention capacity score and sebum suitability score by analysis of stratum corneum cells is called the first recognition method. Alternatively or additionally, the first recognition method is at least one of a method of measuring the moisture content of the user's skin with a stratum corneum moisture meter and a method of measuring the sebum content of the user's skin with a sebum meter. including. Further, in order to periodically recognize the user's skin by the first recognition method, the skin condition recognition unit 11 may periodically send a message to the user terminal 30 prompting the user to use the keratin collecting tape 37 or the like. prompts the user to take action. In this case, "regularly" does not have to be strictly at regular time intervals, and may be at regular intervals as long as the skin condition is not affected. For example, when the first recognition method is performed every three months, if the first recognition method is performed on January 1st, not only April 1st, which is just three months later, but also March, for example, one week before The message may be sent to the user terminal 30 around the 24th, or may be sent to the user terminal 30 around April 8, one week later, for example. In addition, when providing a long-term service, for example, if you want to check detailed improvements, set the first recognition method every month, and check the effect of seasonal changes on the skin condition every three months. The timing of recognition can be changed, such as by setting the first recognition method.

アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識のそれぞれを第2認識方法と呼ぶ。第2認識方法は、アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識の一方によってユーザUaの肌状態を認識してもよいし、これらと異なる方法を含んでもよい。また、第2認識方法は、第1の認識方法よりも頻繁に行われる。これは角質採取テープ37の使用・郵送が手間的にも煩雑かつ値段的にも高価になってしまうためである。また、角質採取テープ37の使用が頻繁であると、ユーザUaの肌へ悪影響が及ぶおそれもある。 Recognition of the subjective score based on the subjective data of the skin condition entered in the questionnaire and recognition of the skin image score based on the skin image data of the user Ua are each referred to as a second recognition method. The second recognition method may recognize the skin condition of the user Ua by either recognizing a subjective score based on the subjective data of the skin condition entered in the questionnaire or recognizing the skin image score based on the skin image data of the user Ua. , may include methods different from these. Also, the second recognition method is performed more frequently than the first recognition method. This is because the use and mailing of the keratin collecting tape 37 is time-consuming, complicated, and expensive. Further, frequent use of the keratin collecting tape 37 may adversely affect the skin of the user Ua.

例えば3か月間ごとに第1の認識方法が実施され、第2の認識方法は毎日実施にされる。また、第1の認識方法の実施と第2の認識方法の実施のタイミングが重なる時は、できれば同じタイミングで実施されると精度の良いデータが取れるために好ましい。ただし第1の認識方法の実施時に第2の認識方法が実施されなくても本発明の実施は可能であるし、効果も得られる。 For example, the first recognition method is performed every three months, and the second recognition method is performed every day. Also, when the timings for performing the first recognition method and the second recognition method overlap, it is preferable to perform them at the same timing, in order to obtain accurate data. However, even if the second recognition method is not performed when the first recognition method is performed, the present invention can be implemented and the effect can be obtained.

なお、主観スコアは、主観データに基づいて認識されたスコアであればよい。 Note that the subjective score may be a score recognized based on subjective data.

体状態の主観データと客観データは、図9に示したように分けられている。詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。体状態の主観データは、ユーザUaが肌サポートアプリ35aを通じてアンケートを入力することによって取得される。客観データは、ユーザUaがユーザ端末30のカメラ33を用いて撮像されたユーザUaの舌・唇の画像データ、ユーザ端末30の接続端子40に接続された測定機器45により測定されたユーザUaの血圧、不整脈、尿中成分、血中成分等の測定データと、肌サポートアプリ35aにおけるアンケート入力により取得された頭痛又は肩こり等の体調不良の回数、疲労度判定等のデータである。なお、将来の肌ケア以外のサービスへの展開に備えて、種々の病気の発生情報などについても初
期ユーザ情報データに含めてもよい。
The subjective data and objective data of body condition are separated as shown in FIG. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user Ua, and objective data is data based on test results, image analysis, and factual information, similar to the subjective data and objective data of the skin. The subjective data on the body condition is obtained by the user Ua inputting a questionnaire through the skin support application 35a. The objective data includes image data of the tongue and lips of the user Ua captured by the user Ua using the camera 33 of the user terminal 30, and data of the user Ua measured by the measuring device 45 connected to the connection terminal 40 of the user terminal 30. They are measurement data such as blood pressure, arrhythmia, urinary components, blood components, etc., and data such as the number of headaches, stiff shoulders, and other poor physical conditions obtained by inputting questionnaires in the skin support application 35a, fatigue level determination, and the like. In preparation for future development of services other than skin care, information on the occurrence of various diseases may be included in the initial user information data.

心状態の主観データと客観データは、図10に示したように分けられている。、詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。主観データは、肌サポートアプリ35aにおけるアンケート入力によって取得される。客観データは、肌サポートアプリ35aにおけるアンケート入力(一日の笑った頻度等)と、測定機器による測定(脈拍モニタリングからの心理状態推定等)とにより取得される。なお、将来の肌ケア以外のサービスの展開に備えて、種々の精神疾患の発生情報についても初期ユーザ情報データに含めてもよい。 The subjective and objective data of the state of mind are separated as shown in FIG. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user Ua, and objective data is data based on test results, image analysis, and factual information, similar to the subjective data and objective data of the skin. . The subjective data is acquired by inputting a questionnaire in the skin support application 35a. The objective data is obtained by inputting questionnaires (the frequency of laughter per day, etc.) in the skin support application 35a, and by measuring with a measurement device (estimation of psychological state from pulse monitoring, etc.). In preparation for future development of services other than skin care, the initial user information data may include information on the occurrence of various mental disorders.

肌状態認識部11は、認識したユーザUaの肌、体、心の状態の主観データ及び客観データを、サポートDB20に記憶する。 The skin condition recognition unit 11 stores the recognized subjective data and objective data of the skin, body, and mental conditions of the user Ua in the support DB 20 .

肌状態認識部11は、このようにして初期ユーザ情報データから認識したユーザUaの肌状態、体状態、及び心状態の主観データと客観データに基づいて、図8の右側の三角形で示したように、肌状態を1~9、体状態を1~6、心状態を1~6の各スコアで表した3軸の初期値を設定する。なお、肌状態のスコアと同様に、体状態又は心状態の主観データ及び客観データから体状態又は心状態の主観スコア及び客観スコアが算出され、それらに基づいて体状態のスコア及び心状態のスコアとして扱われてもよい。 Based on the subjective data and objective data of the user Ua's skin condition, body condition, and mental condition recognized from the initial user information data in this way, the skin condition recognition unit 11 recognizes as indicated by the triangles on the right side of FIG. , the initial values of the three axes are set, which are represented by scores of 1 to 9 for skin conditions, 1 to 6 for body conditions, and 1 to 6 for mental conditions. Similar to the skin condition score, the subjective score and objective score of the physical condition or mental condition are calculated from the subjective data and objective data of the physical condition or mental condition, and based on these, the physical condition score and the mental condition score are calculated. may be treated as

さらに、施策グループ選択部12は、初期ユーザ情報データに含まれる「なりたい肌レベル」「施策のカテゴリー、希望、頻度」及び「現在行っている施策」を取得する。「なりたい肌レベル」「施策のカテゴリー,希望,頻度」及び「現在行っている施策」は、肌サポートアプリ35aにより、ユーザUaが入力したものである。 Further, the measure group selection unit 12 acquires the "desired skin level", "category, desire and frequency of measures" and "current measures" included in the initial user information data. The "desired skin level", "category, desire and frequency of measures" and "current measures" are input by the user Ua through the skin support application 35a.

ここで、「なりたい肌レベル」において、「なりたい肌」とは、乾燥感改善、ごわつき改善、敏感肌改善、ニキビ改善、しぼみ感改善、シミ改善、シワ改善、たるみ改善、くすみ改善、くま改善、顔色改善、及びハリ改善の中から選択された肌状態の改善対象である。また、「レベル」とは、各対象の肌状態に対するユーザUaの満足度であって、肌サポートアプリにおいて1~10の10段階でユーザが選択したレベルである。 Here, in the "desired skin level", "desired skin" means improvement of dryness, improvement of stiffness, improvement of sensitive skin, improvement of acne, improvement of wrinkles, improvement of spots, improvement of wrinkles, improvement of sagging, improvement of dullness, improvement of dark circles, It is a skin condition improvement target selected from complexion improvement and firmness improvement. The “level” is the level of satisfaction of the user Ua with respect to each target skin condition, and is the level selected by the user from 1 to 10 in the skin support application.

サポートDB20は、各改善対象に関連付けられた肌状態の主観状態の改善傾向及び客観状態の改善傾向を記憶している。例えば、図11Cに示されるように、「乾燥感改善」には、肌状態の主観状態「乾燥感改善」と、肌状態の客観状態の基準「保水能力と皮脂適格性との差を最小化」とが関連付けられている。 The support DB 20 stores the improvement tendency of the subjective state and the improvement tendency of the objective state of the skin condition associated with each improvement target. For example, as shown in FIG. 11C , “improvement of dryness” includes subjective skin condition “improvement of dryness” and objective criterion of skin condition “minimize difference between water retention capacity and sebum suitability”. ” is associated with.

例えば、「なりたい肌」が「乾燥感改善」であり、現状の肌状態の乾燥感の満足度のレベルが3であるときに、ユーザUaの選択に応じて、「乾燥感改善」と関連付けられたユーザUaの肌状態の主観状態「乾燥感改善」についての満足度5が主観的な目標レベルとして設定される。 For example, when the “desired skin” is “improved dryness” and the satisfaction level of the dryness of the current skin condition is 3, it is associated with “improved dryness” according to the selection of the user Ua. A satisfaction level of 5 with respect to the subjective skin condition “improved dryness” of the user Ua is set as a subjective target level.

また、施策グループ選択部12は、「乾燥感改善」に関連付けられた肌状態の客観的な改善対象を設定する。例えば、施策グループ選択部12は、「乾燥感改善」に関連付けられた基準「保水能力と皮脂適格性との差を最小化」に基づいて、ユーザUaの肌状態のうち、保水能力よりも低い皮脂適格性の値2を客観的な目標レベルとして設定する。 In addition, the measure group selection unit 12 sets an objective skin condition improvement target associated with "improvement of dryness". For example, the measure group selection unit 12 determines that the user Ua's skin condition is lower than the water retention ability based on the criterion "minimize the difference between the water retention ability and the sebum suitability" associated with the "improvement of dryness". A sebum suitability value of 2 is set as the objective target level.

また、「施策のカテゴリー、希望、頻度」において、カテゴリーとしては「食生活、自宅での行動、運動、化粧品の使い方」等、希望としては「難易度、時間制約、肌ケアを行うシーン」等、頻度としては「1日当たりのアドバイスを受ける回数」等が選択される。 In addition, regarding the category of policy, preference, and frequency, categories include dietary habits, activities at home, exercise, and how to use cosmetics. , "the number of times advice is received per day" or the like is selected as the frequency.

「現在行っている施策」は、ユーザUaがすでに行っている施策であり、「湯船につかる」等の内容及び頻度又は程度などにより表される。 The “measure currently being taken” is a measure that the user Ua has already taken, and is represented by the content and frequency or degree of “soaking in the bathtub” or the like.

[E.スケジュール決定工程]
図3に示した「2.スケジュール決定」の工程は、施策グループ選択部12及び施策情報送信部13により実行される。施策グループ選択部12は、図4のSTEP12で、ゴール(主観的な目標レベル及び客観的な目標レベル)を達成するための施策グループを選択する。この選択は、上述した各改善対象に関連付けられた、肌状態の主観状態の改善傾向と肌状態の客観状態の改善傾向と適した周辺環境とを考慮して行われる。施策グループ選択部12は、あらかじめ登録された地域またはGPSセンサ等によって検出された位置情報と、端末の時計機能から取得した日時とに基づいて、スケジュール期間におけるユーザUaの周辺環境の温度、湿度等を予測する。
[E. Schedule decision process]
The process of “2. Determination of schedule” shown in FIG. The measure group selection unit 12 selects a measure group for achieving the goal (subjective target level and objective target level) in STEP 12 of FIG. This selection is made in consideration of the improvement tendency of the subjective skin condition, the improvement tendency of the objective skin condition, and the suitable surrounding environment, which are associated with each improvement target described above. The measure group selection unit 12 determines the temperature, humidity, etc. of the surrounding environment of the user Ua during the schedule period based on the location information detected by the GPS sensor or the like registered in advance and the date and time acquired from the clock function of the terminal. to predict.

例えば、施策グループ選択部12は、カテゴリーの希望が「自宅での行動、食生活、運動」であり、梅雨の時期のように湿度が平均50%と予測される季節であり、主観的な目標レベルが「乾燥感」の満足度5以上、客観的な目標レベルが皮脂適格性2以上である場合、主観状態の改善傾向が「乾燥感改善」を含み、客観状態の改善傾向が「皮脂適格性向上」を含み、カテゴリーに「自宅での行動、食生活、運動」のいずれかであり、適した周辺環境が湿度50%と矛盾しない施策を選択する。 For example, the policy group selection unit 12 selects the desired category as "activity at home, eating habits, exercise", the season when the humidity is expected to be 50% on average, such as the rainy season, and the subjective goal. If the level is 5 or more in the satisfaction level of "dryness" and the objective target level is 2 or more in sebum suitability, the subjective condition improvement tendency includes "dryness improvement", and the objective condition improvement tendency is "sebum eligible Select measures that include "enhancement of sexuality" and that the category is any of "home activities, eating habits, and exercise", and that the suitable surrounding environment does not contradict 50% humidity.

ここで、主観状態の改善傾向及び客観状態の改善傾向は、予め担当者T等の専門家によって定められたものであってもよいし、サポートDB20に記憶された他のユーザUb、Ucが実施した施策と他のユーザUb、Ucの肌状態の時系列的変化に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよいし、実施した施策とユーザUaの肌状態の時系列的変化がサポートDB20に保存されている場合には、当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよい。 Here, the improvement tendency of the subjective state and the improvement tendency of the objective state may be determined in advance by an expert such as the person in charge T, or may be implemented by other users Ub and Uc stored in the support DB 20. It may be an improvement tendency of the subjective state and an improvement tendency of the objective state estimated based on the time-series change of the skin condition of the other users Ub and Uc, or the implemented measure and the skin condition of the user Ua. is stored in the support DB 20, it may be the improvement tendency of the subjective state and the improvement tendency of the objective state estimated based on the information.

例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策と、その施策を実施した前後の他のユーザUb、Ucそれぞれごとの肌状態の主観データの時系列的変化及び他のユーザUb、Ucそれぞれごとの肌状態の客観データの時系列的変化の一方又は両方とが記憶される。 For example, the support DB 20 stores measures implemented by each of the other users Ub and Uc, chronological changes in the subjective data of the skin condition of each of the other users Ub and Uc before and after implementation of the measures, and other data. One or both of chronological changes in objective skin condition data for each of users Ub and Uc are stored.

また、例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策「湯船につかる」と、その施策を実施した前後における、他のユーザUb、Ucそれぞれの肌状態の主観状態の時系列的変化としての「乾燥感についての満足度」が記憶されているとする。 In addition, for example, the support DB 20 stores information on the measure "soaking in the bathtub" implemented by each of the other users Ub and Uc, and subjective skin conditions of each of the other users Ub and Uc before and after implementing the measure. It is assumed that "satisfaction with dry feeling" is stored as a time-series change.

このとき、施策グループ選択部12は、各他のユーザUb、Ucごとに、施策「湯船につかる」について、例えば、湯船につかる前日と、湯船につかった日の肌状態の主観データ(乾燥感についての満足度)の変化量を算出する。そして、施策グループ選択部12は、各他のユーザUb、Ucごとの乾燥感についての満足度の変化量の平均値をとる。施策グループ選択部12は、例えば、「乾燥感についての満足度」の変化量の平均値が所定値以上である場合に、施策「湯船につかる」の主観状態の改善傾向を「乾燥感改善」と認識する。客観状態の改善傾向についても、主観状態の改善傾向と同様に認識できる。 At this time, for each of the other users Ub and Uc, the measure group selection unit 12 selects, for example, the subjective data of the skin condition (dry feeling) on the day before the bath and on the day of the bath for the measure “soak in the bathtub”. Calculate the amount of change in the degree of satisfaction for Then, the measure group selection unit 12 obtains the average value of the amount of change in the degree of satisfaction with respect to dryness for each of the other users Ub and Uc. For example, when the average value of the amount of change in "satisfaction with dry feeling" is equal to or greater than a predetermined value, the measure group selection unit 12 sets the improvement tendency of the subjective state of the measure "soak in the bathtub" to "improved dry feeling". Recognize. The improvement tendency of the objective state can also be recognized in the same way as the improvement tendency of the subjective state.

施策グループ選択部12は、ユーザUaの年齢及び肌状態に基づいて、同年代、同様の肌状態等、処理対象とする他のユーザUb、Ucの範囲を絞ってもよい。 Based on the age and skin condition of the user Ua, the measure group selection unit 12 may narrow down the range of other users Ub and Uc to be processed, such as the same age and the same skin condition.

また、施策グループ選択部12は、サポートDBに実施した施策とユーザUaの肌状態の時系列的変化が保存されている場合には、上記と同様にして算出した当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 Further, when the implemented measures and the chronological changes in the skin condition of the user Ua are stored in the support DB, the measure group selection unit 12 estimates based on the information calculated in the same manner as described above. The improvement tendency of the subjective state and the improvement tendency of the objective state may be recognized.

施策グループ選択部12は、ユーザUaの第1回目のスケジュール決定工程においては、他のユーザUb、Ucの肌状態の主観データ、客観データから上記主観状態の改善傾向及び客観状態の改善傾向を認識し、ユーザUaの第2回目のスケジュール決定工程においてはユーザUaの肌状態の主観データ、客観データから主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 In the first schedule determination process for user Ua, the measure group selection unit 12 recognizes the improvement tendency of the subjective condition and the improvement tendency of the objective condition from the subjective data and objective data of the skin conditions of the other users Ub and Uc. However, in the user Ua's second schedule determination process, the improvement tendency of the subjective condition and the improvement tendency of the objective condition may be recognized from the subjective data and the objective data of the skin condition of the user Ua.

施策グループ選択部12は、肌状態のみならず、心状態、体状態についても同様に主観状態の改善傾向及び客観状態の改善傾向を認識し、当該心状態、体状態の主観状態の改善傾向及び客観状態の改善傾向を加味して施策を選択してもよい。 The measure group selection unit 12 recognizes not only the skin condition but also the subjective state improvement tendency and the objective state improvement tendency for the mental state and the physical state. Measures may be selected in consideration of the improvement tendency of the objective state.

施策グループ選択部12は、「現在行っている施策」と同内容及び同頻度または同程度の施策を施策グループから除外してもよい。ユーザが既に行っている施策は、提案するまでもないと考えられるからである。 The measure group selection unit 12 may exclude measures having the same content and the same frequency or degree as the “current measures” from the measure group. This is because it is considered unnecessary to propose measures that the user has already taken.

図11Aの例では、施策グループ選択部12は、「湯船につかる」「ビタミンC摂取」「野菜摂取」「1万歩以上歩く」を含むように複数の施策の組合せである施策グループを選択する。 In the example of FIG. 11A, the measure group selection unit 12 selects a measure group that is a combination of multiple measures so as to include "soak in the bathtub", "vitamin C intake", "vegetable intake", and "walk 10,000 steps or more". .

施策情報送信部13は、施策グループの中から、ユーザUaの「施策のカテゴリー、希望、頻度」に応じて施策の優先度を評価し、当該優先度に従って初期の施策を決定する。図12には、初期の施策として「湯船につかる」「野菜摂取」「1万歩以上歩く」が選択されたスケジュールの例を示している。施策情報送信部13は、このようにして決定したスケジュールの内容を示すスケジュールデータをユーザ端末30に送信する。 The policy information transmission unit 13 evaluates the priority of the policy among the policy group according to the user Ua's "policy category, desire, and frequency", and determines the initial policy according to the priority. FIG. 12 shows an example of a schedule in which "soak in a bathtub," "eat vegetables," and "walk 10,000 steps or more" are selected as initial measures. The policy information transmission unit 13 transmits schedule data indicating the details of the schedule thus determined to the user terminal 30 .

施策情報送信部13は、併せて、ユーザUaの指定を基に、一定期間の各工程の実施の計画を作成する。図11Bには、START時にゴール設定とスケジュール決定を行い、毎日モニタリングをし、1週間ごとにスケジュール修正を行い、1か月後に進捗グラフを作成し、3か月目にゴール判定と新たなゴール設定を行うという一連のイベントの計画が示されている。施策情報送信部13は、ユーザUaの指定に加えてまたは代えて、あらかじめ定められた、一定期間の各工程の実施の計画を用いてもよい。 The policy information transmission unit 13 also creates a plan for implementing each process for a certain period based on the designation of the user Ua. In FIG. 11B, goal setting and schedule determination are performed at START, daily monitoring is performed, schedule is revised every week, a progress graph is created after one month, and goal determination and new goals are set in the third month. A series of events of setting up are planned. In addition to or instead of the user Ua's specification, the policy information transmitting unit 13 may use a predetermined plan for performing each process for a certain period of time.

ユーザ端末30において、図6のSTEP52で、肌状態認識システム10からスケジュールデータを受信すると、肌サポートアプリ35aは、図12に示したようなスケジュールの実行表及び図11Bに示したような作業内容の計画を表示可能にして、ユーザUaによる各施策の実施を促す。図12のスケジュールの実行表においては、各施策(「湯船につかる」、「野菜摂取」、「1万歩以上歩く」)の内容が表示される。 When the user terminal 30 receives the schedule data from the skin condition recognition system 10 in STEP 52 of FIG. 6, the skin support application 35a displays the schedule execution table as shown in FIG. plan can be displayed to prompt the user Ua to implement each measure. In the execution table of the schedule in FIG. 12, the contents of each measure (“Soak in a hot tub”, “Eat vegetables”, “Walk 10,000 steps or more”) are displayed.

[F.モニタリング工程]
図3に示した「3.モニタリング」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは毎日)、肌状態認識部11及び施策情報送信部13により実行される。肌サポートアプリ35aの利用を開始したユーザUaは、ユーザ端末30により、日々の肌、体、心の各状態と、スケジュールにより指示された施策の実施状況と、スケジュールにより指示された施策以外のユーザUaの自主的な行動(施策外行動)の実施状況とを入力する。施策の実施状況には、「湯船につかる」、「野菜摂取」、「1万歩以上歩く」をそれぞれ実施したかどうかを示す情報のほか、「30分」および「湯船につかる」、「300g」および「野菜を摂取」、「1万5千歩」および「歩く」など、時間、量などで表される施策の実行の度合いが含まれる。
[F. Monitoring process]
The step “3. Monitoring” shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure information transmission unit 13 every period set by the user Ua on the skin support application 35a (every day in FIG. 11B). . The user Ua, who has started using the skin support application 35a, uses the user terminal 30 to check the daily skin, body, and mental conditions, the implementation status of the measures specified by the schedule, and the measures other than the measures specified by the schedule. The implementation status of Ua's voluntary action (action outside the policy) is entered. The implementation status of the measures includes information indicating whether or not each of the measures, "soak in the bathtub,""eatvegetables," and "walk more than 10,000 steps," has been implemented, as well as "30 minutes,""soak in the bathtub,""300 g and "eating vegetables", "15,000 steps", and "walking".

肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されるとSTEP60に処理を進め、上述した初期ユーザ情報データと同様に、ユーザUaの肌、体、心の状態についての主観データと客観データを含む現状ユーザ情報データを肌状態認識システム10に送信してSTEP54に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されない場合、そのままSTEP54に処理を進める。ここで送信されるデータには、角質採取テープ37によって採取された角層細胞に関するデータは含まれない。 In STEP53 of FIG. 6, the skin support application 35a advances the process to STEP60 when the state of the skin, body, and mind is input by the user Ua. Current user information data including subjective data and objective data regarding the state of mind is transmitted to the skin condition recognition system 10, and the process proceeds to STEP54. It should be noted that the skin support application 35a directly advances the processing to STEP54 when the user Ua does not input the state of the skin, body, and mind in STEP53 of FIG. The data transmitted here does not include the data on the stratum corneum cells collected by the keratin collecting tape 37 .

また、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されたときにSTEP61に処理を進め、スケジュールの実行状況を示す実行状況データを肌状態認識システム10に送信して図7のSTEP55に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されない時は、そのままSTEP55に処理を進める。 Further, in STEP 54 of FIG. 6, the skin support application 35a advances the process to STEP 61 when the schedule execution status (execution status of each measure) is input by the user Ua, and outputs execution status data indicating the schedule execution status. The information is transmitted to the skin condition recognition system 10, and the process proceeds to STEP55 in FIG. When the user Ua does not input the execution status of the schedule (execution status of each measure) in STEP54 of FIG. 6, the skin support application 35a directly proceeds to STEP55.

さらに、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されたときにSTEP62に処理を進め、実施された施策外行動の内容を示す施策外行動実施データを肌状態認識システム10に送信してSTEP56に処理を進める。なお、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されないときには、そのままSTEP56に処理を進める。 Furthermore, in STEP55 of FIG. 7, the skin support application 35a advances the process to STEP62 when the user Ua inputs the implementation status of the non-policy action, and performs non-policy action execution data indicating the details of the non-policy action that has been performed. is transmitted to the skin condition recognition system 10, and the process proceeds to STEP56. It should be noted that the skin support application 35a advances the processing to STEP56 as it is when the user Ua does not input the implementation status of the action outside the policy in STEP55 of FIG.

図4のSTEP13~図5のSTEP16、及び図4のSTEP20~STEP22は、施策情報送信部13による処理である。肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信したときにSTEP20に処理を進め、現状ユーザ情報データをサポートDB20に蓄積してSTEP14に処理を進める。なお、肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信しないときは、STEP14にそのまま処理を進める。 STEP 13 in FIG. 4 to STEP 16 in FIG. 5 and STEP 20 to STEP 22 in FIG. When the skin condition recognition unit 11 receives the current user information data from the user terminal 30 in STEP 13, the process proceeds to STEP 20, accumulates the current user information data in the support DB 20, and proceeds to STEP 14. When the skin condition recognition unit 11 does not receive the current user information data from the user terminal 30 in STEP 13, the process proceeds to STEP 14 as it is.

また、施策情報送信部13は、STEP14でユーザ端末30から実行状況データを受信したときにSTEP21に処理を進め、実行状況データをサポートDB20に蓄積してSTEP15に処理を進める。一方で、STEP14でユーザ端末30から実行状況データを受信していないと判定された場合は、そのままSTEP15に処理を進める。 Also, when the policy information transmitting unit 13 receives the execution status data from the user terminal 30 in STEP 14 , it advances the process to STEP 21 , accumulates the execution status data in the support DB 20 , and advances the process to STEP 15 . On the other hand, if it is determined in STEP14 that the execution status data has not been received from the user terminal 30, the process proceeds directly to STEP15.

さらに、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信したときにSTEP22に処理を進め、施策外行動実施データをサポートDB20に蓄積して図5のSTEP16に処理を進める。一方で、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信しない時は、そのまま図5のSTEP16に処理を進める。 Furthermore, when the policy information transmission unit 13 receives the non-policy action execution data from the user terminal 30 in STEP 15, it advances the process to STEP 22, accumulates the non-policy action execution data in the support DB 20, and proceeds to STEP 16 in FIG. proceed. On the other hand, when the policy information transmitting unit 13 does not receive the non-policy action execution data from the user terminal 30 in STEP15, the process proceeds to STEP16 in FIG. 5 as it is.

図5に移って、STEP16で、施策情報送信部13は、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、及び施策外行動実施データ等に基づいて、スケジュールの進捗状況を示す進捗表データを作成し、この進捗表データをユーザ端末30に送信する。 5, in STEP 16, the policy information transmission unit 13, based on the user Ua's initial user information data, current user information data, execution status data, non-policy action execution data, etc., accumulated in the support DB 20, Progress table data indicating the progress of the schedule is created, and this progress table data is transmitted to the user terminal 30 .

ここで、スケジュールの進捗表は、例えば図12に示したように、上から順に、肌状態(ここでは乾燥肌)のレベル、体状態のレベル、心状態のレベル、施策(湯船につかる、野菜摂取、1万歩以上歩く)の実施状況、暮らし情報(野菜摂取量、水分摂取量)、及び暮らし特殊事例が、1日単位で表示する構成となっている。 Here, for example, as shown in FIG. 12, the progress table of the schedule includes, from top to bottom, the level of skin condition (here, dry skin), the level of physical condition, the level of mental condition, measures (soaking in a bathtub, vegetables). Intake, walking 10,000 steps or more), living information (vegetable intake, water intake), and living special cases are displayed on a daily basis.

また、スケジュール進捗表には、施策の実行度合い(「30分」湯船につかる、「300g」野菜摂取、「1万5千歩」歩く)が含まれている。 The schedule progress table also includes the degree of implementation of measures (“30 minutes” soaking in a hot tub, “300g” eating vegetables, “15,000 steps” walking).

ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP56で、肌状態認識システム10から送信された進捗表データを受信したときにSTEP63に処理を進め、進捗表データをメモリ36に保持する。肌サポートアプリ35aは、メモリ36に格納された進捗表データを用いて、図12に示した進捗表をユーザ端末30の表示器31に表示する。 In the user terminal 30, when the skin support application 35a receives the progress chart data transmitted from the skin condition recognition system 10 in STEP56 of FIG. The skin support application 35 a uses the progress table data stored in the memory 36 to display the progress table shown in FIG. 12 on the display 31 of the user terminal 30 .

また、肌サポートアプリ35aは、進捗表データの他に、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等を用いて、ユーザUaの肌、体、心の各状態の推移や変化を示す情報を、ユーザ端末30の表示器31に表示する。 In addition to the progress table data, the skin support application 35a also recognizes initial user information data, current user information data, and execution status data of the user Ua, which are recognized through communication and accumulated in the support DB 20 of the skin condition recognition system 10. , information indicating transitions and changes in each state of the user Ua's skin, body, and mind is displayed on the display 31 of the user terminal 30 using the non-policy action execution data and the like.

例えば、肌サポートアプリ35aは、図13に示したように、スケジュールによる施策以外のユーザUaの行動(洗顔法の変更、マッサージを受けた等)、及びユーザの体調(生理、睡眠不足等)と、ユーザUaの肌状態の変化の関係を日単位の時系列グラフで、表示器31に表示する。 For example, as shown in FIG. 13, the skin support application 35a can be used to determine the behavior of the user Ua other than the measures according to the schedule (change of face washing method, receiving a massage, etc.), and the physical condition of the user (physiology, lack of sleep, etc.). , the relationship of changes in the skin condition of the user Ua is displayed on the display 31 as a daily time-series graph.

また、肌サポートアプリ35aは、図14に示したように、一カ月単位で、ユーザUaの角質状態を含む肌状態、心理状態、肌ケアの満足度、及び化粧品の使い方の評価値の変化を対比したレーダーチャートを表示器31に表示する。 In addition, as shown in FIG. 14, the skin support application 35a monitors, on a month-by-month basis, the user Ua's skin condition including keratin condition, psychological condition, skin care satisfaction, and cosmetic usage evaluation values. A radar chart for comparison is displayed on the display 31 .

ユーザUaは、肌サポートアプリ35aによるこれらの表示を視認して、自身の肌、体、心の各状態の変化を確認することにより、肌の改善度と共に、体と心の状態の変化も把握することができるため、肌、体、及び心の状態をバランス良く改善しながら、目標とする肌状態のゴールへの到達することができる。 The user Ua visually recognizes these displays by the skin support application 35a and confirms changes in the conditions of his/her own skin, body, and mind, thereby grasping the degree of improvement in the skin as well as changes in the conditions of the body and mind. Therefore, the target skin condition goal can be achieved while improving the condition of the skin, body, and mind in a well-balanced manner.

また、肌サポートアプリ35aは、STEP63の後、STEP64に進み、図19に示されるシミュレータ表示処理を実行する。シミュレータ表示処理の詳細については後述する。 After STEP 63, the skin support application 35a advances to STEP 64 and executes simulator display processing shown in FIG. The details of the simulator display processing will be described later.

[G.スケジュール修正]
図3に示した「4.スケジュール修正」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは1週間ごとに)、施策情報送信部13により実行される。図5のSTEP17~STEP20、及びSTEP30~STEP33が、施策情報送信部13による処理である。
[G. schedule modification]
The process of "4. schedule modification" shown in FIG. 3 is executed by the measure information transmitting unit 13 for each period set by the user Ua on the skin support application 35a (every week in FIG. 11B). STEP 17 to STEP 20 and STEP 30 to STEP 33 in FIG.

施策情報送信部13は、STEP17で、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、及び実行状況データ等に基づいて、ユーザUa肌状態の目標達成度、スケジュールに組み込まれた各施策の実行度、及び各施策の効果を評価する。 In STEP 17, the policy information transmission unit 13 incorporates the user Ua's skin condition target achievement level and schedule into the user Ua's initial user information data, current user information data, execution status data, and the like accumulated in the support DB 20. Evaluate the degree of implementation of each measure and the effect of each measure.

施策情報送信部13は、図15Aに示した施策の評価基準を用いて、肌状態と体又は心の状態との相関関係を抽出し、この相関関係に基づいて、スケジュールに組み込まれた各施策の継続、施策グループからの除外、施策の中止、別の施策への変更を判断する。 The policy information transmission unit 13 extracts the correlation between the skin condition and the physical or mental condition using the policy evaluation criteria shown in FIG. continuation of the policy, exclusion from the policy group, cancellation of the policy, and change to another policy.

図15Aの評価基準では、判定項目として、実施の有無、肌への影響、体への影響、心への影響という四項目が使用され、実施率が所定実施率を超え、肌に良い影響があり、且つ、体と心に悪い影響がない施策については、A評価となって継続と判断される。なお、図15Aでは、実施率が所定の実施率を超えた施策を「実施」として表記し、実施率が所定の実施率以下であった施策を「不実施」として表記している。図12及び図15Bでも同様である。 In the evaluation criteria of FIG. 15A, four items are used as judgment items: presence or absence of implementation, effect on skin, effect on body, and effect on mind. If there is, and there is no adverse effect on the body and mind, it will be evaluated as A and will be judged to be continued. Note that, in FIG. 15A, a measure whose implementation rate exceeds a predetermined implementation rate is indicated as "implemented", and a measure whose implementation rate is equal to or lower than the predetermined implementation rate is indicated as "non-implemented". The same applies to FIGS. 12 and 15B.

施策の影響のタイミングと影響が継続する期間が施策ごとに定められている場合、施策情報送信部13は、施策の影響のタイミングと施策の影響が継続する期間に基づいて、各施策の影響を判定してもよい。 When the timing of the impact of the policy and the duration of the impact are determined for each policy, the policy information transmission unit 13 calculates the impact of each policy based on the timing of the impact of the policy and the duration of the impact of the policy. You can judge.

例えば、「湯船につかる」という施策の肌への影響、体への影響、心への影響は、翌日に影響が出、1日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「湯船につかる」という施策の影響は、12月16日の各状態に反映されていると判断する。 For example, if it is determined that the effect of the measure "soaking in the bathtub" on the skin, the body, and the mind will affect the next day and will continue for only one day, the measure information transmission unit 13 will: For example, it is determined that the effect of the measure "soak in the bathtub" on December 15th is reflected in each state on December 16th.

また、「野菜摂取」という施策の肌への影響、体への影響、心への影響は、1週間後に影響が出、3日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「野菜摂取」という施策の影響は、12月22日~12月24日の各状態に反映されていると判断する。 In addition, if the effect of the measure "vegetable intake" on the skin, the body, and the mind is set to occur after one week and continue for only three days, the measure information transmission unit 13 For example, it is determined that the influence of the policy of "vegetable intake" on December 15th is reflected in each state from December 22nd to December 24th.

それに対して、実施され、肌に良い影響があるが、体と心のいずれかに悪い影響がある施策については、B評価となって中止或は別施策への変更と判断される。また、実施率が所定の実施率以下となった施策はユーザUaにとって負荷が大きかったと考えられるため、C評価となって中止或は別施策(例えば、ユーザUaの負荷が軽減する施策又は別の施策)への変更と判断される。 On the other hand, a measure that has a good effect on the skin but has a bad effect on either the body or mind is given a B rating and is judged to be canceled or changed to another measure. In addition, since it is considered that a measure whose implementation rate is equal to or less than a predetermined implementation rate imposes a heavy burden on the user Ua, it is evaluated as C and canceled or another measure (for example, a measure that reduces the load on the user Ua or another measure is implemented). measures).

施策情報送信部13は、各施策を1日だけ実施することで肌、体、心への良いまたは悪い影響があるかの評価を行っても良いし、数日や数週間などの一定期間において各施策を実施することで、肌、体、心への良いまたは悪い影響があるかの評価を行ってもよい。一定期間で評価を行う場合、施策情報送信部13は、例えば、一定割合でいずれかの状態に悪影響が出た場合にB評価とし、実施割合が一定以下である場合にC評価とし、それ以外の場合A評価としてもよい。これに代えて、施策情報送信部13は、例えば、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価としてもよい。また、1日におけるいずれかの状態の満足度が所定以下となり、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にC評価とし、1日の評価におけるいずれかの状態の満足度が所定以下となり、または、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価とし、1日におけるいずれかの状態の満足度が所定値を超え、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定値を超えた場合にA評価とするなど、1日の評価と一定期間の評価とを組み合わせて用いてもよい。 The measure information transmission unit 13 may evaluate whether each measure has a good or bad effect on the skin, body, and mind by implementing each measure for only one day, or for a certain period of time such as several days or weeks. Implementation of each measure may be evaluated to determine whether it has a positive or negative effect on the skin, body, or mind. When the evaluation is performed for a certain period of time, the measure information transmission unit 13, for example, gives a B rating when any state is adversely affected at a given rate, a C rating when the implementation rate is below a given rate, and otherwise. In the case of , it is good as A evaluation. Instead of this, the policy information transmitting unit 13 may, for example, give a B evaluation when the average value of satisfaction in any state during a certain period of time is below a predetermined value. In addition, if the satisfaction level of any state in one day is below a predetermined level, and the average value of the satisfaction level of any state over a certain period of time is below a predetermined level, it will be evaluated as C, and any of the evaluations for the day If the level of satisfaction in any state falls below a predetermined level, or if the average value of satisfaction levels in any one state over a certain period of time falls below a predetermined level, it will be evaluated as B, and the level of satisfaction in any state in a day will be a predetermined level. value, and the average value of satisfaction in any state in a certain period of time exceeds a predetermined value, such as A evaluation, such as a one-day evaluation and a certain period of time evaluation may be used in combination. .

また、施策情報送信部13は、図8に示した肌状態のスコアの向上度が所定の向上度以下である場合に、当該肌状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。施策情報送信部13は、体状態又は心状態のスコアの向上度が所定の向上度以下である場合に、体状態又は心状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。 Further, when the degree of improvement of the skin condition score shown in FIG. It may be excluded from the policy group. When the degree of improvement in the score of the physical condition or the mental state is equal to or less than a predetermined degree of improvement, the measure information transmitting unit 13 selects the measures in which the degree of improvement in the score of the physical state or the mental state is equal to or less than the predetermined degree of improvement in the measure group. can be excluded from

図15Bは、図15Aに示した評価基準を、本実施形態における施策(湯船につかる、野菜摂取、1万歩以上歩く)に適用した例を示している。図15Bにより、施策情報送信部13は、「湯船につかる」についてはA評価として、次のスケジュールでの継続を決定し、「野菜摂取」についてはB評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定し、「1万歩以上歩く」についてはC評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定している。 FIG. 15B shows an example in which the evaluation criteria shown in FIG. 15A are applied to measures (soaking in a bathtub, eating vegetables, walking 10,000 steps or more) in this embodiment. According to FIG. 15B, the measure information transmission unit 13 gives an A rating for “soak in the bathtub” and determines to continue with the next schedule, and gives a B rating for “vegetable intake” and excludes it from the measure group. Decide to cancel the schedule or change to another measure, and give a C grade for "walking more than 10,000 steps", exclude from the measure group, cancel the next schedule or change to another measure. have decided.

施策情報送信部13は、複数の施策が行われた影響については、それらの施策の組合せごとに判断する。例えば、施策情報送信部13は、「湯船につかる」「野菜摂取」の組合せが、B評価又はC評価であった場合、「湯船につかる」若しくは「野菜摂取」の単独の施策のみとするか、又はこれらのいずれかの施策と別な施策との組み合わせとするように変更してもよい。 The policy information transmission unit 13 determines the influence of a plurality of policies for each combination of the policies. For example, if the combination of "soaking in a hot tub" and "eating vegetables" is rated B or C, the measure information transmitting unit 13 determines whether only the single measures of "soaking in a hot tub" or "eating vegetables" are considered. , or a combination of any of these measures and another measure may be changed.

施策情報送信部13はこのような評価処理を行って、スケジュール修正(主として施策グループの他の施策への変更による修正)の要否を判断し、スケジュール修正が必要と判断したときには、STEP30に処理を進めてスケジュールを修正する。そして、修正したスケジュールのデータであるスケジュール修正データをユーザ端末30送信して、STEP19に処理を進める。一方、スケジュールの修正が不要であると判断したときには、施策情報送信部13は、図5のSTEP18から図5のSTEP19に処理を進め、この場合はスケジュールは修正されない。 The measure information transmission unit 13 performs such evaluation processing to determine whether schedule correction (mainly by changing the measure group to another measure) is necessary or not. to correct the schedule. Then, the user terminal 30 transmits schedule correction data, which is data of the corrected schedule, and the process proceeds to STEP19. On the other hand, when it is determined that the schedule need not be revised, the measure information transmitting section 13 advances the process from STEP 18 in FIG. 5 to STEP 19 in FIG. 5, and in this case the schedule is not revised.

次に、施策情報送信部13は、STEP19で、初期ユーザ情報データ、現状ユーザ情報データ、及び施策外行動実施データ等に基づいて、ユーザUaが行った各施策外行動(スケジュールに組み込まれている施策以外に、ユーザが行った行動)を評価する。 Next, in STEP 19, the policy information transmission unit 13, based on the initial user information data, the current user information data, the data on the execution of the action outside the policy, etc., performs each non-policy action (included in the schedule) In addition to measures, actions performed by users) are evaluated.

施策情報送信部13は、図16Aに示した施策外行動の評価基準を用いて、施策外行動の推奨の有無又は禁止の提案を判断する。図16Aの評価基準では、判定項目として、肌、体、心の各状態への影響が使用される。 The policy information transmitting unit 13 uses the evaluation criteria for the behavior outside the policy shown in FIG. 16A to determine whether the behavior outside the policy is recommended or not. In the evaluation criteria of FIG. 16A, influences on each state of skin, body, and mind are used as judgment items.

そして、「肌、体、心のいずれかに良い影響があり、且ついずれについても悪い影響が無い」場合は、D評価となって実施が推奨される。それに対して、「肌、体、心のいずれかに悪い影響がある」場合は、E評価となって禁止が提案される。また、「肌、体、心のいずれにも影響が無い」場合には、F評価となって実施が推奨されない。 If "there is a positive effect on the skin, body, or mind, and there is no negative effect on any of them," the evaluation is D, and implementation is recommended. On the other hand, if it "has a negative effect on the skin, body or mind," an E rating is given and a ban is proposed. In addition, if "there is no effect on the skin, body, or mind," the evaluation is F, and implementation is not recommended.

図16Bは、図16Aに示した評価基準を、本実施形態における施策外行動(マッサージを受けた、チョコレートを大量に摂取した)に適用した例を示している。図16Bにより、施策情報送信部13は、「マッサージを受ける」についてはD評価として、次のスケジュールでの実施の推奨を決定している。また、「チョコレートの大量摂取」についてはE評価として、次のスケジュールでの止めるための施策(例えば、和菓子を摂取する代替案)の提案を決定している。 FIG. 16B shows an example in which the evaluation criteria shown in FIG. 16A are applied to behaviors outside the policy (receiving a massage, ingesting a large amount of chocolate) in this embodiment. According to FIG. 16B, the measure information transmitting unit 13 determines that “get a massage” is evaluated as D and is recommended to be implemented in the next schedule. In addition, regarding "a large amount of chocolate intake", it is evaluated as E, and it is decided to propose a measure to stop it in the next schedule (for example, an alternative to ingesting Japanese sweets).

施策情報送信部13は、スケジュールに組み込まれた施策の中止或は変更、又は施策外行動について、実施の推奨或は禁止の提案を決定したときには、STEP20からSTEP31に処理を進める。そして、推奨を決定したときはSTEP31からSTEP33に処理を進め、施策外行動の実施を推奨する施策外行動推奨データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 When the measure information transmitting unit 13 decides to recommend or prohibit the execution of the measures incorporated in the schedule, or to propose to cancel or change the measures outside the measures, the process advances from STEP 20 to STEP 31 . Then, when the recommendation is determined, the process proceeds from STEP31 to STEP33, the non-policy action recommendation data recommending the execution of the non-policy action is transmitted to the user terminal 30, and the process proceeds to STEP13 in FIG.

一方、施策情報送信部13は、禁止の提案を決定したときには、STEP31からSTEP32に処理を進め、施策外行動の禁止を提案する施策外行動禁止データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 On the other hand, when the policy information transmitting unit 13 decides to propose the prohibition, the process advances from STEP 31 to STEP 32, and transmits to the user terminal 30 non-policy action prohibition data proposing prohibition of the non-policy action. The process proceeds to STEP13.

また、施策情報送信部13は、推奨又は禁止を提案する施策外行動がない場合には、STEP20から図4のSTEP13に処理を進める。なお、禁止を提案する施策外行動に代替行動がある場合には、禁止の提案に代えて代替行動への変更を提案する施策外行動禁止データをユーザ端末30に送信するようにしてもよい。 If there is no non-policy action to be recommended or prohibited, the policy information transmitting unit 13 advances the process from STEP 20 to STEP 13 in FIG. If the non-policy action proposed to be prohibited includes an alternative action, non-policy action prohibition data proposing a change to the alternative action may be transmitted to the user terminal 30 instead of the prohibition proposal.

ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP57で、肌状態認識システム10からスケジュール修正データを受信すると、STEP65に処理を進め、スケジュール修正データに基づいてスケジュールを修正する。そして、肌サポートアプリ35aは、メモリ36に保持されたスケジュールデータを更新して、処理をSTEP58に進める。 In the user terminal 30, when the schedule correction data is received from the skin condition recognition system 10 in STEP57 of FIG. 7, the skin support application 35a proceeds to STEP65 and corrects the schedule based on the schedule correction data. The skin support application 35a then updates the schedule data held in the memory 36 and advances the process to STEP58.

また、肌サポートアプリ35aは、図7のSTEP58で、肌状態認識システム10から施策外行動推奨データ又は施策外行動禁止データを受信すると、STEP66に処理を進め、受信したデータに応じて、施策外行動を推奨又は禁止の提案を報知する画面をユーザ端末30の表示器31に表示する。なお、この報知は、例えば図12に示した進捗表に報知メッセージを表示して行ってもよい。また、推奨する施策外行動を、新たな施策としてスケジュールを修正してもよい。 In addition, when the skin support application 35a receives the non-policy action recommendation data or the non-policy action prohibition data from the skin condition recognition system 10 in STEP58 of FIG. The display 31 of the user terminal 30 displays a screen informing of the recommendation or prohibition of the action. Note that this notification may be performed by displaying a notification message on the progress table shown in FIG. 12, for example. In addition, the recommended non-policy behavior may be used as a new policy to modify the schedule.

[H.ゴール判定工程]
図3に示した「5.ゴール判定」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11BにおいてはSTARTから3か月後)、肌状態認識部11、施策グループ選択部12及び施策情報送信部13により実行される。
[H. Goal Judgment Process]
The process of "5. Goal determination" shown in FIG. It is executed by the selection unit 12 and the policy information transmission unit 13 .

肌サポートアプリ35aは、角質採取テープ37の使用と、角質採取テープ37の郵送を促すメッセージをユーザ端末30の表示器31に表示する。 The skin support application 35a displays on the display 31 of the user terminal 30 a message prompting the user to use the keratin collecting tape 37 and to send the keratin collecting tape 37 by mail.

肌状態認識部11は、郵送された角質採取テープ37から得られた情報に基づいて、肌状態の客観値(保水能力、皮脂適格性など)を認識する。 The skin condition recognition unit 11 recognizes objective values of the skin condition (water retention capacity, sebum suitability, etc.) based on the information obtained from the mailed keratin collecting tape 37 .

また、肌サポートアプリ35aは、アンケートの回答、肌等の撮像の使用を促すメッセージをユーザ端末30の表示器31に表示し、得られた情報を送信する。 In addition, the skin support application 35a displays on the display 31 of the user terminal 30 a message prompting the user to answer the questionnaire and use imaging of the skin, etc., and transmits the obtained information.

肌状態認識部11は、肌サポートアプリ35aから得られた情報に基づいて、肌の乾燥感の主観値(主観レベル)と、肌状態の客観値(肌の画像スコア)を認識する。 The skin condition recognition unit 11 recognizes a subjective value (subjective level) of skin dryness and an objective value of skin condition (skin image score) based on information obtained from the skin support application 35a.

施策グループ選択部12及び施策情報送信部13は、肌の乾燥感の主観値と、肌状態の客観値とに基づいて、肌状態のサポート開始時と3カ月後における評価値を比較して、ゴール達成度を判定する。 The measure group selection unit 12 and the measure information transmission unit 13 compare the evaluation values at the start of skin condition support and after 3 months based on the subjective value of skin dryness and the objective value of skin condition, Determine goal achievement.

図17の例では、乾燥感の主観値のレベルが3カ月で3から5に増加しているので達成(○)と判定し、客観値についても、肌の画像スコアが3カ月で3から4に増大し、保水能力が2に維持され、皮脂適格性が1から2に増大しているので達成(○)と判定されている。そして、主観値と客観値が共にゴールを達成しているので、トータルとしてもゴールを達成したと判定している。 In the example of FIG. 17, the subjective value level of dryness increased from 3 to 5 in 3 months, so it was determined to be achieved (○). , the water retention capacity was maintained at 2, and the sebum suitability increased from 1 to 2, so it was determined to be achieved (○). Since both the subjective value and the objective value have achieved the goal, it is determined that the goal has been achieved as a whole.

肌状態認識部11及び施策グループ選択部12は、ゴールを達成した場合には新たなゴールを設定するため、図3に示した「1.ゴール設定」の工程を再度実行する。肌状態認識部11及び施策グループ選択部12は、ゴール未達の場合は、「2.スケジュール決定」工程を実施してもよいし、ユーザの希望または進捗に応じて「1.ゴール設定」の工程を再度実行してもよい。 In order to set a new goal when the goal is achieved, the skin condition recognition unit 11 and the measure group selection unit 12 repeat the process of "1. Goal setting" shown in FIG. The skin condition recognizing unit 11 and the measure group selecting unit 12 may perform the step of "2. Determine schedule" when the goal is not achieved, or perform the step of "1. Goal setting" according to the user's desire or progress. The process may be performed again.

[I.2次データ生成]
図3に示した「6.2次データ生成」の工程は、2次データ生成部19により実行される。2次データ生成部19は、複数のユーザUから送信される初期ユーザ情報データ、角層細胞解析データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等の各種データ(以下、ユーザ個別データという)を、ユーザごとにサポートDB20に順次蓄積する。
[I. Secondary data generation]
The step of “6. Secondary data generation” shown in FIG. 3 is executed by the secondary data generator 19 . The secondary data generation unit 19 generates various data transmitted from a plurality of users U, such as initial user information data, stratum corneum analysis data, current user information data, execution status data, non-measure action execution data (hereinafter referred to as user-specific data). data) are sequentially stored in the support DB 20 for each user.

そして、2次データ生成部19は、サポートDB20に蓄積されたユーザ個別データを分析して、例えば図18に示したように、各ユーザの特性(性別、年齢、居住地、嗜好、ライフスタイル等)、サポートの改善対象(乾燥感、ごわつき、敏感、ニキビ、しぼみ感等)、スケジュールにより提案された施策(湯船につかる、野菜摂取、1万歩以上歩く等)、及び施策の実施による肌、体、心の各状態の変化等を関連付けた2次データを生成する。 Then, the secondary data generation unit 19 analyzes the individual user data accumulated in the support DB 20, and, for example, as shown in FIG. ), support improvement targets (dryness, stiffness, sensitivity, acne, wrinkled feeling, etc.), measures proposed by the schedule (soaking in a bathtub, eating vegetables, walking more than 10,000 steps, etc.), and skin by implementing measures, Secondary data is generated that associates changes in each state of the body and mind.

また、2次データ生成部19は、施策外行動についても図18と同様に、各ユーザの特性と施策外行動の実施による肌、体、心の各状態の影響とを関連付けた2次データを生成する。 18, the secondary data generation unit 19 also generates secondary data that associates each user's characteristics with the effects of each user's skin, body, and mental state due to the implementation of the non-policy action, as in FIG. Generate.

このようにして生成された2次データは、同様の特性を有するユーザについて、体及び心に良い影響を与えつつ肌状態の改善を図るために有効な施策を選択する際に、有効に活用することができる。例えば、上述した図3の「2.スケジュール決定」の工程において、施策グループ選択部12は、2次データを参照して、ユーザUaの特性に適合した施策を選択することができる。 The secondary data generated in this manner is effectively used when selecting effective measures for improving the skin condition while having a positive effect on the body and mind of users with similar characteristics. be able to. For example, in the process of "2. Determination of Schedule" in FIG. 3 described above, the measure group selection unit 12 can refer to the secondary data and select measures that match the characteristics of the user Ua.

また、上述した図3の「4.スケジュール修正」の工程において、施策情報送信部13は、ユーザUaの肌、体、心の各状態の推移に応じてスケジュールを変更する際に、2次データを参照して、より有効な施策或は施策外行動を組み込んだスケジュールに変更することができる。 In addition, in the process of "4. Schedule correction" in FIG. can be referred to and the schedule can be changed to include more effective measures or actions outside the measures.

さらに、2次データは、肌状態のサポートを行う上で有効に利用できると共に、ある特性を有するユーザ(例えば、東京に住む30代のアウトドア志向の女性等)をターゲットとしたマーケティング等の目的にも利用することができる。そのため、2次データを図1に示した他のシステム60等に提供してもよい。 In addition, the secondary data can be effectively used to support skin conditions, and can be used for marketing purposes targeting users with certain characteristics (for example, outdoor-oriented women in their 30s living in Tokyo). can also be used. As such, the secondary data may be provided to other systems such as 60 shown in FIG.

[J.シミュレータ表示処理]
図19~図24を参照して、肌サポートアプリ35aが実行するシミュレータ表示処理(図7のSTEP64)の詳細を説明する。
[J. Simulator display processing]
Details of the simulator display processing (STEP 64 in FIG. 7) executed by the skin support application 35a will be described with reference to FIGS. 19 to 24. FIG.

図19のSTEP71で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データに基づいて、「所定の期間」の肌状態、心状態及び体状態の各スコアの平均値を認識し、メモリ36に記憶する。ここで、「所定の期間」とは、肌状態、心状態及び体状態と施策の実行の度合いとの関係が示される程度の期間であることが好ましく、例えば実行時点から前の、1週間、10日間、1カ月間又は3カ月間である。本実施形態では実行時点を2017年4月10日であるとし、その実行時点から9日前の2017年4月1日から実行時点までの10日間を「所定の期間」として説明する。 In STEP 71 of FIG. 19 , the skin support application 35a recognizes through communication, based on the initial user information data and the current user information data of the user Ua accumulated in the support DB 20 of the skin condition recognition system 10, "predetermined The average value of each score of the skin condition, mental condition and body condition during the “period” is recognized and stored in the memory 36 . Here, the "predetermined period" is preferably a period that indicates the relationship between the skin condition, mental condition, physical condition, and the degree of implementation of the measure. 10 days, 1 month or 3 months. In this embodiment, the execution time is assumed to be April 10, 2017, and 10 days from April 1, 2017, which is nine days before the execution time, to the execution time will be described as a "predetermined period".

例えば、肌サポートアプリ35aは、図20Aに示されるような、所定期間におけるユーザUaの肌状態のスコア、心状態のスコア、体状態のスコアに基づいて、ユーザUaの肌状態のスコアの平均値、心状態のスコアの平均値、体状態のスコアの平均値を認識し、メモリ36に記憶する。ここでは、肌状態のスコアの平均値が8.2であり、心状態のスコアの平均値が5.0であり、体状態のスコアの平均値が2.2である。 For example, the skin support application 35a calculates the average skin condition score of the user Ua based on the skin condition score, the mental condition score, and the physical condition score of the user Ua in a predetermined period, as shown in FIG. 20A. , average mental state score, and average physical state score are recognized and stored in the memory 36 . Here, the average skin condition score is 8.2, the average mental condition score is 5.0, and the average body condition score is 2.2.

図19のSTEP72で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積された初期ユーザ情報データ、現状ユーザ情報データ、実行状況データに基づいて、各施策ごと、各施策のカテゴリーごとの実行の度合いを認識し、メモリ36に記憶する。「施策の実行の度合い」は、各施策ごとに定められる施策の実行の度合いを示す数値である。「施策の実行の度合い」の例には、施策を実行する時間、施策にかかる物の消費量、施策を実行する距離、施策の1日当たりの実行回数、施策の1回実行当たりの実行時間、施策の1回実行当たりの量、施策の所定期間における実行の頻度が含まれる。 In STEP72 of FIG. 19, the skin support application 35a recognizes each measure based on the initial user information data, current user information data, and execution status data accumulated in the support DB 20 of the skin condition recognition system 10 recognized through communication. For each measure, the degree of execution for each category of measures is recognized and stored in the memory 36 . The "degree of execution of policy" is a numerical value indicating the degree of execution of a policy determined for each policy. Examples of the "degree of execution of a measure" include the time to execute the measure, the amount of material consumed by the measure, the distance to implement the measure, the number of times the measure is executed per day, the execution time per execution of the measure, Included are the amount per execution of the policy and the frequency of execution of the policy over a given period of time.

例えば、肌サポートアプリ35aは、図20Bに示されるカテゴリー「食事」の施策「野菜摂取」の所定の期間における実行の度合い「摂取量」を認識し、メモリ36に記憶する。なお、「摂取量」等の実行の度合いは、実際に取得されたデータ(たとえば野菜の摂取量のデータ)そのものであってもよいし、実際に取得されたデータの評価値であってもよい。たとえば、この評価値は、データに示される値が所定の基準値(たとえば野菜の摂取量350g等)に近づくほど、連続的または断続的に大きくなるような値であってもよいし、データに示される値が大きいほど連続的または断続的に大きくなるような値であってもよいし、データに示される値が小さいほど連続的または断続的に大きくなるような値であってもよい。 For example, the skin support application 35a recognizes the degree of execution of the measure “vegetable intake” of the category “diet” shown in FIG. The degree of execution such as "intake amount" may be actually obtained data (for example, vegetable intake data) itself, or may be an evaluation value of actually obtained data. . For example, this evaluation value may be a value that increases continuously or intermittently as the value shown in the data approaches a predetermined reference value (for example, the amount of vegetable intake of 350 g, etc.). It may be a value that increases continuously or intermittently as the value indicated in the data increases, or may increase continuously or intermittently as the value indicated in the data decreases.

肌サポートアプリ35aは、図21Aに示されるように、施策ごとに、所定期間における実行の度合いの平均値及び最大値を認識し、メモリ36に記憶する。所定期間における最大値は、ユーザUaが行った中で最大の値でもよいし、理論的に最大の値であってもよいし、予め定められた値であってもよい。 As shown in FIG. 21A, the skin support application 35a recognizes the average value and the maximum value of the degree of execution in a predetermined period for each measure, and stores them in the memory 36. FIG. The maximum value in the predetermined period may be the maximum value among the values performed by the user Ua, the theoretical maximum value, or a predetermined value.

肌サポートアプリ35aは、カテゴリーごとに、施策の実行の度合いの平均値と最大値との比を取り、これらの平均値を算出することにより、カテゴリーごとの実行の度合いを算出し、メモリ36に記憶する。 The skin support application 35a takes the ratio of the average value and the maximum value of the degree of execution of the measure for each category, calculates the average value, calculates the degree of execution for each category, and stores it in the memory 36. Remember.

例えば、肌サポートアプリ35aは、図21Aに示される各施策ごとの所定期間における実行の度合いの平均値及び最大値を基に、以下の式(1)により、カテゴリー「食事」の実行の度合いを評価する。なお、式(1)では小数点以下3桁を四捨五入している。 For example, the skin support application 35a calculates the degree of execution of the category "diet" by the following formula (1) based on the average value and the maximum value of the degree of execution in a predetermined period for each measure shown in FIG. evaluate. In addition, in Formula (1), 3 digits after the decimal point are rounded off.

Figure 0007280333000001
Figure 0007280333000001

図19のSTEP73で、肌サポートアプリ35aは、図22に示されるように、シミュレータ全体画面P1をユーザ端末30aの表示器31に出力する。 In STEP73 of FIG. 19, the skin support application 35a outputs the entire simulator screen P1 to the display 31 of the user terminal 30a, as shown in FIG.

シミュレータ全体画面P1には、中央に三角形で囲まれる領域P10が表示されている。 An area P10 surrounded by a triangle is displayed in the center of the entire simulator screen P1.

領域P10の外側、且つ、三角形の各頂点の周辺には、それぞれ、肌状態のスコアを示す表示P11、心状態のスコアを示す表示P12、体状態のスコアを示す表示P13が表示されている。 Outside the region P10 and around each vertex of the triangle, a display P11 showing the skin condition score, a display P12 showing the mental condition score, and a display P13 showing the body condition score are displayed.

領域P10が、本発明の「所定の領域」に相当する。 The area P10 corresponds to the "predetermined area" of the present invention.

各スコアを示す表示P11、P12、P13は、数値表示P111、P121、P131と、スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とを含む。 Displays P11, P12, P13 indicating respective scores include numerical displays P111, P121, P131, score slide bars P112, P122, P132, and score icons P113, P123, P133.

スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とが、本発明の「ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示」に相当する。 The score slide bars P112, P122, P132 and the score icons P113, P123, P133 correspond to the "display indicating at least one score of the user's skin condition, mental condition and physical condition" of the present invention.

スコアスライドバーP112、P122、P132が、本発明の「第2線分表示」に相当する。 The score slide bars P112, P122, P132 correspond to the "second line segment display" of the present invention.

スコアアイコンP113,P123,P133が、本発明の「第2アイコン」に相当する。 The score icons P113, P123, P133 correspond to the "second icon" of the present invention.

数値表示P111、スコアスライドバーP112及びスコアアイコンP113が、本発明の「ユーザの肌状態のスコアを示す表示」に相当する。 The numerical display P111, the score slide bar P112, and the score icon P113 correspond to the "display showing the user's skin condition score" of the present invention.

数値表示P121、P131、スコアスライドバーP122、P132、及びスコアアイコンP123,P133とが本発明の「ユーザの体状態及び心状態のうち少なくとも1つのスコアを示す表示」に相当する。 The numerical displays P121 and P131, the score slide bars P122 and P132, and the score icons P123 and P133 correspond to the "display indicating at least one score of the user's physical state and mental state" of the present invention.

各数値表示P111、P121、P131には、それぞれ、図19のSTEP71で認識された対応するスコアの平均値が表示されている。 Each of the numerical displays P111, P121, and P131 displays the average value of the corresponding scores recognized in STEP71 of FIG.

各スコアスライドバーP112、P122、P132には、図19のSTEP71で認識された対応する各スコアの平均値に相当する位置にスコアアイコンP113,P123,P133が表示されている。また、各スコアスライドバーP112、P122、P132は、ユーザ端末30aの表示器31の水平方向(紙面の左右方向)に延びている線分である。表示器31の水平方向が本発明の「第2方向」に相当する。 Score icons P113, P123, P133 are displayed on the respective score slide bars P112, P122, P132 at positions corresponding to the average values of the corresponding scores recognized in STEP71 of FIG. Further, each score slide bar P112, P122, P132 is a line segment extending in the horizontal direction (horizontal direction of the paper surface) of the display 31 of the user terminal 30a. The horizontal direction of the display 31 corresponds to the "second direction" of the present invention.

領域P10の内側には、施策の夫々のカテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16が表示されている。領域P10の内側には、全てのカテゴリー表示が表示されてもよいし、ユーザに指定されたカテゴリーのカテゴリー表示が表示されてもよいし、ユーザに推薦している施策のカテゴリーのカテゴリー表示が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策のカテゴリーのカテゴリー表示が所定個数だけ表示されてもよい。 Inside the area P10, category "diet", "behavior", and "skin care" displays P14, P15, and P16 of measures are displayed. Inside the area P10, all category displays may be displayed, the category display of the category designated by the user may be displayed, or the category display of the policy category recommended to the user may be displayed. Category display of the category of measures determined to have a high impact on at least one of the user's skin condition, mental condition, and physical condition based on the initial user information data, the current user information data, and the execution status may be displayed by a predetermined number.

各カテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16は、カテゴリースライドバーP141、P151,P161と、カテゴリーアイコンP142、P152、P162とが含まれている。 Category slide bars P141, P151, P161 and category icons P142, P152, P162 are included in each category "diet", "behavior", and "skin care" display P14, P15, P16.

各カテゴリースライドバーP141、P151,P161には、図19のSTEP72で認識された対応する各カテゴリーの実行の度合いに相当する位置にカテゴリーアイコンP142、P152、P162が表示されている。また、各カテゴリースライドバーP141、P151,P161は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。表示器31の上下方向が本発明の「第1方向」に相当する。 Category icons P142, P152, and P162 are displayed on the category slide bars P141, P151, and P161 at positions corresponding to the degrees of execution of the corresponding categories recognized in STEP72 of FIG. Further, each category slide bar P141, P151, P161 is a line segment extending in the vertical direction (vertical direction on the paper surface) of the display 31 of the user terminal 30a. The vertical direction of the display 31 corresponds to the "first direction" of the present invention.

各カテゴリースライドバーP141、P151,P161及び各カテゴリーアイコンP142、P152、P162が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各カテゴリースライドバーP141、P151,P161が本発明の「第1線分表示」に相当する。各カテゴリーアイコンP142、P152、P162が、本発明の「第1アイコン」に相当する。 The category slide bars P141, P151, P161 and the category icons P142, P152, P162 correspond to the "display indicating the degree of execution of the user's measures" of the present invention. Each category slide bar P141, P151, P161 corresponds to the "first line segment display" of the present invention. Each category icon P142, P152, P162 corresponds to the "first icon" of the present invention.

図19のSTEP74で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかのカテゴリースライドバーの押圧操作が検知されたか否かを判定する。本操作は、例えば図22のカテゴリースライドバーP141、P151,P161のいずれか1つが操作された時を代表的な利用シーンとして想定して説明しているが、複数のカテゴリースライドバーが同時に操作されても良い。 In STEP74 of FIG. 19, the skin support application 35a determines whether or not a pressing operation of any category slide bar has been detected via the touch panel 32. This operation has been described on the assumption that, for example, one of the category slide bars P141, P151, and P161 in FIG. can be

図19のSTEP74の判定結果が否定的である場合(図19のSTEP74‥NO)、肌サポートアプリ35aは、再度図19のSTEP74の処理を実行する。 If the determination result of STEP74 in FIG. 19 is negative (STEP74, NO in FIG. 19), the skin support application 35a executes the process of STEP74 in FIG. 19 again.

図19のSTEP74の判定結果が肯定的である場合(図19のSTEP74‥YES)、肌サポートアプリ35aは、図19のSTEP75に進み、図23に示されるように、領域P10内に、施策表示P17、P18、P19を表示する。 19 is affirmative (STEP 74 . . . YES in FIG. 19), the skin support application 35a proceeds to STEP 75 in FIG. 19, and as shown in FIG. Display P17, P18 and P19.

施策表示P17、P18、P19は、押圧されたスライドバーに対応するカテゴリー(以下、指定カテゴリーという。)の施策である。図23には、「食事」カテゴリースライドバーP14の押圧操作が検知された場合の施策「野菜摂取」「水分摂取」「三食きちんと」の施策表示P17、P18、P19を記載している。 The measure displays P17, P18, and P19 are measures of the category (hereinafter referred to as designated category) corresponding to the pressed slide bar. FIG. 23 shows measure displays P17, P18, and P19 of measures "vegetable intake", "water intake", and "three meals properly" when the pressing operation of the "meals" category slide bar P14 is detected.

施策表示P17,P18,P19は、全ての施策表示であってもよいし、指定カテゴリーに含まれる全ての施策が表示されてもよいし、ユーザが実行している施策が表示されてもよいし、ユーザに推薦している施策が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策の施策表示が所定個数だけ表示されてもよい
施策表示P17,P18,P19は、カテゴリー表示P14,P15,P16と入れ替えて表示されもよいし、カテゴリー表示P14,P15,P16に付加する形で(例えば、カテゴリー表示P14,P15,P16の下方向)に表示されてもよい。
The measure displays P17, P18, and P19 may display all measures, may display all measures included in a designated category, or may display measures being executed by the user. , measures recommended to the user may be displayed, and based on the initial user information data, the current user information data, and the execution status, the effect on at least one of the user's skin condition, mental condition, and physical condition is high. A predetermined number of measure displays of the measures determined to be may be displayed. It may be displayed in an additional manner (for example, downward of the category displays P14, P15, P16).

各施策スライドバーP171、P181,P191には、図19のSTEP72で認識された対応する各施策の実行の度合いに相当する位置に施策アイコンP172、P182、P192が表示されている。また、各施策スライドバーP171、P181、P191は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。 Policy icons P172, P182, and P192 are displayed on the policy slide bars P171, P181, and P191 at positions corresponding to the degrees of execution of the corresponding policies recognized in STEP72 of FIG. Further, each policy slide bar P171, P181, P191 is a line segment extending in the vertical direction (vertical direction of the paper surface) of the display 31 of the user terminal 30a.

各施策スライドバーP171、P181、P191及び各施策アイコンP172、P182、P192が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各施策スライドバーP171、P181、P191が本発明の「第1線分表示」に相当する。各施策アイコンP172、P182、P192が、本発明の「第1アイコン」に相当する。 The policy slide bars P171, P181, P191 and the policy icons P172, P182, P192 correspond to the "display showing the degree of execution of the user's policy" of the present invention. Each action slide bar P171, P181, P191 corresponds to the "first line segment display" of the present invention. Each policy icon P172, P182, P192 corresponds to the "first icon" of the present invention.

図19のSTEP76で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかの施策スライドバーの押圧操作が検知されたか否かを判定する。 In STEP 76 of FIG. 19 , the skin support application 35a determines whether or not a pressing operation on any of the policy slide bars has been detected via the touch panel 32 .

当該判定結果が否定的である場合(図19のSTEP76でNO)、肌サポートアプリ35aは、再度図19のSTEP76を実行する。 If the determination result is negative (NO in STEP76 of FIG. 19), the skin support application 35a executes STEP76 of FIG. 19 again.

当該判定結果が肯定的である場合(図19のSTEP76でYES)、肌サポートアプリ35aは、図19のSTEP77に進み、押圧された施策スライドバー上の押圧位置を認識する。押圧された施策スライドバー上の押圧位置が本発明の「入力部を介してユーザにより指定された第1アイコンの位置」に相当する。押圧された施策スライドバー上の押圧位置に対応する施策の実行の度合いが、本発明の「指定された施策群の実行の度合い」に相当する。押圧された施策スライドバーに対応する施策が、本発明の「施策群」に相当する。 If the determination result is affirmative (YES in STEP76 in FIG. 19), the skin support application 35a proceeds to STEP77 in FIG. 19 and recognizes the pressed position on the measure slide bar. The pressed position on the policy slide bar corresponds to "the position of the first icon designated by the user via the input unit" of the present invention. The degree of execution of the policy corresponding to the pressed position on the policy slide bar corresponds to the "degree of execution of the specified policy group" of the present invention. The policy corresponding to the pressed policy slide bar corresponds to the "policy group" of the present invention.

図19のSTEP78において、肌サポートアプリ35aは、押圧位置に対応する施策の実行度合いにおける各スコアを予測する。 In STEP78 of FIG. 19, the skin support application 35a predicts each score for the execution degree of the measure corresponding to the pressing position.

各スコアは、次の式(2)~(4)で表される。 Each score is represented by the following equations (2) to (4).

Figure 0007280333000002
Figure 0007280333000002

ここで、P(x)はユーザUaの肌状態のスコア、Q(x)はユーザUaの心状態のスコア、R(x)はユーザUaの体状態のスコアである。 Here, P(x) is the skin condition score of the user Ua, Q(x) is the mental condition score of the user Ua, and R(x) is the physical condition score of the user Ua.

i(i=1、…、n)は、各施策を識別するための番号である。 i (i=1, . . . , n) is a number for identifying each policy.

xi(i=1、…、n)は、ユーザUaの各施策iの実行の度合いである。xi(i=1、…、n)の全体(xi(i=1、…、n)の全部からなるベクトル)をxとして表記する。 xi (i=1, . . . , n) is the degree of execution of each measure i by the user Ua. The entire xi (i=1, . . . , n) (a vector consisting of all xi (i=1, . . . , n)) is denoted as x.

fi(xi)、gi(xi)、hi(xi)(i=1、…、n)は、夫々、各施策iを各施策の実行度合いxiで実行した場合のユーザUaの各スコアP(x)、Q(x)、R(x)の変化量である。fi(xi)、gi(xi)、hi(xi)(i=1、…、n)の夫々が本発明の「第1関数」の一例に相当する。 fi(xi), gi(xi), hi(xi) (i=1, . . . , n) are the scores P(x ), Q(x), and R(x). Each of fi(xi), gi(xi), hi(xi) (i=1, . . . , n) corresponds to an example of the "first function" of the present invention.

図24の折れ線グラフは、ユーザUaの施策「野菜摂取」の各実行の度合い「摂取量」と、ユーザUaの各スコアP(x)、Q(x)、R(x)との関係を示す折れ線グラフである。この折れ線グラフは、例えば、図20Bに示されるユーザUaの施策の実行度合いのそれぞれごとに、図20Aに示されるユーザUaの各スコアP(x)、Q(x)、R(x)の平均を取ることにより作成されうる。 The line graph in FIG. 24 shows the relationship between the degree of execution of each measure "vegetable intake" by the user Ua and the scores P(x), Q(x) and R(x) of the user Ua. It is a line graph. This line graph shows, for example, the average of scores P(x), Q(x), and R(x) of user Ua shown in FIG. can be created by taking

また、図24には、各折れ線グラフの近似曲線が併せて表示されている。 In addition, in FIG. 24, approximated curves of each line graph are also displayed.

fi(xi)、gi(xi)、hi(xi)は、例えば、実行度合い毎の近似曲線に示されるユーザUaの各スコアP(x)、Q(x)、R(x)により表現されうる。 fi(xi), gi(xi), and hi(xi) can be represented, for example, by user Ua's scores P(x), Q(x), and R(x) indicated by approximated curves for each degree of execution. .

例えば、野菜摂取の摂取量が200gの場合、fi(xi)はおよそ10.0となり、gi(xi)はおよそ7.0となり、hi(xi)はおよそ2.0となる。 For example, if the intake of vegetable intake is 200 g, fi(xi) will be approximately 10.0, gi(xi) will be approximately 7.0, and hi(xi) will be approximately 2.0.

fi(xi)、gi(xi)、hi(xi)は、ユーザUaが各施策を実施したときのユーザUaの各スコアの平均値をとっているが、このスコアには、同時に実行された他の施策の影響が反映されている可能性がある。 fi(xi), gi(xi), and hi(xi) are average values of scores of user Ua when user Ua implements each measure. It is possible that the impact of the policies of

このため、係数pi、qi、riにより、各施策の影響度を調節する。係数pi、qi、riは、例えば、夫々の施策の実行の度合いに占める当該施策の実行の度合いの割合で求められる。例えば、施策sを実行度合いaで実行し、施策tを実行の度合いbで実行し、施策uを実行の度合いcで実行したときに、肌状態スコアがd改善した場合、以下の式(5)~(7)で係数ps、pt、puが表される。なお、施策により肌状態スコアがd改善するとは、本実施形態では、施策の実行後の肌状態のスコアの平均値が施策の実行前の肌状態スコアの平均値よりもd増加したことを意味する。 Therefore, the degree of influence of each measure is adjusted by coefficients pi, qi, and ri. The coefficients pi, qi, and ri are obtained, for example, by the ratio of the degree of execution of each policy to the degree of execution of each policy. For example, when the measure s is executed at the execution degree a, the measure t is executed at the execution degree b, and the measure u is executed at the execution degree c, and the skin condition score is improved by d, the following formula (5 ) to (7) represent coefficients ps, pt, and pu. In this embodiment, the improvement of the skin condition score by d means that the average value of the skin condition scores after the implementation of the measure increased by d from the average value of the skin condition scores before the implementation of the measure. do.

Figure 0007280333000003
Figure 0007280333000003

k、l、mは、施策を何も実施しなかった場合の各スコアである。 k, l, and m are respective scores when no measure is implemented.

肌サポートアプリ35aは、夫々の施策iについて、施策スライドバーのアイコンの位置に対応する施策の実行の度合いxiを認識し、上記式(2)~(4)を用いて各スコアP(x)、Q(x)、R(x)を予測する。なお、押圧されていないカテゴリーバーに対応するカテゴリーに含まれる施策又は押圧されていない施策スライドバーに対応する施策については、肌サポートアプリ35aは、図19のSTEP72で認識された対応する各施策の実行度合いを、施策の実行の度合いxiとして用いる。予測された各スコアP(x)、Q(x)、R(x)が、本発明の「第1予測スコア」に相当する。予測された各スコアP(x)が、本発明の「第2予測スコア」に相当する。予測された各スコアQ(x)、R(x)が、本発明の「第3予測スコア」に相当する。 The skin support application 35a recognizes the degree of execution xi of the measure corresponding to the position of the icon on the measure slide bar for each measure i, and calculates each score P(x) using the above formulas (2) to (4). , Q(x), R(x). As for the measures included in the category corresponding to the unpressed category bar or the measures corresponding to the unpressed measure slide bar, the skin support application 35a selects each corresponding measure recognized in STEP72 of FIG. The degree of execution is used as the degree of execution xi of the policy. Each predicted score P(x), Q(x), R(x) corresponds to the "first predicted score" of the present invention. Each predicted score P(x) corresponds to the "second predicted score" of the present invention. Each predicted score Q(x), R(x) corresponds to the "third predicted score" of the present invention.

図19のSTEP79で、肌サポートアプリ35aは、スコアスライドバーP112,P122,P132の夫々の、予測された各スコアP(x)、Q(x)、R(x)の夫々に相当する位置に、スコアアイコンP113,P123,P133を表示器31に表示する。 In STEP79 of FIG. 19, the skin support application 35a moves the score slide bars P112, P122, P132 to positions corresponding to the predicted scores P(x), Q(x), R(x). , score icons P113, P123 and P133 are displayed on the display 31. FIG.

図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP74以下の処理を実行する。これに代えて、図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP76以下の処理を実行してもよい。 After STEP79 in FIG. 19 is completed, the skin support application 35a executes the processes from STEP74 in FIG. Alternatively, after STEP79 in FIG. 19 ends, the skin support application 35a may execute the processing from STEP76 in FIG. 19 onward.

このような処理により、ユーザに、施策の実行の度合いを変更したときの各スコアへの影響を認識させることができる。
(その他の実施形態)
本実施形態では、各実行の度合いに応じたスコアを予測するために、式(2)~(7)を用いたが、各実行の度合いに応じたスコアを予測するためにはこれらの式やパラメータに限られない。シミュレータの精度を向上させるため、当業者は、適宜、式の変更、パラメータの算出方法の変更、パラメータの追加、削除、変更等、適当な修正を行ってもよい。
Such processing allows the user to recognize the effect on each score when the degree of implementation of the measure is changed.
(Other embodiments)
In the present embodiment, formulas (2) to (7) are used to predict the score according to the degree of each execution, but these formulas and Not limited to parameters. In order to improve the accuracy of the simulator, a person skilled in the art may make appropriate modifications such as changing the formula, changing the parameter calculation method, adding, deleting, or changing parameters.

肌サポートアプリ35aは、カテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示したが(図19のSTEP74及びSTEP75)、これに代えて、肌サポートアプリ35aは、カテゴリースライドバー上のアイコンの位置の変更をさせて、各スコアの予測を行ってもよい。この場合、カテゴリーの実行の度合いの変更に追従するように、各施策の実行度合いが均等にまたはあらかじめ定まった割合で変更されてもよい。この時、肌サポートアプリ35aは、変更後の各施策の実行の度合いから、式(2)~(4)により各スコアを予測し、予測された各スコアに対応する位置に、それぞれのアイコンが位置するように、表示器31に出力する。なお、押圧されたカテゴリースライドバーに対応するカテゴリに含まれる施策が本発明の「施策群」に相当する。 When the skin support application 35a detects that the category slide bar has been pressed, the skin support application 35a displays the measure slide bar of the measures included in the category corresponding to the category slide bar (STEP 74 and STEP 75 in FIG. 19). , the skin support application 35a may change the position of the icon on the category slide bar to predict each score. In this case, the degree of execution of each measure may be changed evenly or at a predetermined ratio so as to follow the change in the degree of execution of the category. At this time, the skin support application 35a predicts each score by the formulas (2) to (4) from the degree of execution of each measure after the change, and each icon is displayed at the position corresponding to each predicted score. It outputs to the display 31 so that it may be located. Note that the policies included in the category corresponding to the pressed category slide bar correspond to the "policy group" of the present invention.

この場合、予測された各スコアに対応する位置にそれぞれのアイコンが位置している状態で、肌サポートアプリ35aがタッチパネル32を介してカテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示してもよい。この時、各施策スライドバー上のアイコンの位置は、変更後の各施策の実行の度合いに対応する位置であることが好ましい。 In this case, when the skin support application 35a detects that the category slide bar is pressed via the touch panel 32 with each icon positioned at a position corresponding to each predicted score, the category slide bar A measure slide bar for measures included in the corresponding category may be displayed. At this time, it is preferable that the position of the icon on each policy slide bar is a position corresponding to the degree of execution of each policy after the change.

肌サポートアプリ35aは、カテゴリースライドバーの表示に代えて、当初から図25に示されるように、施策表示P20、P21,P22を表示してもよい。 The skin support application 35a may display measure displays P20, P21, and P22 as shown in FIG. 25 from the beginning instead of displaying the category slide bar.

肌サポートアプリ35aは、例えば、図26に示されるように、シミュレーション対象のスコア表示P31と、他のスコア表示P32~P33、暮らし表示P34を含んでもよい。暮らし表示P34は、例えば、各カテゴリーの実行度合いの平均値又は各カテゴリーの実行度合いに夫々のカテゴリーごとの係数をかけて合算した値を示す表示である。肌サポートアプリ35aは、暮らし表示P34上のアイコンの変動に応じて、各施策の実行度合いを変化させ、式(2)~(4)によりシミュレーション対象のスコアの予測を行い、シミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。暮らし表示P34が本発明の「ユーザの施策群の実行の度合いを示す表示」に相当し、他のスコア表示P32~P33が本発明の「変動スコアを示す表示」に相当し、シミュレーション対象のスコア表示P31が本発明の「模擬スコアを示す表示」に相当する。 The skin support application 35a may include, for example, a simulation target score display P31, other score displays P32 to P33, and a lifestyle display P34, as shown in FIG. The lifestyle display P34 is, for example, a display showing an average value of the degree of execution of each category or a value obtained by multiplying the degree of execution of each category by a coefficient for each category and totaling them. The skin support application 35a changes the degree of execution of each measure according to the change of the icon on the lifestyle display P34, predicts the score of the simulation target by formulas (2) to (4), and displays the score of the simulation target. You may change the icon on P31. The living display P34 corresponds to the "display showing the degree of execution of the user's policy group" of the present invention, and the other score displays P32 and P33 correspond to the "display showing the fluctuating score" of the present invention, and the simulation target score. The display P31 corresponds to the "display showing the simulated score" of the present invention.

この場合、肌サポートアプリ35aは、他のスコア表示P32~P33上のアイコンの変動に応じて、ユーザUaの肌状態、心状態及び体状態のスコアのデータに基づいて、図24に類似したグラフを作成することにより、シミュレーション対象のスコアの予測を行いシミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。変動後のシミュレーション対象のスコア表示P31が、本発明の「模擬予測スコアを示す表示」に相当する。 In this case, the skin support application 35a displays a graph similar to FIG. , the simulation target score may be predicted and the icon on the simulation target score display P31 may be varied. The changed simulation target score display P31 corresponds to the "display showing the simulated prediction score" of the present invention.

本実施形態では、ユーザUaの肌状態、心状態及び体状態の全てのシミュレーションが行われたが、同様の方法により、肌状態と、心状態及び体状態の一方とのシミュレーションが行われてもよいし、肌状態、心状態及び体状態のうち1つのシミュレーションが行われてもよい。また、ユーザUaの他の状態に関するシミュレーションが行われてもよい。 In the present embodiment, all of the user Ua's skin condition, mental condition, and physical condition are simulated. Alternatively, a simulation of one of skin condition, mind condition and body condition may be performed. Also, a simulation regarding another state of the user Ua may be performed.

本実施形態では、ユーザUaの過去の施策の実行の度合いと、ユーザUaの肌状態、心状態及び体状態との関係を示す第1関数~第3関数が認識されたが、これに限られず、他のユーザUb、Ucのデータに基づいて、第1関数~第3関数が認識されてもよい。また、他のユーザUb、Ucのうち、ユーザUaの属性と同様の属性を持つユーザのデータが用いられてもよい。ユーザUaの属性としては、例えば、ユーザUaの年齢、性別、住んでいる地域、嗜好、肌の特性、心の特性、体の特性(遺伝子の情報等)がある。 In the present embodiment, the first to third functions representing the relationship between the degree of execution of past measures by the user Ua and the skin condition, mental condition, and body condition of the user Ua are recognized, but the present invention is not limited to this. , other users Ub, Uc, the first to third functions may be recognized. Data of users Ub and Uc having attributes similar to those of user Ua may also be used. The attributes of the user Ua include, for example, the user Ua's age, gender, area of residence, preferences, skin characteristics, mental characteristics, and body characteristics (genetic information, etc.).

本実施形態では、スコアスライドバーとカテゴリースライドバー及び施策スライドバーとが直交する方向に延びていたが、これに限られず、互いに非平行な方向に延びていてもよいし、平行な方向に延びていてもよい。 In the present embodiment, the score slide bar, the category slide bar, and the policy slide bar extend in orthogonal directions, but the present invention is not limited to this, and may extend in non-parallel directions or in parallel directions. may be

本実施形態では、カテゴリースライドバー及び施策スライドバーとカテゴリーアイコン及び施策アイコンとにより施策の実行度合いを表示したが、これに代えてまたは加えて施策の実行度合いを示す数値を表示してもよい。また、施策の実行度合いに応じて変化する色、図形、キャラクタ等が表示されてもよい。 In the present embodiment, the degree of execution of a measure is displayed using the category slide bar, the measure slide bar, the category icon, and the measure icon. Also, colors, figures, characters, etc. that change according to the degree of execution of the measures may be displayed.

同様に、各状態のスコアについても、各状態のスコアに応じて変化する色、図形、キャラクタ等が表示されてもよい。 Similarly, for the score of each state, a color, figure, character, or the like that changes according to the score of each state may be displayed.

本実施形態では、CPU35が肌サポートアプリ35aを実行することにより、本発明の「スコア認識部」「出力制御部」「指定認識部」の各処理を実行したが、これに代えてネットワークを介して通信を行って必要なデータを送受信することにより、肌状態サポートシステムが本発明の「スコア認識部」「出力制御部」「指定認識部」の一部の処理を実行してもよい。 In the present embodiment, the CPU 35 executes the skin support application 35a to execute the processing of the "score recognition unit", "output control unit", and "designation recognition unit" of the present invention. The skin condition support system may execute part of the processing of the "score recognition section", "output control section", and "designation recognition section" of the present invention by communicating with each other and transmitting and receiving necessary data.

本実施形態において「関数」とは、スカラ値又はベクトル値のような数値等の情報の入力に対し、一定の操作を行ってスカラ値又はベクトル値のような数値等の情報を出力する機能を備えたものを言う。本実施形態では、施策iごとに関数fi(xi)、gi(xi)、hi(xi)が用いられたが、これに代えてまたは加えて、複数の施策i、jの組合せについての関数f(i、j)(xi、xj)、g(i、j)(xi、xj)、h(i、j)(xi、xj)が用いられてもよい。また、本実施形態では、各状態のスコアごとに関数が使用されたが、これに代えて複数のスコアに対して共通の関数が用いられてもよい。また、関数は、例えば機械学習によって分類を行うものであってもよい。各関数は、各施策iの実行の度合いxiに加え、ユーザUaの体調又は気分を表す数値等、各施策iの実行の度合いxiとは異なる数値をを入力としてもよい。 In the present embodiment, the term "function" refers to a function of outputting information such as numerical values such as scalar values or vector values by performing certain operations on input of information such as numerical values such as scalar values or vector values. Say what you have. In this embodiment, the functions fi(xi), gi(xi), and hi(xi) are used for each policy i. Alternatively or additionally, the function f (i,j)(xi,xj), g(i,j)(xi,xj), h(i,j)(xi,xj) may be used. Also, in this embodiment, a function is used for each score of each state, but instead of this, a common function may be used for a plurality of scores. The function may also perform classification, for example by machine learning. Each function may input a numerical value different from the degree of execution xi of each measure i, such as a numerical value representing the physical condition or mood of the user Ua, in addition to the degree xi of execution of each measure i.

肌サポートアプリ35aは、入力された値を基に、テーブルを参照することにより、各状態のスコアを認識してもよい。 The skin support application 35a may recognize the score of each condition by referring to the table based on the input value.

肌サポートアプリ35aは、入力された値を肌状態認識システム10に送信して、各状態のスコアを受信することにより、各状態のスコアを認識してもよい。 The skin support application 35a may recognize the score of each condition by transmitting the input value to the skin condition recognition system 10 and receiving the score of each condition.

本実施形態では、肌サポートアプリ35aは、施策またはカテゴリの実行の度合いの指定に応じてスコアを予測したが、これに代えて又は加えて、スコアの指定に応じて施策またはカテゴリの実行の度合いを予測してもよい。例えば、肌サポートアプリ35aは、タッチパネル32を介してユーザUaに一の施策またはカテゴリを選択させ、スコアの指定に応じて当該一の施策の実行の度合いの予測を行ってもよい。また、肌サポートアプリ35aは、タッチパネル32を介してユーザUaにそれぞれの施策またはカテゴリの変化の割合を入力させ、スコアの指定に応じて入力された割合で各施策の実行の度合いを変動させることにより、各施策の実行の度合いの予測を行ってもよい。たとえば、肌サポートアプリ35aは、睡眠時間1時間減少あたり野菜摂取量が100g増加するという割合で、指定されたスコアを実現するように、睡眠時間と野菜摂取量を変動させてもよい。 In the present embodiment, the skin support application 35a predicts the score according to the specified degree of execution of the measure or category. can be predicted. For example, the skin support application 35a may allow the user Ua to select one measure or category via the touch panel 32, and predict the degree of execution of the one measure according to the designated score. In addition, the skin support application 35a allows the user Ua to input the rate of change for each measure or category via the touch panel 32, and varies the degree of execution of each measure according to the input percentage according to the specification of the score. may predict the degree of execution of each policy. For example, the skin support application 35a may vary the sleep time and vegetable intake to achieve a specified score at a rate of 100 g increase in vegetable intake for every 1 hour decrease in sleep time.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

1…通信ネットワーク、10…肌状態認識システム、11‥肌状態認識部、12…施策グループ選択部、13…施策情報送信部、19…2次データ生成部、20…サポートDB(データベース)、30(30a,30b,30c)…ユーザ端末(スマートフォン)、31…表示器、32…タッチパネル、33…カメラ、34…マイク、35…CPU、35a…肌サポートアプリ、36…メモリ、40…接続端子、45…測定機器。 Reference Signs List 1 communication network 10 skin condition recognition system 11 skin condition recognition unit 12 measure group selection unit 13 measure information transmission unit 19 secondary data generation unit 20 support DB (database) 30 (30a, 30b, 30c) User terminal (smartphone), 31 Display, 32 Touch panel, 33 Camera, 34 Microphone, 35 CPU, 35a Skin support application, 36 Memory, 40 Connection terminal, 45... Measuring equipment.

Claims (5)

情報を出力する画像表示部と、
ユーザの入力を検知する入力部と、
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、当該ユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザの、当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする画像表示装置。
an image display unit that outputs information;
an input unit for detecting user input;
At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad;
a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit;
a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The user recognized by analyzing information on the degree of execution of the group of measures by the user and information on at least one of the skin condition, mental condition, and physical condition, with the value of the degree of execution obtained as input. , is configured to recognize using information indicating the correlation between the degree of execution for each policy group and the good or bad of the prediction score,
The image display device, wherein the output control section causes the image display section to output a display showing the predicted score.
情報を出力する画像表示部と、
ユーザの入力を検知する入力部と、
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、複数のユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該複数のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする画像表示装置。
an image display unit that outputs information;
an input unit for detecting user input;
At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad;
a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit;
a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The value of the degree of execution is input, and the information of the degree of execution of the group of measures of a plurality of users and the information of at least one of the skin condition, mental condition, and physical condition are analyzed and recognized. It is configured to recognize using information indicating the correlation between the degree of execution of each policy group by a plurality of users and the quality of the prediction score,
The image display device, wherein the output control section causes the image display section to output a display showing the predicted score.
請求項2に記載の画像表示装置において、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記複数のユーザの前記施策群の実行の度合いの情報と、属性を示す情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザと同様の属性を持つ他のユーザの前記相関関係を示す情報を用いて認識するように構成されている
ことを特徴とする画像表示装置。
In the image display device according to claim 2,
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit recognizes the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution. and recognized by analyzing information on the degree of execution of the group of measures by the plurality of users, information indicating attributes, and information on at least one of skin condition, mental condition, and physical condition. , an image display device configured to recognize by using information indicating the correlation of another user having attributes similar to that of the user.
請求項1~3のいずれかに記載の画像表示装置において、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記出力制御部は、
前記画像表示部に出力させる前記施策群の実行度合いの値を前記指定認識部が認識した前記施策群の実行の度合いの値に変更し、かつ
前記画像表示部に出力させる前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアの値を、前記スコア認識部が認識した前記予測スコアの値に変更するように構成されている
ことを特徴とする画像表示装置。
In the image display device according to any one of claims 1 to 3,
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The output control unit is
changing the value of the degree of execution of the group of measures to be output to the image display unit to the value of the degree of execution of the group of measures recognized by the designation recognition unit, and the user's skin condition to be output to the image display unit; The image display device is configured to change the value of the score of at least one of the state of mind and the state of body to the value of the predicted score recognized by the score recognition unit.
請求項1~4のいずれかに記載の画像表示装置において、
前記スコア認識部は、所定期間における、前記施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した前記スコアを認識し、
前記所定の期間は、前記スコア認識部が前記予測スコアを認識する処理を実行する時点以前の所定の期間であり、
前記出力制御部は、前記スコア認識部が認識した、前記所定期間における前記ユーザの前記施策群の実行の度合いの値を示す表示と、当該所定期間における当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアを示す表示と、を前記画像表示部に出力させ、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで、前記所定期間と同一の期間において実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記相関関係を示す情報を用いて認識するように構成されている
ことを特徴とする画像表示装置。
In the image display device according to any one of claims 1 to 4,
The score recognizing unit calculates, during a predetermined period, a value of the user's degree of execution of the measure group, and the skin condition, mental state, and body condition of the user when the measure group is executed at the degree of execution value. recognizing the score that quantifies the goodness or badness of at least one of the conditions;
The predetermined period of time is a predetermined period of time before the score recognition unit executes processing for recognizing the predicted score,
The output control unit displays the value of the degree of execution of the measure group by the user during the predetermined period recognized by the score recognition unit, and the skin condition, mental condition, and body condition of the user during the predetermined period. a display showing the score of at least one of
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit is configured to obtain the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution for the same period as the predetermined period. is recognized using the information indicating the correlation with the value of the specified degree of execution as an input.
JP2021180161A 2017-05-02 2021-11-04 image display device Active JP7280333B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021180161A JP7280333B2 (en) 2017-05-02 2021-11-04 image display device
JP2023068387A JP7437549B2 (en) 2017-05-02 2023-04-19 image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017091970A JP6974029B2 (en) 2017-05-02 2017-05-02 Image display device, skin condition support system, image display program and image display method
JP2021180161A JP7280333B2 (en) 2017-05-02 2021-11-04 image display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017091970A Division JP6974029B2 (en) 2017-05-02 2017-05-02 Image display device, skin condition support system, image display program and image display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023068387A Division JP7437549B2 (en) 2017-05-02 2023-04-19 image display device

Publications (2)

Publication Number Publication Date
JP2022031676A JP2022031676A (en) 2022-02-22
JP7280333B2 true JP7280333B2 (en) 2023-05-23

Family

ID=87846622

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021180161A Active JP7280333B2 (en) 2017-05-02 2021-11-04 image display device
JP2023068387A Active JP7437549B2 (en) 2017-05-02 2023-04-19 image display device

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023068387A Active JP7437549B2 (en) 2017-05-02 2023-04-19 image display device

Country Status (1)

Country Link
JP (2) JP7280333B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006516338A (en) 2002-10-31 2006-06-29 ジョンソン・アンド・ジョンソン・コンシューマー・カンパニーズ・インコーポレイテッド How to offer individual programs to retail customers
JP2008242963A (en) 2007-03-28 2008-10-09 Fujifilm Corp Health analysis display method and health analysis display device
JP2011173810A (en) 2010-02-23 2011-09-08 Mikimoto Pharmaceut Co Ltd Method for producing cosmetic
JP2014119817A (en) 2012-12-13 2014-06-30 Hitachi Systems Ltd Health-care prediction system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009244964A (en) 2008-03-28 2009-10-22 Technical Brains Co Ltd Total fitness evaluation system and program, and method of providing total fitness evaluation data
TWI620547B (en) 2013-08-30 2018-04-11 Sony Corp Information processing device, information processing method and information processing system
JP2015109891A (en) 2013-12-06 2015-06-18 セイコーエプソン株式会社 Information processing device and information processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006516338A (en) 2002-10-31 2006-06-29 ジョンソン・アンド・ジョンソン・コンシューマー・カンパニーズ・インコーポレイテッド How to offer individual programs to retail customers
JP2008242963A (en) 2007-03-28 2008-10-09 Fujifilm Corp Health analysis display method and health analysis display device
JP2011173810A (en) 2010-02-23 2011-09-08 Mikimoto Pharmaceut Co Ltd Method for producing cosmetic
JP2014119817A (en) 2012-12-13 2014-06-30 Hitachi Systems Ltd Health-care prediction system

Also Published As

Publication number Publication date
JP7437549B2 (en) 2024-02-22
JP2022031676A (en) 2022-02-22
JP2023089223A (en) 2023-06-27

Similar Documents

Publication Publication Date Title
JP7211717B2 (en) Image display device, image display program and image display method
US9891095B2 (en) Method and system to provide a person with a personalized advice with regard to his/her weight
JP7129867B2 (en) Information output system, information output method and information output program
KR102175504B1 (en) Product recommendation apparatus and method for providing component analysis
JP7337484B2 (en) Image display device, image display system, image display program and image display method
JP7264959B2 (en) Information output system for skin condition care
KR20200069695A (en) Apparatus and method for recommending cosmetic using skin analyzer
JP7048782B2 (en) Skin condition support system
JP6974029B2 (en) Image display device, skin condition support system, image display program and image display method
JP7248385B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP7001469B2 (en) Skin condition recognition system
JP7280333B2 (en) image display device
JP7349125B2 (en) Beauty evaluation method, sensory evaluation method, and system
JP7051306B2 (en) Information output system, skin condition support program and skin condition support method
JP7300018B2 (en) Information output system, skin condition support program and skin condition support method
JP7306787B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
US20210327591A1 (en) System for Efficiently Estimating and Improving Wellbeing
JP7163130B2 (en) Information output system, information output method and information output program
JP7270818B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP6845008B2 (en) Skin condition support system
KR20220086210A (en) Cognitive function and memory decline, early diagnosis service for dementia, and device and method for providing customized advertisement contents and advertisements
JP7129763B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP7083624B2 (en) Skin condition evaluation system, skin condition evaluation program, and computer execution method
JP2023065388A (en) Information output system, information output program, and information output method on care of skin condition, body condition, or mind condition
JP7129866B2 (en) Information output system, information output method and information output program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230511

R150 Certificate of patent or registration of utility model

Ref document number: 7280333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150