JP7280333B2 - image display device - Google Patents
image display device Download PDFInfo
- Publication number
- JP7280333B2 JP7280333B2 JP2021180161A JP2021180161A JP7280333B2 JP 7280333 B2 JP7280333 B2 JP 7280333B2 JP 2021180161 A JP2021180161 A JP 2021180161A JP 2021180161 A JP2021180161 A JP 2021180161A JP 7280333 B2 JP7280333 B2 JP 7280333B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- execution
- score
- condition
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003340 mental effect Effects 0.000 claims description 62
- 238000012545 processing Methods 0.000 claims description 36
- 230000008859 change Effects 0.000 claims description 20
- 230000006996 mental state Effects 0.000 claims description 9
- 210000003491 skin Anatomy 0.000 description 310
- 238000000034 method Methods 0.000 description 71
- 230000006872 improvement Effects 0.000 description 57
- 230000008569 process Effects 0.000 description 42
- 230000009471 action Effects 0.000 description 30
- 238000011156 evaluation Methods 0.000 description 26
- 230000005540 biological transmission Effects 0.000 description 21
- 230000000694 effects Effects 0.000 description 21
- 102000011782 Keratins Human genes 0.000 description 16
- 108010076876 Keratins Proteins 0.000 description 16
- 230000006870 function Effects 0.000 description 16
- 238000004088 simulation Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 210000002374 sebum Anatomy 0.000 description 13
- 235000001366 vegetable intake Nutrition 0.000 description 13
- 238000010586 diagram Methods 0.000 description 10
- 238000002791 soaking Methods 0.000 description 9
- 235000013311 vegetables Nutrition 0.000 description 9
- 230000006399 behavior Effects 0.000 description 7
- 210000000434 stratum corneum Anatomy 0.000 description 7
- 238000012937 correction Methods 0.000 description 6
- 235000005686 eating Nutrition 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 210000004027 cell Anatomy 0.000 description 5
- 230000002354 daily effect Effects 0.000 description 5
- 239000002537 cosmetic Substances 0.000 description 4
- 235000005911 diet Nutrition 0.000 description 4
- 230000037213 diet Effects 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000009223 counseling Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 235000006694 eating habits Nutrition 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003020 moisturizing effect Effects 0.000 description 3
- 208000002874 Acne Vulgaris Diseases 0.000 description 2
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 description 2
- 206010000496 acne Diseases 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 235000019219 chocolate Nutrition 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000003203 everyday effect Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008092 positive effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 230000036620 skin dryness Effects 0.000 description 2
- 230000004622 sleep time Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- ZZZCUOFIHGPKAK-UHFFFAOYSA-N D-erythro-ascorbic acid Natural products OCC1OC(=O)C(O)=C1O ZZZCUOFIHGPKAK-UHFFFAOYSA-N 0.000 description 1
- 206010013786 Dry skin Diseases 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 229930003268 Vitamin C Natural products 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 206010003119 arrhythmia Diseases 0.000 description 1
- 230000006793 arrhythmia Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000012503 blood component Substances 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000306 component Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000037336 dry skin Effects 0.000 description 1
- 230000002500 effect on skin Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006210 lotion Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 231100000989 no adverse effect Toxicity 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000037307 sensitive skin Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 210000004927 skin cell Anatomy 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 235000019640 taste Nutrition 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000002485 urinary effect Effects 0.000 description 1
- 235000019154 vitamin C Nutrition 0.000 description 1
- 239000011718 vitamin C Substances 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Controls And Circuits For Display Device (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、画像表示装置に関する。 The present invention relates to an image display device .
従来、肌状態のケアに関する様々なツールが知られている。 Conventionally, various tools are known for the care of skin conditions.
例えば、特許文献1には、化粧品販売員等がユーザに対して用いるカウンセリングツールとして、肌状態の典型的なパターンに対し、その肌の状態の説明をする肌状態説明部と、その肌の状態に必要なスキンケア方法の説明表示部とを備えたカウンセリングツールが記載されている。
For example,
肌状態説明部は、肌状態の典型的なパターンとしての「水分が不足しがちな状態」という小見出しと、当該肌の状態についての「お肌を外的刺激から守るバリア機能も低下しやすく、………考えられます。」という説明文とを含む。 The skin condition explanation part has a subheading of "a condition that tends to be dehydrated" as a typical pattern of skin conditions, and a subheading of the skin condition in question, "The barrier function that protects the skin from external stimuli is also likely to decrease, … is considered.”
スキンケア方法の説明表示部は、当該肌状態におけるスキンケア方法としての「やや不足している方 W保湿」及び「不足している方 W保湿+ローションマスク・クリーム」という見出しとが含まれている。 The description display portion of the skin care method includes the headings "Somewhat insufficient W moisturizing" and "Insufficient W moisturizing + lotion mask/cream" as skin care methods for the relevant skin condition.
化粧品販売員は、例えば、顧客の肌状態が水分がやや不足している状態であると判断した場合、スキンケア方法の説明表示部に表示された「W保湿」を行うよう勧めるなど、顧客の肌状態とカウンセリングツールとを突き合わせることで、肌のパターンに応じた施策を即座にユーザに対して提示することができる。 For example, when judging that the customer's skin condition is slightly lacking in moisture, the cosmetics salesperson recommends that the customer perform "double moisturizing" displayed in the explanation display part of the skin care method. By comparing the condition with the counseling tool, it is possible to immediately present the user with measures according to the skin pattern.
しかし、特許文献1の技術では、提案された施策をどの程度の実行の度合い(時間、量、1日当たりの回数、実行の頻度等)で行えばどのような肌状態になるのかをユーザに把握させることは難しかった。
However, with the technique disclosed in
そこで、本発明は、ユーザに施策の実行の度合いと肌状態との関係を認識させることができる画像表示装置を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide an image display device that allows a user to recognize the relationship between the degree of execution of a measure and the skin condition.
第1発明の画像表示装置は、
情報を出力する画像表示部と、
ユーザの入力を検知する入力部と、
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、当該ユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザの、当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする。
The image display device of the first invention is
an image display unit that outputs information;
an input unit for detecting user input;
At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad ;
a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit ;
a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The user recognized by analyzing information on the degree of execution of the group of measures by the user and information on at least one of the skin condition, mental condition, and physical condition, with the value of the degree of execution obtained as input. , is configured to recognize using information indicating the correlation between the degree of execution for each policy group and the good or bad of the prediction score,
The output control unit causes the image display unit to output a display showing the predicted score.
It is characterized by
また、第2発明の画像表示装置は、 Further, the image display device of the second invention is
情報を出力する画像表示部と、 an image display unit that outputs information;
ユーザの入力を検知する入力部と、 an input unit for detecting user input;
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、 At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad;
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、 a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit;
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、 a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、複数のユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該複数のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、 The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The value of the degree of execution is input, and the information of the degree of execution of the group of measures of a plurality of users and the information of at least one of the skin condition, mental condition, and physical condition are analyzed and recognized. It is configured to recognize using information indicating the correlation between the degree of execution of each policy group by a plurality of users and the quality of the prediction score,
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる The output control unit causes the image display unit to output a display showing the predicted score.
ことを特徴とする。It is characterized by
これらの構成の画像表示装置によれば、スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とが、出力制御部によって画像表示部に出力される。
そして、指定認識部がユーザによる施策群の実行の度合いの値の指定を認識した場合に、スコア認識部により、当該施策群を当該指定された実行の度合いで実行したときのユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアが認識され、出力制御部により当該予測スコアを示す表示が画像表示部に出力される。
これにより、施策の実行の度合いを変更したときのユーザの肌状態、心状態及び体状態のうちの少なくとも1つの予測スコアの表示を通じて、ユーザに施策の実行の度合いと肌状態との関係を直感的に認識させることができる。
According to the image display device having these configurations, the display indicating the degree of execution of the user's policy group recognized by the score recognition unit and at least one of the user's skin condition, mental condition, and physical condition A display showing the two scores is output to the image display section by the output control section.
Then, when the designation recognition unit recognizes the user's designation of the degree of execution of the measure group, the score recognition unit executes the measure group at the designated degree of execution, the user's skin condition, A predicted score, which is a predicted value of the score of at least one of the mental state and the body state, is recognized, and a display showing the predicted score is output to the image display unit by the output control unit.
This allows the user to intuitively understand the relationship between the degree of execution of the measure and the skin condition through the display of the predicted score of at least one of the user's skin condition, mental condition, and body condition when the degree of execution of the measure is changed. can be recognizable.
また第1発明においては、予測スコアは、当該ユーザの施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザの、当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識されるので、ユーザ自身の施策群の実行の度合いと、肌状態、心状態又は体状態の関係性の実態に即した予測スコアをユーザに認識させることができる。 In addition, in the first invention, the prediction score of the user is recognized by analyzing information on the degree of execution of the group of measures by the user and information on at least one of skin condition, mental condition and physical condition. , is recognized using information indicating the correlation between the degree of execution for each measure group and the good or bad of the prediction score. It is possible to make the user recognize the predicted score that is in line with the actual state of the relationship.
そして第2発明においては、予測スコアは、複数のユーザの施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該複数のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識されるので、ユーザ自身のデータだけでなく、豊富なユーザの施策群の実行の度合いと、肌状態、心状態又は体状態の関係性の実態に即した予測スコアをユーザに認識させることができる。 In the second invention, the predicted score is recognized by analyzing information on the degree of execution of the group of measures by a plurality of users and information on at least one of skin condition, mental condition and physical condition. Since it is recognized using information indicating the correlation between the degree of execution of each policy group by the user and the quality of the prediction score, not only the user's own data but also the rich user's execution of the policy group It is possible to make the user recognize a predicted score that is in line with the reality of the relationship between the degree and the skin condition, mental condition, or body condition.
また、第2発明の画像表示装置において、 Further, in the image display device of the second invention,
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記複数のユーザの前記施策群の実行の度合いの情報と、属性を示す情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザと同様の属性を持つ他のユーザの前記相関関係を示す情報を用いて認識するように構成されている The score recognition unit recognizes the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution. and recognized by analyzing information on the degree of execution of the group of measures by the plurality of users, information indicating attributes, and information on at least one of skin condition, mental condition, and physical condition. , is configured to be recognized using information indicating the correlation of other users who have attributes similar to that of the user
ことが好ましい。is preferred.
同様の属性(例えば年齢、性別、住んでいる地域、嗜好、肌の特性、心の特性、体の特性など)を持つユーザの施策の実行の度合いとユーザの肌状態、心状態及び体状態との関係性は、相互に類似している蓋然性が高い。 The degree of execution of measures by users with similar attributes (e.g. age, gender, area of residence, preferences, skin characteristics, mental characteristics, physical characteristics, etc.) and the skin condition, mental condition, and physical condition of the user are highly likely to be similar to each other.
本構成の画像表示装置によれば、予測スコアは、複数のユーザの施策群の実行の度合いの情報と、属性を示す情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザと同様の属性を持つ他のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識される。 According to the image display device of this configuration, the predicted score is obtained by combining information on the degree of execution of a group of measures by a plurality of users, information indicating attributes, and information on at least one of skin condition, mental condition, and physical condition. Recognition is performed using information indicating the correlation between the degree of execution of each policy group by other users who have the same attribute as the user and the quality of the prediction score, which is recognized by analysis.
これにより、ユーザと同様の属性を持つ、すなわち施策の実行の度合いとユーザの肌状態、心状態及び体状態との関係性が類似している蓋然性の高い、他のユーザの施策群の実行の度合いと、肌状態、心状態又は体状態の関係性の実態に即した予測スコアをユーザに認識させることができる。 As a result, other users who have the same attributes as the user, that is, have a high probability that the relationship between the degree of execution of the measures and the user's skin condition, mental condition, and physical condition are similar, will be able to perform the group of measures. It is possible to make the user recognize a predicted score that is in line with the reality of the relationship between the degree and the skin condition, mental condition, or body condition.
本発明の画像表示装置において、 In the image display device of the present invention,
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記出力制御部は、 The output control unit is
前記画像表示部に出力させる前記施策群の実行度合いの値を前記指定認識部が認識した前記施策群の実行の度合いの値に変更し、かつ changing the value of the degree of execution of the group of measures to be output to the image display unit to the value of the degree of execution of the group of measures recognized by the designation recognition unit;
前記画像表示部に出力させる前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアの値を、前記スコア認識部が認識した前記予測スコアの値に変更するように構成されている The score value of at least one of the user's skin condition, mental condition, and body condition to be output to the image display unit is changed to the predicted score value recognized by the score recognition unit.
ことが好ましい。is preferred.
当該構成の画像表示装置によれば、ユーザによる施策群の実行の度合いの値の指定に応じて、画像表示部に出力される施策群の実行度合いの値が当該指定された値に変更されるとともに、画像表示部に出力される肌状態、心状態及び体状態のうち少なくとも1つのスコアの値が、スコア認識部により認識された予測スコアの値に変更される。 According to the image display device having this configuration, the value of the degree of execution of the group of measures output to the image display unit is changed to the specified value in accordance with the user's designation of the value of the degree of execution of the group of measures. At the same time, the score value of at least one of the skin condition, mental condition, and body condition output to the image display unit is changed to the predicted score value recognized by the score recognition unit.
これにより、施策の実行の度合いを変更したときのユーザの肌状態、心状態及び体状態のうちの少なくとも1つの予測スコアの表示を通じて、ユーザに施策の実行の度合いと肌状態との関係をより直感的に認識させることができる。 This allows the user to better understand the relationship between the degree of execution of the measure and the skin condition through the display of the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the degree of execution of the measure is changed. It can be recognized intuitively.
本発明の画像表示装置において、 In the image display device of the present invention,
前記スコア認識部は、所定期間における、前記施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した前記スコアを認識し、 The score recognizing unit calculates, during a predetermined period, a value of the user's degree of execution of the measure group, and the skin condition, mental state, and body condition of the user when the measure group is executed at the value of the degree of execution. recognizing the score that quantifies the goodness or badness of at least one of the conditions;
前記所定の期間は、前記スコア認識部が前記予測スコアを認識する処理を実行する時点以前の所定の期間であり、 The predetermined period of time is a predetermined period of time before the score recognition unit executes processing for recognizing the predicted score,
前記出力制御部は、前記スコア認識部が認識した、前記所定期間における前記ユーザの前記施策群の実行の度合いの値を示す表示と、当該所定期間における当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアを示す表示と、を前記画像表示部に出力させ、 The output control unit displays the value of the degree of execution of the measure group by the user during the predetermined period recognized by the score recognition unit, and the skin condition, mental condition, and body condition of the user during the predetermined period. a display showing the score of at least one of
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、 When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
前記スコア認識部は、前記施策群を前記指定された実行の度合いで、前記所定期間と同一の期間において実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記相関関係を示す情報を用いて認識するように構成されている The score recognition unit is configured to determine at least one of the predicted score of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution for the same period as the predetermined period. is configured to recognize the specified execution degree value as an input and using the information indicating the correlation
ことが好ましい。is preferred.
当該構成の画像表示装置によれば、スコア認識部は、所定期間における、施策群のユーザの実行の度合いの値を入力とし、当該施策群を実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアを認識するように構成されている。なお、所定の期間は、スコア認識部が予測スコアを認識する処理を実行する時点以前の所定の期間である。 According to the image display device having the above configuration, the score recognition unit receives as input the value of the degree of execution of the measure group by the user in the predetermined period, and the score when the measure group is executed at the degree of the value of the degree of execution. It is configured to recognize a score, which is information obtained by quantifying at least one of the user's skin condition, mental condition, and body condition. Note that the predetermined period is a predetermined period before the time when the score recognition unit executes processing for recognizing the predicted score.
また指定認識部が施策群の実行の度合いの値の指定を認識した場合に、スコア認識部により、施策群を指定された実行の度合いで、所定期間と同一の期間において実行したときのユーザの肌状態、心状態及び体状態のうち少なくとも1つの予測スコアが認識される。 In addition, when the designation recognition unit recognizes the designation of the value of the degree of execution of the measure group, the score recognition unit recognizes the user's performance when the measure group is executed with the specified degree of execution for the same period as the predetermined period. A predicted score of at least one of skin condition, mind condition and body condition is recognized.
すなわち、予測スコアを認識する処理を実行する時点以前の所定の期間の施策の実行の度合いに基づいて、ある未来の時点の予測スコアではなく、当該同一期間において、施策群の実行の度合いが異なることによってユーザの肌状態、心状態及び体状態がどのように変化したはずだったかの予測スコアをユーザに認識させることができる。 That is, based on the degree of execution of measures during a predetermined period prior to the execution of processing for recognizing prediction scores, the degree of execution of a group of measures differs during the same period, rather than the prediction score at a certain future point in time. This allows the user to recognize the predicted score of how the user's skin condition, mental condition, and body condition should have changed.
これにより、本来であればもう少し施策の実行を頑張るべきだった、あるいはもう少し力を緩めてもよかったということを、ユーザに実感をもって認識させることができる。 This makes it possible for the user to realize that he or she should have put in a little more effort in implementing the measures, or that they should have relaxed a little more.
本発明の実施形態の一例について、図1~図18を参照して説明する。 An example of an embodiment of the present invention will be described with reference to FIGS. 1 to 18. FIG.
[A.肌状態認識システムの利用形態]
図1を参照して、肌状態認識システム10の構成および本発明を構成する系に対する位置付けを説明する。肌状態認識システム10は、CPU、メモリ、各種インターフェース回路等を備えたコンピュータシステムにより構成される。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することによって、複数のユーザU(図1ではUa,Ub,Ucを例示)の肌状態を改善又は維持するための処理
(画像表示処理)を実行する機能を実現する。
[A. Usage form of skin condition recognition system]
The configuration of the skin
肌状態認識システム10は、インターネット等の通信ネットワーク1を介して、複数のユーザUの通信端末(ユーザ端末)30(図1では30a,30b,30cを例示)との間でデータ通信を行うことにより、ユーザUの肌状態の改善又は維持をサポートする。ユーザ端末30が、本発明の「画像表示装置」に相当する。
The skin
通信ネットワーク1には、担当者T(図1ではTa,Tbを例示)の通信端末50(図1では50a,50bを例示)も接続されている。担当者Tは、通信端末50を介して、ユーザUの肌の特徴や趣味嗜好、生活スタイル等を考慮した適切な肌ケア法等の情報を含むデータを、肌状態認識システム10及びユーザ端末30に送信することにより、ユーザUの肌状態の改善に対するアドバイスを行う。なお、担当者Tの通信端末50とユーザUのユーザ端末30とは必ずしも一対一である必要はなく、肌状態認識システム10、担当者Tの通信端末50、通信ネットワーク1を合わせた系全体によってユーザUの肌状態の改善に対するアドバイスがユーザUのユーザ端末30に提供されればよい。例えば、ユーザUの1又は複数のユーザ端末30に対して、複数の担当者Tによってそれぞれの通信端末50を介してアドバイスを提供する方法でも良い。
Communication terminals 50 (50a and 50b are exemplified in FIG. 1) of persons in charge T (Ta and Tb are exemplified in FIG. 1) are also connected to the
さらに、肌状態認識システム10は、複数のユーザUのユーザ端末30から送信される各ユーザの固有データを解析して、汎用的に活用可能な2次データを生成する機能を有し、この2次データを通信ネットワーク1を介して他のシステム60に提供するサービスも行うことができる。
Furthermore, the skin
[B.肌状態認識システム、及びユーザ端末の構成]
図2を参照して、肌状態認識システム10およびユーザ端末30の構成について説明する。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することにより、肌状態認識部11、施策グループ選択部12、施策情報送信部13、及び2次データ生成部19として機能する。これらの構成による処理については後述する。また、肌状態認識システム10は、ユーザUの画像表示処理に使用する各種データを保持するサポートDB(データベース)20を備えている。このサポートDB20はたとえばRAM上に展開され、後述する主観および客観データの更新によって書き換え可能である。
[B. Configuration of skin condition recognition system and user terminal]
The configurations of the skin
次に、本実施形態のユーザ端末30は、表示器31、タッチパネル32、カメラ33、マイク34、CPU35、及びメモリ36等を備えている。表示器31が、本発明の「画像表示部」に相当する。タッチパネル32が、本発明の「入力部」に相当する。これに代えてまたは加えて、カメラ33で撮像したユーザUの画像又はマイク34から入力されたユーザUの音声に基づいてユーザの指定を認識することにより、カメラ33又はマイク34を本発明の「入力部」として機能させてもよい。
Next, the
なお、一の装置が情報を「認識する」とは、一の装置が他の装置から当該情報を受信すること、一の装置が当該一の装置に接続された記憶媒体に記憶された情報を読み取ること、一の装置が当該一の装置に接続されたセンサから出力された信号に基づいて情報を取得すること、一の装置が、受信した情報又は記憶媒体に記憶された情報又はセンサから取得した情報に基づいて、所定の演算処理(計算処理又は検索処理など)を実行することにより当該情報を導出すること、一の装置が他の装置による演算処理結果としての当該情報を当該他の装置から受信すること、一の装置が当該受信信号にしたがって内部記憶装置又は外部記憶装置から当該情報を読み取ること等、当該情報を取得するためのあらゆる演算処理が実行されることを意味する。 It should be noted that the fact that one device "recognizes" information means that one device receives the information from another device, and that one device recognizes information stored in a storage medium connected to the one device. reading, obtaining information by a device based on a signal output from a sensor connected to the device, or obtaining information received by a device or information stored in a storage medium or from a sensor Derivation of the information by executing predetermined arithmetic processing (calculation processing, search processing, etc.) based on the information obtained, one device passing the information as a result of arithmetic processing by another device to the other device It means that any arithmetic processing for obtaining the information is performed, such as receiving from, or reading the information from an internal storage device or an external storage device according to the received signal.
本実施形態においては、ユーザ端末30は例えばスマートフォンであるため、カメラ33やマイク34等を備えているが、ユーザ端末と有線無線にかかわらずやり取りできる構成であれば、外付けでの構成であったり、専門的な撮像装置を用いても良い。CPU35は、メモリ36に保持された画像表示用のアプリケーション35a(以下、肌サポートアプリ35aという)のプログラムを実行することにより、ユーザUが肌サポートアプリ35aを介して肌状態認識システム10によるサポートを享受可能な状態とする。肌サポートアプリ35aを実行したCPU35が、本発明の「スコア認識部」「出力制御部」及び「指定認識部」に相当する。
In the present embodiment, the
また、ユーザUは、肌の細胞を取得するための角質採取テープ37(図1では37a、37b、37cを例示)を別途有している。この角質採取テープ37は、予め担当者TによりユーザUに提供されたものであってもよいし、ユーザUが市販の角質採取テープ37を購入してもよい。
In addition, the user U separately has a keratin collecting tape 37 (37a, 37b, and 37c are illustrated in FIG. 1) for obtaining skin cells. The
なお、以下の説明では、説明の便宜のため、肌状態の改善又は維持のサポート処理の対象のユーザをユーザUaと表し、「ユーザUa」と異なるユーザを「他のユーザUb、Uc」と表す。 In the following description, for convenience of explanation, the user who is the target of the support process for improving or maintaining the skin condition is referred to as user Ua, and users different from "user Ua" are referred to as "other users Ub and Uc". .
[C.肌状態認識システムによる一連の処理]
次に、図3を参照して、肌状態認識システムによる一連の処理について説明する。肌状態認識システム10は、「1.ゴール設定」、「2.スケジュール決定」、「3.モニタリング」、「4.スケジュール修正」、[5.ゴール判定]及び「6.2次データ生成」の各工程の処理を、図4,5に示したフローチャートに従って実行する。また、ユーザ端末30は、各工程における肌状態認識システム10による処理に応じて、図6,7に示したフローチャートによる処理を実行する。以下では、各工程における肌状態認識システム10及びユーザ端末30のCPU35の処理について、図4~7に示したフローチャートを参照しつつ説明する。
[C. A series of processing by the skin condition recognition system]
Next, a series of processes by the skin condition recognition system will be described with reference to FIG. The skin
ユーザUaは、図6のSTEP50で、肌サポートアプリ35aのプログラムをユーザ端末30にダウンロードして肌サポートアプリ35aを起動する。そして、ユーザUaは肌サポートアプリ35aへの登録申請を行う。
In STEP 50 of FIG. 6, the user Ua downloads the program of the
肌状態認識システム10は、図4のSTEP10で、ユーザUaからの登録申請を受け付けたときに、「ユーザUaからの登録申請を受け付けた」と認識し、STEP11に処理を進める。そしてSTEP11以降の画像表示処理を開始する。
When the skin
[D.ゴール設定工程]
図3に示した「1.ゴール設定」の工程は、肌状態認識部11及び施策グループ選択部12により実行される。施策グループ選択部12は、図4のSTEP11でユーザ端末30にユーザUaの現状の肌、体、心の各状態、及びユーザUaが要望する肌状態を把握するための情報入力を促す初期情報要求データを送信する。
[D. Goal setting process]
Goal setting” shown in FIG. 3 is executed by the skin
この初期情報要求データを受信したユーザ端末30では、肌サポートアプリ35aが、図6のSTEP51で、ユーザUaに対して、現状の肌、体、心の各状態、及びユーザUaが要望する肌状態の入力を促す画面を表示器31に表示する。それに対してユーザ端末30は、ユーザUaが入力した情報を含む初期ユーザ情報データを、肌状態認識システム10に送信する。 肌状態認識部11は、図4のSTEP11において、初期ユーザ情報データを受信して、初期ユーザ情報データから認識したユーザUaの肌、心、体の各状態と、ユーザUaが要望する肌状態とに基づいて、肌状態の目標レベル(ゴール)を設定する。
In the
ここで、初期ユーザ情報データには、肌状態、体状態、及び心状態についての主観データ及び客観データが含まれている。詳細な定義は後述するが、主観データはユーザの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。肌状態の主観データは、現状の肌状態に対するユーザUaの満足度を、例えば10段階で示したデータである。肌状態の客観データは、ユーザUaの肌画像データである。なお、肌状態の客観データには、初期ユーザ情報データに含まれる肌状態の客観データに加え、角質採取テープ37により採取されたユーザUaの角層細胞の解析データが含まれても良い。角層細胞の解析データは、具体的には例えば保水能力と皮脂適格性に関するデータである。この場合、角層細胞の解析を、例えばユーザ端末30に接続された測定機器45により行うことで、或は、角質採取テープ37の画像データをユーザ端末30から肌状態認識システム10に送信し、肌状態認識システム10側で角質採取テープ37の画像を分析して保水能力と皮脂適格性などを測定してもよい。
Here, the initial user information data includes subjective data and objective data regarding skin condition, body condition, and mental condition. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user, and objective data is data based on inspection results, image analysis, and factual information. The subjective data of the skin condition is data indicating the satisfaction level of the user Ua with respect to the current skin condition, for example, in 10 stages. The objective data of the skin condition is skin image data of the user Ua. In addition to the objective skin condition data included in the initial user information data, the objective skin condition data may include analysis data of the stratum corneum cells of the user Ua collected by the horny
ユーザUaの満足度は肌サポートアプリ35aにおけるアンケート入力によって取得される。また、肌画像データは、ユーザ端末30のカメラ33又は接続端子40に接続された外部カメラによってユーザUaがユーザUaの顔を撮像することによって取得した画像データである。
The degree of satisfaction of the user Ua is acquired by inputting a questionnaire in the
また、肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用方法を表示器31に表示し、角質採取テープ37の使用と別途の郵送とを促す。肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用と肌画像の撮像を促し、撮像された画像が肌状態認識システム10に送信されるようにしてもよい。
In addition, the
肌状態認識部11は、図8に示したように、肌状態の初期値を、主観のスコアをたとえば3、肌画像のスコアを3、保水能力のスコアを2、皮脂適格性のスコアを1に割り当てて、合計した値を肌状態のスコアとする。なお、スコアは正の整数ではなく、小数で表現されていてもよいし、負の数で表されてもよい。
As shown in FIG. 8, the skin
角層細胞の解析による保水能力スコア及び皮脂適格性のスコアの認識を第1認識方法と呼ぶ。第1認識方法は、これに代えてまたは加えて、角層水分量計によりユーザの肌の水分量を計測する方法及び皮脂量計によりユーザの肌の皮脂量を計測する方法のうち少なくとも1つを含む。また、第1の認識方法によるユーザの肌の認識を定期的に行うため、肌状態認識部11は、定期的にユーザ端末30に角質採取テープ37等の使用を促すメッセージを送信したりすることにより、ユーザに行動を促す。このときの「定期的」というのは厳密に時間的に等間隔である必要はなく、肌状態に影響が出ない範囲で等間隔であれば良い。例えば、3ヶ月ごとに第1の認識方法を実施する場合において、1月1日に初回を実施した場合、ちょうど3か月後の4月1日のみならず、例えばその1週間前の3月24日前後にユーザ端末30にメッセージを送信してもよいし、例えばその1週間後の4月8日前後にユーザ端末30にメッセージを送信してもよい。また、長期的にサービスを提供するときなどは、例えば細かい改善を調べたい時は1ヶ月ごとに第1の認識方法を設定し、肌状態に対する季節変化の影響を調べるために3か月ごとに第1の認識方法を設定するなど、認識のタイミングは変更可能である。
Recognition of the water retention capacity score and sebum suitability score by analysis of stratum corneum cells is called the first recognition method. Alternatively or additionally, the first recognition method is at least one of a method of measuring the moisture content of the user's skin with a stratum corneum moisture meter and a method of measuring the sebum content of the user's skin with a sebum meter. including. Further, in order to periodically recognize the user's skin by the first recognition method, the skin
アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識のそれぞれを第2認識方法と呼ぶ。第2認識方法は、アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識の一方によってユーザUaの肌状態を認識してもよいし、これらと異なる方法を含んでもよい。また、第2認識方法は、第1の認識方法よりも頻繁に行われる。これは角質採取テープ37の使用・郵送が手間的にも煩雑かつ値段的にも高価になってしまうためである。また、角質採取テープ37の使用が頻繁であると、ユーザUaの肌へ悪影響が及ぶおそれもある。
Recognition of the subjective score based on the subjective data of the skin condition entered in the questionnaire and recognition of the skin image score based on the skin image data of the user Ua are each referred to as a second recognition method. The second recognition method may recognize the skin condition of the user Ua by either recognizing a subjective score based on the subjective data of the skin condition entered in the questionnaire or recognizing the skin image score based on the skin image data of the user Ua. , may include methods different from these. Also, the second recognition method is performed more frequently than the first recognition method. This is because the use and mailing of the
例えば3か月間ごとに第1の認識方法が実施され、第2の認識方法は毎日実施にされる。また、第1の認識方法の実施と第2の認識方法の実施のタイミングが重なる時は、できれば同じタイミングで実施されると精度の良いデータが取れるために好ましい。ただし第1の認識方法の実施時に第2の認識方法が実施されなくても本発明の実施は可能であるし、効果も得られる。 For example, the first recognition method is performed every three months, and the second recognition method is performed every day. Also, when the timings for performing the first recognition method and the second recognition method overlap, it is preferable to perform them at the same timing, in order to obtain accurate data. However, even if the second recognition method is not performed when the first recognition method is performed, the present invention can be implemented and the effect can be obtained.
なお、主観スコアは、主観データに基づいて認識されたスコアであればよい。 Note that the subjective score may be a score recognized based on subjective data.
体状態の主観データと客観データは、図9に示したように分けられている。詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。体状態の主観データは、ユーザUaが肌サポートアプリ35aを通じてアンケートを入力することによって取得される。客観データは、ユーザUaがユーザ端末30のカメラ33を用いて撮像されたユーザUaの舌・唇の画像データ、ユーザ端末30の接続端子40に接続された測定機器45により測定されたユーザUaの血圧、不整脈、尿中成分、血中成分等の測定データと、肌サポートアプリ35aにおけるアンケート入力により取得された頭痛又は肩こり等の体調不良の回数、疲労度判定等のデータである。なお、将来の肌ケア以外のサービスへの展開に備えて、種々の病気の発生情報などについても初
期ユーザ情報データに含めてもよい。
The subjective data and objective data of body condition are separated as shown in FIG. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user Ua, and objective data is data based on test results, image analysis, and factual information, similar to the subjective data and objective data of the skin. The subjective data on the body condition is obtained by the user Ua inputting a questionnaire through the
心状態の主観データと客観データは、図10に示したように分けられている。、詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。主観データは、肌サポートアプリ35aにおけるアンケート入力によって取得される。客観データは、肌サポートアプリ35aにおけるアンケート入力(一日の笑った頻度等)と、測定機器による測定(脈拍モニタリングからの心理状態推定等)とにより取得される。なお、将来の肌ケア以外のサービスの展開に備えて、種々の精神疾患の発生情報についても初期ユーザ情報データに含めてもよい。
The subjective and objective data of the state of mind are separated as shown in FIG. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user Ua, and objective data is data based on test results, image analysis, and factual information, similar to the subjective data and objective data of the skin. . The subjective data is acquired by inputting a questionnaire in the
肌状態認識部11は、認識したユーザUaの肌、体、心の状態の主観データ及び客観データを、サポートDB20に記憶する。
The skin
肌状態認識部11は、このようにして初期ユーザ情報データから認識したユーザUaの肌状態、体状態、及び心状態の主観データと客観データに基づいて、図8の右側の三角形で示したように、肌状態を1~9、体状態を1~6、心状態を1~6の各スコアで表した3軸の初期値を設定する。なお、肌状態のスコアと同様に、体状態又は心状態の主観データ及び客観データから体状態又は心状態の主観スコア及び客観スコアが算出され、それらに基づいて体状態のスコア及び心状態のスコアとして扱われてもよい。
Based on the subjective data and objective data of the user Ua's skin condition, body condition, and mental condition recognized from the initial user information data in this way, the skin
さらに、施策グループ選択部12は、初期ユーザ情報データに含まれる「なりたい肌レベル」「施策のカテゴリー、希望、頻度」及び「現在行っている施策」を取得する。「なりたい肌レベル」「施策のカテゴリー,希望,頻度」及び「現在行っている施策」は、肌サポートアプリ35aにより、ユーザUaが入力したものである。
Further, the measure
ここで、「なりたい肌レベル」において、「なりたい肌」とは、乾燥感改善、ごわつき改善、敏感肌改善、ニキビ改善、しぼみ感改善、シミ改善、シワ改善、たるみ改善、くすみ改善、くま改善、顔色改善、及びハリ改善の中から選択された肌状態の改善対象である。また、「レベル」とは、各対象の肌状態に対するユーザUaの満足度であって、肌サポートアプリにおいて1~10の10段階でユーザが選択したレベルである。 Here, in the "desired skin level", "desired skin" means improvement of dryness, improvement of stiffness, improvement of sensitive skin, improvement of acne, improvement of wrinkles, improvement of spots, improvement of wrinkles, improvement of sagging, improvement of dullness, improvement of dark circles, It is a skin condition improvement target selected from complexion improvement and firmness improvement. The “level” is the level of satisfaction of the user Ua with respect to each target skin condition, and is the level selected by the user from 1 to 10 in the skin support application.
サポートDB20は、各改善対象に関連付けられた肌状態の主観状態の改善傾向及び客観状態の改善傾向を記憶している。例えば、図11Cに示されるように、「乾燥感改善」には、肌状態の主観状態「乾燥感改善」と、肌状態の客観状態の基準「保水能力と皮脂適格性との差を最小化」とが関連付けられている。
The
例えば、「なりたい肌」が「乾燥感改善」であり、現状の肌状態の乾燥感の満足度のレベルが3であるときに、ユーザUaの選択に応じて、「乾燥感改善」と関連付けられたユーザUaの肌状態の主観状態「乾燥感改善」についての満足度5が主観的な目標レベルとして設定される。 For example, when the “desired skin” is “improved dryness” and the satisfaction level of the dryness of the current skin condition is 3, it is associated with “improved dryness” according to the selection of the user Ua. A satisfaction level of 5 with respect to the subjective skin condition “improved dryness” of the user Ua is set as a subjective target level.
また、施策グループ選択部12は、「乾燥感改善」に関連付けられた肌状態の客観的な改善対象を設定する。例えば、施策グループ選択部12は、「乾燥感改善」に関連付けられた基準「保水能力と皮脂適格性との差を最小化」に基づいて、ユーザUaの肌状態のうち、保水能力よりも低い皮脂適格性の値2を客観的な目標レベルとして設定する。
In addition, the measure
また、「施策のカテゴリー、希望、頻度」において、カテゴリーとしては「食生活、自宅での行動、運動、化粧品の使い方」等、希望としては「難易度、時間制約、肌ケアを行うシーン」等、頻度としては「1日当たりのアドバイスを受ける回数」等が選択される。 In addition, regarding the category of policy, preference, and frequency, categories include dietary habits, activities at home, exercise, and how to use cosmetics. , "the number of times advice is received per day" or the like is selected as the frequency.
「現在行っている施策」は、ユーザUaがすでに行っている施策であり、「湯船につかる」等の内容及び頻度又は程度などにより表される。 The “measure currently being taken” is a measure that the user Ua has already taken, and is represented by the content and frequency or degree of “soaking in the bathtub” or the like.
[E.スケジュール決定工程]
図3に示した「2.スケジュール決定」の工程は、施策グループ選択部12及び施策情報送信部13により実行される。施策グループ選択部12は、図4のSTEP12で、ゴール(主観的な目標レベル及び客観的な目標レベル)を達成するための施策グループを選択する。この選択は、上述した各改善対象に関連付けられた、肌状態の主観状態の改善傾向と肌状態の客観状態の改善傾向と適した周辺環境とを考慮して行われる。施策グループ選択部12は、あらかじめ登録された地域またはGPSセンサ等によって検出された位置情報と、端末の時計機能から取得した日時とに基づいて、スケジュール期間におけるユーザUaの周辺環境の温度、湿度等を予測する。
[E. Schedule decision process]
The process of “2. Determination of schedule” shown in FIG. The measure
例えば、施策グループ選択部12は、カテゴリーの希望が「自宅での行動、食生活、運動」であり、梅雨の時期のように湿度が平均50%と予測される季節であり、主観的な目標レベルが「乾燥感」の満足度5以上、客観的な目標レベルが皮脂適格性2以上である場合、主観状態の改善傾向が「乾燥感改善」を含み、客観状態の改善傾向が「皮脂適格性向上」を含み、カテゴリーに「自宅での行動、食生活、運動」のいずれかであり、適した周辺環境が湿度50%と矛盾しない施策を選択する。
For example, the policy
ここで、主観状態の改善傾向及び客観状態の改善傾向は、予め担当者T等の専門家によって定められたものであってもよいし、サポートDB20に記憶された他のユーザUb、Ucが実施した施策と他のユーザUb、Ucの肌状態の時系列的変化に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよいし、実施した施策とユーザUaの肌状態の時系列的変化がサポートDB20に保存されている場合には、当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよい。
Here, the improvement tendency of the subjective state and the improvement tendency of the objective state may be determined in advance by an expert such as the person in charge T, or may be implemented by other users Ub and Uc stored in the
例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策と、その施策を実施した前後の他のユーザUb、Ucそれぞれごとの肌状態の主観データの時系列的変化及び他のユーザUb、Ucそれぞれごとの肌状態の客観データの時系列的変化の一方又は両方とが記憶される。
For example, the
また、例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策「湯船につかる」と、その施策を実施した前後における、他のユーザUb、Ucそれぞれの肌状態の主観状態の時系列的変化としての「乾燥感についての満足度」が記憶されているとする。
In addition, for example, the
このとき、施策グループ選択部12は、各他のユーザUb、Ucごとに、施策「湯船につかる」について、例えば、湯船につかる前日と、湯船につかった日の肌状態の主観データ(乾燥感についての満足度)の変化量を算出する。そして、施策グループ選択部12は、各他のユーザUb、Ucごとの乾燥感についての満足度の変化量の平均値をとる。施策グループ選択部12は、例えば、「乾燥感についての満足度」の変化量の平均値が所定値以上である場合に、施策「湯船につかる」の主観状態の改善傾向を「乾燥感改善」と認識する。客観状態の改善傾向についても、主観状態の改善傾向と同様に認識できる。
At this time, for each of the other users Ub and Uc, the measure
施策グループ選択部12は、ユーザUaの年齢及び肌状態に基づいて、同年代、同様の肌状態等、処理対象とする他のユーザUb、Ucの範囲を絞ってもよい。
Based on the age and skin condition of the user Ua, the measure
また、施策グループ選択部12は、サポートDBに実施した施策とユーザUaの肌状態の時系列的変化が保存されている場合には、上記と同様にして算出した当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。
Further, when the implemented measures and the chronological changes in the skin condition of the user Ua are stored in the support DB, the measure
施策グループ選択部12は、ユーザUaの第1回目のスケジュール決定工程においては、他のユーザUb、Ucの肌状態の主観データ、客観データから上記主観状態の改善傾向及び客観状態の改善傾向を認識し、ユーザUaの第2回目のスケジュール決定工程においてはユーザUaの肌状態の主観データ、客観データから主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。
In the first schedule determination process for user Ua, the measure
施策グループ選択部12は、肌状態のみならず、心状態、体状態についても同様に主観状態の改善傾向及び客観状態の改善傾向を認識し、当該心状態、体状態の主観状態の改善傾向及び客観状態の改善傾向を加味して施策を選択してもよい。
The measure
施策グループ選択部12は、「現在行っている施策」と同内容及び同頻度または同程度の施策を施策グループから除外してもよい。ユーザが既に行っている施策は、提案するまでもないと考えられるからである。
The measure
図11Aの例では、施策グループ選択部12は、「湯船につかる」「ビタミンC摂取」「野菜摂取」「1万歩以上歩く」を含むように複数の施策の組合せである施策グループを選択する。
In the example of FIG. 11A, the measure
施策情報送信部13は、施策グループの中から、ユーザUaの「施策のカテゴリー、希望、頻度」に応じて施策の優先度を評価し、当該優先度に従って初期の施策を決定する。図12には、初期の施策として「湯船につかる」「野菜摂取」「1万歩以上歩く」が選択されたスケジュールの例を示している。施策情報送信部13は、このようにして決定したスケジュールの内容を示すスケジュールデータをユーザ端末30に送信する。
The policy
施策情報送信部13は、併せて、ユーザUaの指定を基に、一定期間の各工程の実施の計画を作成する。図11Bには、START時にゴール設定とスケジュール決定を行い、毎日モニタリングをし、1週間ごとにスケジュール修正を行い、1か月後に進捗グラフを作成し、3か月目にゴール判定と新たなゴール設定を行うという一連のイベントの計画が示されている。施策情報送信部13は、ユーザUaの指定に加えてまたは代えて、あらかじめ定められた、一定期間の各工程の実施の計画を用いてもよい。
The policy
ユーザ端末30において、図6のSTEP52で、肌状態認識システム10からスケジュールデータを受信すると、肌サポートアプリ35aは、図12に示したようなスケジュールの実行表及び図11Bに示したような作業内容の計画を表示可能にして、ユーザUaによる各施策の実施を促す。図12のスケジュールの実行表においては、各施策(「湯船につかる」、「野菜摂取」、「1万歩以上歩く」)の内容が表示される。
When the
[F.モニタリング工程]
図3に示した「3.モニタリング」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは毎日)、肌状態認識部11及び施策情報送信部13により実行される。肌サポートアプリ35aの利用を開始したユーザUaは、ユーザ端末30により、日々の肌、体、心の各状態と、スケジュールにより指示された施策の実施状況と、スケジュールにより指示された施策以外のユーザUaの自主的な行動(施策外行動)の実施状況とを入力する。施策の実施状況には、「湯船につかる」、「野菜摂取」、「1万歩以上歩く」をそれぞれ実施したかどうかを示す情報のほか、「30分」および「湯船につかる」、「300g」および「野菜を摂取」、「1万5千歩」および「歩く」など、時間、量などで表される施策の実行の度合いが含まれる。
[F. Monitoring process]
The step “3. Monitoring” shown in FIG. 3 is executed by the skin
肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されるとSTEP60に処理を進め、上述した初期ユーザ情報データと同様に、ユーザUaの肌、体、心の状態についての主観データと客観データを含む現状ユーザ情報データを肌状態認識システム10に送信してSTEP54に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されない場合、そのままSTEP54に処理を進める。ここで送信されるデータには、角質採取テープ37によって採取された角層細胞に関するデータは含まれない。
In STEP53 of FIG. 6, the
また、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されたときにSTEP61に処理を進め、スケジュールの実行状況を示す実行状況データを肌状態認識システム10に送信して図7のSTEP55に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されない時は、そのままSTEP55に処理を進める。
Further, in STEP 54 of FIG. 6, the
さらに、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されたときにSTEP62に処理を進め、実施された施策外行動の内容を示す施策外行動実施データを肌状態認識システム10に送信してSTEP56に処理を進める。なお、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されないときには、そのままSTEP56に処理を進める。
Furthermore, in STEP55 of FIG. 7, the
図4のSTEP13~図5のSTEP16、及び図4のSTEP20~STEP22は、施策情報送信部13による処理である。肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信したときにSTEP20に処理を進め、現状ユーザ情報データをサポートDB20に蓄積してSTEP14に処理を進める。なお、肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信しないときは、STEP14にそのまま処理を進める。
また、施策情報送信部13は、STEP14でユーザ端末30から実行状況データを受信したときにSTEP21に処理を進め、実行状況データをサポートDB20に蓄積してSTEP15に処理を進める。一方で、STEP14でユーザ端末30から実行状況データを受信していないと判定された場合は、そのままSTEP15に処理を進める。
Also, when the policy
さらに、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信したときにSTEP22に処理を進め、施策外行動実施データをサポートDB20に蓄積して図5のSTEP16に処理を進める。一方で、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信しない時は、そのまま図5のSTEP16に処理を進める。
Furthermore, when the policy
図5に移って、STEP16で、施策情報送信部13は、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、及び施策外行動実施データ等に基づいて、スケジュールの進捗状況を示す進捗表データを作成し、この進捗表データをユーザ端末30に送信する。
5, in STEP 16, the policy
ここで、スケジュールの進捗表は、例えば図12に示したように、上から順に、肌状態(ここでは乾燥肌)のレベル、体状態のレベル、心状態のレベル、施策(湯船につかる、野菜摂取、1万歩以上歩く)の実施状況、暮らし情報(野菜摂取量、水分摂取量)、及び暮らし特殊事例が、1日単位で表示する構成となっている。 Here, for example, as shown in FIG. 12, the progress table of the schedule includes, from top to bottom, the level of skin condition (here, dry skin), the level of physical condition, the level of mental condition, measures (soaking in a bathtub, vegetables). Intake, walking 10,000 steps or more), living information (vegetable intake, water intake), and living special cases are displayed on a daily basis.
また、スケジュール進捗表には、施策の実行度合い(「30分」湯船につかる、「300g」野菜摂取、「1万5千歩」歩く)が含まれている。 The schedule progress table also includes the degree of implementation of measures (“30 minutes” soaking in a hot tub, “300g” eating vegetables, “15,000 steps” walking).
ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP56で、肌状態認識システム10から送信された進捗表データを受信したときにSTEP63に処理を進め、進捗表データをメモリ36に保持する。肌サポートアプリ35aは、メモリ36に格納された進捗表データを用いて、図12に示した進捗表をユーザ端末30の表示器31に表示する。
In the
また、肌サポートアプリ35aは、進捗表データの他に、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等を用いて、ユーザUaの肌、体、心の各状態の推移や変化を示す情報を、ユーザ端末30の表示器31に表示する。
In addition to the progress table data, the
例えば、肌サポートアプリ35aは、図13に示したように、スケジュールによる施策以外のユーザUaの行動(洗顔法の変更、マッサージを受けた等)、及びユーザの体調(生理、睡眠不足等)と、ユーザUaの肌状態の変化の関係を日単位の時系列グラフで、表示器31に表示する。
For example, as shown in FIG. 13, the
また、肌サポートアプリ35aは、図14に示したように、一カ月単位で、ユーザUaの角質状態を含む肌状態、心理状態、肌ケアの満足度、及び化粧品の使い方の評価値の変化を対比したレーダーチャートを表示器31に表示する。
In addition, as shown in FIG. 14, the
ユーザUaは、肌サポートアプリ35aによるこれらの表示を視認して、自身の肌、体、心の各状態の変化を確認することにより、肌の改善度と共に、体と心の状態の変化も把握することができるため、肌、体、及び心の状態をバランス良く改善しながら、目標とする肌状態のゴールへの到達することができる。
The user Ua visually recognizes these displays by the
また、肌サポートアプリ35aは、STEP63の後、STEP64に進み、図19に示されるシミュレータ表示処理を実行する。シミュレータ表示処理の詳細については後述する。
After
[G.スケジュール修正]
図3に示した「4.スケジュール修正」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは1週間ごとに)、施策情報送信部13により実行される。図5のSTEP17~STEP20、及びSTEP30~STEP33が、施策情報送信部13による処理である。
[G. schedule modification]
The process of "4. schedule modification" shown in FIG. 3 is executed by the measure
施策情報送信部13は、STEP17で、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、及び実行状況データ等に基づいて、ユーザUa肌状態の目標達成度、スケジュールに組み込まれた各施策の実行度、及び各施策の効果を評価する。
In STEP 17, the policy
施策情報送信部13は、図15Aに示した施策の評価基準を用いて、肌状態と体又は心の状態との相関関係を抽出し、この相関関係に基づいて、スケジュールに組み込まれた各施策の継続、施策グループからの除外、施策の中止、別の施策への変更を判断する。
The policy
図15Aの評価基準では、判定項目として、実施の有無、肌への影響、体への影響、心への影響という四項目が使用され、実施率が所定実施率を超え、肌に良い影響があり、且つ、体と心に悪い影響がない施策については、A評価となって継続と判断される。なお、図15Aでは、実施率が所定の実施率を超えた施策を「実施」として表記し、実施率が所定の実施率以下であった施策を「不実施」として表記している。図12及び図15Bでも同様である。 In the evaluation criteria of FIG. 15A, four items are used as judgment items: presence or absence of implementation, effect on skin, effect on body, and effect on mind. If there is, and there is no adverse effect on the body and mind, it will be evaluated as A and will be judged to be continued. Note that, in FIG. 15A, a measure whose implementation rate exceeds a predetermined implementation rate is indicated as "implemented", and a measure whose implementation rate is equal to or lower than the predetermined implementation rate is indicated as "non-implemented". The same applies to FIGS. 12 and 15B.
施策の影響のタイミングと影響が継続する期間が施策ごとに定められている場合、施策情報送信部13は、施策の影響のタイミングと施策の影響が継続する期間に基づいて、各施策の影響を判定してもよい。
When the timing of the impact of the policy and the duration of the impact are determined for each policy, the policy
例えば、「湯船につかる」という施策の肌への影響、体への影響、心への影響は、翌日に影響が出、1日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「湯船につかる」という施策の影響は、12月16日の各状態に反映されていると判断する。
For example, if it is determined that the effect of the measure "soaking in the bathtub" on the skin, the body, and the mind will affect the next day and will continue for only one day, the measure
また、「野菜摂取」という施策の肌への影響、体への影響、心への影響は、1週間後に影響が出、3日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「野菜摂取」という施策の影響は、12月22日~12月24日の各状態に反映されていると判断する。
In addition, if the effect of the measure "vegetable intake" on the skin, the body, and the mind is set to occur after one week and continue for only three days, the measure
それに対して、実施され、肌に良い影響があるが、体と心のいずれかに悪い影響がある施策については、B評価となって中止或は別施策への変更と判断される。また、実施率が所定の実施率以下となった施策はユーザUaにとって負荷が大きかったと考えられるため、C評価となって中止或は別施策(例えば、ユーザUaの負荷が軽減する施策又は別の施策)への変更と判断される。 On the other hand, a measure that has a good effect on the skin but has a bad effect on either the body or mind is given a B rating and is judged to be canceled or changed to another measure. In addition, since it is considered that a measure whose implementation rate is equal to or less than a predetermined implementation rate imposes a heavy burden on the user Ua, it is evaluated as C and canceled or another measure (for example, a measure that reduces the load on the user Ua or another measure is implemented). measures).
施策情報送信部13は、各施策を1日だけ実施することで肌、体、心への良いまたは悪い影響があるかの評価を行っても良いし、数日や数週間などの一定期間において各施策を実施することで、肌、体、心への良いまたは悪い影響があるかの評価を行ってもよい。一定期間で評価を行う場合、施策情報送信部13は、例えば、一定割合でいずれかの状態に悪影響が出た場合にB評価とし、実施割合が一定以下である場合にC評価とし、それ以外の場合A評価としてもよい。これに代えて、施策情報送信部13は、例えば、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価としてもよい。また、1日におけるいずれかの状態の満足度が所定以下となり、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にC評価とし、1日の評価におけるいずれかの状態の満足度が所定以下となり、または、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価とし、1日におけるいずれかの状態の満足度が所定値を超え、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定値を超えた場合にA評価とするなど、1日の評価と一定期間の評価とを組み合わせて用いてもよい。
The measure
また、施策情報送信部13は、図8に示した肌状態のスコアの向上度が所定の向上度以下である場合に、当該肌状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。施策情報送信部13は、体状態又は心状態のスコアの向上度が所定の向上度以下である場合に、体状態又は心状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。
Further, when the degree of improvement of the skin condition score shown in FIG. It may be excluded from the policy group. When the degree of improvement in the score of the physical condition or the mental state is equal to or less than a predetermined degree of improvement, the measure
図15Bは、図15Aに示した評価基準を、本実施形態における施策(湯船につかる、野菜摂取、1万歩以上歩く)に適用した例を示している。図15Bにより、施策情報送信部13は、「湯船につかる」についてはA評価として、次のスケジュールでの継続を決定し、「野菜摂取」についてはB評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定し、「1万歩以上歩く」についてはC評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定している。
FIG. 15B shows an example in which the evaluation criteria shown in FIG. 15A are applied to measures (soaking in a bathtub, eating vegetables, walking 10,000 steps or more) in this embodiment. According to FIG. 15B, the measure
施策情報送信部13は、複数の施策が行われた影響については、それらの施策の組合せごとに判断する。例えば、施策情報送信部13は、「湯船につかる」「野菜摂取」の組合せが、B評価又はC評価であった場合、「湯船につかる」若しくは「野菜摂取」の単独の施策のみとするか、又はこれらのいずれかの施策と別な施策との組み合わせとするように変更してもよい。
The policy
施策情報送信部13はこのような評価処理を行って、スケジュール修正(主として施策グループの他の施策への変更による修正)の要否を判断し、スケジュール修正が必要と判断したときには、STEP30に処理を進めてスケジュールを修正する。そして、修正したスケジュールのデータであるスケジュール修正データをユーザ端末30送信して、STEP19に処理を進める。一方、スケジュールの修正が不要であると判断したときには、施策情報送信部13は、図5のSTEP18から図5のSTEP19に処理を進め、この場合はスケジュールは修正されない。
The measure
次に、施策情報送信部13は、STEP19で、初期ユーザ情報データ、現状ユーザ情報データ、及び施策外行動実施データ等に基づいて、ユーザUaが行った各施策外行動(スケジュールに組み込まれている施策以外に、ユーザが行った行動)を評価する。
Next, in
施策情報送信部13は、図16Aに示した施策外行動の評価基準を用いて、施策外行動の推奨の有無又は禁止の提案を判断する。図16Aの評価基準では、判定項目として、肌、体、心の各状態への影響が使用される。
The policy
そして、「肌、体、心のいずれかに良い影響があり、且ついずれについても悪い影響が無い」場合は、D評価となって実施が推奨される。それに対して、「肌、体、心のいずれかに悪い影響がある」場合は、E評価となって禁止が提案される。また、「肌、体、心のいずれにも影響が無い」場合には、F評価となって実施が推奨されない。 If "there is a positive effect on the skin, body, or mind, and there is no negative effect on any of them," the evaluation is D, and implementation is recommended. On the other hand, if it "has a negative effect on the skin, body or mind," an E rating is given and a ban is proposed. In addition, if "there is no effect on the skin, body, or mind," the evaluation is F, and implementation is not recommended.
図16Bは、図16Aに示した評価基準を、本実施形態における施策外行動(マッサージを受けた、チョコレートを大量に摂取した)に適用した例を示している。図16Bにより、施策情報送信部13は、「マッサージを受ける」についてはD評価として、次のスケジュールでの実施の推奨を決定している。また、「チョコレートの大量摂取」についてはE評価として、次のスケジュールでの止めるための施策(例えば、和菓子を摂取する代替案)の提案を決定している。
FIG. 16B shows an example in which the evaluation criteria shown in FIG. 16A are applied to behaviors outside the policy (receiving a massage, ingesting a large amount of chocolate) in this embodiment. According to FIG. 16B, the measure
施策情報送信部13は、スケジュールに組み込まれた施策の中止或は変更、又は施策外行動について、実施の推奨或は禁止の提案を決定したときには、STEP20からSTEP31に処理を進める。そして、推奨を決定したときはSTEP31からSTEP33に処理を進め、施策外行動の実施を推奨する施策外行動推奨データをユーザ端末30に送信して、図4のSTEP13に処理を進める。
When the measure
一方、施策情報送信部13は、禁止の提案を決定したときには、STEP31からSTEP32に処理を進め、施策外行動の禁止を提案する施策外行動禁止データをユーザ端末30に送信して、図4のSTEP13に処理を進める。
On the other hand, when the policy
また、施策情報送信部13は、推奨又は禁止を提案する施策外行動がない場合には、STEP20から図4のSTEP13に処理を進める。なお、禁止を提案する施策外行動に代替行動がある場合には、禁止の提案に代えて代替行動への変更を提案する施策外行動禁止データをユーザ端末30に送信するようにしてもよい。
If there is no non-policy action to be recommended or prohibited, the policy
ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP57で、肌状態認識システム10からスケジュール修正データを受信すると、STEP65に処理を進め、スケジュール修正データに基づいてスケジュールを修正する。そして、肌サポートアプリ35aは、メモリ36に保持されたスケジュールデータを更新して、処理をSTEP58に進める。
In the
また、肌サポートアプリ35aは、図7のSTEP58で、肌状態認識システム10から施策外行動推奨データ又は施策外行動禁止データを受信すると、STEP66に処理を進め、受信したデータに応じて、施策外行動を推奨又は禁止の提案を報知する画面をユーザ端末30の表示器31に表示する。なお、この報知は、例えば図12に示した進捗表に報知メッセージを表示して行ってもよい。また、推奨する施策外行動を、新たな施策としてスケジュールを修正してもよい。
In addition, when the
[H.ゴール判定工程]
図3に示した「5.ゴール判定」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11BにおいてはSTARTから3か月後)、肌状態認識部11、施策グループ選択部12及び施策情報送信部13により実行される。
[H. Goal Judgment Process]
The process of "5. Goal determination" shown in FIG. It is executed by the
肌サポートアプリ35aは、角質採取テープ37の使用と、角質採取テープ37の郵送を促すメッセージをユーザ端末30の表示器31に表示する。
The
肌状態認識部11は、郵送された角質採取テープ37から得られた情報に基づいて、肌状態の客観値(保水能力、皮脂適格性など)を認識する。
The skin
また、肌サポートアプリ35aは、アンケートの回答、肌等の撮像の使用を促すメッセージをユーザ端末30の表示器31に表示し、得られた情報を送信する。
In addition, the
肌状態認識部11は、肌サポートアプリ35aから得られた情報に基づいて、肌の乾燥感の主観値(主観レベル)と、肌状態の客観値(肌の画像スコア)を認識する。
The skin
施策グループ選択部12及び施策情報送信部13は、肌の乾燥感の主観値と、肌状態の客観値とに基づいて、肌状態のサポート開始時と3カ月後における評価値を比較して、ゴール達成度を判定する。
The measure
図17の例では、乾燥感の主観値のレベルが3カ月で3から5に増加しているので達成(○)と判定し、客観値についても、肌の画像スコアが3カ月で3から4に増大し、保水能力が2に維持され、皮脂適格性が1から2に増大しているので達成(○)と判定されている。そして、主観値と客観値が共にゴールを達成しているので、トータルとしてもゴールを達成したと判定している。 In the example of FIG. 17, the subjective value level of dryness increased from 3 to 5 in 3 months, so it was determined to be achieved (○). , the water retention capacity was maintained at 2, and the sebum suitability increased from 1 to 2, so it was determined to be achieved (○). Since both the subjective value and the objective value have achieved the goal, it is determined that the goal has been achieved as a whole.
肌状態認識部11及び施策グループ選択部12は、ゴールを達成した場合には新たなゴールを設定するため、図3に示した「1.ゴール設定」の工程を再度実行する。肌状態認識部11及び施策グループ選択部12は、ゴール未達の場合は、「2.スケジュール決定」工程を実施してもよいし、ユーザの希望または進捗に応じて「1.ゴール設定」の工程を再度実行してもよい。
In order to set a new goal when the goal is achieved, the skin
[I.2次データ生成]
図3に示した「6.2次データ生成」の工程は、2次データ生成部19により実行される。2次データ生成部19は、複数のユーザUから送信される初期ユーザ情報データ、角層細胞解析データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等の各種データ(以下、ユーザ個別データという)を、ユーザごとにサポートDB20に順次蓄積する。
[I. Secondary data generation]
The step of “6. Secondary data generation” shown in FIG. 3 is executed by the
そして、2次データ生成部19は、サポートDB20に蓄積されたユーザ個別データを分析して、例えば図18に示したように、各ユーザの特性(性別、年齢、居住地、嗜好、ライフスタイル等)、サポートの改善対象(乾燥感、ごわつき、敏感、ニキビ、しぼみ感等)、スケジュールにより提案された施策(湯船につかる、野菜摂取、1万歩以上歩く等)、及び施策の実施による肌、体、心の各状態の変化等を関連付けた2次データを生成する。
Then, the secondary
また、2次データ生成部19は、施策外行動についても図18と同様に、各ユーザの特性と施策外行動の実施による肌、体、心の各状態の影響とを関連付けた2次データを生成する。
18, the secondary
このようにして生成された2次データは、同様の特性を有するユーザについて、体及び心に良い影響を与えつつ肌状態の改善を図るために有効な施策を選択する際に、有効に活用することができる。例えば、上述した図3の「2.スケジュール決定」の工程において、施策グループ選択部12は、2次データを参照して、ユーザUaの特性に適合した施策を選択することができる。
The secondary data generated in this manner is effectively used when selecting effective measures for improving the skin condition while having a positive effect on the body and mind of users with similar characteristics. be able to. For example, in the process of "2. Determination of Schedule" in FIG. 3 described above, the measure
また、上述した図3の「4.スケジュール修正」の工程において、施策情報送信部13は、ユーザUaの肌、体、心の各状態の推移に応じてスケジュールを変更する際に、2次データを参照して、より有効な施策或は施策外行動を組み込んだスケジュールに変更することができる。 In addition, in the process of "4. Schedule correction" in FIG. can be referred to and the schedule can be changed to include more effective measures or actions outside the measures.
さらに、2次データは、肌状態のサポートを行う上で有効に利用できると共に、ある特性を有するユーザ(例えば、東京に住む30代のアウトドア志向の女性等)をターゲットとしたマーケティング等の目的にも利用することができる。そのため、2次データを図1に示した他のシステム60等に提供してもよい。 In addition, the secondary data can be effectively used to support skin conditions, and can be used for marketing purposes targeting users with certain characteristics (for example, outdoor-oriented women in their 30s living in Tokyo). can also be used. As such, the secondary data may be provided to other systems such as 60 shown in FIG.
[J.シミュレータ表示処理]
図19~図24を参照して、肌サポートアプリ35aが実行するシミュレータ表示処理(図7のSTEP64)の詳細を説明する。
[J. Simulator display processing]
Details of the simulator display processing (STEP 64 in FIG. 7) executed by the
図19のSTEP71で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データに基づいて、「所定の期間」の肌状態、心状態及び体状態の各スコアの平均値を認識し、メモリ36に記憶する。ここで、「所定の期間」とは、肌状態、心状態及び体状態と施策の実行の度合いとの関係が示される程度の期間であることが好ましく、例えば実行時点から前の、1週間、10日間、1カ月間又は3カ月間である。本実施形態では実行時点を2017年4月10日であるとし、その実行時点から9日前の2017年4月1日から実行時点までの10日間を「所定の期間」として説明する。
In STEP 71 of FIG. 19 , the
例えば、肌サポートアプリ35aは、図20Aに示されるような、所定期間におけるユーザUaの肌状態のスコア、心状態のスコア、体状態のスコアに基づいて、ユーザUaの肌状態のスコアの平均値、心状態のスコアの平均値、体状態のスコアの平均値を認識し、メモリ36に記憶する。ここでは、肌状態のスコアの平均値が8.2であり、心状態のスコアの平均値が5.0であり、体状態のスコアの平均値が2.2である。
For example, the
図19のSTEP72で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積された初期ユーザ情報データ、現状ユーザ情報データ、実行状況データに基づいて、各施策ごと、各施策のカテゴリーごとの実行の度合いを認識し、メモリ36に記憶する。「施策の実行の度合い」は、各施策ごとに定められる施策の実行の度合いを示す数値である。「施策の実行の度合い」の例には、施策を実行する時間、施策にかかる物の消費量、施策を実行する距離、施策の1日当たりの実行回数、施策の1回実行当たりの実行時間、施策の1回実行当たりの量、施策の所定期間における実行の頻度が含まれる。
In STEP72 of FIG. 19, the
例えば、肌サポートアプリ35aは、図20Bに示されるカテゴリー「食事」の施策「野菜摂取」の所定の期間における実行の度合い「摂取量」を認識し、メモリ36に記憶する。なお、「摂取量」等の実行の度合いは、実際に取得されたデータ(たとえば野菜の摂取量のデータ)そのものであってもよいし、実際に取得されたデータの評価値であってもよい。たとえば、この評価値は、データに示される値が所定の基準値(たとえば野菜の摂取量350g等)に近づくほど、連続的または断続的に大きくなるような値であってもよいし、データに示される値が大きいほど連続的または断続的に大きくなるような値であってもよいし、データに示される値が小さいほど連続的または断続的に大きくなるような値であってもよい。
For example, the
肌サポートアプリ35aは、図21Aに示されるように、施策ごとに、所定期間における実行の度合いの平均値及び最大値を認識し、メモリ36に記憶する。所定期間における最大値は、ユーザUaが行った中で最大の値でもよいし、理論的に最大の値であってもよいし、予め定められた値であってもよい。
As shown in FIG. 21A, the
肌サポートアプリ35aは、カテゴリーごとに、施策の実行の度合いの平均値と最大値との比を取り、これらの平均値を算出することにより、カテゴリーごとの実行の度合いを算出し、メモリ36に記憶する。
The
例えば、肌サポートアプリ35aは、図21Aに示される各施策ごとの所定期間における実行の度合いの平均値及び最大値を基に、以下の式(1)により、カテゴリー「食事」の実行の度合いを評価する。なお、式(1)では小数点以下3桁を四捨五入している。
For example, the
図19のSTEP73で、肌サポートアプリ35aは、図22に示されるように、シミュレータ全体画面P1をユーザ端末30aの表示器31に出力する。
In STEP73 of FIG. 19, the
シミュレータ全体画面P1には、中央に三角形で囲まれる領域P10が表示されている。 An area P10 surrounded by a triangle is displayed in the center of the entire simulator screen P1.
領域P10の外側、且つ、三角形の各頂点の周辺には、それぞれ、肌状態のスコアを示す表示P11、心状態のスコアを示す表示P12、体状態のスコアを示す表示P13が表示されている。 Outside the region P10 and around each vertex of the triangle, a display P11 showing the skin condition score, a display P12 showing the mental condition score, and a display P13 showing the body condition score are displayed.
領域P10が、本発明の「所定の領域」に相当する。 The area P10 corresponds to the "predetermined area" of the present invention.
各スコアを示す表示P11、P12、P13は、数値表示P111、P121、P131と、スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とを含む。 Displays P11, P12, P13 indicating respective scores include numerical displays P111, P121, P131, score slide bars P112, P122, P132, and score icons P113, P123, P133.
スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とが、本発明の「ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示」に相当する。 The score slide bars P112, P122, P132 and the score icons P113, P123, P133 correspond to the "display indicating at least one score of the user's skin condition, mental condition and physical condition" of the present invention.
スコアスライドバーP112、P122、P132が、本発明の「第2線分表示」に相当する。 The score slide bars P112, P122, P132 correspond to the "second line segment display" of the present invention.
スコアアイコンP113,P123,P133が、本発明の「第2アイコン」に相当する。 The score icons P113, P123, P133 correspond to the "second icon" of the present invention.
数値表示P111、スコアスライドバーP112及びスコアアイコンP113が、本発明の「ユーザの肌状態のスコアを示す表示」に相当する。 The numerical display P111, the score slide bar P112, and the score icon P113 correspond to the "display showing the user's skin condition score" of the present invention.
数値表示P121、P131、スコアスライドバーP122、P132、及びスコアアイコンP123,P133とが本発明の「ユーザの体状態及び心状態のうち少なくとも1つのスコアを示す表示」に相当する。 The numerical displays P121 and P131, the score slide bars P122 and P132, and the score icons P123 and P133 correspond to the "display indicating at least one score of the user's physical state and mental state" of the present invention.
各数値表示P111、P121、P131には、それぞれ、図19のSTEP71で認識された対応するスコアの平均値が表示されている。 Each of the numerical displays P111, P121, and P131 displays the average value of the corresponding scores recognized in STEP71 of FIG.
各スコアスライドバーP112、P122、P132には、図19のSTEP71で認識された対応する各スコアの平均値に相当する位置にスコアアイコンP113,P123,P133が表示されている。また、各スコアスライドバーP112、P122、P132は、ユーザ端末30aの表示器31の水平方向(紙面の左右方向)に延びている線分である。表示器31の水平方向が本発明の「第2方向」に相当する。
Score icons P113, P123, P133 are displayed on the respective score slide bars P112, P122, P132 at positions corresponding to the average values of the corresponding scores recognized in STEP71 of FIG. Further, each score slide bar P112, P122, P132 is a line segment extending in the horizontal direction (horizontal direction of the paper surface) of the
領域P10の内側には、施策の夫々のカテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16が表示されている。領域P10の内側には、全てのカテゴリー表示が表示されてもよいし、ユーザに指定されたカテゴリーのカテゴリー表示が表示されてもよいし、ユーザに推薦している施策のカテゴリーのカテゴリー表示が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策のカテゴリーのカテゴリー表示が所定個数だけ表示されてもよい。 Inside the area P10, category "diet", "behavior", and "skin care" displays P14, P15, and P16 of measures are displayed. Inside the area P10, all category displays may be displayed, the category display of the category designated by the user may be displayed, or the category display of the policy category recommended to the user may be displayed. Category display of the category of measures determined to have a high impact on at least one of the user's skin condition, mental condition, and physical condition based on the initial user information data, the current user information data, and the execution status may be displayed by a predetermined number.
各カテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16は、カテゴリースライドバーP141、P151,P161と、カテゴリーアイコンP142、P152、P162とが含まれている。 Category slide bars P141, P151, P161 and category icons P142, P152, P162 are included in each category "diet", "behavior", and "skin care" display P14, P15, P16.
各カテゴリースライドバーP141、P151,P161には、図19のSTEP72で認識された対応する各カテゴリーの実行の度合いに相当する位置にカテゴリーアイコンP142、P152、P162が表示されている。また、各カテゴリースライドバーP141、P151,P161は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。表示器31の上下方向が本発明の「第1方向」に相当する。
Category icons P142, P152, and P162 are displayed on the category slide bars P141, P151, and P161 at positions corresponding to the degrees of execution of the corresponding categories recognized in STEP72 of FIG. Further, each category slide bar P141, P151, P161 is a line segment extending in the vertical direction (vertical direction on the paper surface) of the
各カテゴリースライドバーP141、P151,P161及び各カテゴリーアイコンP142、P152、P162が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各カテゴリースライドバーP141、P151,P161が本発明の「第1線分表示」に相当する。各カテゴリーアイコンP142、P152、P162が、本発明の「第1アイコン」に相当する。 The category slide bars P141, P151, P161 and the category icons P142, P152, P162 correspond to the "display indicating the degree of execution of the user's measures" of the present invention. Each category slide bar P141, P151, P161 corresponds to the "first line segment display" of the present invention. Each category icon P142, P152, P162 corresponds to the "first icon" of the present invention.
図19のSTEP74で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかのカテゴリースライドバーの押圧操作が検知されたか否かを判定する。本操作は、例えば図22のカテゴリースライドバーP141、P151,P161のいずれか1つが操作された時を代表的な利用シーンとして想定して説明しているが、複数のカテゴリースライドバーが同時に操作されても良い。
In STEP74 of FIG. 19, the
図19のSTEP74の判定結果が否定的である場合(図19のSTEP74‥NO)、肌サポートアプリ35aは、再度図19のSTEP74の処理を実行する。
If the determination result of STEP74 in FIG. 19 is negative (STEP74, NO in FIG. 19), the
図19のSTEP74の判定結果が肯定的である場合(図19のSTEP74‥YES)、肌サポートアプリ35aは、図19のSTEP75に進み、図23に示されるように、領域P10内に、施策表示P17、P18、P19を表示する。
19 is affirmative (STEP 74 . . . YES in FIG. 19), the
施策表示P17、P18、P19は、押圧されたスライドバーに対応するカテゴリー(以下、指定カテゴリーという。)の施策である。図23には、「食事」カテゴリースライドバーP14の押圧操作が検知された場合の施策「野菜摂取」「水分摂取」「三食きちんと」の施策表示P17、P18、P19を記載している。 The measure displays P17, P18, and P19 are measures of the category (hereinafter referred to as designated category) corresponding to the pressed slide bar. FIG. 23 shows measure displays P17, P18, and P19 of measures "vegetable intake", "water intake", and "three meals properly" when the pressing operation of the "meals" category slide bar P14 is detected.
施策表示P17,P18,P19は、全ての施策表示であってもよいし、指定カテゴリーに含まれる全ての施策が表示されてもよいし、ユーザが実行している施策が表示されてもよいし、ユーザに推薦している施策が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策の施策表示が所定個数だけ表示されてもよい
施策表示P17,P18,P19は、カテゴリー表示P14,P15,P16と入れ替えて表示されもよいし、カテゴリー表示P14,P15,P16に付加する形で(例えば、カテゴリー表示P14,P15,P16の下方向)に表示されてもよい。
The measure displays P17, P18, and P19 may display all measures, may display all measures included in a designated category, or may display measures being executed by the user. , measures recommended to the user may be displayed, and based on the initial user information data, the current user information data, and the execution status, the effect on at least one of the user's skin condition, mental condition, and physical condition is high. A predetermined number of measure displays of the measures determined to be may be displayed. It may be displayed in an additional manner (for example, downward of the category displays P14, P15, P16).
各施策スライドバーP171、P181,P191には、図19のSTEP72で認識された対応する各施策の実行の度合いに相当する位置に施策アイコンP172、P182、P192が表示されている。また、各施策スライドバーP171、P181、P191は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。
Policy icons P172, P182, and P192 are displayed on the policy slide bars P171, P181, and P191 at positions corresponding to the degrees of execution of the corresponding policies recognized in STEP72 of FIG. Further, each policy slide bar P171, P181, P191 is a line segment extending in the vertical direction (vertical direction of the paper surface) of the
各施策スライドバーP171、P181、P191及び各施策アイコンP172、P182、P192が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各施策スライドバーP171、P181、P191が本発明の「第1線分表示」に相当する。各施策アイコンP172、P182、P192が、本発明の「第1アイコン」に相当する。 The policy slide bars P171, P181, P191 and the policy icons P172, P182, P192 correspond to the "display showing the degree of execution of the user's policy" of the present invention. Each action slide bar P171, P181, P191 corresponds to the "first line segment display" of the present invention. Each policy icon P172, P182, P192 corresponds to the "first icon" of the present invention.
図19のSTEP76で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかの施策スライドバーの押圧操作が検知されたか否かを判定する。
In STEP 76 of FIG. 19 , the
当該判定結果が否定的である場合(図19のSTEP76でNO)、肌サポートアプリ35aは、再度図19のSTEP76を実行する。
If the determination result is negative (NO in STEP76 of FIG. 19), the
当該判定結果が肯定的である場合(図19のSTEP76でYES)、肌サポートアプリ35aは、図19のSTEP77に進み、押圧された施策スライドバー上の押圧位置を認識する。押圧された施策スライドバー上の押圧位置が本発明の「入力部を介してユーザにより指定された第1アイコンの位置」に相当する。押圧された施策スライドバー上の押圧位置に対応する施策の実行の度合いが、本発明の「指定された施策群の実行の度合い」に相当する。押圧された施策スライドバーに対応する施策が、本発明の「施策群」に相当する。
If the determination result is affirmative (YES in STEP76 in FIG. 19), the
図19のSTEP78において、肌サポートアプリ35aは、押圧位置に対応する施策の実行度合いにおける各スコアを予測する。
In STEP78 of FIG. 19, the
各スコアは、次の式(2)~(4)で表される。 Each score is represented by the following equations (2) to (4).
ここで、P(x)はユーザUaの肌状態のスコア、Q(x)はユーザUaの心状態のスコア、R(x)はユーザUaの体状態のスコアである。 Here, P(x) is the skin condition score of the user Ua, Q(x) is the mental condition score of the user Ua, and R(x) is the physical condition score of the user Ua.
i(i=1、…、n)は、各施策を識別するための番号である。 i (i=1, . . . , n) is a number for identifying each policy.
xi(i=1、…、n)は、ユーザUaの各施策iの実行の度合いである。xi(i=1、…、n)の全体(xi(i=1、…、n)の全部からなるベクトル)をxとして表記する。 xi (i=1, . . . , n) is the degree of execution of each measure i by the user Ua. The entire xi (i=1, . . . , n) (a vector consisting of all xi (i=1, . . . , n)) is denoted as x.
fi(xi)、gi(xi)、hi(xi)(i=1、…、n)は、夫々、各施策iを各施策の実行度合いxiで実行した場合のユーザUaの各スコアP(x)、Q(x)、R(x)の変化量である。fi(xi)、gi(xi)、hi(xi)(i=1、…、n)の夫々が本発明の「第1関数」の一例に相当する。 fi(xi), gi(xi), hi(xi) (i=1, . . . , n) are the scores P(x ), Q(x), and R(x). Each of fi(xi), gi(xi), hi(xi) (i=1, . . . , n) corresponds to an example of the "first function" of the present invention.
図24の折れ線グラフは、ユーザUaの施策「野菜摂取」の各実行の度合い「摂取量」と、ユーザUaの各スコアP(x)、Q(x)、R(x)との関係を示す折れ線グラフである。この折れ線グラフは、例えば、図20Bに示されるユーザUaの施策の実行度合いのそれぞれごとに、図20Aに示されるユーザUaの各スコアP(x)、Q(x)、R(x)の平均を取ることにより作成されうる。 The line graph in FIG. 24 shows the relationship between the degree of execution of each measure "vegetable intake" by the user Ua and the scores P(x), Q(x) and R(x) of the user Ua. It is a line graph. This line graph shows, for example, the average of scores P(x), Q(x), and R(x) of user Ua shown in FIG. can be created by taking
また、図24には、各折れ線グラフの近似曲線が併せて表示されている。 In addition, in FIG. 24, approximated curves of each line graph are also displayed.
fi(xi)、gi(xi)、hi(xi)は、例えば、実行度合い毎の近似曲線に示されるユーザUaの各スコアP(x)、Q(x)、R(x)により表現されうる。 fi(xi), gi(xi), and hi(xi) can be represented, for example, by user Ua's scores P(x), Q(x), and R(x) indicated by approximated curves for each degree of execution. .
例えば、野菜摂取の摂取量が200gの場合、fi(xi)はおよそ10.0となり、gi(xi)はおよそ7.0となり、hi(xi)はおよそ2.0となる。 For example, if the intake of vegetable intake is 200 g, fi(xi) will be approximately 10.0, gi(xi) will be approximately 7.0, and hi(xi) will be approximately 2.0.
fi(xi)、gi(xi)、hi(xi)は、ユーザUaが各施策を実施したときのユーザUaの各スコアの平均値をとっているが、このスコアには、同時に実行された他の施策の影響が反映されている可能性がある。 fi(xi), gi(xi), and hi(xi) are average values of scores of user Ua when user Ua implements each measure. It is possible that the impact of the policies of
このため、係数pi、qi、riにより、各施策の影響度を調節する。係数pi、qi、riは、例えば、夫々の施策の実行の度合いに占める当該施策の実行の度合いの割合で求められる。例えば、施策sを実行度合いaで実行し、施策tを実行の度合いbで実行し、施策uを実行の度合いcで実行したときに、肌状態スコアがd改善した場合、以下の式(5)~(7)で係数ps、pt、puが表される。なお、施策により肌状態スコアがd改善するとは、本実施形態では、施策の実行後の肌状態のスコアの平均値が施策の実行前の肌状態スコアの平均値よりもd増加したことを意味する。 Therefore, the degree of influence of each measure is adjusted by coefficients pi, qi, and ri. The coefficients pi, qi, and ri are obtained, for example, by the ratio of the degree of execution of each policy to the degree of execution of each policy. For example, when the measure s is executed at the execution degree a, the measure t is executed at the execution degree b, and the measure u is executed at the execution degree c, and the skin condition score is improved by d, the following formula (5 ) to (7) represent coefficients ps, pt, and pu. In this embodiment, the improvement of the skin condition score by d means that the average value of the skin condition scores after the implementation of the measure increased by d from the average value of the skin condition scores before the implementation of the measure. do.
k、l、mは、施策を何も実施しなかった場合の各スコアである。 k, l, and m are respective scores when no measure is implemented.
肌サポートアプリ35aは、夫々の施策iについて、施策スライドバーのアイコンの位置に対応する施策の実行の度合いxiを認識し、上記式(2)~(4)を用いて各スコアP(x)、Q(x)、R(x)を予測する。なお、押圧されていないカテゴリーバーに対応するカテゴリーに含まれる施策又は押圧されていない施策スライドバーに対応する施策については、肌サポートアプリ35aは、図19のSTEP72で認識された対応する各施策の実行度合いを、施策の実行の度合いxiとして用いる。予測された各スコアP(x)、Q(x)、R(x)が、本発明の「第1予測スコア」に相当する。予測された各スコアP(x)が、本発明の「第2予測スコア」に相当する。予測された各スコアQ(x)、R(x)が、本発明の「第3予測スコア」に相当する。
The
図19のSTEP79で、肌サポートアプリ35aは、スコアスライドバーP112,P122,P132の夫々の、予測された各スコアP(x)、Q(x)、R(x)の夫々に相当する位置に、スコアアイコンP113,P123,P133を表示器31に表示する。
In STEP79 of FIG. 19, the
図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP74以下の処理を実行する。これに代えて、図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP76以下の処理を実行してもよい。
After STEP79 in FIG. 19 is completed, the
このような処理により、ユーザに、施策の実行の度合いを変更したときの各スコアへの影響を認識させることができる。
(その他の実施形態)
本実施形態では、各実行の度合いに応じたスコアを予測するために、式(2)~(7)を用いたが、各実行の度合いに応じたスコアを予測するためにはこれらの式やパラメータに限られない。シミュレータの精度を向上させるため、当業者は、適宜、式の変更、パラメータの算出方法の変更、パラメータの追加、削除、変更等、適当な修正を行ってもよい。
Such processing allows the user to recognize the effect on each score when the degree of implementation of the measure is changed.
(Other embodiments)
In the present embodiment, formulas (2) to (7) are used to predict the score according to the degree of each execution, but these formulas and Not limited to parameters. In order to improve the accuracy of the simulator, a person skilled in the art may make appropriate modifications such as changing the formula, changing the parameter calculation method, adding, deleting, or changing parameters.
肌サポートアプリ35aは、カテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示したが(図19のSTEP74及びSTEP75)、これに代えて、肌サポートアプリ35aは、カテゴリースライドバー上のアイコンの位置の変更をさせて、各スコアの予測を行ってもよい。この場合、カテゴリーの実行の度合いの変更に追従するように、各施策の実行度合いが均等にまたはあらかじめ定まった割合で変更されてもよい。この時、肌サポートアプリ35aは、変更後の各施策の実行の度合いから、式(2)~(4)により各スコアを予測し、予測された各スコアに対応する位置に、それぞれのアイコンが位置するように、表示器31に出力する。なお、押圧されたカテゴリースライドバーに対応するカテゴリに含まれる施策が本発明の「施策群」に相当する。
When the
この場合、予測された各スコアに対応する位置にそれぞれのアイコンが位置している状態で、肌サポートアプリ35aがタッチパネル32を介してカテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示してもよい。この時、各施策スライドバー上のアイコンの位置は、変更後の各施策の実行の度合いに対応する位置であることが好ましい。
In this case, when the
肌サポートアプリ35aは、カテゴリースライドバーの表示に代えて、当初から図25に示されるように、施策表示P20、P21,P22を表示してもよい。
The
肌サポートアプリ35aは、例えば、図26に示されるように、シミュレーション対象のスコア表示P31と、他のスコア表示P32~P33、暮らし表示P34を含んでもよい。暮らし表示P34は、例えば、各カテゴリーの実行度合いの平均値又は各カテゴリーの実行度合いに夫々のカテゴリーごとの係数をかけて合算した値を示す表示である。肌サポートアプリ35aは、暮らし表示P34上のアイコンの変動に応じて、各施策の実行度合いを変化させ、式(2)~(4)によりシミュレーション対象のスコアの予測を行い、シミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。暮らし表示P34が本発明の「ユーザの施策群の実行の度合いを示す表示」に相当し、他のスコア表示P32~P33が本発明の「変動スコアを示す表示」に相当し、シミュレーション対象のスコア表示P31が本発明の「模擬スコアを示す表示」に相当する。
The
この場合、肌サポートアプリ35aは、他のスコア表示P32~P33上のアイコンの変動に応じて、ユーザUaの肌状態、心状態及び体状態のスコアのデータに基づいて、図24に類似したグラフを作成することにより、シミュレーション対象のスコアの予測を行いシミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。変動後のシミュレーション対象のスコア表示P31が、本発明の「模擬予測スコアを示す表示」に相当する。
In this case, the
本実施形態では、ユーザUaの肌状態、心状態及び体状態の全てのシミュレーションが行われたが、同様の方法により、肌状態と、心状態及び体状態の一方とのシミュレーションが行われてもよいし、肌状態、心状態及び体状態のうち1つのシミュレーションが行われてもよい。また、ユーザUaの他の状態に関するシミュレーションが行われてもよい。 In the present embodiment, all of the user Ua's skin condition, mental condition, and physical condition are simulated. Alternatively, a simulation of one of skin condition, mind condition and body condition may be performed. Also, a simulation regarding another state of the user Ua may be performed.
本実施形態では、ユーザUaの過去の施策の実行の度合いと、ユーザUaの肌状態、心状態及び体状態との関係を示す第1関数~第3関数が認識されたが、これに限られず、他のユーザUb、Ucのデータに基づいて、第1関数~第3関数が認識されてもよい。また、他のユーザUb、Ucのうち、ユーザUaの属性と同様の属性を持つユーザのデータが用いられてもよい。ユーザUaの属性としては、例えば、ユーザUaの年齢、性別、住んでいる地域、嗜好、肌の特性、心の特性、体の特性(遺伝子の情報等)がある。 In the present embodiment, the first to third functions representing the relationship between the degree of execution of past measures by the user Ua and the skin condition, mental condition, and body condition of the user Ua are recognized, but the present invention is not limited to this. , other users Ub, Uc, the first to third functions may be recognized. Data of users Ub and Uc having attributes similar to those of user Ua may also be used. The attributes of the user Ua include, for example, the user Ua's age, gender, area of residence, preferences, skin characteristics, mental characteristics, and body characteristics (genetic information, etc.).
本実施形態では、スコアスライドバーとカテゴリースライドバー及び施策スライドバーとが直交する方向に延びていたが、これに限られず、互いに非平行な方向に延びていてもよいし、平行な方向に延びていてもよい。 In the present embodiment, the score slide bar, the category slide bar, and the policy slide bar extend in orthogonal directions, but the present invention is not limited to this, and may extend in non-parallel directions or in parallel directions. may be
本実施形態では、カテゴリースライドバー及び施策スライドバーとカテゴリーアイコン及び施策アイコンとにより施策の実行度合いを表示したが、これに代えてまたは加えて施策の実行度合いを示す数値を表示してもよい。また、施策の実行度合いに応じて変化する色、図形、キャラクタ等が表示されてもよい。 In the present embodiment, the degree of execution of a measure is displayed using the category slide bar, the measure slide bar, the category icon, and the measure icon. Also, colors, figures, characters, etc. that change according to the degree of execution of the measures may be displayed.
同様に、各状態のスコアについても、各状態のスコアに応じて変化する色、図形、キャラクタ等が表示されてもよい。 Similarly, for the score of each state, a color, figure, character, or the like that changes according to the score of each state may be displayed.
本実施形態では、CPU35が肌サポートアプリ35aを実行することにより、本発明の「スコア認識部」「出力制御部」「指定認識部」の各処理を実行したが、これに代えてネットワークを介して通信を行って必要なデータを送受信することにより、肌状態サポートシステムが本発明の「スコア認識部」「出力制御部」「指定認識部」の一部の処理を実行してもよい。
In the present embodiment, the
本実施形態において「関数」とは、スカラ値又はベクトル値のような数値等の情報の入力に対し、一定の操作を行ってスカラ値又はベクトル値のような数値等の情報を出力する機能を備えたものを言う。本実施形態では、施策iごとに関数fi(xi)、gi(xi)、hi(xi)が用いられたが、これに代えてまたは加えて、複数の施策i、jの組合せについての関数f(i、j)(xi、xj)、g(i、j)(xi、xj)、h(i、j)(xi、xj)が用いられてもよい。また、本実施形態では、各状態のスコアごとに関数が使用されたが、これに代えて複数のスコアに対して共通の関数が用いられてもよい。また、関数は、例えば機械学習によって分類を行うものであってもよい。各関数は、各施策iの実行の度合いxiに加え、ユーザUaの体調又は気分を表す数値等、各施策iの実行の度合いxiとは異なる数値をを入力としてもよい。 In the present embodiment, the term "function" refers to a function of outputting information such as numerical values such as scalar values or vector values by performing certain operations on input of information such as numerical values such as scalar values or vector values. Say what you have. In this embodiment, the functions fi(xi), gi(xi), and hi(xi) are used for each policy i. Alternatively or additionally, the function f (i,j)(xi,xj), g(i,j)(xi,xj), h(i,j)(xi,xj) may be used. Also, in this embodiment, a function is used for each score of each state, but instead of this, a common function may be used for a plurality of scores. The function may also perform classification, for example by machine learning. Each function may input a numerical value different from the degree of execution xi of each measure i, such as a numerical value representing the physical condition or mood of the user Ua, in addition to the degree xi of execution of each measure i.
肌サポートアプリ35aは、入力された値を基に、テーブルを参照することにより、各状態のスコアを認識してもよい。
The
肌サポートアプリ35aは、入力された値を肌状態認識システム10に送信して、各状態のスコアを受信することにより、各状態のスコアを認識してもよい。
The
本実施形態では、肌サポートアプリ35aは、施策またはカテゴリの実行の度合いの指定に応じてスコアを予測したが、これに代えて又は加えて、スコアの指定に応じて施策またはカテゴリの実行の度合いを予測してもよい。例えば、肌サポートアプリ35aは、タッチパネル32を介してユーザUaに一の施策またはカテゴリを選択させ、スコアの指定に応じて当該一の施策の実行の度合いの予測を行ってもよい。また、肌サポートアプリ35aは、タッチパネル32を介してユーザUaにそれぞれの施策またはカテゴリの変化の割合を入力させ、スコアの指定に応じて入力された割合で各施策の実行の度合いを変動させることにより、各施策の実行の度合いの予測を行ってもよい。たとえば、肌サポートアプリ35aは、睡眠時間1時間減少あたり野菜摂取量が100g増加するという割合で、指定されたスコアを実現するように、睡眠時間と野菜摂取量を変動させてもよい。
In the present embodiment, the
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to a system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.
1…通信ネットワーク、10…肌状態認識システム、11‥肌状態認識部、12…施策グループ選択部、13…施策情報送信部、19…2次データ生成部、20…サポートDB(データベース)、30(30a,30b,30c)…ユーザ端末(スマートフォン)、31…表示器、32…タッチパネル、33…カメラ、34…マイク、35…CPU、35a…肌サポートアプリ、36…メモリ、40…接続端子、45…測定機器。
Claims (5)
ユーザの入力を検知する入力部と、
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、当該ユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザの、当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする画像表示装置。 an image display unit that outputs information;
an input unit for detecting user input;
At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad;
a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit;
a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The user recognized by analyzing information on the degree of execution of the group of measures by the user and information on at least one of the skin condition, mental condition, and physical condition, with the value of the degree of execution obtained as input. , is configured to recognize using information indicating the correlation between the degree of execution for each policy group and the good or bad of the prediction score,
The image display device, wherein the output control section causes the image display section to output a display showing the predicted score.
ユーザの入力を検知する入力部と、
一または複数の施策である施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した情報であるスコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌状態、前記心状態及び前記体状態のうち少なくとも1つの前記スコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して、前記ユーザによる前記施策群の実行の度合いの値の指定を認識する指定認識部とを備え、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測値である予測スコアを、当該指定された実行の度合いの値を入力とし、複数のユーザの前記施策群の実行の度合いの情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該複数のユーザの当該施策群ごとの実行の度合いと当該予測スコアの良し悪しとの相関関係を示す情報を用いて認識するように構成されており、
前記出力制御部は、前記予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする画像表示装置。 an image display unit that outputs information;
an input unit for detecting user input;
At least one of a user's level of execution of a group of measures, which is one or more measures, and the user's physical condition, mental condition, and physical condition when the group of measures is executed at the level of the value of the level of execution a score recognition unit that recognizes a score, which is information that quantifies one good or bad;
a display indicating the degree of execution of the user's policy group recognized by the score recognition unit and a display indicating the score of at least one of the user's skin condition, mental condition, and physical condition; an output control unit for outputting to the display unit;
a designation recognition unit that recognizes designation of a value of the degree of execution of the measure group by the user via the input unit;
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit calculates a predicted score, which is a predicted score of at least one of the user's skin condition, mental condition, and physical condition, when the measure group is executed at the specified degree of execution. The value of the degree of execution is input, and the information of the degree of execution of the group of measures of a plurality of users and the information of at least one of the skin condition, mental condition, and physical condition are analyzed and recognized. It is configured to recognize using information indicating the correlation between the degree of execution of each policy group by a plurality of users and the quality of the prediction score,
The image display device, wherein the output control section causes the image display section to output a display showing the predicted score.
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記複数のユーザの前記施策群の実行の度合いの情報と、属性を示す情報と、肌状態、心状態及び体状態のうち少なくとも1つの情報とを分析して認識された、当該ユーザと同様の属性を持つ他のユーザの前記相関関係を示す情報を用いて認識するように構成されている
ことを特徴とする画像表示装置。 In the image display device according to claim 2,
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit recognizes the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution. and recognized by analyzing information on the degree of execution of the group of measures by the plurality of users, information indicating attributes, and information on at least one of skin condition, mental condition, and physical condition. , an image display device configured to recognize by using information indicating the correlation of another user having attributes similar to that of the user.
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記出力制御部は、
前記画像表示部に出力させる前記施策群の実行度合いの値を前記指定認識部が認識した前記施策群の実行の度合いの値に変更し、かつ
前記画像表示部に出力させる前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアの値を、前記スコア認識部が認識した前記予測スコアの値に変更するように構成されている
ことを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 3,
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The output control unit is
changing the value of the degree of execution of the group of measures to be output to the image display unit to the value of the degree of execution of the group of measures recognized by the designation recognition unit, and the user's skin condition to be output to the image display unit; The image display device is configured to change the value of the score of at least one of the state of mind and the state of body to the value of the predicted score recognized by the score recognition unit.
前記スコア認識部は、所定期間における、前記施策群のユーザの実行の度合いの値と、当該施策群を当該実行の度合いの値の程度で実行したときの当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの良し悪しを数値化した前記スコアを認識し、
前記所定の期間は、前記スコア認識部が前記予測スコアを認識する処理を実行する時点以前の所定の期間であり、
前記出力制御部は、前記スコア認識部が認識した、前記所定期間における前記ユーザの前記施策群の実行の度合いの値を示す表示と、当該所定期間における当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記スコアを示す表示と、を前記画像表示部に出力させ、
前記指定認識部が前記施策群の実行の度合いの値の指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで、前記所定期間と同一の期間において実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つの前記予測スコアを、当該指定された実行の度合いの値を入力とし、前記相関関係を示す情報を用いて認識するように構成されている
ことを特徴とする画像表示装置。 In the image display device according to any one of claims 1 to 4,
The score recognizing unit calculates, during a predetermined period, a value of the user's degree of execution of the measure group, and the skin condition, mental state, and body condition of the user when the measure group is executed at the degree of execution value. recognizing the score that quantifies the goodness or badness of at least one of the conditions;
The predetermined period of time is a predetermined period of time before the score recognition unit executes processing for recognizing the predicted score,
The output control unit displays the value of the degree of execution of the measure group by the user during the predetermined period recognized by the score recognition unit, and the skin condition, mental condition, and body condition of the user during the predetermined period. a display showing the score of at least one of
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit is configured to obtain the predicted score of at least one of the user's skin condition, mental condition, and physical condition when the measure group is executed at the specified degree of execution for the same period as the predetermined period. is recognized using the information indicating the correlation with the value of the specified degree of execution as an input.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021180161A JP7280333B2 (en) | 2017-05-02 | 2021-11-04 | image display device |
JP2023068387A JP7437549B2 (en) | 2017-05-02 | 2023-04-19 | image display device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091970A JP6974029B2 (en) | 2017-05-02 | 2017-05-02 | Image display device, skin condition support system, image display program and image display method |
JP2021180161A JP7280333B2 (en) | 2017-05-02 | 2021-11-04 | image display device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017091970A Division JP6974029B2 (en) | 2017-05-02 | 2017-05-02 | Image display device, skin condition support system, image display program and image display method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023068387A Division JP7437549B2 (en) | 2017-05-02 | 2023-04-19 | image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022031676A JP2022031676A (en) | 2022-02-22 |
JP7280333B2 true JP7280333B2 (en) | 2023-05-23 |
Family
ID=87846622
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021180161A Active JP7280333B2 (en) | 2017-05-02 | 2021-11-04 | image display device |
JP2023068387A Active JP7437549B2 (en) | 2017-05-02 | 2023-04-19 | image display device |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023068387A Active JP7437549B2 (en) | 2017-05-02 | 2023-04-19 | image display device |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7280333B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006516338A (en) | 2002-10-31 | 2006-06-29 | ジョンソン・アンド・ジョンソン・コンシューマー・カンパニーズ・インコーポレイテッド | How to offer individual programs to retail customers |
JP2008242963A (en) | 2007-03-28 | 2008-10-09 | Fujifilm Corp | Health analysis display method and health analysis display device |
JP2011173810A (en) | 2010-02-23 | 2011-09-08 | Mikimoto Pharmaceut Co Ltd | Method for producing cosmetic |
JP2014119817A (en) | 2012-12-13 | 2014-06-30 | Hitachi Systems Ltd | Health-care prediction system |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009244964A (en) | 2008-03-28 | 2009-10-22 | Technical Brains Co Ltd | Total fitness evaluation system and program, and method of providing total fitness evaluation data |
TWI620547B (en) | 2013-08-30 | 2018-04-11 | Sony Corp | Information processing device, information processing method and information processing system |
JP2015109891A (en) | 2013-12-06 | 2015-06-18 | セイコーエプソン株式会社 | Information processing device and information processing method |
-
2021
- 2021-11-04 JP JP2021180161A patent/JP7280333B2/en active Active
-
2023
- 2023-04-19 JP JP2023068387A patent/JP7437549B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006516338A (en) | 2002-10-31 | 2006-06-29 | ジョンソン・アンド・ジョンソン・コンシューマー・カンパニーズ・インコーポレイテッド | How to offer individual programs to retail customers |
JP2008242963A (en) | 2007-03-28 | 2008-10-09 | Fujifilm Corp | Health analysis display method and health analysis display device |
JP2011173810A (en) | 2010-02-23 | 2011-09-08 | Mikimoto Pharmaceut Co Ltd | Method for producing cosmetic |
JP2014119817A (en) | 2012-12-13 | 2014-06-30 | Hitachi Systems Ltd | Health-care prediction system |
Also Published As
Publication number | Publication date |
---|---|
JP7437549B2 (en) | 2024-02-22 |
JP2023089223A (en) | 2023-06-27 |
JP2022031676A (en) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7211717B2 (en) | Image display device, image display program and image display method | |
US9891095B2 (en) | Method and system to provide a person with a personalized advice with regard to his/her weight | |
JP7129867B2 (en) | Information output system, information output method and information output program | |
JP7337484B2 (en) | Image display device, image display system, image display program and image display method | |
JP7264959B2 (en) | Information output system for skin condition care | |
KR20200069695A (en) | Apparatus and method for recommending cosmetic using skin analyzer | |
JP7048782B2 (en) | Skin condition support system | |
JP6974029B2 (en) | Image display device, skin condition support system, image display program and image display method | |
JP7248385B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition | |
JP7001469B2 (en) | Skin condition recognition system | |
JP7280333B2 (en) | image display device | |
JP7349125B2 (en) | Beauty evaluation method, sensory evaluation method, and system | |
JP7452898B2 (en) | Information processing device and program | |
JP7051306B2 (en) | Information output system, skin condition support program and skin condition support method | |
JP7300018B2 (en) | Information output system, skin condition support program and skin condition support method | |
JP7129763B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition | |
US20210327591A1 (en) | System for Efficiently Estimating and Improving Wellbeing | |
JP7163130B2 (en) | Information output system, information output method and information output program | |
JP7231688B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition | |
JP7270818B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition | |
JP6845008B2 (en) | Skin condition support system | |
KR20220086210A (en) | Cognitive function and memory decline, early diagnosis service for dementia, and device and method for providing customized advertisement contents and advertisements | |
JP7083624B2 (en) | Skin condition evaluation system, skin condition evaluation program, and computer execution method | |
JP2019010280A (en) | Information output program, information output system and information output method related to care of skin state, body state or mental state | |
JP7129866B2 (en) | Information output system, information output method and information output program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230511 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7280333 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |