JP2018190176A - Image display device, skin-condition support system, image display program, and image display method - Google Patents
Image display device, skin-condition support system, image display program, and image display method Download PDFInfo
- Publication number
- JP2018190176A JP2018190176A JP2017091970A JP2017091970A JP2018190176A JP 2018190176 A JP2018190176 A JP 2018190176A JP 2017091970 A JP2017091970 A JP 2017091970A JP 2017091970 A JP2017091970 A JP 2017091970A JP 2018190176 A JP2018190176 A JP 2018190176A
- Authority
- JP
- Japan
- Prior art keywords
- score
- user
- measure
- skin
- execution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 93
- 230000003340 mental effect Effects 0.000 claims description 6
- 230000006870 function Effects 0.000 abstract description 22
- 210000003491 skin Anatomy 0.000 description 321
- 230000006872 improvement Effects 0.000 description 66
- 230000008569 process Effects 0.000 description 59
- 230000009471 action Effects 0.000 description 36
- 238000011156 evaluation Methods 0.000 description 35
- 230000005540 biological transmission Effects 0.000 description 32
- 230000008859 change Effects 0.000 description 21
- 235000001366 vegetable intake Nutrition 0.000 description 19
- 238000004891 communication Methods 0.000 description 16
- 238000004088 simulation Methods 0.000 description 16
- 108010076876 Keratins Proteins 0.000 description 15
- 102000011782 Keratins Human genes 0.000 description 15
- 210000002374 sebum Anatomy 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 210000000434 stratum corneum Anatomy 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 235000012054 meals Nutrition 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000006399 behavior Effects 0.000 description 5
- 230000002354 daily effect Effects 0.000 description 5
- 230000006996 mental state Effects 0.000 description 5
- 238000003825 pressing Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 210000004027 cell Anatomy 0.000 description 4
- 239000002537 cosmetic Substances 0.000 description 4
- 235000013311 vegetables Nutrition 0.000 description 4
- 238000009223 counseling Methods 0.000 description 3
- 235000006694 eating habits Nutrition 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000003020 moisturizing effect Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000037303 wrinkles Effects 0.000 description 3
- 208000002874 Acne Vulgaris Diseases 0.000 description 2
- CIWBSHSKHKDKBQ-JLAZNSOCSA-N Ascorbic acid Chemical compound OC[C@H](O)[C@H]1OC(=O)C(O)=C1O CIWBSHSKHKDKBQ-JLAZNSOCSA-N 0.000 description 2
- 206010000496 acne Diseases 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 235000019219 chocolate Nutrition 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000037406 food intake Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012423 maintenance Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008092 positive effect Effects 0.000 description 2
- 238000002360 preparation method Methods 0.000 description 2
- 238000012797 qualification Methods 0.000 description 2
- 238000011002 quantification Methods 0.000 description 2
- 230000036578 sleeping time Effects 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- ZZZCUOFIHGPKAK-UHFFFAOYSA-N D-erythro-ascorbic acid Natural products OCC1OC(=O)C(O)=C1O ZZZCUOFIHGPKAK-UHFFFAOYSA-N 0.000 description 1
- 206010013786 Dry skin Diseases 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 229930003268 Vitamin C Natural products 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000006793 arrhythmia Effects 0.000 description 1
- 206010003119 arrhythmia Diseases 0.000 description 1
- TZCXTZWJZNENPQ-UHFFFAOYSA-L barium sulfate Chemical compound [Ba+2].[O-]S([O-])(=O)=O TZCXTZWJZNENPQ-UHFFFAOYSA-L 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 239000012503 blood component Substances 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 239000000306 component Substances 0.000 description 1
- 235000009508 confectionery Nutrition 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000037336 dry skin Effects 0.000 description 1
- 230000002500 effect on skin Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006210 lotion Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 231100000989 no adverse effect Toxicity 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 208000020016 psychiatric disease Diseases 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000037307 sensitive skin Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 210000004927 skin cell Anatomy 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000002485 urinary effect Effects 0.000 description 1
- 235000019154 vitamin C Nutrition 0.000 description 1
- 239000011718 vitamin C Substances 0.000 description 1
- 230000002747 voluntary effect Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本発明は、画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法に関する。 The present invention relates to an image display device, a skin condition support system, an image display program, and an image display method.
従来、肌状態のケアに関する様々なツールが知られている。 Conventionally, various tools related to skin condition care are known.
例えば、特許文献1には、化粧品販売員等がユーザに対して用いるカウンセリングツールとして、肌状態の典型的なパターンに対し、その肌の状態の説明をする肌状態説明部と、その肌の状態に必要なスキンケア方法の説明表示部とを備えたカウンセリングツールが記載されている。 For example, in Patent Document 1, as a counseling tool used by a cosmetic salesperson or the like for a user, a skin condition explanation unit that explains the skin condition for a typical skin condition pattern, and the skin condition A counseling tool including an explanation display section for a necessary skin care method is described.
肌状態説明部は、肌状態の典型的なパターンとしての「水分が不足しがちな状態」という小見出しと、当該肌の状態についての「お肌を外的刺激から守るバリア機能も低下しやすく、………考えられます。」という説明文とを含む。 The skin condition description section is a typical heading pattern of skin condition, “substance that tends to be deficient in moisture” and “smooth barrier function that protects the skin from external irritation” ……… I think. ”
スキンケア方法の説明表示部は、当該肌状態におけるスキンケア方法としての「やや不足している方 W保湿」及び「不足している方 W保湿+ローションマスク・クリーム」という見出しとが含まれている。 The explanation display section of the skin care method includes the headings "Slightly insufficient W moisturizing" and "Insufficient one W moisturizing + lotion mask cream" as skin care methods in the skin state.
化粧品販売員は、例えば、顧客の肌状態が水分がやや不足している状態であると判断した場合、スキンケア方法の説明表示部に表示された「W保湿」を行うよう勧めるなど、顧客の肌状態とカウンセリングツールとを突き合わせることで、肌のパターンに応じた施策を即座にユーザに対して提示することができる。 For example, if the cosmetic salesperson determines that the customer's skin condition is slightly deficient in moisture, he / she recommends “W moisturizing” displayed in the explanation section of the skin care method. By matching the state with the counseling tool, a measure according to the skin pattern can be immediately presented to the user.
しかし、特許文献1の技術では、提案された施策をどの程度の実行の度合い(時間、量、1日当たりの回数、実行の頻度等)で行えばどのような肌状態になるのかをユーザに把握させることは難しかった。 However, in the technique of Patent Document 1, the user knows what kind of skin condition will occur if the proposed measure is executed (time, amount, number of times per day, execution frequency, etc.) It was difficult to make it happen.
そこで、本発明は、ユーザに施策の実行の度合いと肌状態との関係を認識させることができる画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法を提供することを目的とする。 Accordingly, an object of the present invention is to provide an image display device, a skin condition support system, an image display program, and an image display method that allow a user to recognize the relationship between the degree of execution of a measure and the skin condition.
本発明の画像表示装置は、
情報を出力する画像表示部と、
ユーザの入力を検知する入力部と、
一または複数の施策である施策群の実行の度合いを入力とし、当該施策群を前記実行の度合いで実行したときの肌状態、心状態及び体状態のうち少なくとも1つのスコアを認識するスコア認識部と、
前記ユーザの施策群の実行の度合いを示す表示と当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して施策群の実行の度合いの指定を認識する指定認識部とを備え、
前記指定認識部が施策群の実行の度合いの指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測スコアである第1予測スコアを認識し、
前記出力制御部は、当該第1予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする。
The image display device of the present invention is
An image display unit for outputting information;
An input unit for detecting user input;
A score recognizing unit that recognizes at least one score among a skin state, a heart state, and a body state when the degree of execution of the group of measures as one or a plurality of measures is input. When,
An output control unit that causes the image display unit to output a display indicating the degree of execution of the user's measure group and a display indicating at least one score among the user's skin state, mind state, and body state;
A designation recognition unit for recognizing designation of the degree of execution of the measure group through the input unit,
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit recognizes a first prediction score that is a prediction score of at least one of the user's skin state, heart state, and body state when the measure group is executed at the designated degree of execution. And
The output control unit causes the image display unit to output a display indicating the first prediction score.
当該構成の画像表示装置によれば、ユーザにより指定された施策の実行の度合いを認識し、前記指定された施策の実行の度合いを入力とし、施策を当該実行の度合いで実行したときのユーザの肌状態、心状態及び体状態の少なくとも1つの予測スコアである第1予測スコアが認識される。そして、第1予測スコアを示す表示が画像表示部に出力される。これにより、施策の実行の度合いを変更したときのユーザの肌状態、心状態及び体状態のうちの少なくとも1つへの影響をユーザに認識させることができる。 According to the image display apparatus having the configuration, the degree of execution of the measure designated by the user is recognized, the degree of execution of the designated measure is input, and the user when the measure is executed at the degree of execution. A first prediction score that is at least one prediction score of the skin state, the heart state, and the body state is recognized. And the display which shows a 1st prediction score is output to an image display part. Thereby, a user can be made to recognize the influence on at least one of a user's skin state, a mind state, and a body state when the degree of execution of a measure is changed.
本発明の画像表示装置において、
前記スコア認識部は、前記スコアを算出するための関数を認識し、当該関数に基づいて前記スコアの認識を行うことが好ましい。
In the image display device of the present invention,
Preferably, the score recognition unit recognizes a function for calculating the score and recognizes the score based on the function.
本発明の画像表示装置において、
前記スコア認識部は、施策群の実行の度合いを入力として当該施策群を当該実行の度合いで実行したときの肌状態のスコアである肌スコアを認識し、かつ、
施策群の実行の度合いを入力として当該施策群を当該実行の度合いで実行したときの心状態及び体状態のうち少なくとも1つのスコアである心体スコアを認識し、
前記出力制御部は、前記ユーザの施策群の実行の度合いを示す表示と、当該ユーザの肌スコアを示す表示と、前記ユーザの心体スコアを示す表示とを画像表示部に出力させ、
前記スコア認識部は、前記施策を当該指定された実行の度合いで前記ユーザが実行したときの前記ユーザの肌スコアの予測スコアである第2予測スコアと、前記施策を当該指定された実行の度合いで前記ユーザが実行したときの前記ユーザの心体スコアの予測スコアである第3予測スコアとを認識し、
前記出力制御部は、当該第2予測スコアを示す表示と当該第3予測スコアを示す表示とを前記画像表示部に出力させるように構成されていることが好ましい。
In the image display device of the present invention,
The score recognizing unit recognizes a skin score that is a score of a skin state when the measure group is executed with the degree of execution as an input of the degree of execution of the measure group; and
Recognizing a mental body score, which is at least one score among a mind state and a body state when the measure group is executed with the degree of execution, using the execution degree of the measure group as an input,
The output control unit causes the image display unit to output a display indicating a degree of execution of the user's measure group, a display indicating the user's skin score, and a display indicating the user's mind score,
The score recognition unit includes a second prediction score that is a predicted score of the user's skin score when the user executes the measure with the specified degree of execution, and the specified degree of execution of the measure. Recognizing a third predicted score that is a predicted score of the user's mind score when the user executes
The output control unit is preferably configured to cause the image display unit to output a display indicating the second prediction score and a display indicating the third prediction score.
当該構成の画像表示装置によれば、施策の実行の度合いの指定に応じて、肌状態の予測スコア(第2予測スコア)を示す表示と、体状態及び心状態のうち少なくとも1つの予測スコア(第3予測スコア)を示す表示とが画像表示部に出力される。これにより、施策の実行の度合いを変更したときのユーザの肌状態への影響に加え、体状態及び心状態のうち少なくとも1つへの影響をユーザに認識させることができる。 According to the image display device having the configuration, in accordance with the designation of the degree of execution of the measure, at least one prediction score (display indicating the prediction score of the skin state (second prediction score) and the body state and the heart state ( A display indicating the third prediction score is output to the image display unit. Thereby, in addition to the influence on a user's skin state when changing the execution degree of a measure, a user can be made to recognize the influence on at least one of a body state and a mind state.
本発明の画像表示装置において、
前記出力制御部は、第1の線分を示す第1線分表示と、前記第1の線分上に表示され、かつ、前記ユーザの施策群の実行の度合いを示す表示としての第1アイコンと、前記第1の線分とは異なる第2の線分を示す第2線分表示と、前記第2の線分上に表示され、かつ、前記ユーザの前記肌状態、体状態及び心状態のうち少なくとも1つのスコアを示す表示としての第2アイコンと、を前記画像表示部に出力させるように構成され、
前記指定認識部は、前記入力部を介してユーザにより指定された前記第1アイコンの位置に基づいて、前記施策群の実行の度合いを認識し、
前記スコア認識部は、前記指定認識部が実行の度合いの指定を認識した場合、前記指定された施策の実行の度合いを入力としたとき前記第1予測スコアを認識し、
前記出力制御部は、前記第1予測スコアに対応する前記第2の線分上の位置に前記第2アイコンが表示されるように、前記第2アイコンを前記画像表示部に出力させることが好ましい。
In the image display device of the present invention,
The output control unit includes a first line display indicating a first line segment, and a first icon as a display displayed on the first line segment and indicating a degree of execution of the measure group of the user. A second line segment display showing a second line segment different from the first line segment, and displayed on the second line segment, and the skin state, body state and heart state of the user A second icon as a display indicating at least one score, and the image display unit is configured to output the second icon,
The designation recognizing unit recognizes the degree of execution of the measure group based on the position of the first icon designated by the user via the input unit,
The score recognizing unit recognizes the first predicted score when the designation recognizing unit recognizes the designation of the degree of execution and the degree of execution of the designated measure is input,
The output control unit preferably causes the image display unit to output the second icon so that the second icon is displayed at a position on the second line segment corresponding to the first prediction score. .
当該構成の画像表示装置によれば、画像表示部に出力された第1の線分上の第1アイコンの位置と第2の線分上の第2アイコンの位置とにより、ユーザの施策の実行の度合い並びにユーザの肌状態、体状態及び心状態のうち少なくとも1つのスコアをユーザに感覚的に認識させることができる。 According to the image display device having the configuration, the user's measure is executed based on the position of the first icon on the first line segment and the position of the second icon on the second line segment output to the image display unit. And at least one score among the user's skin state, body state, and heart state can be perceived by the user.
そして、指定認識部により、入力部を介してユーザにより指定された第1アイコンの位置に基づいて、施策の実行の度合いが認識される。 Then, the degree of execution of the measure is recognized by the designation recognition unit based on the position of the first icon designated by the user via the input unit.
これにより、ユーザに感覚的に施策の実行の度合いを指定させることができる。 Thereby, the user can specify the degree of execution of the measure sensuously.
そして、出力制御部により、施策を当該指定された実行の各度合いでユーザが実行したときの予測されるユーザの肌状態、体状態及び心状態のうち少なくとも1つのスコアが認識される。 Then, the output control unit recognizes at least one score among the predicted skin state, body state, and heart state of the user when the user executes the measure at each specified degree of execution.
出力制御部は、認識された肌状態、体状態及び心状態のうち少なくとも1つの予測スコアに対応する第2の線分上に第2アイコンが表示されるように、前記第2アイコンを前記画像表示部に出力させる。 The output control unit displays the second icon on the image so that the second icon is displayed on the second line segment corresponding to at least one prediction score among the recognized skin state, body state, and heart state. Output to the display.
これにより、指定された施策の実行の度合いに応じた肌状態、体状態及び心状態のうち少なくとも1つの予測スコアを感覚的にユーザに認識させることができる。 Thereby, a user can be made to recognize sensuously at least 1 prediction score among the skin state according to the execution degree of the designated measure, a body state, and a mind state.
以上の通り、当該構成の画像表示装置によれば、ユーザの感覚的な操作と情報認識が可能となる。 As described above, according to the image display device having the above configuration, a user's sensory operation and information recognition can be performed.
本発明の画像表示装置において、
前記第1の線分が第1方向に延び、前記第2の線分が前記第1線分に対向する位置から離間する第2方向に延びるように、前記第1線分表示及び前記第2線分表示が配置されることが好ましい。
In the image display device of the present invention,
The first line segment display and the second line segment are extended so that the first line segment extends in a first direction and the second line segment extends in a second direction away from a position facing the first line segment. A line segment display is preferably arranged.
当該構成の画像表示装置によれば、前記第1の線分が第1方向に延び、前記第2の線分が前記第1線分から離間する第2方向に延びる、すなわち、これらの2直線が非平行であることにより、これらの線分上に表される2つのアイコンが互いに性質の異なる値を示していることを、ユーザに容易に認識させることができる。 According to the image display apparatus having the above configuration, the first line segment extends in the first direction, and the second line segment extends in the second direction away from the first line segment. By being non-parallel, the user can easily recognize that the two icons represented on these line segments show different values from each other.
当該構成の画像表示装置において、
前記第1方向は、前記第2方向と直交する方向であることが好ましい。
In the image display apparatus having the configuration,
The first direction is preferably a direction orthogonal to the second direction.
当該構成の画像表示装置によれば、第2の線分及び第1の線分上に表される2つのアイコンが互いに性質の異なる値を示していることをユーザに容易に認識させることができるとともに、第1の線分の方向と第2の線分の方向とが直交するので、画面の見た目をすっきりさせることができる。 According to the image display device having the above configuration, the user can easily recognize that the second line segment and the two icons represented on the first line segment indicate different values from each other. At the same time, since the direction of the first line segment and the direction of the second line segment are orthogonal, the appearance of the screen can be made clear.
本発明の画像表示装置において、
前記出力制御部は、前記ユーザの施策群の実行の度合いを示す表示と、前記ユーザの前記肌状態、体状態又は心状態のスコアである変動スコアを示す表示と、前記ユーザの前記肌状態、体状態又は心状態のスコアとは異なる前記ユーザの前記肌状態、体状態又は心状態のスコアである模擬スコアを示す表示と、を前記画像表示部に出力させるように構成され、
前記指定認識部は、前記入力部を介して施策群の実行の度合いの指定または変動スコアを認識し、
前記スコア認識部は、前記指定認識部が実行の度合いまたは変動スコアの指定を認識した場合、前記指定された施策の実行の度合いまたは変動スコアを入力としたときの模擬スコアの予測スコアである前記模擬予測スコアを認識し、
前記出力制御部は、前記模擬予測スコアを示す表示を前記画像表示部に出力することが好ましい。
In the image display device of the present invention,
The output control unit includes a display indicating a degree of execution of the measure group of the user, a display indicating a variation score that is a score of the skin state, a body state, or a heart state of the user, the skin state of the user, The image display unit is configured to output a display showing a simulated score that is a score of the skin state, body state or heart state of the user different from the score of the body state or the heart state,
The designation recognizing unit recognizes the designation of the degree of execution of the measure group or the variation score via the input unit,
The score recognizing unit is a predicted score of a simulated score when the designation recognizing unit recognizes the designation of the degree of execution or the variation score, and the degree of execution of the designated measure or the variation score is input. Recognize mock prediction score,
The output control unit preferably outputs a display indicating the simulated prediction score to the image display unit.
当該構成の画像表示装置によれば、指定認識部が実行の度合いまたは変動スコアの指定を認識した場合、前記指定された施策の実行の度合いまたは変動スコアを入力としたときの模擬予測スコアが認識され、前記模擬予測スコアを示す表示が前記画像表示部に出力される。これにより、施策の実行の度合いのみならず、スコアの変動に応じた対象のスコア(模擬スコア)の変動をユーザに認識させることができる。 According to the image display device having the configuration, when the designation recognition unit recognizes the designation of the execution degree or the fluctuation score, the simulation prediction score when the execution degree or the fluctuation score of the designated measure is input is recognized. Then, a display indicating the simulated prediction score is output to the image display unit. Thereby, it is possible to make the user recognize not only the degree of execution of the measure but also the fluctuation of the target score (simulated score) according to the fluctuation of the score.
本発明の画像表示装置において、
前記出力制御部は、施策の実行の度合いを示す表示を所定の領域の内側に表示させ、かつ、肌状態のスコアを示す表示と、体状態のスコアを示す表示と、心状態のスコアを示す表示とを前記所定の領域の外側に表示させることが好ましい。
In the image display device of the present invention,
The output control unit displays a display indicating the degree of execution of the measure inside a predetermined area, and displays a display indicating a skin condition score, a display indicating a body condition score, and a heart condition score. It is preferable to display the display outside the predetermined area.
当該構成の画像表示装置によれば、施策の実行の度合いまたは頻度を示す表示の周囲に肌状態のスコアを示す表示、体状態のスコアを示す表示、及び心状態のスコアを示す表示とが表示されることで、ユーザに相互の関係を理解させやすくなる。 According to the image display device having the configuration, a display indicating a skin condition score, a display indicating a body condition score, and a display indicating a heart condition score are displayed around a display indicating the degree or frequency of execution of the measure. This makes it easier for the user to understand the mutual relationship.
本発明の実施形態の一例について、図1〜図18を参照して説明する。 An example of an embodiment of the present invention will be described with reference to FIGS.
[A.肌状態認識システムの利用形態]
図1を参照して、肌状態認識システム10の構成および本発明を構成する系に対する位置付けを説明する。肌状態認識システム10は、CPU、メモリ、各種インターフェース回路等を備えたコンピュータシステムにより構成される。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することによって、複数のユーザU(図1ではUa,Ub,Ucを例示)の肌状態を改善又は維持するための処理
(画像表示処理)を実行する機能を実現する。
[A. Usage of skin condition recognition system]
With reference to FIG. 1, the configuration of the skin condition recognition system 10 and the positioning of the system constituting the present invention will be described. The skin condition recognition system 10 is configured by a computer system including a CPU, a memory, various interface circuits, and the like. The skin condition recognition system 10 improves or maintains the skin condition of a plurality of users U (Ua, Ub, Uc are illustrated in FIG. 1) by executing an image display program stored in a memory by the CPU. The function of executing the process (image display process) is realized.
肌状態認識システム10は、インターネット等の通信ネットワーク1を介して、複数のユーザUの通信端末(ユーザ端末)30(図1では30a,30b,30cを例示)との間でデータ通信を行うことにより、ユーザUの肌状態の改善又は維持をサポートする。ユーザ端末30が、本発明の「画像表示装置」に相当する。 The skin condition recognition system 10 performs data communication with a plurality of communication terminals (user terminals) 30 (user terminals 30a, 30c, and 30c in FIG. 1) via a communication network 1 such as the Internet. Thus, the improvement or maintenance of the skin condition of the user U is supported. The user terminal 30 corresponds to the “image display device” of the present invention.
通信ネットワーク1には、担当者T(図1ではTa,Tbを例示)の通信端末50(図1では50a,50bを例示)も接続されている。担当者Tは、通信端末50を介して、ユーザUの肌の特徴や趣味嗜好、生活スタイル等を考慮した適切な肌ケア法等の情報を含むデータを、肌状態認識システム10及びユーザ端末30に送信することにより、ユーザUの肌状態の改善に対するアドバイスを行う。なお、担当者Tの通信端末50とユーザUのユーザ端末30とは必ずしも一対一である必要はなく、肌状態認識システム10、担当者Tの通信端末50、通信ネットワーク1を合わせた系全体によってユーザUの肌状態の改善に対するアドバイスがユーザUのユーザ端末30に提供されればよい。例えば、ユーザUの1又は複数のユーザ端末30に対して、複数の担当者Tによってそれぞれの通信端末50を介してアドバイスを提供する方法でも良い。 The communication network 1 is also connected with a communication terminal 50 (50a and 50b are illustrated in FIG. 1) of a person in charge T (Ta and Tb are illustrated in FIG. 1). The person in charge T receives, via the communication terminal 50, data including information such as an appropriate skin care method that takes into account the user's U skin characteristics, hobbies, lifestyles, and the like, and the skin condition recognition system 10 and the user terminal 30. To the user U for advice on improving the skin condition. Note that the communication terminal 50 of the person in charge T and the user terminal 30 of the user U do not necessarily have to be one-to-one, and the entire system including the skin condition recognition system 10, the communication terminal 50 of the person in charge T, and the communication network 1. The advice for improving the skin condition of the user U may be provided to the user terminal 30 of the user U. For example, a method of providing advice to each of the user terminals 30 of the user U by the plurality of persons in charge T via the respective communication terminals 50 may be used.
さらに、肌状態認識システム10は、複数のユーザUのユーザ端末30から送信される各ユーザの固有データを解析して、汎用的に活用可能な2次データを生成する機能を有し、この2次データを通信ネットワーク1を介して他のシステム60に提供するサービスも行うことができる。 Furthermore, the skin condition recognition system 10 has a function of analyzing unique data of each user transmitted from the user terminals 30 of a plurality of users U and generating secondary data that can be used for general purposes. A service of providing next data to another system 60 via the communication network 1 can also be performed.
[B.肌状態認識システム、及びユーザ端末の構成]
図2を参照して、肌状態認識システム10およびユーザ端末30の構成について説明する。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することにより、肌状態認識部11、施策グループ選択部12、施策情報送信部13、及び2次データ生成部19として機能する。これらの構成による処理については後述する。また、肌状態認識システム10は、ユーザUの画像表示処理に使用する各種データを保持するサポートDB(データベース)20を備えている。このサポートDB20はたとえばRAM上に展開され、後述する主観および客観データの更新によって書き換え可能である。
[B. Structure of skin condition recognition system and user terminal]
With reference to FIG. 2, the structure of the skin condition recognition system 10 and the user terminal 30 is demonstrated. The skin condition recognition system 10 executes a program for image display held in a memory by a CPU, whereby a skin condition recognition unit 11, a measure group selection unit 12, a measure information transmission unit 13, and a secondary data generation unit 19. Function as. The processing by these configurations will be described later. The skin condition recognition system 10 also includes a support DB (database) 20 that holds various data used for the image display processing of the user U. This support DB 20 is developed on a RAM, for example, and can be rewritten by updating subjective and objective data described later.
次に、本実施形態のユーザ端末30は、表示器31、タッチパネル32、カメラ33、マイク34、CPU35、及びメモリ36等を備えている。表示器31が、本発明の「画像表示部」に相当する。タッチパネル32が、本発明の「入力部」に相当する。これに代えてまたは加えて、カメラ33で撮像したユーザUの画像又はマイク34から入力されたユーザUの音声に基づいてユーザの指定を認識することにより、カメラ33又はマイク34を本発明の「入力部」として機能させてもよい。 Next, the user terminal 30 of this embodiment includes a display 31, a touch panel 32, a camera 33, a microphone 34, a CPU 35, a memory 36, and the like. The display 31 corresponds to the “image display unit” of the present invention. The touch panel 32 corresponds to the “input unit” of the present invention. Instead of or in addition to this, by recognizing the user's designation based on the image of the user U imaged by the camera 33 or the voice of the user U input from the microphone 34, the camera 33 or the microphone 34 can be It may function as an “input unit”.
なお、一の装置が情報を「認識する」とは、一の装置が他の装置から当該情報を受信すること、一の装置が当該一の装置に接続された記憶媒体に記憶された情報を読み取ること、一の装置が当該一の装置に接続されたセンサから出力された信号に基づいて情報を取得すること、一の装置が、受信した情報又は記憶媒体に記憶された情報又はセンサから取得した情報に基づいて、所定の演算処理(計算処理又は検索処理など)を実行することにより当該情報を導出すること、一の装置が他の装置による演算処理結果としての当該情報を当該他の装置から受信すること、一の装置が当該受信信号にしたがって内部記憶装置又は外部記憶装置から当該情報を読み取ること等、当該情報を取得するためのあらゆる演算処理が実行されることを意味する。 Note that one device “recognizes” information means that one device receives the information from another device, and one device stores information stored in a storage medium connected to the one device. Reading, one device acquiring information based on a signal output from a sensor connected to the one device, one device acquiring from received information or information or sensor stored in a storage medium Based on the obtained information, a predetermined calculation process (calculation process or search process) is performed to derive the information, and one apparatus uses the information as a calculation process result of the other apparatus as the other apparatus. Means that any arithmetic processing for acquiring the information is executed, such as reading the information from the internal storage device or the external storage device in accordance with the received signal.
本実施形態においては、ユーザ端末30は例えばスマートフォンであるため、カメラ33やマイク34等を備えているが、ユーザ端末と有線無線にかかわらずやり取りできる構成であれば、外付けでの構成であったり、専門的な撮像装置を用いても良い。CPU35は、メモリ36に保持された画像表示用のアプリケーション35a(以下、肌サポートアプリ35aという)のプログラムを実行することにより、ユーザUが肌サポートアプリ35aを介して肌状態認識システム10によるサポートを享受可能な状態とする。肌サポートアプリ35aを実行したCPU35が、本発明の「スコア認識部」「出力制御部」及び「指定認識部」に相当する。 In the present embodiment, since the user terminal 30 is a smartphone, for example, the user terminal 30 includes a camera 33, a microphone 34, and the like. Alternatively, a specialized imaging device may be used. The CPU 35 executes a program of an image display application 35a (hereinafter referred to as a skin support application 35a) held in the memory 36, whereby the user U supports the skin condition recognition system 10 via the skin support application 35a. It is assumed that it can be enjoyed. The CPU 35 executing the skin support application 35a corresponds to the “score recognition unit”, “output control unit”, and “designation recognition unit” of the present invention.
また、ユーザUは、肌の細胞を取得するための角質採取テープ37(図1では37a、37b、37cを例示)を別途有している。この角質採取テープ37は、予め担当者TによりユーザUに提供されたものであってもよいし、ユーザUが市販の角質採取テープ37を購入してもよい。 In addition, the user U additionally has a keratin collection tape 37 (in FIG. 1, 37a, 37b, and 37c are illustrated) for acquiring skin cells. The keratin collection tape 37 may be provided to the user U by the person in charge T in advance, or the user U may purchase a commercially available keratin collection tape 37.
なお、以下の説明では、説明の便宜のため、肌状態の改善又は維持のサポート処理の対象のユーザをユーザUaと表し、「ユーザUa」と異なるユーザを「他のユーザUb、Uc」と表す。 In the following description, for convenience of explanation, a user who is a target of the skin condition improvement or maintenance support process is represented as a user Ua, and a user different from “user Ua” is represented as “other users Ub, Uc”. .
[C.肌状態認識システムによる一連の処理]
次に、図3を参照して、肌状態認識システムによる一連の処理について説明する。肌状態認識システム10は、「1.ゴール設定」、「2.スケジュール決定」、「3.モニタリング」、「4.スケジュール修正」、[5.ゴール判定]及び「6.2次データ生成」の各工程の処理を、図4,5に示したフローチャートに従って実行する。また、ユーザ端末30は、各工程における肌状態認識システム10による処理に応じて、図6,7に示したフローチャートによる処理を実行する。以下では、各工程における肌状態認識システム10及びユーザ端末30のCPU35の処理について、図4〜7に示したフローチャートを参照しつつ説明する。
[C. A series of processes by the skin condition recognition system]
Next, a series of processes by the skin condition recognition system will be described with reference to FIG. The skin condition recognition system 10 includes “1. goal setting”, “2. schedule determination”, “3. monitoring”, “4. schedule correction”, “5. The process of each step of “goal determination” and “6.2 secondary data generation” is executed according to the flowcharts shown in FIGS. Moreover, the user terminal 30 performs the process by the flowchart shown to FIG.6, 7 according to the process by the skin state recognition system 10 in each process. Below, the process of CPU35 of the skin condition recognition system 10 and the user terminal 30 in each process is demonstrated, referring the flowchart shown to FIGS.
ユーザUaは、図6のSTEP50で、肌サポートアプリ35aのプログラムをユーザ端末30にダウンロードして肌サポートアプリ35aを起動する。そして、ユーザUaは肌サポートアプリ35aへの登録申請を行う。 The user Ua downloads the program of the skin support application 35a to the user terminal 30 and activates the skin support application 35a in STEP50 of FIG. Then, the user Ua applies for registration to the skin support application 35a.
肌状態認識システム10は、図4のSTEP10で、ユーザUaからの登録申請を受け付けたときに、「ユーザUaからの登録申請を受け付けた」と認識し、STEP11に処理を進める。そしてSTEP11以降の画像表示処理を開始する。 The skin condition recognition system 10 recognizes that “the registration application from the user Ua has been accepted” when accepting the registration application from the user Ua in STEP 10 of FIG. 4, and advances the processing to STEP 11. Then, the image display processing after STEP 11 is started.
[D.ゴール設定工程]
図3に示した「1.ゴール設定」の工程は、肌状態認識部11及び施策グループ選択部12により実行される。施策グループ選択部12は、図4のSTEP11でユーザ端末30にユーザUaの現状の肌、体、心の各状態、及びユーザUaが要望する肌状態を把握するための情報入力を促す初期情報要求データを送信する。
[D. Goal setting process]
The process of “1. goal setting” shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure group selection unit 12. In step 11 of FIG. 4, the measure group selection unit 12 requests the user terminal 30 to input information for grasping the current skin, body, and heart states of the user Ua and the skin state desired by the user Ua. Send data.
この初期情報要求データを受信したユーザ端末30では、肌サポートアプリ35aが、図6のSTEP51で、ユーザUaに対して、現状の肌、体、心の各状態、及びユーザUaが要望する肌状態の入力を促す画面を表示器31に表示する。それに対してユーザ端末30は、ユーザUaが入力した情報を含む初期ユーザ情報データを、肌状態認識システム10に送信する。 肌状態認識部11は、図4のSTEP11において、初期ユーザ情報データを受信して、初期ユーザ情報データから認識したユーザUaの肌、心、体の各状態と、ユーザUaが要望する肌状態とに基づいて、肌状態の目標レベル(ゴール)を設定する。 In the user terminal 30 that has received the initial information request data, the skin support application 35a determines the current skin, body, and heart states and the skin state desired by the user Ua from the user Ua in STEP 51 of FIG. Is displayed on the display 31. On the other hand, the user terminal 30 transmits initial user information data including information input by the user Ua to the skin condition recognition system 10. The skin state recognition unit 11 receives the initial user information data in STEP 11 of FIG. 4 and recognizes the skin, mind, and body states of the user Ua recognized from the initial user information data, and the skin state desired by the user Ua. The target level (goal) of the skin condition is set based on the above.
ここで、初期ユーザ情報データには、肌状態、体状態、及び心状態についての主観データ及び客観データが含まれている。詳細な定義は後述するが、主観データはユーザの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。肌状態の主観データは、現状の肌状態に対するユーザUaの満足度を、例えば10段階で示したデータである。肌状態の客観データは、ユーザUaの肌画像データである。なお、肌状態の客観データには、初期ユーザ情報データに含まれる肌状態の客観データに加え、角質採取テープ37により採取されたユーザUaの角層細胞の解析データが含まれても良い。角層細胞の解析データは、具体的には例えば保水能力と皮脂適格性に関するデータである。この場合、角層細胞の解析を、例えばユーザ端末30に接続された測定機器45により行うことで、或は、角質採取テープ37の画像データをユーザ端末30から肌状態認識システム10に送信し、肌状態認識システム10側で角質採取テープ37の画像を分析して保水能力と皮脂適格性などを測定してもよい。 Here, the initial user information data includes subjective data and objective data regarding the skin condition, the body condition, and the mind condition. Although detailed definition will be described later, subjective data is an item determined by the user's subjectivity, and objective data is data based on examination results, image analysis, and fact information. The skin condition subjective data is data indicating, for example, ten levels of satisfaction of the user Ua with respect to the current skin condition. The objective data of the skin state is the skin image data of the user Ua. The objective data of the skin condition may include analysis data of the stratum corneum cells of the user Ua collected by the keratin collection tape 37 in addition to the objective data of the skin condition included in the initial user information data. Specifically, the analysis data of the stratum corneum is, for example, data on water retention ability and sebum suitability. In this case, analysis of the stratum corneum is performed by, for example, the measuring device 45 connected to the user terminal 30, or the image data of the stratum corneum sampling tape 37 is transmitted from the user terminal 30 to the skin condition recognition system 10, The skin condition recognition system 10 side may analyze the image of the keratin collection tape 37 to measure the water retention capacity and sebum suitability.
ユーザUaの満足度は肌サポートアプリ35aにおけるアンケート入力によって取得される。また、肌画像データは、ユーザ端末30のカメラ33又は接続端子40に接続され
た外部カメラによってユーザUaがユーザUaの顔を撮像することによって取得した画像データである。
The satisfaction level of the user Ua is acquired by a questionnaire input in the skin support application 35a. The skin image data is image data acquired by the user Ua taking an image of the face of the user Ua with an external camera connected to the camera 33 or the connection terminal 40 of the user terminal 30.
また、肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用方法を表示器31に表示し、角質採取テープ37の使用と別途の郵送とを促す。肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用と肌画像の撮像を促し、撮像された画像が肌状態認識システム10に送信されるようにしてもよい。 Moreover, the skin support application 35a displays the usage method of the keratin collection tape 37 on the display device 31 to prompt the user Ua to use the keratin collection tape 37 and send it separately. The skin support application 35a may prompt the user Ua to use the keratin collection tape 37 and capture a skin image, and transmit the captured image to the skin condition recognition system 10.
肌状態認識部11は、図8に示したように、肌状態の初期値を、主観のスコアをたとえば3、肌画像のスコアを3、保水能力のスコアを2、皮脂適格性のスコアを1に割り当てて、合計した値を肌状態のスコアとする。なお、スコアは正の整数ではなく、小数で表現されていてもよいし、負の数で表されてもよい。 As shown in FIG. 8, the skin condition recognition unit 11 sets the initial value of the skin condition, for example, the subjective score is 3, the skin image score is 3, the water retention ability score is 2, and the sebum suitability score is 1. The total value is assigned as the score of the skin condition. Note that the score may be expressed as a decimal number instead of a positive integer, or may be expressed as a negative number.
角層細胞の解析による保水能力スコア及び皮脂適格性のスコアの認識を第1認識方法と呼ぶ。第1認識方法は、これに代えてまたは加えて、角層水分量計によりユーザの肌の水分量を計測する方法及び皮脂量計によりユーザの肌の皮脂量を計測する方法のうち少なくとも1つを含む。また、第1の認識方法によるユーザの肌の認識を定期的に行うため、肌状態認識部11は、定期的にユーザ端末30に角質採取テープ37等の使用を促すメッセージを送信したりすることにより、ユーザに行動を促す。このときの「定期的」というのは厳密に時間的に等間隔である必要はなく、肌状態に影響が出ない範囲で等間隔であれば良い。例えば、3ヶ月ごとに第1の認識方法を実施する場合において、1月1日に初回を実施した場合、ちょうど3か月後の4月1日のみならず、例えばその1週間前の3月24日前後にユーザ端末30にメッセージを送信してもよいし、例えばその1週間後の4月8日前後にユーザ端末30にメッセージを送信してもよい。また、長期的にサービスを提供するときなどは、例えば細かい改善を調べたい時は1ヶ月ごとに第1の認識方法を設定し、肌状態に対する季節変化の影響を調べるために3か月ごとに第1の認識方法を設定するなど、認識のタイミングは変更可能である。 Recognition of a water retention ability score and a sebum suitability score by analysis of stratum corneum cells is referred to as a first recognition method. In place of or in addition to this, the first recognition method is at least one of a method for measuring the moisture content of the user's skin with a stratum corneum moisture meter and a method for measuring the sebum amount of the user's skin with a sebum meter. including. Further, in order to regularly recognize the user's skin by the first recognition method, the skin condition recognition unit 11 periodically transmits a message prompting the user terminal 30 to use the keratin collection tape 37 or the like. To prompt the user to take action. In this case, “periodic” does not need to be strictly equally spaced in time, and may be equally spaced within a range that does not affect the skin condition. For example, in the case where the first recognition method is performed every three months, when the first time is performed on January 1, not only April 1, which is three months later, but, for example, March one week before that A message may be transmitted to the user terminal 30 around 24 days, or a message may be sent to the user terminal 30 around April 8, for example, one week later. Also, when providing a service in the long term, for example, if you want to examine a fine improvement, set the first recognition method every month, and every three months to investigate the effect of seasonal changes on the skin condition The timing of recognition can be changed, such as setting the first recognition method.
アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識のそれぞれを第2認識方法と呼ぶ。第2認識方法は、アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識の一方によってユーザUaの肌状態を認識してもよいし、これらと異なる方法を含んでもよい。また、第2認識方法は、第1の認識方法よりも頻繁に行われる。これは角質採取テープ37の使用・郵送が手間的にも煩雑かつ値段的にも高価になってしまうためである。また、角質採取テープ37の使用が頻繁であると、ユーザUaの肌へ悪影響が及ぶおそれもある。 Each of recognition of the subjective score based on the subjective data of the skin state by the questionnaire input and recognition of the skin image score based on the skin image data of the user Ua is referred to as a second recognition method. The second recognition method may recognize the skin state of the user Ua by one of recognition of the subjective score based on the subjective data of the skin state by questionnaire input and recognition of the skin image score based on the skin image data of the user Ua. Different methods may be included. In addition, the second recognition method is performed more frequently than the first recognition method. This is because the use and mailing of the keratin sampling tape 37 is troublesome and expensive. Further, if the keratin collection tape 37 is frequently used, there is a possibility that the skin of the user Ua is adversely affected.
例えば3か月間ごとに第1の認識方法が実施され、第2の認識方法は毎日実施にされる。また、第1の認識方法の実施と第2の認識方法の実施のタイミングが重なる時は、できれば同じタイミングで実施されると精度の良いデータが取れるために好ましい。ただし第1の認識方法の実施時に第2の認識方法が実施されなくても本発明の実施は可能であるし、効果も得られる。 For example, the first recognition method is performed every three months, and the second recognition method is performed every day. In addition, when the timings of the first recognition method and the second recognition method are overlapped, it is preferable that the timing is performed at the same timing if possible because accurate data can be obtained. However, even if the second recognition method is not performed when the first recognition method is performed, the present invention can be implemented and an effect can be obtained.
なお、主観スコアは、主観データに基づいて認識されたスコアであればよい。 The subjective score may be a score recognized based on subjective data.
体状態の主観データと客観データは、図9に示したように分けられている。詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。体状態の主観データは、ユーザUaが肌サポートアプリ35aを通じてアンケートを入力することによって取得される。客観データは、ユーザUaがユーザ端末30のカメラ33を用いて撮像されたユーザUaの舌・唇の画像データ、ユーザ端末30の接続端子40に接続された測定機器45により測定されたユーザUaの血圧、不整脈、尿中成分、血中成分等の測定データと、肌サポートアプリ35aにおけるアンケート入力により取得された頭痛又は肩こり等の体調不良の回数、疲労度判定等のデータである。なお、将来の肌ケア以外のサービスへの展開に備えて、種々の病気の発生情報などについても初
期ユーザ情報データに含めてもよい。
The body state subjective data and objective data are divided as shown in FIG. Although detailed definition will be described later, like the subjective data and objective data of the skin, the subjective data is an item determined by the subjectivity of the user Ua, and the objective data is data based on examination results, image analysis, and fact information. The subjective data of the body state is acquired when the user Ua inputs a questionnaire through the skin support application 35a. The objective data includes image data of the tongue / lips of the user Ua captured by the user Ua using the camera 33 of the user terminal 30, and the user Ua measured by the measuring device 45 connected to the connection terminal 40 of the user terminal 30. Measurement data such as blood pressure, arrhythmia, urinary component, blood component, etc., and data such as the number of poor physical condition such as headache or stiff shoulder acquired by questionnaire input in the skin support application 35a, fatigue level determination, and the like. It should be noted that information on the occurrence of various diseases may be included in the initial user information data in preparation for future development of services other than skin care.
心状態の主観データと客観データは、図10に示したように分けられている。、詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。主観データは、肌サポートアプリ35aにおけるアンケート入力によって取得される。客観データは、肌サポートアプリ35aにおけるアンケート入力(一日の笑った頻度等)と、測定機器による測定(脈拍モニタリングからの心理状態推定等)とにより取得される。なお、将来の肌ケア以外のサービスの展開に備えて、種々の精神疾患の発生情報についても初期ユーザ情報データに含めてもよい。 The subjective data and the objective data of the mental state are divided as shown in FIG. Although the detailed definition will be described later, like the subjective data and objective data of the skin, the subjective data is an item determined by the subjectivity of the user Ua, and the objective data is data based on examination results, image analysis, and fact information. . Subjective data is acquired by questionnaire input in the skin support application 35a. The objective data is acquired by questionnaire input (frequency of laughing a day, etc.) in the skin support application 35a and measurement by a measuring device (psychological state estimation from pulse monitoring, etc.). In addition, in preparation for the development of services other than skin care in the future, occurrence information of various mental illnesses may be included in the initial user information data.
肌状態認識部11は、認識したユーザUaの肌、体、心の状態の主観データ及び客観データを、サポートDB20に記憶する。 The skin condition recognition unit 11 stores the subjective data and objective data of the recognized skin, body, and mind of the user Ua in the support DB 20.
肌状態認識部11は、このようにして初期ユーザ情報データから認識したユーザUaの肌状態、体状態、及び心状態の主観データと客観データに基づいて、図8の右側の三角形で示したように、肌状態を1〜9、体状態を1〜6、心状態を1〜6の各スコアで表した3軸の初期値を設定する。なお、肌状態のスコアと同様に、体状態又は心状態の主観データ及び客観データから体状態又は心状態の主観スコア及び客観スコアが算出され、それらに基づいて体状態のスコア及び心状態のスコアとして扱われてもよい。 Based on the subjective data and objective data of the skin state, body state, and heart state of the user Ua thus recognized from the initial user information data, the skin state recognition unit 11 is indicated by the right triangle in FIG. In addition, initial values of three axes representing the skin state as 1 to 9, the body state as 1 to 6, and the heart state as 1 to 6 are set. Similarly to the skin condition score, the body condition or the mental condition subjective score and the objective score are calculated from the body condition or the mental condition subjective data and the objective data, and based on these, the body condition score and the mind condition score are calculated. May be treated as
さらに、施策グループ選択部12は、初期ユーザ情報データに含まれる「なりたい肌レベル」「施策のカテゴリー、希望、頻度」及び「現在行っている施策」を取得する。「なりたい肌レベル」「施策のカテゴリー,希望,頻度」及び「現在行っている施策」は、肌サポートアプリ35aにより、ユーザUaが入力したものである。 Further, the measure group selecting unit 12 acquires “skin level to be desired”, “measure category, hope, frequency” and “currently implemented measure” included in the initial user information data. The “satisfying skin level”, “measure category, hope, frequency” and “currently implemented measure” are input by the user Ua through the skin support application 35a.
ここで、「なりたい肌レベル」において、「なりたい肌」とは、乾燥感改善、ごわつき改善、敏感肌改善、ニキビ改善、しぼみ感改善、シミ改善、シワ改善、たるみ改善、くすみ改善、くま改善、顔色改善、及びハリ改善の中から選択された肌状態の改善対象である。また、「レベル」とは、各対象の肌状態に対するユーザUaの満足度であって、肌サポートアプリにおいて1〜10の10段階でユーザが選択したレベルである。 Here, in “Skin Level”, “Skin Level” refers to dryness improvement, wrinkle improvement, sensitive skin improvement, acne improvement, blurring improvement, spot improvement, wrinkle improvement, sagging improvement, dullness improvement, bear improvement, It is a skin condition improvement target selected from face color improvement and elasticity improvement. Further, the “level” is the level of satisfaction of the user Ua with respect to the skin condition of each target, and is a level selected by the user in 10 levels from 1 to 10 in the skin support application.
サポートDB20は、各改善対象に関連付けられた肌状態の主観状態の改善傾向及び客観状態の改善傾向を記憶している。例えば、図11Cに示されるように、「乾燥感改善」には、肌状態の主観状態「乾燥感改善」と、肌状態の客観状態の基準「保水能力と皮脂適格性との差を最小化」とが関連付けられている。 The support DB 20 stores the improvement tendency of the subjective state of the skin state and the improvement tendency of the objective state associated with each improvement target. For example, as shown in FIG. 11C, “Dry feeling improvement” includes a skin condition subjective condition “dry feeling improvement” and a skin condition objective condition criterion “the difference between water retention ability and sebum suitability is minimized. ".
例えば、「なりたい肌」が「乾燥感改善」であり、現状の肌状態の乾燥感の満足度のレベルが3であるときに、ユーザUaの選択に応じて、「乾燥感改善」と関連付けられたユーザUaの肌状態の主観状態「乾燥感改善」についての満足度5が主観的な目標レベルとして設定される。 For example, when “desired skin” is “improvement of dryness” and the satisfaction level of dryness in the current skin state is 3, it is associated with “improvement of dryness” according to the selection of the user Ua. Satisfaction level 5 about the subjective state “improvement of dryness” of the skin state of the user Ua is set as a subjective target level.
また、施策グループ選択部12は、「乾燥感改善」に関連付けられた肌状態の客観的な改善対象を設定する。例えば、施策グループ選択部12は、「乾燥感改善」に関連付けられた基準「保水能力と皮脂適格性との差を最小化」に基づいて、ユーザUaの肌状態のうち、保水能力よりも低い皮脂適格性の値2を客観的な目標レベルとして設定する。 In addition, the measure group selection unit 12 sets an objective improvement target of the skin condition associated with “dryness improvement”. For example, the measure group selection unit 12 is lower than the water retention capability among the skin states of the user Ua based on the criterion “minimize the difference between water retention capability and sebum suitability” associated with “improvement of dryness”. Sebum eligibility value 2 is set as an objective target level.
また、「施策のカテゴリー、希望、頻度」において、カテゴリーとしては「食生活、自
宅での行動、運動、化粧品の使い方」等、希望としては「難易度、時間制約、肌ケアを行うシーン」等、頻度としては「1日当たりのアドバイスを受ける回数」等が選択される。
In addition, in “Category category, hope, frequency”, the category is “Eating habits, behavior at home, exercise, how to use cosmetics,” etc., and “hope, difficulty, time constraints, skin care scenes”, etc. As the frequency, “the number of times of receiving advice per day” or the like is selected.
「現在行っている施策」は、ユーザUaがすでに行っている施策であり、「湯船につかる」等の内容及び頻度又は程度などにより表される。 “Currently implemented measure” is a measure that the user Ua has already taken, and is represented by the content and frequency or degree of “use a bath”.
[E.スケジュール決定工程]
図3に示した「2.スケジュール決定」の工程は、施策グループ選択部12及び施策情報送信部13により実行される。施策グループ選択部12は、図4のSTEP12で、ゴール(主観的な目標レベル及び客観的な目標レベル)を達成するための施策グループを選択する。この選択は、上述した各改善対象に関連付けられた、肌状態の主観状態の改善傾向と肌状態の客観状態の改善傾向と適した周辺環境とを考慮して行われる。施策グループ選択部12は、あらかじめ登録された地域またはGPSセンサ等によって検出された位置情報と、端末の時計機能から取得した日時とに基づいて、スケジュール期間におけるユーザUaの周辺環境の温度、湿度等を予測する。
[E. Schedule determination process]
The step of “2. Schedule determination” shown in FIG. 3 is executed by the measure group selection unit 12 and the measure information transmission unit 13. The measure group selection unit 12 selects a measure group for achieving a goal (a subjective target level and an objective target level) in STEP 12 of FIG. This selection is performed in consideration of the improvement tendency of the subjective state of the skin state, the improvement tendency of the objective state of the skin state, and the suitable surrounding environment, which are associated with each improvement target described above. The measure group selection unit 12 determines the temperature, humidity, etc. of the surrounding environment of the user Ua during the schedule period based on the location information detected by a pre-registered region or GPS sensor and the date and time acquired from the clock function of the terminal. Predict.
例えば、施策グループ選択部12は、カテゴリーの希望が「自宅での行動、食生活、運動」であり、梅雨の時期のように湿度が平均50%と予測される季節であり、主観的な目標レベルが「乾燥感」の満足度5以上、客観的な目標レベルが皮脂適格性2以上である場合、主観状態の改善傾向が「乾燥感改善」を含み、客観状態の改善傾向が「皮脂適格性向上」を含み、カテゴリーに「自宅での行動、食生活、運動」のいずれかであり、適した周辺環境が湿度50%と矛盾しない施策を選択する。 For example, the measure group selection unit 12 is a season in which the category hope is “behavior at home, eating habits, exercise” and the humidity is predicted to be an average of 50% as in the rainy season. If the level is “dryness” satisfaction level 5 or higher and the objective target level is sebum qualification level 2 or higher, the improvement tendency of the subjective condition includes “improvement of dryness” and the improvement tendency of the objective condition is “sebum qualification Select a measure that includes “improvement” and the category is “behavior, eating habits, exercise” at home, and the suitable surrounding environment is consistent with 50% humidity.
ここで、主観状態の改善傾向及び客観状態の改善傾向は、予め担当者T等の専門家によって定められたものであってもよいし、サポートDB20に記憶された他のユーザUb、Ucが実施した施策と他のユーザUb、Ucの肌状態の時系列的変化に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよいし、実施した施策とユーザUaの肌状態の時系列的変化がサポートDB20に保存されている場合には、当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよい。 Here, the improvement tendency of the subjective state and the improvement tendency of the objective state may be determined in advance by an expert such as the person in charge T or the like, and are implemented by other users Ub and Uc stored in the support DB 20. May be an improvement tendency of the subjective state and an improvement state of the objective state estimated based on a time-series change of the skin state of the other user Ub and Uc, and the implemented measure and the skin state of the user Ua When the time-series changes are stored in the support DB 20, the improvement tendency of the subjective state and the improvement tendency of the objective state estimated based on the information may be used.
例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策と、その施策を実施した前後の他のユーザUb、Ucそれぞれごとの肌状態の主観データの時系列的変化及び他のユーザUb、Ucそれぞれごとの肌状態の客観データの時系列的変化の一方又は両方とが記憶される。 For example, in the support DB 20, the measures implemented by each of the other users Ub and Uc, the time-series changes in the subjective data of the skin condition for each of the other users Ub and Uc before and after the implementation of the measures, and other One or both of time-series changes in objective data of the skin state for each of the users Ub and Uc are stored.
また、例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策「湯船につかる」と、その施策を実施した前後における、他のユーザUb、Ucそれぞれの肌状態の主観状態の時系列的変化としての「乾燥感についての満足度」が記憶されているとする。 In addition, for example, in the support DB 20, the measure “used by the bathtub” performed by each of the other users Ub and Uc and the subjective state of the skin condition of each of the other users Ub and Uc before and after the implementation of the measure. It is assumed that “satisfaction with dryness” as a time series change is stored.
このとき、施策グループ選択部12は、各他のユーザUb、Ucごとに、施策「湯船につかる」について、例えば、湯船につかる前日と、湯船につかった日の肌状態の主観データ(乾燥感についての満足度)の変化量を算出する。そして、施策グループ選択部12は、各他のユーザUb、Ucごとの乾燥感についての満足度の変化量の平均値をとる。施策グループ選択部12は、例えば、「乾燥感についての満足度」の変化量の平均値が所定値以上である場合に、施策「湯船につかる」の主観状態の改善傾向を「乾燥感改善」と認識する。客観状態の改善傾向についても、主観状態の改善傾向と同様に認識できる。 At this time, for each of the other users Ub and Uc, the measure group selection unit 12 has, for example, the subjective data (dry feeling) of the skin condition on the day before using the bathtub and the day when using the bathtub. (Satisfaction level) is calculated. And the measure group selection part 12 takes the average value of the variation | change_quantity of satisfaction about the dry feeling for each other users Ub and Uc. For example, when the average value of the amount of change in “satisfaction with dryness” is equal to or greater than a predetermined value, the measure group selection unit 12 sets the improvement tendency of the subjective state of the measure “use a bathtub” as “improvement in dryness”. Recognize. The improvement tendency of the objective state can be recognized in the same manner as the improvement tendency of the subjective state.
施策グループ選択部12は、ユーザUaの年齢及び肌状態に基づいて、同年代、同様の
肌状態等、処理対象とする他のユーザUb、Ucの範囲を絞ってもよい。
The measure group selection unit 12 may narrow down the ranges of other users Ub and Uc to be processed, such as the same age and similar skin conditions, based on the age and skin condition of the user Ua.
また、施策グループ選択部12は、サポートDBに実施した施策とユーザUaの肌状態の時系列的変化が保存されている場合には、上記と同様にして算出した当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 Further, the measure group selection unit 12 is estimated based on the information calculated in the same manner as described above when the measures implemented in the support DB and the time-series changes in the skin condition of the user Ua are stored. You may recognize the improvement tendency of a subjective state, and the improvement tendency of an objective state.
施策グループ選択部12は、ユーザUaの第1回目のスケジュール決定工程においては、他のユーザUb、Ucの肌状態の主観データ、客観データから上記主観状態の改善傾向及び客観状態の改善傾向を認識し、ユーザUaの第2回目のスケジュール決定工程においてはユーザUaの肌状態の主観データ、客観データから主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 In the first schedule determination step of the user Ua, the measure group selection unit 12 recognizes the improvement tendency of the subjective state and the improvement tendency of the objective state from the subjective data and objective data of the skin state of the other users Ub and Uc. And in the user's Ua 2nd schedule determination process, you may recognize the improvement tendency of a subjective state, and the improvement tendency of an objective state from the subjective data and objective data of the user's Ua skin state.
施策グループ選択部12は、肌状態のみならず、心状態、体状態についても同様に主観状態の改善傾向及び客観状態の改善傾向を認識し、当該心状態、体状態の主観状態の改善傾向及び客観状態の改善傾向を加味して施策を選択してもよい。 The measure group selection unit 12 recognizes not only the skin state but also the mental state and the body state in the same manner, the improvement tendency of the subjective state and the improvement state of the objective state, A measure may be selected in consideration of an improvement tendency of the objective state.
施策グループ選択部12は、「現在行っている施策」と同内容及び同頻度または同程度の施策を施策グループから除外してもよい。ユーザが既に行っている施策は、提案するまでもないと考えられるからである。 The measure group selection unit 12 may exclude the measure having the same content, the same frequency, or the same level as the “currently implemented measure” from the measure group. This is because it is considered that the measures that the user has already taken need not be proposed.
図11Aの例では、施策グループ選択部12は、「湯船につかる」「ビタミンC摂取」「野菜摂取」「1万歩以上歩く」を含むように複数の施策の組合せである施策グループを選択する。 In the example of FIG. 11A, the measure group selection unit 12 selects a measure group that is a combination of a plurality of measures so as to include “use a bathtub”, “vitamin C intake”, “vegetable intake”, and “walk more than 10,000 steps”. .
施策情報送信部13は、施策グループの中から、ユーザUaの「施策のカテゴリー、希望、頻度」に応じて施策の優先度を評価し、当該優先度に従って初期の施策を決定する。図12には、初期の施策として「湯船につかる」「野菜摂取」「1万歩以上歩く」が選択されたスケジュールの例を示している。施策情報送信部13は、このようにして決定したスケジュールの内容を示すスケジュールデータをユーザ端末30に送信する。 The measure information transmission unit 13 evaluates the priority of the measure according to the “category category, hope, frequency” of the user Ua from the measure group, and determines the initial measure according to the priority. FIG. 12 illustrates an example of a schedule in which “use a bathtub”, “vegetable intake”, and “walk more than 10,000 steps” are selected as initial measures. The measure information transmission unit 13 transmits schedule data indicating the contents of the schedule determined in this way to the user terminal 30.
施策情報送信部13は、併せて、ユーザUaの指定を基に、一定期間の各工程の実施の計画を作成する。図11Bには、START時にゴール設定とスケジュール決定を行い、毎日モニタリングをし、1週間ごとにスケジュール修正を行い、1か月後に進捗グラフを作成し、3か月目にゴール判定と新たなゴール設定を行うという一連のイベントの計画が示されている。施策情報送信部13は、ユーザUaの指定に加えてまたは代えて、あらかじめ定められた、一定期間の各工程の実施の計画を用いてもよい。 The measure information transmission unit 13 also creates a plan for performing each process for a certain period based on the designation of the user Ua. In FIG. 11B, goal setting and schedule determination at START are performed, daily monitoring is performed, schedule is corrected every week, a progress graph is created after one month, goal determination and new goal are established at the third month The plan for a series of events to set up is shown. The measure information transmission unit 13 may use a predetermined execution plan for each process for a certain period in addition to or instead of designation by the user Ua.
ユーザ端末30において、図6のSTEP52で、肌状態認識システム10からスケジュールデータを受信すると、肌サポートアプリ35aは、図12に示したようなスケジュールの実行表及び図11Bに示したような作業内容の計画を表示可能にして、ユーザUaによる各施策の実施を促す。図12のスケジュールの実行表においては、各施策(「湯船につかる」、「野菜摂取」、「1万歩以上歩く」)の内容が表示される。 When the schedule data is received from the skin condition recognition system 10 in STEP 52 of FIG. 6 at the user terminal 30, the skin support application 35a displays the schedule execution table as shown in FIG. 12 and the work content as shown in FIG. 11B. The user Ua is encouraged to implement each measure. In the schedule execution table of FIG. 12, the contents of each measure (“use a bath”, “vegetable intake”, “walk more than 10,000 steps”) are displayed.
[F.モニタリング工程]
図3に示した「3.モニタリング」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは毎日)、肌状態認識部11及び施策情報送信部13により実行される。肌サポートアプリ35aの利用を開始したユーザUaは、ユーザ端末30により、日々の肌、体、心の各状態と、スケジュールにより指示された施策の実施状況と、スケジュールにより指示された施策以外のユーザUaの自主的な行動(施策外行動)の実施状況とを入力する。施策の実施状況には、「湯船につかる」、「野菜摂取」、「1万歩以上歩く」をそれぞれ実施したかどうかを示す情報のほか、「30分」および「湯船につかる」、「300g」および「野菜を摂取」、「1万5千歩」および「歩く」など、時間、量などで表される施策の実行の度合いが含まれる。
[F. Monitoring process]
The process of “3. monitoring” shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure information transmission unit 13 for each period set by the user Ua on the skin support application 35a (daily in FIG. 11B). . The user Ua who has started to use the skin support application 35a uses the user terminal 30 to make daily skin, body, and mind states, the implementation status of the measures instructed by the schedule, and users other than the measures instructed by the schedule. Enter the implementation status of Ua's voluntary action (action outside action). The implementation status of the measures includes “30 minutes”, “use on a bathtub”, “300 g” in addition to information indicating whether or not “use a bathtub”, “taken vegetables”, and “walk more than 10,000 steps”. ”And“ Vegetable intake ”,“ 15,000 steps ”,“ Walk ”, and the like, the degree of execution of measures represented by time, amount, and the like is included.
肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されるとSTEP60に処理を進め、上述した初期ユーザ情報データと同様に、ユーザUaの肌、体、心の状態についての主観データと客観データを含む現状ユーザ情報データを肌状態認識システム10に送信してSTEP54に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されない場合、そのままSTEP54に処理を進める。ここで送信されるデータには、角質採取テープ37によって採取された角層細胞に関するデータは含まれない。 The skin support application 35a proceeds to STEP 60 when the skin, body, and mind states are input by the user Ua in STEP 53 of FIG. 6, and the skin, body, Current user information data including subjective data and objective data regarding the state of the mind is transmitted to the skin condition recognition system 10, and the process proceeds to STEP54. In step 53 of FIG. 6, the skin support application 35a proceeds to step 54 as it is when the user Ua does not input the skin, body, and mind states. The data transmitted here does not include data relating to the stratum corneum cells collected by the keratin collection tape 37.
また、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されたときにSTEP61に処理を進め、スケジュールの実行状況を示す実行状況データを肌状態認識システム10に送信して図7のSTEP55に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されない時は、そのままSTEP55に処理を進める。 The skin support application 35a advances the process to STEP 61 when the execution status of the schedule (execution status of each measure) is input by the user Ua in STEP 54 of FIG. 6, and executes execution status data indicating the execution status of the schedule. The data is transmitted to the skin condition recognition system 10 and the process proceeds to STEP 55 in FIG. The skin support application 35a proceeds to STEP 55 as it is when the execution status of the schedule (execution status of each measure) is not input by the user Ua in STEP 54 of FIG.
さらに、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されたときにSTEP62に処理を進め、実施された施策外行動の内容を示す施策外行動実施データを肌状態認識システム10に送信してSTEP56に処理を進める。なお、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されないときには、そのままSTEP56に処理を進める。 Furthermore, the skin support application 35a advances the process to STEP 62 when the implementation status of the off-policy action is input by the user Ua in STEP 55 of FIG. 7, and the non-measure action execution data indicating the content of the off-measure action performed. Is transmitted to the skin condition recognition system 10, and the process proceeds to STEP56. The skin support application 35a proceeds to STEP 56 as it is when the implementation state of the action outside the measure is not input by the user Ua in STEP 55 of FIG.
図4のSTEP13〜図5のSTEP16、及び図4のSTEP20〜STEP22は、施策情報送信部13による処理である。肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信したときにSTEP20に処理を進め、現状ユーザ情報データをサポートDB20に蓄積してSTEP14に処理を進める。なお、肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信しないときは、STEP14にそのまま処理を進める。 STEP 13 in FIG. 4 to STEP 16 in FIG. 5 and STEP 20 to STEP 22 in FIG. 4 are processes by the measure information transmitting unit 13. The skin condition recognition unit 11 advances the process to STEP 20 when receiving the current user information data from the user terminal 30 in STEP 13, accumulates the current user information data in the support DB 20, and advances the process to STEP 14. The skin condition recognition unit 11 proceeds to STEP 14 as it is when it does not receive the current user information data from the user terminal 30 at STEP 13.
また、施策情報送信部13は、STEP14でユーザ端末30から実行状況データを受信したときにSTEP21に処理を進め、実行状況データをサポートDB20に蓄積してSTEP15に処理を進める。一方で、STEP14でユーザ端末30から実行状況データを受信していないと判定された場合は、そのままSTEP15に処理を進める。 Further, the measure information transmission unit 13 proceeds to STEP 21 when receiving the execution status data from the user terminal 30 in STEP 14, accumulates the execution status data in the support DB 20, and proceeds to STEP 15. On the other hand, if it is determined in STEP 14 that execution status data has not been received from the user terminal 30, the process proceeds to STEP 15 as it is.
さらに、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信したときにSTEP22に処理を進め、施策外行動実施データをサポートDB20に蓄積して図5のSTEP16に処理を進める。一方で、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信しない時は、そのまま図5のSTEP16に処理を進める。 Further, the measure information transmission unit 13 proceeds to STEP 22 when receiving the non-measure action execution data from the user terminal 30 in STEP 15, accumulates the non-measure action execution data in the support DB 20, and performs the process in STEP 16 of FIG. 5. Proceed. On the other hand, when the measure information transmitting unit 13 does not receive the non-measure action execution data from the user terminal 30 in STEP 15, the measure information transmitting unit 13 proceeds to STEP 16 in FIG.
図5に移って、STEP16で、施策情報送信部13は、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、及び施策外行動実施データ等に基づいて、スケジュールの進捗状況を示す進捗表データを作成し、この進捗表データをユーザ端末30に送信する。 Moving to FIG. 5, in STEP 16, the measure information transmission unit 13 is based on the initial user information data, current user information data, execution status data, non-measure action execution data, and the like of the user Ua stored in the support DB 20. Progress table data indicating the progress status of the schedule is created, and this progress table data is transmitted to the user terminal 30.
ここで、スケジュールの進捗表は、例えば図12に示したように、上から順に、肌状態(ここでは乾燥肌)のレベル、体状態のレベル、心状態のレベル、施策(湯船につかる、野菜摂取、1万歩以上歩く)の実施状況、暮らし情報(野菜摂取量、水分摂取量)、及び暮らし特殊事例が、1日単位で表示する構成となっている。 Here, for example, as shown in FIG. 12, the progress chart of the schedule includes, from the top, the level of the skin condition (here, dry skin), the level of the body condition, the level of the mental condition, and the measure (the vegetable used in the bathtub) The implementation status of ingestion (walking more than 10,000 steps), living information (vegetable intake, water intake), and living special cases are displayed on a daily basis.
また、スケジュール進捗表には、施策の実行度合い(「30分」湯船につかる、「300g」野菜摂取、「1万5千歩」歩く)が含まれている。 In addition, the schedule progress table includes the degree of execution of the measure (“30 minutes” used on a bathtub, “300 g” vegetable intake, “15,000 steps” walk).
ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP56で、肌状態認識システム10から送信された進捗表データを受信したときにSTEP63に処理を進め、進捗表データをメモリ36に保持する。肌サポートアプリ35aは、メモリ36に格納された進捗表データを用いて、図12に示した進捗表をユーザ端末30の表示器31に表示する。 In the user terminal 30, the skin support application 35 a proceeds to STEP 63 when receiving the progress table data transmitted from the skin condition recognition system 10 in STEP 56 of FIG. 7, and stores the progress table data in the memory 36. The skin support application 35 a displays the progress table shown in FIG. 12 on the display 31 of the user terminal 30 using the progress table data stored in the memory 36.
また、肌サポートアプリ35aは、進捗表データの他に、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等を用いて、ユーザUaの肌、体、心の各状態の推移や変化を示す情報を、ユーザ端末30の表示器31に表示する。 In addition to the progress table data, the skin support application 35a recognizes the initial user information data, current user information data, and execution status data of the user Ua, which is recognized through communication, and is stored in the support DB 20 of the skin condition recognition system 10. The information indicating the transition or change of each state of the skin, body, and mind of the user Ua is displayed on the display 31 of the user terminal 30 using the non-measure action execution data and the like.
例えば、肌サポートアプリ35aは、図13に示したように、スケジュールによる施策以外のユーザUaの行動(洗顔法の変更、マッサージを受けた等)、及びユーザの体調(生理、睡眠不足等)と、ユーザUaの肌状態の変化の関係を日単位の時系列グラフで、表示器31に表示する。 For example, as shown in FIG. 13, the skin support application 35 a is configured such that the user Ua's actions other than the measures based on the schedule (change of face washing method, massaged, etc.) and the user's physical condition (physiology, lack of sleep, etc.) The relationship between changes in the skin condition of the user Ua is displayed on the display 31 in a time series graph in units of days.
また、肌サポートアプリ35aは、図14に示したように、一カ月単位で、ユーザUaの角質状態を含む肌状態、心理状態、肌ケアの満足度、及び化粧品の使い方の評価値の変化を対比したレーダーチャートを表示器31に表示する。 Further, as shown in FIG. 14, the skin support application 35a changes the evaluation value of the skin condition including the horny condition of the user Ua, the psychological condition, the satisfaction degree of the skin care, and the usage value of the cosmetic product in units of one month. The contrasted radar chart is displayed on the display 31.
ユーザUaは、肌サポートアプリ35aによるこれらの表示を視認して、自身の肌、体、心の各状態の変化を確認することにより、肌の改善度と共に、体と心の状態の変化も把握することができるため、肌、体、及び心の状態をバランス良く改善しながら、目標とする肌状態のゴールへの到達することができる。 The user Ua visually recognizes these displays by the skin support application 35a and confirms changes in the state of his / her skin, body and mind, thereby grasping changes in the state of the body and mind as well as the degree of improvement of the skin. Therefore, the goal of the target skin condition can be reached while improving the condition of the skin, body and mind in a well-balanced manner.
また、肌サポートアプリ35aは、STEP63の後、STEP64に進み、図19に示されるシミュレータ表示処理を実行する。シミュレータ表示処理の詳細については後述する。 The skin support application 35a proceeds to STEP 64 after STEP 63, and executes the simulator display process shown in FIG. Details of the simulator display process will be described later.
[G.スケジュール修正]
図3に示した「4.スケジュール修正」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは1週間ごとに)、施策情報送信部13により実行される。図5のSTEP17〜STEP20、及びSTEP30〜STEP33が、施策情報送信部13による処理である。
[G. Schedule correction]
The process of “4. Schedule correction” shown in FIG. 3 is executed by the measure information transmission unit 13 for each period set by the user Ua on the skin support application 35a (every week in FIG. 11B). STEP 17 to STEP 20 and STEP 30 to STEP 33 in FIG. 5 are processes by the measure information transmitting unit 13.
施策情報送信部13は、STEP17で、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、及び実行状況データ等に基づいて、ユーザUa肌状態の目標達成度、スケジュールに組み込まれた各施策の実行度、及び各施策の効果を評価する。 The measure information transmission unit 13 is incorporated in the target achievement level and schedule of the user Ua skin state based on the initial user information data, current user information data, execution status data, and the like of the user Ua stored in the support DB 20 in STEP 17. The degree of execution of each measure and the effect of each measure are evaluated.
施策情報送信部13は、図15Aに示した施策の評価基準を用いて、肌状態と体又は心の状態との相関関係を抽出し、この相関関係に基づいて、スケジュールに組み込まれた各施策の継続、施策グループからの除外、施策の中止、別の施策への変更を判断する。 The measure information transmission unit 13 extracts the correlation between the skin state and the body or mind state using the measure evaluation criteria shown in FIG. 15A, and each measure incorporated in the schedule based on this correlation Continuation, exclusion from the measure group, discontinuation of the measure, change to another measure.
図15Aの評価基準では、判定項目として、実施の有無、肌への影響、体への影響、心への影響という四項目が使用され、実施率が所定実施率を超え、肌に良い影響があり、且つ、体と心に悪い影響がない施策については、A評価となって継続と判断される。なお、図15Aでは、実施率が所定の実施率を超えた施策を「実施」として表記し、実施率が所定の実施率以下であった施策を「不実施」として表記している。図12及び図15Bでも同様である。 In the evaluation criteria of FIG. 15A, four items of presence / absence of execution, influence on the skin, influence on the body, influence on the mind are used as the determination items, and the implementation rate exceeds the predetermined implementation rate, which has a positive effect on the skin. A measure that does not have a bad influence on the body and mind is judged as A and is determined to continue. In FIG. 15A, a measure whose implementation rate exceeds a predetermined implementation rate is denoted as “implementation”, and a measure whose implementation rate is equal to or less than the predetermined implementation rate is denoted as “non-execution”. The same applies to FIGS. 12 and 15B.
施策の影響のタイミングと影響が継続する期間が施策ごとに定められている場合、施策
情報送信部13は、施策の影響のタイミングと施策の影響が継続する期間に基づいて、各施策の影響を判定してもよい。
When the timing of the impact of a measure and the period during which the impact continues are determined for each measure, the measure information transmission unit 13 determines the impact of each measure based on the timing of the impact of the measure and the duration of the impact of the measure. You may judge.
例えば、「湯船につかる」という施策の肌への影響、体への影響、心への影響は、翌日に影響が出、1日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「湯船につかる」という施策の影響は、12月16日の各状態に反映されていると判断する。 For example, the effect on the skin, the influence on the body, the influence on the mind of the measure “use a bath” will affect the next day, and if it is determined to continue for one day, the measure information transmission unit 13 For example, it is determined that the influence of the measure “use a bathtub” on December 15 is reflected in each state on December 16.
また、「野菜摂取」という施策の肌への影響、体への影響、心への影響は、1週間後に影響が出、3日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「野菜摂取」という施策の影響は、12月22日〜12月24日の各状態に反映されていると判断する。 In addition, when it is determined that the effect of “vegetable intake” on the skin, the effect on the body, and the effect on the mind will be affected after one week and will continue for three days, the measure information transmission unit 13 For example, it is determined that the influence of the measure “vegetable intake” on December 15 is reflected in each state from December 22 to December 24.
それに対して、実施され、肌に良い影響があるが、体と心のいずれかに悪い影響がある施策については、B評価となって中止或は別施策への変更と判断される。また、実施率が所定の実施率以下となった施策はユーザUaにとって負荷が大きかったと考えられるため、C評価となって中止或は別施策(例えば、ユーザUaの負荷が軽減する施策又は別の施策)への変更と判断される。 On the other hand, measures that are implemented and have a positive effect on the skin, but have a negative effect on either the body or the mind, are evaluated as B and are determined to be canceled or changed to another measure. In addition, since it is considered that a measure for which the implementation rate is equal to or less than the predetermined implementation rate has a large load on the user Ua, the evaluation becomes C evaluation and is canceled or another measure (for example, a measure that reduces the load on the user Ua or another measure) It is judged to be a change to measures.
施策情報送信部13は、各施策を1日だけ実施することで肌、体、心への良いまたは悪い影響があるかの評価を行っても良いし、数日や数週間などの一定期間において各施策を実施することで、肌、体、心への良いまたは悪い影響があるかの評価を行ってもよい。一定期間で評価を行う場合、施策情報送信部13は、例えば、一定割合でいずれかの状態に悪影響が出た場合にB評価とし、実施割合が一定以下である場合にC評価とし、それ以外の場合A評価としてもよい。これに代えて、施策情報送信部13は、例えば、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価としてもよい。また、1日におけるいずれかの状態の満足度が所定以下となり、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にC評価とし、1日の評価におけるいずれかの状態の満足度が所定以下となり、または、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価とし、1日におけるいずれかの状態の満足度が所定値を超え、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定値を超えた場合にA評価とするなど、1日の評価と一定期間の評価とを組み合わせて用いてもよい。 The measure information transmission unit 13 may evaluate whether there is a good or bad influence on the skin, body, and mind by implementing each measure for one day, or in a certain period such as several days or weeks. By implementing each measure, it may be evaluated whether there is a good or bad influence on the skin, body and mind. When evaluating in a certain period, for example, the measure information transmitting unit 13 sets B evaluation when any state is adversely affected at a certain rate, C evaluation when the implementation rate is below a certain rate, and otherwise In the case of A, it is good also as A evaluation. Instead of this, for example, the measure information transmission unit 13 may perform the B evaluation when the average value of the satisfaction degree in any state in a certain period is equal to or less than a predetermined value. In addition, if the satisfaction level of any state in one day is less than or equal to a predetermined value and the average value of the satisfaction level of any state in a certain period is less than or equal to a predetermined value, the C evaluation is used. If the satisfaction level of any state is less than or equal to a predetermined value, or the average value of the satisfaction level of any state in a certain period is less than or equal to a predetermined value, a B evaluation is made. If the average value of satisfaction in any state over a certain period exceeds a predetermined value, A evaluation may be used in combination with one-day evaluation and evaluation over a certain period. .
また、施策情報送信部13は、図8に示した肌状態のスコアの向上度が所定の向上度以下である場合に、当該肌状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。施策情報送信部13は、体状態又は心状態のスコアの向上度が所定の向上度以下である場合に、体状態又は心状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。 Further, when the improvement degree of the skin condition score shown in FIG. 8 is equal to or less than a predetermined improvement degree, the measure information transmission unit 13 performs a measure in which the improvement degree of the skin condition score is equal to or less than the predetermined improvement degree. It may be excluded from the measure group. The measure information transmission unit 13 measures a measure in which the improvement level of the body state or the mental state score is equal to or lower than the predetermined improvement level when the improvement level of the body state or the mental state score is equal to or lower than the predetermined improvement level. May be excluded.
図15Bは、図15Aに示した評価基準を、本実施形態における施策(湯船につかる、野菜摂取、1万歩以上歩く)に適用した例を示している。図15Bにより、施策情報送信部13は、「湯船につかる」についてはA評価として、次のスケジュールでの継続を決定し、「野菜摂取」についてはB評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定し、「1万歩以上歩く」についてはC評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定している。 FIG. 15B shows an example in which the evaluation standard shown in FIG. 15A is applied to a measure in the present embodiment (taken by a bathtub, ingesting vegetables, walking more than 10,000 steps). According to FIG. 15B, the measure information transmission unit 13 decides to continue on the next schedule as “A” for “use on a bathtub”, and exclude from the measure group as “B” for “vegetable intake”. Decided to cancel the schedule or change to other measures, and for “walk more than 10,000 steps” as C evaluation, exclude from the measure group, cancel the next schedule or change to other measures Has been decided.
施策情報送信部13は、複数の施策が行われた影響については、それらの施策の組合せごとに判断する。例えば、施策情報送信部13は、「湯船につかる」「野菜摂取」の組合せが、B評価又はC評価であった場合、「湯船につかる」若しくは「野菜摂取」の単独の施策のみとするか、又はこれらのいずれかの施策と別な施策との組み合わせとするように変更してもよい。 The measure information transmission unit 13 determines, for each combination of these measures, the influence of the plurality of measures being performed. For example, if the combination of “use a bath” and “vegetable intake” is B evaluation or C evaluation, the measure information transmission unit 13 should only use “use a bath” or “vegetable intake” alone. Or you may change so that it may be set as the combination of one of these measures and another measure.
施策情報送信部13はこのような評価処理を行って、スケジュール修正(主として施策グループの他の施策への変更による修正)の要否を判断し、スケジュール修正が必要と判断したときには、STEP30に処理を進めてスケジュールを修正する。そして、修正したスケジュールのデータであるスケジュール修正データをユーザ端末30送信して、ST
EP19に処理を進める。一方、スケジュールの修正が不要であると判断したときには、施策情報送信部13は、図5のSTEP18から図5のSTEP19に処理を進め、この場合はスケジュールは修正されない。
The measure information transmitting unit 13 performs such an evaluation process to determine whether or not schedule correction (mainly correction by changing to another measure of the measure group) is necessary. To correct the schedule. Then, the schedule correction data, which is the corrected schedule data, is transmitted to the user terminal 30, and the ST
Proceed to EP19. On the other hand, when it is determined that the schedule need not be corrected, the measure information transmitting unit 13 proceeds from STEP 18 in FIG. 5 to STEP 19 in FIG. 5, and in this case, the schedule is not corrected.
次に、施策情報送信部13は、STEP19で、初期ユーザ情報データ、現状ユーザ情報データ、及び施策外行動実施データ等に基づいて、ユーザUaが行った各施策外行動(スケジュールに組み込まれている施策以外に、ユーザが行った行動)を評価する。 Next, in STEP 19, the measure information transmission unit 13 is incorporated in each action outside the measure (which is incorporated in the schedule) performed by the user Ua based on the initial user information data, the current user information data, the action-less action execution data, and the like. Evaluate actions taken by users in addition to measures.
施策情報送信部13は、図16Aに示した施策外行動の評価基準を用いて、施策外行動の推奨の有無又は禁止の提案を判断する。図16Aの評価基準では、判定項目として、肌、体、心の各状態への影響が使用される。 The measure information transmission unit 13 determines whether or not the non-measure action is recommended or forbidden using the evaluation standard for the non-measure action shown in FIG. 16A. In the evaluation criteria of FIG. 16A, the influence on each state of skin, body, and mind is used as a determination item.
そして、「肌、体、心のいずれかに良い影響があり、且ついずれについても悪い影響が無い」場合は、D評価となって実施が推奨される。それに対して、「肌、体、心のいずれかに悪い影響がある」場合は、E評価となって禁止が提案される。また、「肌、体、心のいずれにも影響が無い」場合には、F評価となって実施が推奨されない。 Then, when “there is a good effect on any of skin, body, and mind, and there is no adverse effect on any of them”, implementation is recommended as D evaluation. On the other hand, in the case of “there is a bad influence on any of skin, body and mind”, an E evaluation is given and a prohibition is proposed. In addition, in the case of “no effect on skin, body, or mind”, the evaluation is F and implementation is not recommended.
図16Bは、図16Aに示した評価基準を、本実施形態における施策外行動(マッサージを受けた、チョコレートを大量に摂取した)に適用した例を示している。図16Bにより、施策情報送信部13は、「マッサージを受ける」についてはD評価として、次のスケジュールでの実施の推奨を決定している。また、「チョコレートの大量摂取」についてはE評価として、次のスケジュールでの止めるための施策(例えば、和菓子を摂取する代替案)の提案を決定している。 FIG. 16B shows an example in which the evaluation standard shown in FIG. 16A is applied to the action outside the measure in the present embodiment (massage is received and a large amount of chocolate is ingested). As shown in FIG. 16B, the measure information transmission unit 13 determines the recommendation for the implementation on the next schedule as the D evaluation for “receiving massage”. In addition, regarding “a large amount of chocolate intake”, as an E evaluation, a proposal for a measure for stopping at the next schedule (for example, an alternative to ingest Japanese sweets) has been decided.
施策情報送信部13は、スケジュールに組み込まれた施策の中止或は変更、又は施策外行動について、実施の推奨或は禁止の提案を決定したときには、STEP20からSTEP31に処理を進める。そして、推奨を決定したときはSTEP31からSTEP33に処理を進め、施策外行動の実施を推奨する施策外行動推奨データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 When the measure information transmission unit 13 decides to cancel or change the measure incorporated in the schedule, or to decide to recommend or prohibit the implementation of the action outside the measure, the measure information transmitting unit 13 proceeds from STEP 20 to STEP 31. Then, when the recommendation is determined, the process proceeds from STEP 31 to STEP 33, the non-measure action recommendation data for recommending the execution of the non-measure action is transmitted to the user terminal 30, and the process proceeds to STEP 13 in FIG.
一方、施策情報送信部13は、禁止の提案を決定したときには、STEP31からSTEP32に処理を進め、施策外行動の禁止を提案する施策外行動禁止データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 On the other hand, when the measure information transmitting unit 13 determines the proposal of prohibition, the processing proceeds from STEP 31 to STEP 32, and transmits the non-measure action prohibition data for proposing prohibition of the non-measure action to the user terminal 30, and FIG. The process proceeds to STEP13.
また、施策情報送信部13は、推奨又は禁止を提案する施策外行動がない場合には、STEP20から図4のSTEP13に処理を進める。なお、禁止を提案する施策外行動に代替行動がある場合には、禁止の提案に代えて代替行動への変更を提案する施策外行動禁止データをユーザ端末30に送信するようにしてもよい。 Further, when there is no action outside the measure for proposing recommendation or prohibition, the measure information transmission unit 13 proceeds from STEP 20 to STEP 13 in FIG. 4. In addition, when there is a substitute action in the action outside the measure for proposing prohibition, the action prohibition data outside the measure for proposing a change to the substitute action may be transmitted to the user terminal 30 instead of the proposal for the prohibition.
ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP57で、肌状態認識システム10からスケジュール修正データを受信すると、STEP65に処理を進め、スケジュール修正データに基づいてスケジュールを修正する。そして、肌サポートアプリ35aは、メモリ36に保持されたスケジュールデータを更新して、処理をSTEP58に進める。 In the user terminal 30, when receiving the schedule correction data from the skin condition recognition system 10 in STEP57 of FIG. 7, the skin support application 35a proceeds to STEP65 and corrects the schedule based on the schedule correction data. Then, the skin support application 35 a updates the schedule data held in the memory 36 and advances the process to STEP 58.
また、肌サポートアプリ35aは、図7のSTEP58で、肌状態認識システム10から施策外行動推奨データ又は施策外行動禁止データを受信すると、STEP66に処理を進め、受信したデータに応じて、施策外行動を推奨又は禁止の提案を報知する画面をユーザ端末30の表示器31に表示する。なお、この報知は、例えば図12に示した進捗表に報知メッセージを表示して行ってもよい。また、推奨する施策外行動を、新たな施策とし
てスケジュールを修正してもよい。
Also, in step 58 of FIG. 7, the skin support application 35 a proceeds to step 66 when receiving the non-measure action recommendation data or the non-measure action prohibition data from the skin condition recognition system 10, and proceeds with the process according to the received data. A screen for informing the user of the recommended or prohibited action is displayed on the display 31 of the user terminal 30. This notification may be performed, for example, by displaying a notification message on the progress table shown in FIG. Moreover, you may correct a schedule as a new measure for the recommended action outside the measure.
[H.ゴール判定工程]
図3に示した「5.ゴール判定」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11BにおいてはSTARTから3か月後)、肌状態認識部11、施策グループ選択部12及び施策情報送信部13により実行される。
[H. Goal judging process]
The process of “5. goal determination” shown in FIG. 3 is performed for each period set by the user Ua on the skin support application 35a (three months after START in FIG. 11B), the skin condition recognition unit 11, and the measure group This is executed by the selection unit 12 and the measure information transmission unit 13.
肌サポートアプリ35aは、角質採取テープ37の使用と、角質採取テープ37の郵送を促すメッセージをユーザ端末30の表示器31に表示する。 The skin support application 35 a displays on the display 31 of the user terminal 30 a message prompting the use of the keratin collection tape 37 and mailing of the keratin collection tape 37.
肌状態認識部11は、郵送された角質採取テープ37から得られた情報に基づいて、肌状態の客観値(保水能力、皮脂適格性など)を認識する。 The skin condition recognizing unit 11 recognizes an objective value (water retention ability, sebum suitability, etc.) of the skin condition based on information obtained from the keratin sampling tape 37 sent by mail.
また、肌サポートアプリ35aは、アンケートの回答、肌等の撮像の使用を促すメッセージをユーザ端末30の表示器31に表示し、得られた情報を送信する。 In addition, the skin support application 35a displays a message that prompts the use of imaging such as an answer to a questionnaire and skin on the display 31 of the user terminal 30, and transmits the obtained information.
肌状態認識部11は、肌サポートアプリ35aから得られた情報に基づいて、肌の乾燥感の主観値(主観レベル)と、肌状態の客観値(肌の画像スコア)を認識する。 The skin condition recognition unit 11 recognizes the subjective value (subjective level) of the dryness of the skin and the objective value (skin image score) of the skin condition based on the information obtained from the skin support application 35a.
施策グループ選択部12及び施策情報送信部13は、肌の乾燥感の主観値と、肌状態の客観値とに基づいて、肌状態のサポート開始時と3カ月後における評価値を比較して、ゴール達成度を判定する。 The measure group selection unit 12 and the measure information transmission unit 13 compare the evaluation values at the start of support of the skin condition and after three months based on the subjective value of the dryness of the skin and the objective value of the skin condition. Determine the degree of goal achievement.
図17の例では、乾燥感の主観値のレベルが3カ月で3から5に増加しているので達成(○)と判定し、客観値についても、肌の画像スコアが3カ月で3から4に増大し、保水能力が2に維持され、皮脂適格性が1から2に増大しているので達成(○)と判定されている。そして、主観値と客観値が共にゴールを達成しているので、トータルとしてもゴールを達成したと判定している。 In the example of FIG. 17, since the subjective value level of dryness has increased from 3 to 5 in 3 months, it is determined to be achieved (◯), and the objective image value is 3 to 4 in 3 months for the skin image score. Since the water retention capacity is maintained at 2 and the sebum suitability is increased from 1 to 2, it is determined to be achieved (◯). Since both the subjective value and the objective value have achieved the goal, it is determined that the goal has been achieved as a total.
肌状態認識部11及び施策グループ選択部12は、ゴールを達成した場合には新たなゴールを設定するため、図3に示した「1.ゴール設定」の工程を再度実行する。肌状態認識部11及び施策グループ選択部12は、ゴール未達の場合は、「2.スケジュール決定」工程を実施してもよいし、ユーザの希望または進捗に応じて「1.ゴール設定」の工程を再度実行してもよい。 The skin condition recognition unit 11 and the measure group selection unit 12 re-execute the “1. goal setting” step shown in FIG. 3 in order to set a new goal when the goal is achieved. The skin condition recognizing unit 11 and the measure group selecting unit 12 may perform the “2. schedule determination” step when the goal is not reached, or “1. goal setting” according to the user's desire or progress. The process may be performed again.
[I.2次データ生成]
図3に示した「6.2次データ生成」の工程は、2次データ生成部19により実行される。2次データ生成部19は、複数のユーザUから送信される初期ユーザ情報データ、角層細胞解析データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等の各種データ(以下、ユーザ個別データという)を、ユーザごとにサポートDB20に順次蓄積する。
[I. Secondary data generation]
The process of “6.2 secondary data generation” shown in FIG. 3 is executed by the secondary data generation unit 19. The secondary data generation unit 19 includes various types of data (hereinafter referred to as individual users) such as initial user information data, stratum corneum cell analysis data, current user information data, execution status data, non-measure action execution data transmitted from a plurality of users U. Data) is sequentially stored in the support DB 20 for each user.
そして、2次データ生成部19は、サポートDB20に蓄積されたユーザ個別データを分析して、例えば図18に示したように、各ユーザの特性(性別、年齢、居住地、嗜好、ライフスタイル等)、サポートの改善対象(乾燥感、ごわつき、敏感、ニキビ、しぼみ感等)、スケジュールにより提案された施策(湯船につかる、野菜摂取、1万歩以上歩く等)、及び施策の実施による肌、体、心の各状態の変化等を関連付けた2次データを生成する。 Then, the secondary data generation unit 19 analyzes the individual user data accumulated in the support DB 20 and, for example, as shown in FIG. 18, the characteristics of each user (gender, age, residence, preference, lifestyle, etc.) ), Targets for improvement of support (dryness, wrinkle, sensitivity, acne, sensation, etc.), measures proposed by the schedule (eg, use of a bathtub, ingestion of vegetables, walking more than 10,000 steps), and skin resulting from the implementation of the measures, Secondary data that correlates changes in each state of the body and mind is generated.
また、2次データ生成部19は、施策外行動についても図18と同様に、各ユーザの特性と施策外行動の実施による肌、体、心の各状態の影響とを関連付けた2次データを生成する。 The secondary data generation unit 19 also provides secondary data that associates the characteristics of each user with the influence of each state of the skin, body, and mind due to the implementation of the off-policy action, as in FIG. Generate.
このようにして生成された2次データは、同様の特性を有するユーザについて、体及び心に良い影響を与えつつ肌状態の改善を図るために有効な施策を選択する際に、有効に活用することができる。例えば、上述した図3の「2.スケジュール決定」の工程において、施策グループ選択部12は、2次データを参照して、ユーザUaの特性に適合した施策を選択することができる。 The secondary data generated in this way is effectively utilized when selecting effective measures for improving the skin condition while having a good influence on the body and mind for users having similar characteristics. be able to. For example, in the process of “2. Schedule determination” in FIG. 3 described above, the measure group selection unit 12 can select a measure that matches the characteristics of the user Ua with reference to the secondary data.
また、上述した図3の「4.スケジュール修正」の工程において、施策情報送信部13は、ユーザUaの肌、体、心の各状態の推移に応じてスケジュールを変更する際に、2次データを参照して、より有効な施策或は施策外行動を組み込んだスケジュールに変更することができる。 In the process of “4. Schedule modification” in FIG. 3 described above, the measure information transmission unit 13 changes the secondary data when changing the schedule according to the transition of each state of the skin, body, and mind of the user Ua. The schedule can be changed to a plan that incorporates more effective measures or non-measure actions.
さらに、2次データは、肌状態のサポートを行う上で有効に利用できると共に、ある特性を有するユーザ(例えば、東京に住む30代のアウトドア志向の女性等)をターゲットとしたマーケティング等の目的にも利用することができる。そのため、2次データを図1に示した他のシステム60等に提供してもよい。 In addition, secondary data can be used effectively to support skin conditions and for marketing purposes targeting users with certain characteristics (for example, women in their 30s living in Tokyo, etc.). Can also be used. Therefore, the secondary data may be provided to the other system 60 shown in FIG.
[J.シミュレータ表示処理]
図19〜図24を参照して、肌サポートアプリ35aが実行するシミュレータ表示処理(図7のSTEP64)の詳細を説明する。
[J. Simulator display processing]
The details of the simulator display process (STEP 64 in FIG. 7) executed by the skin support application 35a will be described with reference to FIGS.
図19のSTEP71で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データに基づいて、「所定の期間」の肌状態、心状態及び体状態の各スコアの平均値を認識し、メモリ36に記憶する。ここで、「所定の期間」とは、肌状態、心状態及び体状態と施策の実行の度合いとの関係が示される程度の期間であることが好ましく、例えば実行時点から前の、1週間、10日間、1カ月間又は3カ月間である。本実施形態では実行時点を2017年4月10日であるとし、その実行時点から9日前の2017年4月1日から実行時点までの10日間を「所定の期間」として説明する。 In STEP 71 of FIG. 19, the skin support application 35 a recognizes “predetermined” based on the initial user information data and the current user information data of the user Ua accumulated in the support DB 20 of the skin condition recognition system 10 recognized through communication. The average value of each score of the skin state, the heart state, and the body state of “period” is recognized and stored in the memory 36. Here, the “predetermined period” is preferably a period in which the relationship between the skin state, the mind state, and the body state and the degree of execution of the measure is shown. 10 days, 1 month or 3 months. In the present embodiment, the execution time is assumed to be April 10, 2017, and 10 days from April 1, 2017, nine days before the execution time to the execution time, will be described as a “predetermined period”.
例えば、肌サポートアプリ35aは、図20Aに示されるような、所定期間におけるユーザUaの肌状態のスコア、心状態のスコア、体状態のスコアに基づいて、ユーザUaの肌状態のスコアの平均値、心状態のスコアの平均値、体状態のスコアの平均値を認識し、メモリ36に記憶する。ここでは、肌状態のスコアの平均値が8.2であり、心状態のスコアの平均値が5.0であり、体状態のスコアの平均値が2.2である。 For example, the skin support application 35a, as shown in FIG. 20A, based on the user Ua skin condition score, the heart condition score, and the body condition score for a predetermined period, the average value of the user Ua skin condition score The average value of the heart state score and the average value of the body state score are recognized and stored in the memory 36. Here, the average value of the skin condition score is 8.2, the average value of the heart condition score is 5.0, and the average value of the body condition score is 2.2.
図19のSTEP72で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積された初期ユーザ情報データ、現状ユーザ情報データ、実行状況データに基づいて、各施策ごと、各施策のカテゴリーごとの実行の度合いを認識し、メモリ36に記憶する。「施策の実行の度合い」は、各施策ごとに定められる施策の実行の度合いを示す数値である。「施策の実行の度合い」の例には、施策を実行する時間、施策にかかる物の消費量、施策を実行する距離、施策の1日当たりの実行回数、施策の1回実行当たりの実行時間、施策の1回実行当たりの量、施策の所定期間における実行の頻度が含まれる。 In STEP 72 of FIG. 19, the skin support application 35a recognizes each measure based on the initial user information data, the current user information data, and the execution status data accumulated in the support DB 20 of the skin condition recognition system 10 recognized through communication. The degree of execution of each measure for each category is recognized and stored in the memory 36. The “degree of execution of the measure” is a numerical value indicating the degree of execution of the measure determined for each measure. Examples of “degree of policy execution” include the time to execute the policy, the amount of consumption of the policy, the distance to execute the policy, the number of executions of the policy per day, the execution time per execution of the policy, The amount per execution of the measure and the frequency of execution of the measure in a predetermined period are included.
例えば、肌サポートアプリ35aは、図20Bに示されるカテゴリー「食事」の施策「野菜摂取」の所定の期間における実行の度合い「摂取量」を認識し、メモリ36に記憶する。なお、「摂取量」等の実行の度合いは、実際に取得されたデータ(たとえば野菜の摂取量のデータ)そのものであってもよいし、実際に取得されたデータの評価値であってもよい。たとえば、この評価値は、データに示される値が所定の基準値(たとえば野菜の摂取量350g等)に近づくほど、連続的または断続的に大きくなるような値であってもよいし、データに示される値が大きいほど連続的または断続的に大きくなるような値であってもよいし、データに示される値が小さいほど連続的または断続的に大きくなるような値であってもよい。 For example, the skin support application 35a recognizes the degree of execution “intake” in the predetermined period of the measure “vegetable intake” of the category “meal” shown in FIG. Note that the degree of execution of “intake” or the like may be the actually acquired data (for example, vegetable intake data) itself, or may be an evaluation value of the actually acquired data. . For example, the evaluation value may be a value that increases continuously or intermittently as the value indicated in the data approaches a predetermined reference value (eg, vegetable intake 350 g). It may be a value that increases continuously or intermittently as the value shown is large, or may be a value that increases continuously or intermittently as the value shown in the data is small.
肌サポートアプリ35aは、図21Aに示されるように、施策ごとに、所定期間における実行の度合いの平均値及び最大値を認識し、メモリ36に記憶する。所定期間における最大値は、ユーザUaが行った中で最大の値でもよいし、理論的に最大の値であってもよいし、予め定められた値であってもよい。 As shown in FIG. 21A, the skin support application 35 a recognizes the average value and the maximum value of the degree of execution in a predetermined period for each measure, and stores them in the memory 36. The maximum value in the predetermined period may be the maximum value performed by the user Ua, the theoretically maximum value, or a predetermined value.
肌サポートアプリ35aは、カテゴリーごとに、施策の実行の度合いの平均値と最大値との比を取り、これらの平均値を算出することにより、カテゴリーごとの実行の度合いを算出し、メモリ36に記憶する。 The skin support application 35a calculates the degree of execution for each category by taking the ratio between the average value and the maximum value of the degree of execution of the measure for each category, and calculating these average values. Remember.
例えば、肌サポートアプリ35aは、図21Aに示される各施策ごとの所定期間における実行の度合いの平均値及び最大値を基に、以下の式(1)により、カテゴリー「食事」の実行の度合いを評価する。なお、式(1)では小数点以下3桁を四捨五入している。 For example, the skin support application 35a determines the execution degree of the category “meal” by the following formula (1) based on the average value and the maximum value of the execution degree in a predetermined period for each measure shown in FIG. 21A. evaluate. In the formula (1), three decimal places are rounded off.
図19のSTEP73で、肌サポートアプリ35aは、図22に示されるように、シミュレータ全体画面P1をユーザ端末30aの表示器31に出力する。 In STEP73 of FIG. 19, the skin support application 35a outputs the simulator whole screen P1 to the display 31 of the user terminal 30a as shown in FIG.
シミュレータ全体画面P1には、中央に三角形で囲まれる領域P10が表示されている。 On the entire simulator screen P1, a region P10 surrounded by a triangle is displayed at the center.
領域P10の外側、且つ、三角形の各頂点の周辺には、それぞれ、肌状態のスコアを示す表示P11、心状態のスコアを示す表示P12、体状態のスコアを示す表示P13が表示されている。 A display P11 indicating a skin condition score, a display P12 indicating a heart condition score, and a display P13 indicating a body condition score are displayed outside the region P10 and around each vertex of the triangle.
領域P10が、本発明の「所定の領域」に相当する。 The region P10 corresponds to the “predetermined region” of the present invention.
各スコアを示す表示P11、P12、P13は、数値表示P111、P121、P131と、スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とを含む。 The displays P11, P12, and P13 indicating the scores include numerical displays P111, P121, and P131, score slide bars P112, P122, and P132, and score icons P113, P123, and P133.
スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とが、本発明の「ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示」に相当する。 The score slide bars P112, P122, and P132 and the score icons P113, P123, and P133 correspond to the “display indicating at least one score among the user's skin state, heart state, and body state” of the present invention.
スコアスライドバーP112、P122、P132が、本発明の「第2線分表示」に相当する。 The score slide bars P112, P122, and P132 correspond to the “second line segment display” of the present invention.
スコアアイコンP113,P123,P133が、本発明の「第2アイコン」に相当する。 The score icons P113, P123, and P133 correspond to the “second icon” of the present invention.
数値表示P111、スコアスライドバーP112及びスコアアイコンP113が、本発明の「ユーザの肌状態のスコアを示す表示」に相当する。 The numerical value display P111, the score slide bar P112, and the score icon P113 correspond to the “display indicating the score of the user's skin condition” of the present invention.
数値表示P121、P131、スコアスライドバーP122、P132、及びスコアアイコンP123,P133とが本発明の「ユーザの体状態及び心状態のうち少なくとも1つのスコアを示す表示」に相当する。 The numerical displays P121 and P131, the score slide bars P122 and P132, and the score icons P123 and P133 correspond to the “display indicating at least one score among the user's body state and mind state” of the present invention.
各数値表示P111、P121、P131には、それぞれ、図19のSTEP71で認識された対応するスコアの平均値が表示されている。 Each numerical value display P111, P121, P131 displays the average value of the corresponding score recognized in STEP 71 of FIG.
各スコアスライドバーP112、P122、P132には、図19のSTEP71で認識された対応する各スコアの平均値に相当する位置にスコアアイコンP113,P123,P133が表示されている。また、各スコアスライドバーP112、P122、P132は、ユーザ端末30aの表示器31の水平方向(紙面の左右方向)に延びている線分である。表示器31の水平方向が本発明の「第2方向」に相当する。 In each score slide bar P112, P122, P132, score icons P113, P123, P133 are displayed at positions corresponding to the average values of the corresponding scores recognized in STEP 71 of FIG. Moreover, each score slide bar P112, P122, P132 is a line segment extended in the horizontal direction (left-right direction on the paper surface) of the display 31 of the user terminal 30a. The horizontal direction of the display 31 corresponds to the “second direction” of the present invention.
領域P10の内側には、施策の夫々のカテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16が表示されている。領域P10の内側には、全てのカテゴリー表示が表示されてもよいし、ユーザに指定されたカテゴリーのカテゴリー表示が表示されてもよいし、ユーザに推薦している施策のカテゴリーのカテゴリー表示が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策のカテゴリーのカテゴリー表示が所定個数だけ表示されてもよい。 Inside the area P10, the categories “meal”, “behavior”, and “skin care” display P14, P15, and P16 of the measure are displayed. Inside the area P10, all category displays may be displayed, the category display of the category designated by the user may be displayed, or the category display of the category of the measure recommended to the user is displayed. Category display of a category of measures determined to have a high influence on at least one of the user's skin condition, mental condition, and body condition based on the initial user information data, the current user information data, and the execution status A predetermined number may be displayed.
各カテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16は、カテゴリースライドバーP141、P151,P161と、カテゴリーアイコンP142、P152、P162とが含まれている。 Each category “meal”, “behavior”, “skin care” display P14, P15, P16 includes category slide bars P141, P151, P161 and category icons P142, P152, P162.
各カテゴリースライドバーP141、P151,P161には、図19のSTEP72で認識された対応する各カテゴリーの実行の度合いに相当する位置にカテゴリーアイコンP142、P152、P162が表示されている。また、各カテゴリースライドバーP141、P151,P161は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。表示器31の上下方向が本発明の「第1方向」に相当する。 In each category slide bar P141, P151, and P161, category icons P142, P152, and P162 are displayed at positions corresponding to the degree of execution of each corresponding category recognized in STEP 72 of FIG. Moreover, each category slide bar P141, P151, P161 is a line segment extended in the up-down direction (up-down direction of the paper surface) of the display 31 of the user terminal 30a. The vertical direction of the display 31 corresponds to the “first direction” of the present invention.
各カテゴリースライドバーP141、P151,P161及び各カテゴリーアイコンP142、P152、P162が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各カテゴリースライドバーP141、P151,P161が本発明の「第1線分表示」に相当する。各カテゴリーアイコンP142、P152、P162が、本発明の「第1アイコン」に相当する。 Each category slide bar P141, P151, P161 and each category icon P142, P152, P162 correspond to the “display indicating the degree of execution of the measure of the user” of the present invention. Each category slide bar P141, P151, P161 corresponds to the “first line segment display” of the present invention. Each category icon P142, P152, P162 corresponds to the “first icon” of the present invention.
図19のSTEP74で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかのカテゴリースライドバーの押圧操作が検知されたか否かを判定する。本操作は、例えば図22のカテゴリースライドバーP141、P151,P161のいずれか1つが操作された時を代表的な利用シーンとして想定して説明しているが、複数のカテゴリースライドバーが同時に操作されても良い。 In STEP 74 of FIG. 19, the skin support application 35 a determines whether or not any category slide bar pressing operation has been detected via the touch panel 32. This operation has been described assuming that one of the category slide bars P141, P151, and P161 in FIG. 22 is operated as a typical usage scene, but a plurality of category slide bars are operated simultaneously. May be.
図19のSTEP74の判定結果が否定的である場合(図19のSTEP74‥NO)、肌サポートアプリ35aは、再度図19のSTEP74の処理を実行する。 When the determination result of STEP 74 in FIG. 19 is negative (STEP 74... NO in FIG. 19), the skin support application 35a executes the process of STEP 74 in FIG. 19 again.
図19のSTEP74の判定結果が肯定的である場合(図19のSTEP74‥YES)、肌サポートアプリ35aは、図19のSTEP75に進み、図23に示されるように、領域P10内に、施策表示P17、P18、P19を表示する。 If the determination result of STEP 74 in FIG. 19 is affirmative (STEP 74... YES in FIG. 19), the skin support application 35a proceeds to STEP 75 in FIG. 19 and displays the measure in the area P10 as shown in FIG. P17, P18, and P19 are displayed.
施策表示P17、P18、P19は、押圧されたスライドバーに対応するカテゴリー(以下、指定カテゴリーという。)の施策である。図23には、「食事」カテゴリースライドバーP14の押圧操作が検知された場合の施策「野菜摂取」「水分摂取」「三食きちんと」の施策表示P17、P18、P19を記載している。 The measure displays P17, P18, and P19 are measures of a category (hereinafter referred to as a designated category) corresponding to the pressed slide bar. FIG. 23 shows the measure displays P17, P18, and P19 of the measures “vegetable intake”, “moisture intake”, and “three meals neat” when the pressing operation of the “meal” category slide bar P14 is detected.
施策表示P17,P18,P19は、全ての施策表示であってもよいし、指定カテゴリーに含まれる全ての施策が表示されてもよいし、ユーザが実行している施策が表示されてもよいし、ユーザに推薦している施策が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策の施策表示が所定個数だけ表示されてもよい
施策表示P17,P18,P19は、カテゴリー表示P14,P15,P16と入れ替えて表示されもよいし、カテゴリー表示P14,P15,P16に付加する形で(例えば、カテゴリー表示P14,P15,P16の下方向)に表示されてもよい。
The measure displays P17, P18, and P19 may be all measure displays, all the measures included in the designated category may be displayed, or the measure being executed by the user may be displayed. The measure recommended to the user may be displayed, and the influence on at least one of the user's skin state, mental state, and body state is high based on the initial user information data, the current user information data, and the execution state. A predetermined number of measure displays of measures determined to be may be displayed. The measure displays P17, P18, and P19 may be displayed in place of the category displays P14, P15, and P16, or displayed on the category displays P14, P15, and P16. It may be displayed in an added form (for example, in the downward direction of the category displays P14, P15, P16).
各施策スライドバーP171、P181,P191には、図19のSTEP72で認識された対応する各施策の実行の度合いに相当する位置に施策アイコンP172、P182、P192が表示されている。また、各施策スライドバーP171、P181、P191は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。 In each measure slide bar P171, P181, and P191, measure icons P172, P182, and P192 are displayed at positions corresponding to the degree of execution of each corresponding measure recognized in STEP 72 of FIG. Each measure slide bar P171, P181, P191 is a line segment extending in the vertical direction (vertical direction on the paper surface) of the display 31 of the user terminal 30a.
各施策スライドバーP171、P181、P191及び各施策アイコンP172、P182、P192が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各施策スライドバーP171、P181、P191が本発明の「第1線分表示」に相当する。各施策アイコンP172、P182、P192が、本発明の「第1アイコン」に相当する。 Each measure slide bar P171, P181, P191 and each measure icon P172, P182, P192 correspond to the “display indicating the degree of execution of the measure of the user” of the present invention. Each measure slide bar P171, P181, P191 corresponds to the “first line segment display” of the present invention. Each measure icon P172, P182, P192 corresponds to the “first icon” of the present invention.
図19のSTEP76で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかの施策スライドバーの押圧操作が検知されたか否かを判定する。 In STEP 76 of FIG. 19, the skin support application 35 a determines whether or not a pressing operation of any measure slide bar is detected via the touch panel 32.
当該判定結果が否定的である場合(図19のSTEP76でNO)、肌サポートアプリ35aは、再度図19のSTEP76を実行する。 If the determination result is negative (NO in STEP 76 of FIG. 19), the skin support application 35a executes STEP 76 of FIG. 19 again.
当該判定結果が肯定的である場合(図19のSTEP76でYES)、肌サポートアプリ35aは、図19のSTEP77に進み、押圧された施策スライドバー上の押圧位置を認識する。押圧された施策スライドバー上の押圧位置が本発明の「入力部を介してユーザにより指定された第1アイコンの位置」に相当する。押圧された施策スライドバー上の押圧位置に対応する施策の実行の度合いが、本発明の「指定された施策群の実行の度合い」に相当する。押圧された施策スライドバーに対応する施策が、本発明の「施策群」に相当する。 If the determination result is affirmative (YES in STEP 76 of FIG. 19), the skin support application 35a proceeds to STEP 77 of FIG. 19 and recognizes the pressed position on the pressed measure slide bar. The pressed position on the pressed measure slide bar corresponds to the “position of the first icon designated by the user via the input unit” of the present invention. The degree of execution of the measure corresponding to the pressed position on the pressed measure slide bar corresponds to the “degree of execution of the designated measure group” of the present invention. The measure corresponding to the pressed measure slide bar corresponds to the “measure group” of the present invention.
図19のSTEP78において、肌サポートアプリ35aは、押圧位置に対応する施策の実行度合いにおける各スコアを予測する。 In STEP78 of FIG. 19, the skin support application 35a predicts each score in the execution degree of the measure corresponding to the pressed position.
各スコアは、次の式(2)〜(4)で表される。 Each score is represented by the following formulas (2) to (4).
ここで、P(x)はユーザUaの肌状態のスコア、Q(x)はユーザUaの心状態のスコア、R(x)はユーザUaの体状態のスコアである。 Here, P (x) is the score of the user Ua's skin condition, Q (x) is the score of the user Ua's heart condition, and R (x) is the score of the user Ua's body condition.
i(i=1、…、n)は、各施策を識別するための番号である。 i (i = 1,..., n) is a number for identifying each measure.
xi(i=1、…、n)は、ユーザUaの各施策iの実行の度合いである。xi(i=1、…、n)の全体(xi(i=1、…、n)の全部からなるベクトル)をxとして表記する。 x i (i = 1,..., n) is the degree of execution of each measure i by the user Ua. x i (i = 1, ... , n) entire denoted a (x i (i = 1, ..., vector comprising all of the n)) as x.
fi(xi)、gi(xi)、hi(xi)(i=1、…、n)は、夫々、各施策iを各施策の実行度合いxiで実行した場合のユーザUaの各スコアP(x)、Q(x)、R(x)の変化量である。fi(xi)、gi(xi)、hi(xi)(i=1、…、n)の夫々が本発明の「第1関数」の一例に相当する。 f i (x i ), g i (x i ), and h i (x i ) (i = 1,..., n) are the users when each measure i is executed with the execution degree x i of each measure, respectively. It is the amount of change in each score P (x), Q (x), R (x) of Ua. Each of f i (x i ), g i (x i ), and h i (x i ) (i = 1,..., n) corresponds to an example of the “first function” of the present invention.
図24の折れ線グラフは、ユーザUaの施策「野菜摂取」の各実行の度合い「摂取量」と、ユーザUaの各スコアP(x)、Q(x)、R(x)との関係を示す折れ線グラフである。この折れ線グラフは、例えば、図20Bに示されるユーザUaの施策の実行度合いのそれぞれごとに、図20Aに示されるユーザUaの各スコアP(x)、Q(x)、R(x)の平均を取ることにより作成されうる。 The line graph of FIG. 24 shows the relationship between each execution degree “intake amount” of the measure “vegetable intake” of the user Ua and each score P (x), Q (x), R (x) of the user Ua. It is a line graph. This line graph is, for example, the average of the scores P (x), Q (x), and R (x) of the user Ua shown in FIG. 20A for each execution degree of the measure of the user Ua shown in FIG. 20B. Can be created by taking
また、図24には、各折れ線グラフの近似曲線が併せて表示されている。 In FIG. 24, the approximate curves of the respective line graphs are also displayed.
fi(xi)、gi(xi)、hi(xi)は、例えば、実行度合い毎の近似曲線に示されるユーザUaの各スコアP(x)、Q(x)、R(x)により表現されうる。 f i (x i ), g i (x i ), and h i (x i ) are, for example, the scores P (x), Q (x), and R ( x).
例えば、野菜摂取の摂取量が200gの場合、fi(xi)はおよそ10.0となり、gi(xi)はおよそ7.0となり、hi(xi)はおよそ2.0となる。 For example, when the intake of vegetable intake is 200 g, f i (x i ) is approximately 10.0, g i (x i ) is approximately 7.0, and h i (x i ) is approximately 2.0. Become.
fi(xi)、gi(xi)、hi(xi)は、ユーザUaが各施策を実施したときのユーザUaの各スコアの平均値をとっているが、このスコアには、同時に実行された他の施策の影響が反映されている可能性がある。 f i (x i ), g i (x i ), and h i (x i ) take the average value of each score of the user Ua when the user Ua implements each measure. The impact of other measures implemented at the same time may be reflected.
このため、係数pi、qi、riにより、各施策の影響度を調節する。係数pi、qi、riは、例えば、夫々の施策の実行の度合いに占める当該施策の実行の度合いの割合で求められる。例えば、施策sを実行度合いaで実行し、施策tを実行の度合いbで実行し、施策uを実行の度合いcで実行したときに、肌状態スコアがd改善した場合、以下の式(5)〜(7)で係数ps、pt、puが表される。なお、施策により肌状態スコアがd改善するとは、本実施形態では、施策の実行後の肌状態のスコアの平均値が施策の実行前の肌状態スコアの平均値よりもd増加したことを意味する。 For this reason, the influence degree of each measure is adjusted by the coefficients p i , q i , and r i . The coefficients p i , q i , and r i are obtained, for example, as a ratio of the degree of execution of the measure to the degree of execution of the measure. For example, when the skin condition score is improved by d when the measure s is executed with the execution degree a, the measure t is executed with the execution degree b, and the measure u is executed with the execution degree c, the following equation (5) ) To (7) represent the coefficients p s , p t , and pu . In the present embodiment, the improvement in the skin condition score by the measure means that the average value of the skin condition score after the measure is increased by d from the average value of the skin condition score before the measure is executed. To do.
k、l、mは、施策を何も実施しなかった場合の各スコアである。 k, l, and m are the scores when no measure is taken.
肌サポートアプリ35aは、夫々の施策iについて、施策スライドバーのアイコンの位置に対応する施策の実行の度合いxiを認識し、上記式(2)〜(4)を用いて各スコアP(x)、Q(x)、R(x)を予測する。なお、押圧されていないカテゴリーバーに対応するカテゴリーに含まれる施策又は押圧されていない施策スライドバーに対応する施策については、肌サポートアプリ35aは、図19のSTEP72で認識された対応する各施策の実行度合いを、施策の実行の度合いxiとして用いる。予測された各スコアP(x)、Q(x)、R(x)が、本発明の「第1予測スコア」に相当する。予測された各スコアP(x)が、本発明の「第2予測スコア」に相当する。予測された各スコアQ(x)、R(x)が、本発明の「第3予測スコア」に相当する。 For each measure i, the skin support application 35a recognizes the measure xi of the measure corresponding to the position of the measure slide bar icon xi , and uses each of the scores P (x ), Q (x), and R (x). For the measures included in the category corresponding to the category bar that is not pressed or the measures corresponding to the measure slide bar that is not pressed, the skin support application 35a displays the corresponding measures recognized in STEP 72 of FIG. the execution degree is used as the degree x i execution measures. The predicted scores P (x), Q (x), and R (x) correspond to the “first predicted score” of the present invention. Each predicted score P (x) corresponds to the “second predicted score” of the present invention. The predicted scores Q (x) and R (x) correspond to the “third predicted score” of the present invention.
図19のSTEP79で、肌サポートアプリ35aは、スコアスライドバーP112,P122,P132の夫々の、予測された各スコアP(x)、Q(x)、R(x)の夫々に相当する位置に、スコアアイコンP113,P123,P133を表示器31に表示する。 In STEP 79 of FIG. 19, the skin support application 35 a is positioned at a position corresponding to each of the predicted scores P (x), Q (x), and R (x) of each of the score slide bars P 112, P 122, and P 132. The score icons P113, P123, and P133 are displayed on the display 31.
図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP74以下の処理を実行する。これに代えて、図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP76以下の処理を実行してもよい。 After step 79 in FIG. 19 is completed, the skin support application 35a executes the processing from step 74 onward in FIG. Instead of this, after the end of STEP 79 in FIG. 19, the skin support application 35 a may execute the processing of STEP 76 and subsequent steps in FIG. 19.
このような処理により、ユーザに、施策の実行の度合いを変更したときの各スコアへの影響を認識させることができる。
(その他の実施形態)
本実施形態では、各実行の度合いに応じたスコアを予測するために、式(2)〜(7)を用いたが、各実行の度合いに応じたスコアを予測するためにはこれらの式やパラメータに限られない。シミュレータの精度を向上させるため、当業者は、適宜、式の変更、パラメータの算出方法の変更、パラメータの追加、削除、変更等、適当な修正を行ってもよい。
By such processing, it is possible to make the user recognize the influence on each score when the degree of execution of the measure is changed.
(Other embodiments)
In this embodiment, Equations (2) to (7) are used to predict a score according to the degree of each execution. However, in order to predict a score according to the degree of each execution, these equations and It is not limited to parameters. In order to improve the accuracy of the simulator, those skilled in the art may appropriately make appropriate modifications such as changing the formula, changing the parameter calculation method, adding, deleting, and changing parameters.
肌サポートアプリ35aは、カテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示したが(図19のSTEP74及びSTEP75)、これに代えて、肌サポートアプリ35aは、カテゴリースライドバー上のアイコンの位置の変更をさせて、各スコアの予測を行ってもよい。この場合、カテゴリーの実行の度合いの変更に追従するように、各施策の実行度合いが均等にまたはあらかじめ定まった割合で変更されてもよい。この時、肌サポートアプリ35aは、変更後の各施策の実行の度合いから、式(2)〜(4)により各スコアを予測し、予測された各スコアに対応する位置に、それぞれのアイコンが位置するように、表示器31に出力する。なお、押圧されたカテゴリースライドバーに対応するカテゴリに含まれる施策が本発明の「施策群」に相当する。 When the skin support application 35a detects the pressing of the category slide bar, it displays the measure slide bar of the measures included in the category corresponding to the category slide bar (STEP 74 and STEP 75 in FIG. 19). The skin support application 35a may change the position of the icon on the category slide bar to predict each score. In this case, the execution degree of each measure may be changed equally or at a predetermined rate so as to follow the change in the execution degree of the category. At this time, the skin support application 35a predicts each score according to the formulas (2) to (4) from the degree of execution of each measure after the change, and each icon is located at a position corresponding to each predicted score. It outputs to the indicator 31 so that it may be located. The measures included in the category corresponding to the pressed category slide bar correspond to the “measure group” of the present invention.
この場合、予測された各スコアに対応する位置にそれぞれのアイコンが位置している状態で、肌サポートアプリ35aがタッチパネル32を介してカテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示してもよい。この時、各施策スライドバー上のアイコンの位置は、変更後の各施策の実行の度合いに対応する位置であることが好ましい。 In this case, when the skin support application 35a detects the pressing of the category slide bar via the touch panel 32 in a state where each icon is located at a position corresponding to each predicted score, the category slide bar is displayed. A measure slide bar for measures included in the corresponding category may be displayed. At this time, the position of the icon on each measure slide bar is preferably a position corresponding to the degree of execution of each measure after the change.
肌サポートアプリ35aは、カテゴリースライドバーの表示に代えて、当初から図25に示されるように、施策表示P20、P21,P22を表示してもよい。 Instead of displaying the category slide bar, the skin support application 35a may display measure displays P20, P21, and P22 as shown in FIG. 25 from the beginning.
肌サポートアプリ35aは、例えば、図26に示されるように、シミュレーション対象のスコア表示P31と、他のスコア表示P32〜P33、暮らし表示P34を含んでもよい。暮らし表示P34は、例えば、各カテゴリーの実行度合いの平均値又は各カテゴリーの実行度合いに夫々のカテゴリーごとの係数をかけて合算した値を示す表示である。肌サポートアプリ35aは、暮らし表示P34上のアイコンの変動に応じて、各施策の実行度合いを変化させ、式(2)〜(4)によりシミュレーション対象のスコアの予測を行い、シミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。暮らし表示P34が本発明の「ユーザの施策群の実行の度合いを示す表示」に相当し、他のスコア表示P32〜P33が本発明の「変動スコアを示す表示」に相当し、シミュレーション対象のスコア表示P31が本発明の「模擬スコアを示す表示」に相当する。 For example, as shown in FIG. 26, the skin support application 35a may include a simulation target score display P31, other score displays P32 to P33, and a living display P34. The living display P34 is a display showing, for example, an average value of the execution degree of each category or a value obtained by adding a coefficient for each category to the execution degree of each category. The skin support application 35a changes the degree of execution of each measure in accordance with the fluctuation of the icon on the life display P34, predicts the score of the simulation target according to formulas (2) to (4), and displays the score of the simulation target. The icon on P31 may be changed. The living display P34 corresponds to the “display indicating the degree of execution of the user's measure group” according to the present invention, and the other score displays P32 to P33 correspond to the “display indicating the fluctuation score” according to the present invention. The display P31 corresponds to the “display indicating the simulated score” of the present invention.
この場合、肌サポートアプリ35aは、他のスコア表示P32〜P33上のアイコンの変動に応じて、ユーザUaの肌状態、心状態及び体状態のスコアのデータに基づいて、図24に類似したグラフを作成することにより、シミュレーション対象のスコアの予測を行いシミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。変動後のシミュレーション対象のスコア表示P31が、本発明の「模擬予測スコアを示す表示」に相当する。 In this case, the skin support application 35a is a graph similar to FIG. 24 based on the score data of the skin state, the heart state, and the body state of the user Ua according to the variation of the icons on the other score displays P32 to P33. May be used to predict the simulation target score and vary the icon on the simulation target score display P31. The score display P31 of the simulation target after the fluctuation corresponds to the “display indicating the simulated prediction score” of the present invention.
本実施形態では、ユーザUaの肌状態、心状態及び体状態の全てのシミュレーションが行われたが、同様の方法により、肌状態と、心状態及び体状態の一方とのシミュレーションが行われてもよいし、肌状態、心状態及び体状態のうち1つのシミュレーションが行われてもよい。また、ユーザUaの他の状態に関するシミュレーションが行われてもよい。 In this embodiment, all the simulations of the skin state, the heart state, and the body state of the user Ua have been performed, but even if the simulation of the skin state and one of the heart state and the body state is performed by the same method. Alternatively, one simulation among the skin state, the heart state, and the body state may be performed. Moreover, the simulation regarding the other state of the user Ua may be performed.
本実施形態では、ユーザUaの過去の施策の実行の度合いと、ユーザUaの肌状態、心状態及び体状態との関係を示す第1関数〜第3関数が認識されたが、これに限られず、他のユーザUb、Ucのデータに基づいて、第1関数〜第3関数が認識されてもよい。また、他のユーザUb、Ucのうち、ユーザUaの属性と同様の属性を持つユーザのデータが用いられてもよい。ユーザUaの属性としては、例えば、ユーザUaの年齢、性別、住んでいる地域、嗜好、肌の特性、心の特性、体の特性(遺伝子の情報等)がある。 In the present embodiment, the first function to the third function indicating the relationship between the degree of execution of the past measure of the user Ua and the skin state, heart state, and body state of the user Ua are recognized. However, the present invention is not limited to this. The first function to the third function may be recognized based on the data of other users Ub and Uc. In addition, among other users Ub and Uc, user data having an attribute similar to that of the user Ua may be used. The attributes of the user Ua include, for example, the age, sex, region where the user Ua lives, preferences, skin characteristics, mind characteristics, body characteristics (gene information, etc.).
本実施形態では、スコアスライドバーとカテゴリースライドバー及び施策スライドバーとが直交する方向に延びていたが、これに限られず、互いに非平行な方向に延びていてもよいし、平行な方向に延びていてもよい。 In the present embodiment, the score slide bar, the category slide bar, and the measure slide bar extend in a direction orthogonal to each other. However, the present invention is not limited to this, and the score slide bar, the category slide bar, and the measure slide bar may extend in directions that are not parallel to each other. It may be.
本実施形態では、カテゴリースライドバー及び施策スライドバーとカテゴリーアイコン及び施策アイコンとにより施策の実行度合いを表示したが、これに代えてまたは加えて施策の実行度合いを示す数値を表示してもよい。また、施策の実行度合いに応じて変化する色、図形、キャラクタ等が表示されてもよい。 In the present embodiment, the execution degree of the measure is displayed by the category slide bar, the measure slide bar, the category icon, and the measure icon. However, instead of or in addition to this, a numerical value indicating the measure execution degree may be displayed. Moreover, a color, a figure, a character, etc. which change according to the execution degree of a measure may be displayed.
同様に、各状態のスコアについても、各状態のスコアに応じて変化する色、図形、キャラクタ等が表示されてもよい。 Similarly, the color, figure, character, etc. which change according to the score of each state may be displayed also about the score of each state.
本実施形態では、CPU35が肌サポートアプリ35aを実行することにより、本発明の「スコア認識部」「出力制御部」「指定認識部」の各処理を実行したが、これに代えてネットワークを介して通信を行って必要なデータを送受信することにより、肌状態サポートシステムが本発明の「スコア認識部」「出力制御部」「指定認識部」の一部の処理を実行してもよい。 In the present embodiment, the CPU 35 executes the skin support application 35a, thereby executing the processes of the “score recognition unit”, “output control unit”, and “designation recognition unit” of the present invention. The skin condition support system may execute some processes of the “score recognition unit”, “output control unit”, and “designation recognition unit” of the present invention by transmitting and receiving necessary data through communication.
本実施形態において「関数」とは、スカラ値又はベクトル値のような数値等の情報の入力に対し、一定の操作を行ってスカラ値又はベクトル値のような数値等の情報を出力する機能を備えたものを言う。本実施形態では、施策iごとに関数fi(xi)、gi(xi)、hi(xi)が用いられたが、これに代えてまたは加えて、複数の施策i、jの組合せについての関数f(i、j)(xi、xj)、g(i、j)(xi、xj)、h(i、j)(xi、xj)が用いられてもよい。また、本実施形態では、各状態のスコアごとに関数が使用されたが、これに代えて複数のスコアに対して共通の関数が用いられてもよい。また、関数は、例えば機械学習によって分類を行うものであってもよい。各関数は、各施策iの実行の度合いxiに加え、ユーザUaの体調又は気分を表す数値等、各施策iの実行の度合いxiとは異なる数値をを入力としてもよい。 In the present embodiment, the “function” is a function for outputting information such as a scalar value or a vector value by performing a certain operation on the input of information such as a scalar value or a vector value. Say what you have. In this embodiment, the functions f i (x i ), g i (x i ), and h i (x i ) are used for each measure i. However, instead of or in addition to this, a plurality of measures i, j Functions f (i, j) (x i , x j ), g (i, j) (x i , x j ) , h (i, j) (x i , x j ) for the combination of Also good. In the present embodiment, a function is used for each score of each state, but a common function may be used for a plurality of scores instead. The function may be one that performs classification by machine learning, for example. Each function in addition to the degree x i of the execution of each measure i, numerical values representing the physical condition or mood of the user Ua, may enter a different numeric of the degree x i of the execution of each measure i.
肌サポートアプリ35aは、入力された値を基に、テーブルを参照することにより、各状態のスコアを認識してもよい。 The skin support application 35a may recognize the score of each state by referring to the table based on the input value.
肌サポートアプリ35aは、入力された値を肌状態認識システム10に送信して、各状態のスコアを受信することにより、各状態のスコアを認識してもよい。 The skin support application 35a may recognize the score of each state by transmitting the input value to the skin state recognition system 10 and receiving the score of each state.
本実施形態では、肌サポートアプリ35aは、施策またはカテゴリの実行の度合いの指定に応じてスコアを予測したが、これに代えて又は加えて、スコアの指定に応じて施策またはカテゴリの実行の度合いを予測してもよい。例えば、肌サポートアプリ35aは、タッチパネル32を介してユーザUaに一の施策またはカテゴリを選択させ、スコアの指定に応じて当該一の施策の実行の度合いの予測を行ってもよい。また、肌サポートアプリ35aは、タッチパネル32を介してユーザUaにそれぞれの施策またはカテゴリの変化の割合を入力させ、スコアの指定に応じて入力された割合で各施策の実行の度合いを変動させることにより、各施策の実行の度合いの予測を行ってもよい。たとえば、肌サポートアプリ35aは、睡眠時間1時間減少あたり野菜摂取量が100g増加するという割合で、指定されたスコアを実現するように、睡眠時間と野菜摂取量を変動させてもよい。 In the present embodiment, the skin support application 35a predicts the score according to the designation of the degree of execution of the measure or category, but instead of or in addition to this, the degree of execution of the measure or category according to the designation of the score May be predicted. For example, the skin support application 35a may cause the user Ua to select one measure or category via the touch panel 32 and predict the degree of execution of the one measure according to the designation of the score. Further, the skin support application 35a causes the user Ua to input the rate of change of each measure or category via the touch panel 32, and varies the degree of execution of each measure at the rate input according to the designation of the score. Thus, the degree of execution of each measure may be predicted. For example, the skin support application 35a may change the sleeping time and the vegetable intake so as to realize the designated score at a rate that the vegetable intake increases by 100 g per hour of decrease in the sleeping time.
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
1…通信ネットワーク、10…肌状態認識システム、11‥肌状態認識部、12…施策グループ選択部、13…施策情報送信部、19…2次データ生成部、20…サポートDB(データベース)、30(30a,30b,30c)…ユーザ端末(スマートフォン)、31…表示器、32…タッチパネル、33…カメラ、34…マイク、35…CPU、35a…肌サポートアプリ、36…メモリ、40…接続端子、45…測定機器。 DESCRIPTION OF SYMBOLS 1 ... Communication network, 10 ... Skin condition recognition system, 11 ... Skin condition recognition part, 12 ... Measure group selection part, 13 ... Measure information transmission part, 19 ... Secondary data generation part, 20 ... Support DB (database), 30 (30a, 30b, 30c) ... User terminal (smartphone), 31 ... Display, 32 ... Touch panel, 33 ... Camera, 34 ... Microphone, 35 ... CPU, 35a ... Skin support application, 36 ... Memory, 40 ... Connection terminal, 45: Measuring equipment.
Claims (10)
ユーザの入力を検知する入力部と、
一または複数の施策である施策群の実行の度合いを入力とし、当該施策群を前記実行の度合いで実行したときの肌状態、心状態及び体状態のうち少なくとも1つのスコアを認識するスコア認識部と、
前記ユーザの施策群の実行の度合いを示す表示と当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示とを前記画像表示部に出力させる出力制御部と、
前記入力部を介して施策群の実行の度合いの指定を認識する指定認識部とを備え、
前記指定認識部が施策群の実行の度合いの指定を認識した場合、
前記スコア認識部は、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測スコアである第1予測スコアを認識し、
前記出力制御部は、当該第1予測スコアを示す表示を前記画像表示部に出力させる
ことを特徴とする画像表示装置。 An image display unit for outputting information;
An input unit for detecting user input;
A score recognizing unit that recognizes at least one score among a skin state, a heart state, and a body state when the degree of execution of the group of measures as one or a plurality of measures is input. When,
An output control unit that causes the image display unit to output a display indicating the degree of execution of the user's measure group and a display indicating at least one score among the user's skin state, mind state, and body state;
A designation recognition unit for recognizing designation of the degree of execution of the measure group through the input unit,
When the designation recognition unit recognizes the designation of the degree of execution of the measure group,
The score recognition unit recognizes a first prediction score that is a prediction score of at least one of the user's skin state, heart state, and body state when the measure group is executed at the designated degree of execution. And
The output control unit causes the image display unit to output a display indicating the first prediction score.
前記スコア認識部は、前記スコアを算出するための関数である第1関数を認識し、当該第1関数に基づいて前記スコアの認識を行うことを特徴とする画像表示装置。 The image display device according to claim 1,
The image display device, wherein the score recognition unit recognizes a first function which is a function for calculating the score, and recognizes the score based on the first function.
前記スコア認識部は、施策群の実行の度合いを入力として当該施策群を当該実行の度合いで実行したときの肌状態のスコアである肌スコアを認識し、かつ、
施策群の実行の度合いを入力として当該施策群を当該実行の度合いで実行したときの心状態及び体状態のうち少なくとも1つのスコアである心体スコアを認識し、
前記出力制御部は、前記ユーザの施策群の実行の度合いを示す表示と、当該ユーザの肌スコアを示す表示と、前記ユーザの心体スコアを示す表示とを画像表示部に出力させ、
前記スコア認識部は、前記施策を当該指定された実行の度合いで前記ユーザが実行したときの前記ユーザの肌スコアの予測スコアである第2予測スコアと、前記施策を当該指定された実行の度合いで前記ユーザが実行したときの前記ユーザの心体スコアの予測スコアである第3予測スコアとを認識し、
前記出力制御部は、当該第2予測スコアを示す表示と当該第3予測スコアを示す表示とを前記画像表示部に出力させるように構成されていることを特徴とする画像表示装置。 The image display device according to claim 1 or 2,
The score recognizing unit recognizes a skin score that is a score of a skin state when the measure group is executed with the degree of execution as an input of the degree of execution of the measure group; and
Recognizing a mental body score, which is at least one score among a mind state and a body state when the measure group is executed with the degree of execution, using the execution degree of the measure group as an input,
The output control unit causes the image display unit to output a display indicating a degree of execution of the user's measure group, a display indicating the user's skin score, and a display indicating the user's mind score,
The score recognition unit includes a second prediction score that is a predicted score of the user's skin score when the user executes the measure with the specified degree of execution, and the specified degree of execution of the measure. Recognizing a third predicted score that is a predicted score of the user's mind score when the user executes
The output control unit is configured to cause the image display unit to output a display indicating the second prediction score and a display indicating the third prediction score to the image display unit.
前記出力制御部は、第1の線分を示す第1線分表示と、前記第1の線分上に表示され、かつ、前記ユーザの施策群の実行の度合いを示す表示としての第1アイコンと、前記第1の線分とは異なる第2の線分を示す第2線分表示と、前記第2の線分上に表示され、かつ、前記ユーザの前記肌状態、体状態及び心状態のうち少なくとも1つのスコアを示す表示としての第2アイコンと、を前記画像表示部に出力させるように構成され、
前記指定認識部は、前記入力部を介してユーザにより指定された前記第1アイコンの位置に基づいて、前記施策群の実行の度合いを認識し、
前記スコア認識部は、前記指定認識部が実行の度合いの指定を認識した場合、前記指定された施策の実行の度合いを入力としたとき前記第1予測スコアを認識し、
前記出力制御部は、前記第1予測スコアに対応する前記第2の線分上の位置に前記第2アイコンが表示されるように、前記第2アイコンを前記画像表示部に出力させることを特徴とする画像表示装置。 The image display device according to any one of claims 1 to 3,
The output control unit includes a first line display indicating a first line segment, and a first icon as a display displayed on the first line segment and indicating a degree of execution of the measure group of the user. A second line segment display showing a second line segment different from the first line segment, and displayed on the second line segment, and the skin state, body state and heart state of the user A second icon as a display indicating at least one score, and the image display unit is configured to output the second icon,
The designation recognizing unit recognizes the degree of execution of the measure group based on the position of the first icon designated by the user via the input unit,
The score recognizing unit recognizes the first predicted score when the designation recognizing unit recognizes the designation of the degree of execution and the degree of execution of the designated measure is input,
The output control unit causes the image display unit to output the second icon so that the second icon is displayed at a position on the second line segment corresponding to the first prediction score. An image display device.
前記出力制御部は、前記第1の線分が第1方向に延び、前記第2の線分が前記第1線分に対向する位置から離間する第2方向に延びるように、前記第1線分表示及び前記第2線分表示を配置して表示することを特徴とする画像表示装置。 The image display device according to claim 4.
The output control unit includes the first line so that the first line segment extends in a first direction, and the second line segment extends in a second direction away from a position facing the first line segment. An image display device, wherein a minute display and the second line segment display are arranged and displayed.
前記第1方向は、前記第2方向と直交する方向であることを特徴とする画像表示装置。 The image display device according to claim 5,
The image display device according to claim 1, wherein the first direction is a direction orthogonal to the second direction.
前記出力制御部は、第1の線分を示す第1線分表示と、前記第1の線分上に表示され、かつ、前記ユーザの施策群の実行の度合いを示す表示としての第1アイコンと、前記第1の線分とは異なる第3の線分を示す第3線分表示と、前記第3の線分上に表示され、かつ、前記ユーザの前記肌状態、体状態又は心状態のスコアである変動スコアを示す表示としての第3アイコンと、
前記第1の線分及び前記第3の線分とは異なる第4の線分を示す第4線分表示と、前記第4の線分上に表示され、かつ、前記第3アイコンに示される前記ユーザの前記肌状態、体状態又は心状態のスコアとは異なる前記ユーザの前記肌状態、体状態又は心状態のスコアである模擬スコアを示す表示としての第4アイコンと、を前記画像表示部に出力させるように構成され、
前記指定認識部は、前記入力部を介してユーザにより指定された前記第1アイコンの位置に基づいて、前記施策群の実行の度合いを認識し、または、前記入力部を介してユーザにより指定された前記第3アイコンの位置に基づいて、前記変動スコアを認識し、
前記スコア認識部は、前記指定認識部が実行の度合いまたは変動スコアの指定を認識した場合、前記指定された施策の実行の度合いまたは変動スコアを入力としたとき前記第4予測スコアを認識し、
前記出力制御部は、前記第4予測スコアに対応する前記第4の線分上の位置に前記第4アイコンが表示されるように、前記第4アイコンを前記画像表示部に出力させることを特徴とする画像表示装置。 The image display device according to any one of claims 1 to 6,
The output control unit includes a first line display indicating a first line segment, and a first icon as a display displayed on the first line segment and indicating a degree of execution of the measure group of the user. And a third line segment indicating a third line segment different from the first line segment, and displayed on the third line segment, and the skin state, body state or heart state of the user A third icon as a display showing a variable score that is a score of
A fourth line segment indicating a fourth line segment different from the first line segment and the third line segment, and displayed on the fourth line segment and indicated by the third icon. A fourth icon as a display showing a simulated score that is a score of the user's skin state, body state or heart state different from the user's skin state, body state or heart state score; Is configured to output
The designation recognizing unit recognizes the degree of execution of the measure group based on the position of the first icon designated by the user via the input unit, or is designated by the user via the input unit. Recognizing the variation score based on the position of the third icon;
The score recognizing unit recognizes the fourth predicted score when the designation recognizing unit recognizes the execution degree or the designation of the variation score, when the execution degree or variation score of the designated measure is input.
The output control unit causes the image display unit to output the fourth icon so that the fourth icon is displayed at a position on the fourth line segment corresponding to the fourth prediction score. An image display device.
前記出力制御部は、施策の実行の度合いを示す表示を所定の領域の内側に表示し、かつ、肌状態のスコアを示す表示と、体状態のスコアを示す表示と、心状態のスコアを示す表示とを前記所定の領域の外側に表示することを特徴とする画像表示装置。 The image display device according to any one of claims 1 to 7,
The output control unit displays a display indicating the degree of execution of the measure inside a predetermined area, and displays a display indicating a skin condition score, a display indicating a body condition score, and a heart condition score. An image display device that displays a display outside the predetermined area.
ユーザの入力を検知する入力部と
一または複数の施策である施策群の実行の度合いを入力とし、当該施策群を前記実行の度合いで実行したときの肌状態、心状態及び体状態のうち少なくとも1つのスコアを認識するスコア認識部と、
前記ユーザの施策群の実行の度合いを示す表示と当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示とを前記画像表示部に出力させる出力制御部とを備えるシステムに、
前記入力部を介して施策群の実行の度合いの指定を認識するステップと、
前記スコア認識部が、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測スコアである第1予測スコアを認識するステップと、
前記出力制御部が、当該第1予測スコアを示す表示を前記画像表示部に出力するステップとを実行させることを特徴とする画像表示プログラム。 An image display unit for outputting information;
The input unit that detects the user's input and the degree of execution of the measure group that is one or more measures are input, and at least of the skin state, the mind state, and the body state when the measure group is executed at the degree of execution A score recognition unit for recognizing one score;
A system comprising: an output control unit that outputs to the image display unit a display indicating a degree of execution of the user's measure group and a display indicating at least one score among the user's skin state, mind state, and body state. ,
Recognizing designation of the degree of execution of the measure group via the input unit;
The score recognition unit recognizes a first prediction score that is a prediction score of at least one of the user's skin state, heart state, and body state when the measure group is executed at the specified degree of execution. And steps to
And a step of outputting the display indicating the first prediction score to the image display unit.
ユーザの入力を検知する入力部と
一または複数の施策である施策群の実行の度合いを入力とし、当該施策群を前記実行の度合いで実行したときの肌状態、心状態及び体状態のうち少なくとも1つのスコアを認識するスコア認識部と、
前記ユーザの施策群の実行の度合いを示す表示と当該ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示とを前記画像表示部に出力させる出力制御部とを備えるシステムが実行する方法であって、
前記入力部を介して施策群の実行の度合いの指定を認識するステップと、
前記スコア認識部が、前記施策群を前記指定された実行の度合いで実行したときの前記ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアの予測スコアである第1予測スコアを認識するステップと、
前記出力制御部が、当該第1予測スコアを示す表示を前記画像表示部に出力するステップとを含むことを特徴とする画像表示方法。
An image display unit for outputting information;
The input unit that detects the user's input and the degree of execution of the measure group that is one or more measures are input, and at least of the skin state, the mind state, and the body state when the measure group is executed at the degree of execution A score recognition unit for recognizing one score;
A system comprising: an output control unit that causes the image display unit to output a display indicating a degree of execution of the measure group of the user and a display indicating at least one score among the user's skin state, mind state, and body state. A method of performing,
Recognizing designation of the degree of execution of the measure group via the input unit;
The score recognition unit recognizes a first prediction score that is a prediction score of at least one of the user's skin state, heart state, and body state when the measure group is executed at the specified degree of execution. And steps to
The output control unit includes a step of outputting a display indicating the first prediction score to the image display unit.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091970A JP6974029B2 (en) | 2017-05-02 | 2017-05-02 | Image display device, skin condition support system, image display program and image display method |
JP2021180161A JP7280333B2 (en) | 2017-05-02 | 2021-11-04 | image display device |
JP2023068387A JP7437549B2 (en) | 2017-05-02 | 2023-04-19 | image display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017091970A JP6974029B2 (en) | 2017-05-02 | 2017-05-02 | Image display device, skin condition support system, image display program and image display method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021180161A Division JP7280333B2 (en) | 2017-05-02 | 2021-11-04 | image display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018190176A true JP2018190176A (en) | 2018-11-29 |
JP6974029B2 JP6974029B2 (en) | 2021-12-01 |
Family
ID=64479834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017091970A Active JP6974029B2 (en) | 2017-05-02 | 2017-05-02 | Image display device, skin condition support system, image display program and image display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6974029B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116065A1 (en) * | 2018-12-06 | 2020-06-11 | 株式会社 資生堂 | Information processing device, cosmetics manufacturing device, and program |
WO2022163239A1 (en) * | 2021-01-27 | 2022-08-04 | ソニーグループ株式会社 | Information processing apparatus, information processing method, and information processing system |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004227601A (en) * | 2004-03-30 | 2004-08-12 | Mit:Kk | Financial analysis system |
JP2006516338A (en) * | 2002-10-31 | 2006-06-29 | ジョンソン・アンド・ジョンソン・コンシューマー・カンパニーズ・インコーポレイテッド | How to offer individual programs to retail customers |
JP2008242963A (en) * | 2007-03-28 | 2008-10-09 | Fujifilm Corp | Health analysis display method and health analysis display device |
JP2011173810A (en) * | 2010-02-23 | 2011-09-08 | Mikimoto Pharmaceut Co Ltd | Method for producing cosmetic |
WO2012008082A1 (en) * | 2010-07-15 | 2012-01-19 | 日本電気株式会社 | Display processing system, display processing method, and programme |
JP2014119817A (en) * | 2012-12-13 | 2014-06-30 | Hitachi Systems Ltd | Health-care prediction system |
JP2015204033A (en) * | 2014-04-15 | 2015-11-16 | 株式会社東芝 | health information service system |
JP2017059261A (en) * | 2013-10-01 | 2017-03-23 | 国立大学法人東北大学 | Health information processing device and method |
-
2017
- 2017-05-02 JP JP2017091970A patent/JP6974029B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006516338A (en) * | 2002-10-31 | 2006-06-29 | ジョンソン・アンド・ジョンソン・コンシューマー・カンパニーズ・インコーポレイテッド | How to offer individual programs to retail customers |
JP2004227601A (en) * | 2004-03-30 | 2004-08-12 | Mit:Kk | Financial analysis system |
JP2008242963A (en) * | 2007-03-28 | 2008-10-09 | Fujifilm Corp | Health analysis display method and health analysis display device |
JP2011173810A (en) * | 2010-02-23 | 2011-09-08 | Mikimoto Pharmaceut Co Ltd | Method for producing cosmetic |
WO2012008082A1 (en) * | 2010-07-15 | 2012-01-19 | 日本電気株式会社 | Display processing system, display processing method, and programme |
JP2014119817A (en) * | 2012-12-13 | 2014-06-30 | Hitachi Systems Ltd | Health-care prediction system |
JP2017059261A (en) * | 2013-10-01 | 2017-03-23 | 国立大学法人東北大学 | Health information processing device and method |
JP2015204033A (en) * | 2014-04-15 | 2015-11-16 | 株式会社東芝 | health information service system |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116065A1 (en) * | 2018-12-06 | 2020-06-11 | 株式会社 資生堂 | Information processing device, cosmetics manufacturing device, and program |
CN113163929A (en) * | 2018-12-06 | 2021-07-23 | 株式会社资生堂 | Information processing device, cosmetic product generation device, and program |
JPWO2020116065A1 (en) * | 2018-12-06 | 2021-11-11 | 株式会社 資生堂 | Information processing equipment, cosmetics generator, and programs |
JP7438132B2 (en) | 2018-12-06 | 2024-02-26 | 株式会社 資生堂 | Information processing device, cosmetic production device, program, simulation method, and information processing system |
WO2022163239A1 (en) * | 2021-01-27 | 2022-08-04 | ソニーグループ株式会社 | Information processing apparatus, information processing method, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP6974029B2 (en) | 2021-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7211717B2 (en) | Image display device, image display program and image display method | |
JP7129867B2 (en) | Information output system, information output method and information output program | |
US20130262182A1 (en) | Predicting purchase intent based on affect | |
JP7337484B2 (en) | Image display device, image display system, image display program and image display method | |
JP7264959B2 (en) | Information output system for skin condition care | |
JP2023052208A (en) | Information processing device, client device, and program | |
JP6974029B2 (en) | Image display device, skin condition support system, image display program and image display method | |
CN113096773B (en) | System and method for collecting and processing cognitive information | |
WO2021085231A1 (en) | Emotion estimation method and emotion estimation system | |
JP7001469B2 (en) | Skin condition recognition system | |
CN113473901B (en) | Action support system and action support method | |
KR20220017590A (en) | Apparatus and method for providing medical information and advertisement content related to medical information based on physical examination using vr | |
JP7248385B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition | |
JP7280333B2 (en) | image display device | |
JP7129763B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition | |
JP7051306B2 (en) | Information output system, skin condition support program and skin condition support method | |
KR102613649B1 (en) | Cognitive function and memory decline, early diagnosis service for dementia, and device and method for providing customized advertisement contents and advertisements | |
US20210327591A1 (en) | System for Efficiently Estimating and Improving Wellbeing | |
JP7300018B2 (en) | Information output system, skin condition support program and skin condition support method | |
JP7163130B2 (en) | Information output system, information output method and information output program | |
JP7083624B2 (en) | Skin condition evaluation system, skin condition evaluation program, and computer execution method | |
JP6845008B2 (en) | Skin condition support system | |
JP2019010280A (en) | Information output program, information output system and information output method related to care of skin state, body state or mental state | |
JP7518223B2 (en) | Information output system for skin condition, body condition, or mental condition care | |
JP7270818B2 (en) | Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200317 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200918 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201104 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20201221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210302 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211104 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6974029 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |