JP6974029B2 - Image display device, skin condition support system, image display program and image display method - Google Patents

Image display device, skin condition support system, image display program and image display method Download PDF

Info

Publication number
JP6974029B2
JP6974029B2 JP2017091970A JP2017091970A JP6974029B2 JP 6974029 B2 JP6974029 B2 JP 6974029B2 JP 2017091970 A JP2017091970 A JP 2017091970A JP 2017091970 A JP2017091970 A JP 2017091970A JP 6974029 B2 JP6974029 B2 JP 6974029B2
Authority
JP
Japan
Prior art keywords
score
skin
user
line segment
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017091970A
Other languages
Japanese (ja)
Other versions
JP2018190176A (en
Inventor
智紀 本川
朋美 加藤
優 及川
類子 中西
隆 飯田
幸信 横田
淳 村越
知彦 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Priority to JP2017091970A priority Critical patent/JP6974029B2/en
Publication of JP2018190176A publication Critical patent/JP2018190176A/en
Priority to JP2021180161A priority patent/JP7280333B2/en
Application granted granted Critical
Publication of JP6974029B2 publication Critical patent/JP6974029B2/en
Priority to JP2023068387A priority patent/JP7437549B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法に関する。 The present invention relates to an image display device, a skin condition support system, an image display program, and an image display method.

従来、肌状態のケアに関する様々なツールが知られている。 Conventionally, various tools for skin condition care are known.

例えば、特許文献1には、化粧品販売員等がユーザに対して用いるカウンセリングツールとして、肌状態の典型的なパターンに対し、その肌の状態の説明をする肌状態説明部と、その肌の状態に必要なスキンケア方法の説明表示部とを備えたカウンセリングツールが記載されている。 For example, in Patent Document 1, as a counseling tool used by a cosmetics salesperson or the like for a user, a skin condition explanation unit for explaining the skin condition for a typical pattern of the skin condition and a skin condition thereof are described. A counseling tool with an explanatory display of skin care methods required for the skin care method is described.

肌状態説明部は、肌状態の典型的なパターンとしての「水分が不足しがちな状態」という小見出しと、当該肌の状態についての「お肌を外的刺激から守るバリア機能も低下しやすく、………考えられます。」という説明文とを含む。 In the skin condition explanation section, the subheading "a condition that tends to lack water" as a typical pattern of the skin condition and the "barrier function that protects the skin from external stimuli" about the skin condition are also likely to deteriorate. ……… I can think of it. ”

スキンケア方法の説明表示部は、当該肌状態におけるスキンケア方法としての「やや不足している方 W保湿」及び「不足している方 W保湿+ローションマスク・クリーム」という見出しとが含まれている。 The explanation display unit of the skin care method includes the headings "Slightly insufficient person W moisturizing" and "Insufficient person W moisturizing + lotion mask cream" as the skin care method in the skin condition.

化粧品販売員は、例えば、顧客の肌状態が水分がやや不足している状態であると判断した場合、スキンケア方法の説明表示部に表示された「W保湿」を行うよう勧めるなど、顧客の肌状態とカウンセリングツールとを突き合わせることで、肌のパターンに応じた施策を即座にユーザに対して提示することができる。 For example, if the cosmetics salesperson determines that the customer's skin condition is slightly lacking in water, the customer's skin is recommended to perform "W moisturizing" displayed on the explanation display of the skin care method. By matching the condition with the counseling tool, it is possible to immediately present to the user measures according to the skin pattern.

特許第4299080号公報Japanese Patent No. 4299080

しかし、特許文献1の技術では、提案された施策をどの程度の実行の度合い(時間、量、1日当たりの回数、実行の頻度等)で行えばどのような肌状態になるのかをユーザに把握させることは難しかった。 However, in the technique of Patent Document 1, the user can grasp what kind of skin condition the proposed measure should be executed at what degree (time, amount, number of times per day, frequency of execution, etc.). It was difficult to get it done.

そこで、本発明は、ユーザに施策の実行の度合いと肌状態との関係を認識させることができる画像表示装置、肌状態サポートシステム、画像表示プログラム及び画像表示方法を提供することを目的とする。 Therefore, an object of the present invention is to provide an image display device, a skin condition support system, an image display program, and an image display method capable of causing a user to recognize the relationship between the degree of execution of a measure and the skin condition.

本発明の画像表示装置は、
情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備え、
前記出力制御部は、前記画像表示部に
前記施策群の実行の度合いの高低を示すための線分であって、該線分の一方の端部に向かうほど該施策群の実行の度合が高い状態を示し、該線分の他方の端部に向かうほど該施策群の実行の度合が低い状態を示す第1線分表示を出力させ、
前記スコア認識部が認識した前記施策群の前記ユーザの実行の度合いの値に対応する前記第1線分表示上の位置に第1アイコンを出力させ、
前記肌スコア、前記心スコア、及び前記体スコアそれぞれの高低を示すための線分であって、該線分の一方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが高い状態を示し、該線分の他方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが低い状態を示す第2線分表示、第3線分表示、及び第4線分表示を出力させ、
前記スコア認識部が認識した前記肌スコアに対応する前記第2線分表示上の位置に第2アイコンを出力させ、前記スコア認識部が認識した前記心スコアに対応する前記第3線分表示上の位置に第3アイコンを出力させ、前記スコア認識部が認識した前記体スコアに対応する前記第4線分表示上の位置に第4アイコンを出力させるように構成されている
ことを特徴とする。
The image display device of the present invention is
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. and a control unit, a
The output control unit, before Symbol image display unit
It is a line segment for indicating the degree of execution of the measure group, and the degree of execution of the measure group is higher toward one end of the line segment, and the other end of the line segment is shown. The first line segment display indicating the state in which the degree of execution of the measure group is low is output toward the department.
The first icon is output at the position on the first line segment display corresponding to the value of the degree of execution of the user in the measure group recognized by the score recognition unit.
A line segment for indicating the height of each of the skin score, the heart score, and the body score, and the skin score, the heart score, and the body score are each toward one end of the line segment. The second line segment display, the third line segment display, and the fourth line segment show a high state, and the skin score, the heart score, and the body score are each lower toward the other end of the line segment. Output the minute display,
A second icon is output at a position on the second line segment display corresponding to the skin score recognized by the score recognition unit, and the third line segment display corresponding to the heart score recognized by the score recognition unit is displayed. The third icon is output at the position of, and the fourth icon is output at the position on the fourth line segment display corresponding to the body score recognized by the score recognition unit. It is characterized by.

当該構成の画像表示装置によれば、スコア認識部により施策群のユーザの実行の度合いの値と、当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアとが認識される。
また、施策群の実行の度合いの高低を示す第1線分表示上の、スコア認識部が認識した施策群のユーザの実行の度合いの値に対応する位置に第1アイコンが画面表示部に出力される。
そして、肌スコア、心スコア、及び体スコアそれぞれの高低を示す第2線分表示、第3線分表示、及び第4線分表示上の、スコア認識部が認識した肌スコア、心スコア、体スコアそれぞれの値に対応する各線分表示上の位置に第2アイコン、第3アイコン、及び第4アイコンが画面表示部に出力される。
According to the image display device having the configuration, the score recognition unit quantifies the value of the degree of execution of the user of the measure group and the skin condition, the mental state, and the physical condition of the user, which is the skin score and the heart. The score and the body score are recognized.
In addition, the first icon is output to the screen display unit at the position corresponding to the value of the degree of execution of the user of the measure group recognized by the score recognition unit on the first line segment display indicating the degree of execution of the measure group. Will be done.
Then, the skin score, the heart score, and the body recognized by the score recognition unit on the second line segment display, the third line segment display, and the fourth line segment display indicating the high and low of the skin score, the heart score, and the body score, respectively. The second icon, the third icon, and the fourth icon are output to the screen display unit at the positions on the line segment display corresponding to the respective values of the score.

これにより、画面表示部に出力された第1線分上の第1アイコンの位置によりユーザの施策の実行度合いの値を、第2線分上の第2アイコンの位置によりユーザの肌スコアを、第3線分上の第3アイコンの位置によりユーザの心スコアを、第4線分上の第4アイコンの位置によりユーザの体スコアを、ユーザに対してそれぞれ個別にかつ直感的に認識させることができる。また、ユーザは、施策の実行度合いの値、肌スコア、心スコア及び体スコアの4つの情報を同時に対比して見ることができるので、施策の実行度合いの値と、肌スコア、心スコア及び体スコアの3つのスコアとの相互の関係を理解しやすい。 As a result, the position of the first icon on the first line segment output to the screen display indicates the value of the degree of execution of the user's measures, and the position of the second icon on the second line segment determines the user's skin score. To make the user individually and intuitively recognize the user's heart score by the position of the third icon on the third line segment and the user's body score by the position of the fourth icon on the fourth line segment. Can be done. In addition, since the user can simultaneously compare and view four pieces of information, the value of the degree of execution of the measure, the skin score, the heart score, and the body score, the value of the degree of execution of the measure, the skin score, the heart score, and the body. It is easy to understand the mutual relationship between the three scores.

本発明の画像表示装置において、 In the image display device of the present invention
前記出力制御部は、前記第1線分表示が第1方向に延び、前記第2線分表示、前記第3線分表示及び前記第4線分表示が当該第1方向と直交する第2方向に延びるように、前記第1線分表示及び前記第2線分表示を配置して表示する In the output control unit, the first line segment display extends in the first direction, and the second line segment display, the third line segment display, and the fourth line segment display are orthogonal to the first direction in the second direction. The first line segment display and the second line segment display are arranged and displayed so as to extend to.
ことが好ましい。Is preferable.

当該構成の画像表示装置によれば、第1線分表示が第1方向に延び、第2線分表示、第3線分表示及び第4線分表示が当該第1方向と直交する第2方向に延びるように配置して出力される。 According to the image display device having the configuration, the first line segment display extends in the first direction, and the second line segment display, the third line segment display, and the fourth line segment display are in the second direction orthogonal to the first direction. It is arranged and output so as to extend to.

これにより、第1線分表示と、第2線分表示、第3線分表示、第4線分表示とが非並行であるので、第1線分表示上に表されるアイコンと、第2線分表示、第3線分表示、第4線分表示上に表される3つのアイコンとが、互いに性質の異なる値を示していることを、ユーザに容易に認識させることができる。また、第1線分表示の方向と、第2線分表示、第3線分表示、第4線分表示の方向とが直交するので、画面の見た目をすっきりさせることができる。 As a result, the first line segment display, the second line segment display, the third line segment display, and the fourth line segment display are not parallel to each other, so that the icon displayed on the first line segment display and the second line segment display are displayed. The user can easily recognize that the three icons displayed on the line segment display, the third line segment display, and the fourth line segment display show values having different properties from each other. Further, since the direction of the first line segment display and the direction of the second line segment display, the third line segment display, and the fourth line segment display are orthogonal to each other, the appearance of the screen can be made clear.

本発明の画像表示装置において、 In the image display device of the present invention
前記出力制御部は、前記画像表示部に The output control unit is attached to the image display unit.
前記第2線分表示、前記第3線分表示、及び前記第4線分表示を、それぞれが三角形の各頂点に対応する位置に出力させ、かつ The second line segment display, the third line segment display, and the fourth line segment display are output at positions corresponding to the vertices of the triangle, respectively, and
前記第1線分表示を、前記各頂点を結ぶ線分で表される領域の内側に出力させるように構成されている The first line segment display is configured to be output inside the area represented by the line segment connecting the vertices.
ことが好ましい。Is preferable.

当該構成の画像表示装置によれば、施策群の実行の度合いの値を示す第1線分表示が、肌スコア、心スコア、及び体スコアを示す第2線分表示、第3線分表示、第4線分表示が形成する三角形の領域の内側に出力される。 According to the image display device having the same configuration, the first line segment display showing the value of the degree of execution of the measure group is the second line segment display, the third line segment display showing the skin score, the heart score, and the body score. It is output inside the triangular area formed by the fourth line segment display.

これにより、施策の実行度合いの値を示す表示の周囲に肌スコア、心スコア、及び体スコアの3つのスコアを示す表示が出力されるので、肌スコア、心スコア、及び体スコアの3つのスコアそれぞれと、施策群の実行の度合いの値と、が相互に関連性を有していることを、ユーザに対して視覚的かつ、より直感的に認識させることができる。 As a result, a display showing the three scores of the skin score, the heart score, and the body score is output around the display showing the value of the degree of execution of the measure, so that the three scores of the skin score, the heart score, and the body score are output. It is possible to make the user visually and more intuitively recognize that each of them and the value of the degree of execution of the measure group are related to each other.

本発明の画像表示装置は、 The image display device of the present invention is
情報を出力する画像表示部と、 An image display that outputs information and
一または複数の施策である施策群のユーザの実行の度合いの値と、当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、 The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備え、 Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. With a control unit,
前記出力制御部は、前記画像表示部に The output control unit is attached to the image display unit.
前記スコア認識部により認識された前記肌スコア、前記心スコア、及び前記体スコアを示す表示を、それぞれが三角形の各頂点に対応する位置に出力させ、かつ The skin score, the heart score, and the display showing the body score recognized by the score recognition unit are output at positions corresponding to the vertices of the triangle, respectively.
前記スコア認識部により認識された前記施策群の実行の度合いの値を示す表示を、前記肌スコア、前記心スコア、及び前記体スコアを示す表示と同一画面に出力させるように構成されている The display showing the value of the degree of execution of the measure group recognized by the score recognition unit is configured to be output on the same screen as the display showing the skin score, the heart score, and the body score.
ことを特徴とする。It is characterized by that.

当該構成の画像表示装置によれば、 According to the image display device of the configuration,
スコア認識部により施策群のユーザの実行の度合いの値と、当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアとが認識される。 The score recognition unit recognizes the value of the degree of execution of the user of the measure group and the skin score, the mental score, and the body score, which are information obtained by quantifying each of the user's skin condition, mental condition, and physical condition. ..
また、スコア認識部により認識された肌スコア、心スコア、及び体スコアを示す表示が、それぞれが三角形の各頂点に対応する位置に出力される。 In addition, a display showing the skin score, the heart score, and the body score recognized by the score recognition unit is output at a position corresponding to each apex of the triangle.
そして、スコア認識部により認識された施策群の実行の度合いの値を示す表示が、肌スコア、心スコア、及び体スコアを示す表示と同一画面に出力される。 Then, a display showing the value of the degree of execution of the measure group recognized by the score recognition unit is output on the same screen as the display showing the skin score, the heart score, and the body score.

これによりユーザは、施策の実行度合いの値、肌スコア、心スコア及び体スコアの4つの情報を同時に対比して見ることができるので、肌スコア、心スコア、及び体スコアの3つのスコアそれぞれと、施策群の実行の度合いの値と、が相互に関連性を有していることを、ユーザに対して視覚的かつ直感的に認識させることができる。 As a result, the user can simultaneously compare and view the four information of the degree of execution of the measure, the skin score, the heart score, and the body score. It is possible to make the user visually and intuitively recognize that the value of the degree of execution of the measure group and the value of the degree of execution are related to each other.

本発明の画像表示装置において、 In the image display device of the present invention
前記出力制御部は、前記画像表示部に The output control unit is attached to the image display unit.
前記スコア認識部により認識された前記施策群の実行の度合いの値を示す表示を、前記各頂点を結ぶ線分で表される領域の内側に出力させるように構成されている The display showing the value of the degree of execution of the measure group recognized by the score recognition unit is configured to be output inside the area represented by the line segment connecting the vertices.
ことが好ましい。Is preferable.

当該構成の画像表示装置によれば、施策群の実行の度合いの値を示す表示が、肌スコア、心スコア、及び体スコアを示す各表示が形成する三角形の領域の内側に出力される。 According to the image display device having the configuration, a display showing the value of the degree of execution of the measure group is output inside the triangular area formed by each display showing the skin score, the heart score, and the body score.

これにより、施策の実行度合いの値を示す表示の周囲に肌スコア、心スコア、及び体スコアの3つのスコアを示す表示が出力されるので、肌スコア、心スコア、及び体スコアの3つのスコアそれぞれと、施策群の実行の度合いの値と、が相互に関連性を有していることを、ユーザに対してより視覚的かつ直感的に認識させることができる。 As a result, a display showing the three scores of the skin score, the heart score, and the body score is output around the display showing the value of the degree of execution of the measure, so that the three scores of the skin score, the heart score, and the body score are output. It is possible to make the user more visually and intuitively recognize that each of them and the value of the degree of execution of the measure group are related to each other.

肌状態認識システムの利用形態の説明図。An explanatory diagram of the usage pattern of the skin condition recognition system. 肌状態認識システム及びユーザ端末の構成図。The block diagram of the skin condition recognition system and the user terminal. 肌状態認識システムによる一連の肌サポート処理の説明図。An explanatory diagram of a series of skin support processes by the skin condition recognition system. 肌状態認識システムにおける処理の第1のフローチャート。The first flowchart of the process in the skin condition recognition system. 肌状態認識システムにおける処理の第2のフローチャート。The second flowchart of the process in the skin condition recognition system. ユーザ端末における処理の第1のフローチャート。The first flowchart of the process in a user terminal. ユーザ端末における処理の第2のフローチャート。The second flowchart of the process in a user terminal. 主観データ及び客観データによる肌、心、体の初期データの解析処理の説明図。Explanatory drawing of analysis processing of initial data of skin, mind, and body by subjective data and objective data. 体状態の数値化の説明図。Explanatory diagram of quantification of body condition. 心状態の数値化の説明図。An explanatory diagram for quantifying the state of mind. 図11Aは各施策とその施策の改善傾向等との関係を示す図で、図11Bは各工程のスケジュールを示す図で、図11Cはなりたい肌と肌状態の主観状態、客観状態との関係を示す図。FIG. 11A is a diagram showing the relationship between each measure and the improvement tendency of the measure, FIG. 11B is a diagram showing the schedule of each process, and FIG. 11C is a diagram showing the relationship between the subjective state and the objective state of the desired skin and skin condition. The figure which shows. 画像表示を実施している期間における日々のモニタリングに基づく進捗表の説明図。An explanatory diagram of the progress table based on daily monitoring during the period when the image is displayed. 特殊事例による肌状態への影響の説明図。An explanatory diagram of the effect of a special case on the skin condition. ユーザ端末における肌状態の改善度の表示画面の説明図。An explanatory diagram of a display screen of the degree of improvement of the skin condition on the user terminal. 施策の評価方法の説明図であり、図15Aは施策の評価基準を示し、図15Bは施策の評価例を示している。It is explanatory drawing of the evaluation method of a measure, FIG. 15A shows the evaluation standard of a measure, and FIG. 15B shows the evaluation example of a measure. 暮らし及び特殊事例の評価方法の説明図であり、図16Aは暮らし及び特殊事例の評価基準を示し、図16Bは暮らし及び特殊事例の評価例を示している。It is explanatory drawing of the evaluation method of living and a special case, FIG. 16A shows the evaluation criteria of living and a special case, and FIG. 16B shows the evaluation example of a living and a special case. ゴール達成度の判定方法の説明図。An explanatory diagram of a method for determining the degree of goal achievement. 2次データの説明図。Explanatory diagram of secondary data. シミュレーション処理のフローチャート。Flowchart of simulation processing. 図20Aは、所定の期間におけるユーザの肌状態のスコア、心状態のスコア及び体状態のスコアを示す図、図20Bは、所定の期間におけるユーザの施策の実施状況を示す図。FIG. 20A is a diagram showing a score of a user's skin condition, a score of a mental condition, and a score of a physical condition in a predetermined period, and FIG. 20B is a diagram showing an implementation status of a user's measure in a predetermined period. 図21Aは、所定の期間におけるユーザの各施策の実行の度合いを示す図、図21Bは、所定の期間におけるユーザの各カテゴリーの実行の度合いを示す図。FIG. 21A is a diagram showing the degree of execution of each measure of the user in a predetermined period, and FIG. 21B is a diagram showing the degree of execution of each category of the user in a predetermined period. シミュレーション画面を示す図。The figure which shows the simulation screen. カテゴリーバーが押圧された時のシミュレーション画面を示す図。The figure which shows the simulation screen when the category bar is pressed. 施策の実行度合いと、各スコアとの関係を示すグラフ。A graph showing the relationship between the degree of implementation of measures and each score. 他の実施形態におけるシミュレーション画面の一例を示す図。The figure which shows an example of the simulation screen in another embodiment. 他の実施形態におけるシミュレーション画面の別の例を示す図。The figure which shows another example of the simulation screen in another embodiment.

本発明の実施形態の一例について、図1〜図18を参照して説明する。 An example of an embodiment of the present invention will be described with reference to FIGS. 1 to 18.

[A.肌状態認識システムの利用形態]
図1を参照して、肌状態認識システム10の構成および本発明を構成する系に対する位置付けを説明する。肌状態認識システム10は、CPU、メモリ、各種インターフェース回路等を備えたコンピュータシステムにより構成される。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することによって、複数のユーザU(図1ではUa,Ub,Ucを例示)の肌状態を改善又は維持するための処理
(画像表示処理)を実行する機能を実現する。
[A. Usage of skin condition recognition system]
With reference to FIG. 1, the configuration of the skin condition recognition system 10 and its position with respect to the system constituting the present invention will be described. The skin condition recognition system 10 is composed of a computer system including a CPU, a memory, various interface circuits, and the like. The skin condition recognition system 10 is for improving or maintaining the skin condition of a plurality of users U (Ua, Ub, Uc are exemplified in FIG. 1) by executing an image display program held in a memory on the CPU. (Image display processing) is realized.

肌状態認識システム10は、インターネット等の通信ネットワーク1を介して、複数のユーザUの通信端末(ユーザ端末)30(図1では30a,30b,30cを例示)との間でデータ通信を行うことにより、ユーザUの肌状態の改善又は維持をサポートする。ユーザ端末30が、本発明の「画像表示装置」に相当する。 The skin condition recognition system 10 performs data communication with a plurality of user U communication terminals (user terminals) 30 (30a, 30b, 30c are exemplified in FIG. 1) via a communication network 1 such as the Internet. Supports the improvement or maintenance of the skin condition of the user U. The user terminal 30 corresponds to the "image display device" of the present invention.

通信ネットワーク1には、担当者T(図1ではTa,Tbを例示)の通信端末50(図1では50a,50bを例示)も接続されている。担当者Tは、通信端末50を介して、ユーザUの肌の特徴や趣味嗜好、生活スタイル等を考慮した適切な肌ケア法等の情報を含むデータを、肌状態認識システム10及びユーザ端末30に送信することにより、ユーザUの肌状態の改善に対するアドバイスを行う。なお、担当者Tの通信端末50とユーザUのユーザ端末30とは必ずしも一対一である必要はなく、肌状態認識システム10、担当者Tの通信端末50、通信ネットワーク1を合わせた系全体によってユーザUの肌状態の改善に対するアドバイスがユーザUのユーザ端末30に提供されればよい。例えば、ユーザUの1又は複数のユーザ端末30に対して、複数の担当者Tによってそれぞれの通信端末50を介してアドバイスを提供する方法でも良い。 The communication terminal 50 (exemplifying 50a and 50b in FIG. 1) of the person in charge T (exemplifying Ta and Tb in FIG. 1) is also connected to the communication network 1. The person in charge T obtains data including information such as an appropriate skin care method in consideration of the skin characteristics, hobbies and tastes, lifestyle, etc. of the user U via the communication terminal 50 in the skin condition recognition system 10 and the user terminal 30. By sending to, advice is given to the improvement of the skin condition of the user U. The communication terminal 50 of the person in charge T and the user terminal 30 of the user U do not necessarily have to be one-to-one, depending on the entire system including the skin condition recognition system 10, the communication terminal 50 of the person in charge T, and the communication network 1. The advice for improving the skin condition of the user U may be provided to the user terminal 30 of the user U. For example, a method of providing advice to one or a plurality of user terminals 30 of the user U by a plurality of persons in charge T via the respective communication terminals 50 may be used.

さらに、肌状態認識システム10は、複数のユーザUのユーザ端末30から送信される各ユーザの固有データを解析して、汎用的に活用可能な2次データを生成する機能を有し、この2次データを通信ネットワーク1を介して他のシステム60に提供するサービスも行うことができる。 Further, the skin condition recognition system 10 has a function of analyzing the unique data of each user transmitted from the user terminals 30 of the plurality of users U and generating secondary data that can be used for general purposes. A service of providing the following data to another system 60 via the communication network 1 can also be performed.

[B.肌状態認識システム、及びユーザ端末の構成]
図2を参照して、肌状態認識システム10およびユーザ端末30の構成について説明する。肌状態認識システム10は、メモリに保持された画像表示用のプログラムをCPUで実行することにより、肌状態認識部11、施策グループ選択部12、施策情報送信部13、及び2次データ生成部19として機能する。これらの構成による処理については後述する。また、肌状態認識システム10は、ユーザUの画像表示処理に使用する各種データを保持するサポートDB(データベース)20を備えている。このサポートDB20はたとえばRAM上に展開され、後述する主観および客観データの更新によって書き換え可能である。
[B. Skin condition recognition system and user terminal configuration]
The configuration of the skin condition recognition system 10 and the user terminal 30 will be described with reference to FIG. The skin condition recognition system 10 executes an image display program held in the memory on the CPU, so that the skin condition recognition unit 11, the measure group selection unit 12, the measure information transmission unit 13, and the secondary data generation unit 19 are executed. Functions as. The processing by these configurations will be described later. Further, the skin condition recognition system 10 includes a support DB (database) 20 that holds various data used for image display processing of the user U. This support DB 20 is expanded on RAM, for example, and can be rewritten by updating subjective and objective data described later.

次に、本実施形態のユーザ端末30は、表示器31、タッチパネル32、カメラ33、マイク34、CPU35、及びメモリ36等を備えている。表示器31が、本発明の「画像表示部」に相当する。タッチパネル32が、本発明の「入力部」に相当する。これに代えてまたは加えて、カメラ33で撮像したユーザUの画像又はマイク34から入力されたユーザUの音声に基づいてユーザの指定を認識することにより、カメラ33又はマイク34を本発明の「入力部」として機能させてもよい。 Next, the user terminal 30 of the present embodiment includes a display 31, a touch panel 32, a camera 33, a microphone 34, a CPU 35, a memory 36, and the like. The display 31 corresponds to the "image display unit" of the present invention. The touch panel 32 corresponds to the "input unit" of the present invention. Instead of or in addition to this, the camera 33 or the microphone 34 of the present invention can be obtained by recognizing the user's designation based on the image of the user U captured by the camera 33 or the voice of the user U input from the microphone 34. It may function as an "input unit".

なお、一の装置が情報を「認識する」とは、一の装置が他の装置から当該情報を受信すること、一の装置が当該一の装置に接続された記憶媒体に記憶された情報を読み取ること、一の装置が当該一の装置に接続されたセンサから出力された信号に基づいて情報を取得すること、一の装置が、受信した情報又は記憶媒体に記憶された情報又はセンサから取得した情報に基づいて、所定の演算処理(計算処理又は検索処理など)を実行することにより当該情報を導出すること、一の装置が他の装置による演算処理結果としての当該情報を当該他の装置から受信すること、一の装置が当該受信信号にしたがって内部記憶装置又は外部記憶装置から当該情報を読み取ること等、当該情報を取得するためのあらゆる演算処理が実行されることを意味する。 Note that one device "recognizes" information means that one device receives the information from another device, and that one device receives information stored in a storage medium connected to the one device. Reading, one device acquiring information based on the signal output from the sensor connected to the one device, one device acquiring from the received information or information stored in a storage medium or sensor. Deriving the information by executing a predetermined arithmetic process (calculation process, search process, etc.) based on the information It means that all arithmetic processing for acquiring the information is executed, such as receiving from, one device reading the information from the internal storage device or the external storage device according to the received signal.

本実施形態においては、ユーザ端末30は例えばスマートフォンであるため、カメラ33やマイク34等を備えているが、ユーザ端末と有線無線にかかわらずやり取りできる構成であれば、外付けでの構成であったり、専門的な撮像装置を用いても良い。CPU35は、メモリ36に保持された画像表示用のアプリケーション35a(以下、肌サポートアプリ35aという)のプログラムを実行することにより、ユーザUが肌サポートアプリ35aを介して肌状態認識システム10によるサポートを享受可能な状態とする。肌サポートアプリ35aを実行したCPU35が、本発明の「スコア認識部」「出力制御部」及び「指定認識部」に相当する。 In the present embodiment, since the user terminal 30 is, for example, a smartphone, it is provided with a camera 33, a microphone 34, and the like. Alternatively, a professional imaging device may be used. The CPU 35 executes the program of the image display application 35a (hereinafter referred to as the skin support application 35a) held in the memory 36, so that the user U can support the skin condition recognition system 10 via the skin support application 35a. It will be in a state where it can be enjoyed. The CPU 35 that executes the skin support application 35a corresponds to the "score recognition unit", "output control unit", and "designated recognition unit" of the present invention.

また、ユーザUは、肌の細胞を取得するための角質採取テープ37(図1では37a、37b、37cを例示)を別途有している。この角質採取テープ37は、予め担当者TによりユーザUに提供されたものであってもよいし、ユーザUが市販の角質採取テープ37を購入してもよい。 In addition, the user U separately has a keratin collecting tape 37 (exemplifying 37a, 37b, 37c in FIG. 1) for acquiring skin cells. The keratin collecting tape 37 may be provided to the user U by the person in charge T in advance, or the user U may purchase a commercially available keratin collecting tape 37.

なお、以下の説明では、説明の便宜のため、肌状態の改善又は維持のサポート処理の対象のユーザをユーザUaと表し、「ユーザUa」と異なるユーザを「他のユーザUb、Uc」と表す。 In the following description, for convenience of explanation, the user who is the target of the support process for improving or maintaining the skin condition is referred to as user Ua, and the user different from "user Ua" is referred to as "other user Ub, Uc". ..

[C.肌状態認識システムによる一連の処理]
次に、図3を参照して、肌状態認識システムによる一連の処理について説明する。肌状態認識システム10は、「1.ゴール設定」、「2.スケジュール決定」、「3.モニタリング」、「4.スケジュール修正」、[5.ゴール判定]及び「6.2次データ生成」の各工程の処理を、図4,5に示したフローチャートに従って実行する。また、ユーザ端末30は、各工程における肌状態認識システム10による処理に応じて、図6,7に示したフローチャートによる処理を実行する。以下では、各工程における肌状態認識システム10及びユーザ端末30のCPU35の処理について、図4〜7に示したフローチャートを参照しつつ説明する。
[C. A series of processing by the skin condition recognition system]
Next, a series of processes by the skin condition recognition system will be described with reference to FIG. The skin condition recognition system 10 includes "1. goal setting", "2. schedule determination", "3. monitoring", "4. schedule correction", and [5. The processing of each step of [Goal determination] and “6.2 Secondary data generation” is executed according to the flowcharts shown in FIGS. 4 and 5. Further, the user terminal 30 executes the processing according to the flowchart shown in FIGS. 6 and 7 according to the processing by the skin condition recognition system 10 in each process. Hereinafter, the processing of the skin condition recognition system 10 and the CPU 35 of the user terminal 30 in each step will be described with reference to the flowcharts shown in FIGS. 4 to 7.

ユーザUaは、図6のSTEP50で、肌サポートアプリ35aのプログラムをユーザ端末30にダウンロードして肌サポートアプリ35aを起動する。そして、ユーザUaは肌サポートアプリ35aへの登録申請を行う。 In STEP 50 of FIG. 6, the user Ua downloads the program of the skin support application 35a to the user terminal 30 and activates the skin support application 35a. Then, the user Ua applies for registration to the skin support application 35a.

肌状態認識システム10は、図4のSTEP10で、ユーザUaからの登録申請を受け付けたときに、「ユーザUaからの登録申請を受け付けた」と認識し、STEP11に処理を進める。そしてSTEP11以降の画像表示処理を開始する。 When the skin condition recognition system 10 receives the registration application from the user Ua in STEP 10 of FIG. 4, it recognizes that "the registration application from the user Ua has been accepted" and proceeds to STEP 11. Then, the image display process after STEP 11 is started.

[D.ゴール設定工程]
図3に示した「1.ゴール設定」の工程は、肌状態認識部11及び施策グループ選択部12により実行される。施策グループ選択部12は、図4のSTEP11でユーザ端末30にユーザUaの現状の肌、体、心の各状態、及びユーザUaが要望する肌状態を把握するための情報入力を促す初期情報要求データを送信する。
[D. Goal setting process]
The process of "1. Goal setting" shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure group selection unit 12. In STEP 11 of FIG. 4, the measure group selection unit 12 prompts the user terminal 30 to input information for grasping the current skin, body, and mental states of the user Ua and the skin condition requested by the user Ua. Send the data.

この初期情報要求データを受信したユーザ端末30では、肌サポートアプリ35aが、図6のSTEP51で、ユーザUaに対して、現状の肌、体、心の各状態、及びユーザUaが要望する肌状態の入力を促す画面を表示器31に表示する。それに対してユーザ端末30は、ユーザUaが入力した情報を含む初期ユーザ情報データを、肌状態認識システム10に送信する。 肌状態認識部11は、図4のSTEP11において、初期ユーザ情報データを受信して、初期ユーザ情報データから認識したユーザUaの肌、心、体の各状態と、ユーザUaが要望する肌状態とに基づいて、肌状態の目標レベル(ゴール)を設定する。 In the user terminal 30 that has received the initial information request data, the skin support application 35a, in STEP 51 of FIG. 6, gives the user Ua the current skin, body, and mental states, and the skin condition requested by the user Ua. A screen prompting the input of is displayed on the display 31. On the other hand, the user terminal 30 transmits the initial user information data including the information input by the user Ua to the skin condition recognition system 10. In STEP 11 of FIG. 4, the skin condition recognition unit 11 receives the initial user information data and recognizes the skin, mind, and body states of the user Ua from the initial user information data, and the skin condition requested by the user Ua. Set the target level (goal) of the skin condition based on.

ここで、初期ユーザ情報データには、肌状態、体状態、及び心状態についての主観データ及び客観データが含まれている。詳細な定義は後述するが、主観データはユーザの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。肌状態の主観データは、現状の肌状態に対するユーザUaの満足度を、例えば10段階で示したデータである。肌状態の客観データは、ユーザUaの肌画像データである。なお、肌状態の客観データには、初期ユーザ情報データに含まれる肌状態の客観データに加え、角質採取テープ37により採取されたユーザUaの角層細胞の解析データが含まれても良い。角層細胞の解析データは、具体的には例えば保水能力と皮脂適格性に関するデータである。この場合、角層細胞の解析を、例えばユーザ端末30に接続された測定機器45により行うことで、或は、角質採取テープ37の画像データをユーザ端末30から肌状態認識システム10に送信し、肌状態認識システム10側で角質採取テープ37の画像を分析して保水能力と皮脂適格性などを測定してもよい。 Here, the initial user information data includes subjective data and objective data regarding the skin condition, the physical condition, and the mental condition. Although detailed definitions will be described later, subjective data is items judged by the user's subjectivity, and objective data is data based on inspection results, image analysis, and factual information. The subjective data of the skin condition is data showing, for example, the degree of satisfaction of the user Ua with respect to the current skin condition in 10 stages. The objective data of the skin condition is the skin image data of the user Ua. In addition to the objective data of the skin condition included in the initial user information data, the objective data of the skin condition may include the analysis data of the stratum corneum cells of the user Ua collected by the keratin collection tape 37. The analysis data of the stratum corneum cells are specifically, for example, data on water retention capacity and sebum eligibility. In this case, the analysis of the stratum corneum cells is performed, for example, by the measuring device 45 connected to the user terminal 30, or the image data of the stratum corneum collection tape 37 is transmitted from the user terminal 30 to the skin condition recognition system 10. The image of the keratin collecting tape 37 may be analyzed on the skin condition recognition system 10 side to measure the water retention capacity, sebum eligibility, and the like.

ユーザUaの満足度は肌サポートアプリ35aにおけるアンケート入力によって取得される。また、肌画像データは、ユーザ端末30のカメラ33又は接続端子40に接続され
た外部カメラによってユーザUaがユーザUaの顔を撮像することによって取得した画像データである。
The satisfaction level of the user Ua is acquired by inputting a questionnaire in the skin support application 35a. The skin image data is image data acquired by the user Ua taking an image of the user Ua's face by an external camera connected to the camera 33 of the user terminal 30 or the connection terminal 40.

また、肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用方法を表示器31に表示し、角質採取テープ37の使用と別途の郵送とを促す。肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用と肌画像の撮像を促し、撮像された画像が肌状態認識システム10に送信されるようにしてもよい。 Further, the skin support application 35a displays the usage method of the keratin collecting tape 37 on the display 31 to the user Ua, and urges the user Ua to use the keratin collecting tape 37 and to mail it separately. The skin support application 35a may urge the user Ua to use the keratin collecting tape 37 and capture a skin image so that the captured image is transmitted to the skin condition recognition system 10.

肌状態認識部11は、図8に示したように、肌状態の初期値を、主観のスコアをたとえば3、肌画像のスコアを3、保水能力のスコアを2、皮脂適格性のスコアを1に割り当てて、合計した値を肌状態のスコアとする。なお、スコアは正の整数ではなく、小数で表現されていてもよいし、負の数で表されてもよい。 As shown in FIG. 8, the skin condition recognition unit 11 sets the initial value of the skin condition to, for example, a subjective score of 3, a skin image score of 3, a water retention capacity score of 2, and a sebum eligibility score of 1. The total value is used as the skin condition score. The score may be expressed as a decimal number or a negative number instead of a positive integer.

角層細胞の解析による保水能力スコア及び皮脂適格性のスコアの認識を第1認識方法と呼ぶ。第1認識方法は、これに代えてまたは加えて、角層水分量計によりユーザの肌の水分量を計測する方法及び皮脂量計によりユーザの肌の皮脂量を計測する方法のうち少なくとも1つを含む。また、第1の認識方法によるユーザの肌の認識を定期的に行うため、肌状態認識部11は、定期的にユーザ端末30に角質採取テープ37等の使用を促すメッセージを送信したりすることにより、ユーザに行動を促す。このときの「定期的」というのは厳密に時間的に等間隔である必要はなく、肌状態に影響が出ない範囲で等間隔であれば良い。例えば、3ヶ月ごとに第1の認識方法を実施する場合において、1月1日に初回を実施した場合、ちょうど3か月後の4月1日のみならず、例えばその1週間前の3月24日前後にユーザ端末30にメッセージを送信してもよいし、例えばその1週間後の4月8日前後にユーザ端末30にメッセージを送信してもよい。また、長期的にサービスを提供するときなどは、例えば細かい改善を調べたい時は1ヶ月ごとに第1の認識方法を設定し、肌状態に対する季節変化の影響を調べるために3か月ごとに第1の認識方法を設定するなど、認識のタイミングは変更可能である。 Recognition of the water retention capacity score and the sebum eligibility score by analysis of the stratum corneum cells is called the first recognition method. The first recognition method is at least one of a method of measuring the water content of the user's skin with a stratum corneum moisture meter and a method of measuring the sebum content of the user's skin with a sebum meter. including. Further, in order to periodically recognize the user's skin by the first recognition method, the skin condition recognition unit 11 periodically sends a message urging the user terminal 30 to use the keratin collecting tape 37 or the like. To encourage the user to take action. At this time, "regular" does not have to be strictly equidistant in time, and may be equidistant as long as the skin condition is not affected. For example, when the first recognition method is implemented every three months, if the first recognition method is implemented on January 1, not only April 1 just three months later, but also March one week before that, for example. A message may be sent to the user terminal 30 around 24 days, or for example, a message may be sent to the user terminal 30 around April 8 one week later. In addition, when providing services over the long term, for example, when you want to investigate minor improvements, set the first recognition method every month, and every three months to investigate the effect of seasonal changes on the skin condition. The recognition timing can be changed, such as by setting the first recognition method.

アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識のそれぞれを第2認識方法と呼ぶ。第2認識方法は、アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識の一方によってユーザUaの肌状態を認識してもよいし、これらと異なる方法を含んでもよい。また、第2認識方法は、第1の認識方法よりも頻繁に行われる。これは角質採取テープ37の使用・郵送が手間的にも煩雑かつ値段的にも高価になってしまうためである。また、角質採取テープ37の使用が頻繁であると、ユーザUaの肌へ悪影響が及ぶおそれもある。 Each of the recognition of the subjective score based on the subjective data of the skin condition by the input of the questionnaire and the recognition of the skin image score based on the skin image data of the user Ua is referred to as the second recognition method. As the second recognition method, the skin condition of the user Ua may be recognized by either the recognition of the subjective score based on the subjective data of the skin condition by the input of the questionnaire and the recognition of the skin image score based on the skin image data of the user Ua. , Different methods may be included. Moreover, the second recognition method is performed more frequently than the first recognition method. This is because the use and mailing of the keratin collecting tape 37 is troublesome, complicated, and expensive. Further, if the keratin collecting tape 37 is frequently used, the skin of the user Ua may be adversely affected.

例えば3か月間ごとに第1の認識方法が実施され、第2の認識方法は毎日実施にされる。また、第1の認識方法の実施と第2の認識方法の実施のタイミングが重なる時は、できれば同じタイミングで実施されると精度の良いデータが取れるために好ましい。ただし第1の認識方法の実施時に第2の認識方法が実施されなくても本発明の実施は可能であるし、効果も得られる。 For example, the first recognition method is carried out every three months, and the second recognition method is carried out every day. Further, when the timings of the first recognition method and the second recognition method overlap, it is preferable that the first recognition method is carried out at the same timing, because accurate data can be obtained. However, the present invention can be implemented and the effect can be obtained even if the second recognition method is not implemented when the first recognition method is implemented.

なお、主観スコアは、主観データに基づいて認識されたスコアであればよい。 The subjective score may be any score recognized based on the subjective data.

体状態の主観データと客観データは、図9に示したように分けられている。詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。体状態の主観データは、ユーザUaが肌サポートアプリ35aを通じてアンケートを入力することによって取得される。客観データは、ユーザUaがユーザ端末30のカメラ33を用いて撮像されたユーザUaの舌・唇の画像データ、ユーザ端末30の接続端子40に接続された測定機器45により測定されたユーザUaの血圧、不整脈、尿中成分、血中成分等の測定データと、肌サポートアプリ35aにおけるアンケート入力により取得された頭痛又は肩こり等の体調不良の回数、疲労度判定等のデータである。なお、将来の肌ケア以外のサービスへの展開に備えて、種々の病気の発生情報などについても初
期ユーザ情報データに含めてもよい。
The subjective data and the objective data of the physical condition are separated as shown in FIG. The detailed definition will be described later, but like the subjective data and the objective data of the skin, the subjective data is the item determined by the subjectivity of the user Ua, and the objective data is the data based on the inspection result, the image analysis, and the fact information. The subjective data of the physical condition is acquired by the user Ua inputting a questionnaire through the skin support application 35a. The objective data is image data of the tongue and lips of the user Ua captured by the user Ua using the camera 33 of the user terminal 30, and the user Ua measured by the measuring device 45 connected to the connection terminal 40 of the user terminal 30. It is the measurement data of blood pressure, arrhythmia, urinary component, blood component and the like, and the data such as the number of times of poor physical condition such as headache or stiff shoulder and the degree of fatigue determination acquired by inputting a questionnaire in the skin support application 35a. In preparation for future development of services other than skin care, information on the occurrence of various diseases may be included in the initial user information data.

心状態の主観データと客観データは、図10に示したように分けられている。、詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。主観データは、肌サポートアプリ35aにおけるアンケート入力によって取得される。客観データは、肌サポートアプリ35aにおけるアンケート入力(一日の笑った頻度等)と、測定機器による測定(脈拍モニタリングからの心理状態推定等)とにより取得される。なお、将来の肌ケア以外のサービスの展開に備えて、種々の精神疾患の発生情報についても初期ユーザ情報データに含めてもよい。 The subjective data and the objective data of the mental state are separated as shown in FIG. The detailed definition will be described later, but like the subjective data and objective data of the skin, the subjective data is the item judged by the subjectivity of the user Ua, and the objective data is the data based on the inspection result, the image analysis, and the fact information. .. The subjective data is acquired by inputting a questionnaire in the skin support application 35a. The objective data is acquired by inputting a questionnaire (frequency of laughing in a day, etc.) in the skin support application 35a and measuring with a measuring device (estimation of psychological state from pulse monitoring, etc.). In preparation for the development of services other than skin care in the future, information on the occurrence of various mental illnesses may be included in the initial user information data.

肌状態認識部11は、認識したユーザUaの肌、体、心の状態の主観データ及び客観データを、サポートDB20に記憶する。 The skin condition recognition unit 11 stores the subjective data and objective data of the recognized user Ua's skin, body, and mental state in the support DB 20.

肌状態認識部11は、このようにして初期ユーザ情報データから認識したユーザUaの肌状態、体状態、及び心状態の主観データと客観データに基づいて、図8の右側の三角形で示したように、肌状態を1〜9、体状態を1〜6、心状態を1〜6の各スコアで表した3軸の初期値を設定する。なお、肌状態のスコアと同様に、体状態又は心状態の主観データ及び客観データから体状態又は心状態の主観スコア及び客観スコアが算出され、それらに基づいて体状態のスコア及び心状態のスコアとして扱われてもよい。 The skin condition recognition unit 11 is as shown by the triangle on the right side of FIG. 8 based on the subjective data and the objective data of the skin condition, the body condition, and the mental state of the user Ua recognized from the initial user information data in this way. The initial values of the three axes represented by the scores of 1 to 9 for the skin condition, 1 to 6 for the body condition, and 1 to 6 for the mental condition are set. Similar to the skin condition score, the body condition or mental condition subjective score and objective score are calculated from the subjective data and objective data of the physical condition or mental condition, and the physical condition score and the mental condition score are calculated based on them. May be treated as.

さらに、施策グループ選択部12は、初期ユーザ情報データに含まれる「なりたい肌レベル」「施策のカテゴリー、希望、頻度」及び「現在行っている施策」を取得する。「なりたい肌レベル」「施策のカテゴリー,希望,頻度」及び「現在行っている施策」は、肌サポートアプリ35aにより、ユーザUaが入力したものである。 Further, the measure group selection unit 12 acquires the “desired skin level”, “measure category, hope, frequency” and “current measure” included in the initial user information data. The "desired skin level", "measure category, hope, frequency" and "current measures" are input by the user Ua by the skin support application 35a.

ここで、「なりたい肌レベル」において、「なりたい肌」とは、乾燥感改善、ごわつき改善、敏感肌改善、ニキビ改善、しぼみ感改善、シミ改善、シワ改善、たるみ改善、くすみ改善、くま改善、顔色改善、及びハリ改善の中から選択された肌状態の改善対象である。また、「レベル」とは、各対象の肌状態に対するユーザUaの満足度であって、肌サポートアプリにおいて1〜10の10段階でユーザが選択したレベルである。 Here, in the "want to become skin level", "want to become skin" means improvement of dryness, stiffness, sensitive skin, acne, deflation, age spots, wrinkles, sagging, dullness, dark circles, etc. It is a target for improving skin condition selected from complexion improvement and firmness improvement. The "level" is the degree of satisfaction of the user Ua with respect to the skin condition of each target, and is a level selected by the user in 10 stages of 1 to 10 in the skin support application.

サポートDB20は、各改善対象に関連付けられた肌状態の主観状態の改善傾向及び客観状態の改善傾向を記憶している。例えば、図11Cに示されるように、「乾燥感改善」には、肌状態の主観状態「乾燥感改善」と、肌状態の客観状態の基準「保水能力と皮脂適格性との差を最小化」とが関連付けられている。 The support DB 20 stores the improvement tendency of the subjective state and the improvement tendency of the objective state of the skin condition associated with each improvement target. For example, as shown in FIG. 11C, "improvement of dryness" includes minimizing the difference between the subjective condition of skin condition "improvement of dryness" and the standard of objective condition of skin condition "water retention capacity and sebum eligibility". Is associated with.

例えば、「なりたい肌」が「乾燥感改善」であり、現状の肌状態の乾燥感の満足度のレベルが3であるときに、ユーザUaの選択に応じて、「乾燥感改善」と関連付けられたユーザUaの肌状態の主観状態「乾燥感改善」についての満足度5が主観的な目標レベルとして設定される。 For example, when the "desired skin" is "improvement of dryness" and the satisfaction level of the dryness of the current skin condition is 3, it is associated with "improvement of dryness" according to the selection of the user Ua. Satisfaction level 5 for the subjective state "improvement of dryness" of the skin condition of the user Ua is set as a subjective target level.

また、施策グループ選択部12は、「乾燥感改善」に関連付けられた肌状態の客観的な改善対象を設定する。例えば、施策グループ選択部12は、「乾燥感改善」に関連付けられた基準「保水能力と皮脂適格性との差を最小化」に基づいて、ユーザUaの肌状態のうち、保水能力よりも低い皮脂適格性の値2を客観的な目標レベルとして設定する。 In addition, the measure group selection unit 12 sets an objective improvement target for the skin condition associated with "improvement of dryness". For example, the measure group selection unit 12 is lower than the water retention capacity of the skin condition of the user Ua based on the criterion "minimize the difference between the water retention capacity and the sebum eligibility" associated with "improvement of dryness". A sebum eligibility value of 2 is set as an objective target level.

また、「施策のカテゴリー、希望、頻度」において、カテゴリーとしては「食生活、自
宅での行動、運動、化粧品の使い方」等、希望としては「難易度、時間制約、肌ケアを行うシーン」等、頻度としては「1日当たりのアドバイスを受ける回数」等が選択される。
In addition, in the "category of measures, hope, frequency", the category is "dietary habits, behavior at home, exercise, how to use cosmetics", etc., and the hope is "difficulty, time constraints, scenes of skin care", etc. As the frequency, "the number of times to receive advice per day" or the like is selected.

「現在行っている施策」は、ユーザUaがすでに行っている施策であり、「湯船につかる」等の内容及び頻度又は程度などにより表される。 The "currently implemented measure" is a measure already taken by the user Ua, and is represented by the content, frequency, or degree of "immersing in a bathtub" or the like.

[E.スケジュール決定工程]
図3に示した「2.スケジュール決定」の工程は、施策グループ選択部12及び施策情報送信部13により実行される。施策グループ選択部12は、図4のSTEP12で、ゴール(主観的な目標レベル及び客観的な目標レベル)を達成するための施策グループを選択する。この選択は、上述した各改善対象に関連付けられた、肌状態の主観状態の改善傾向と肌状態の客観状態の改善傾向と適した周辺環境とを考慮して行われる。施策グループ選択部12は、あらかじめ登録された地域またはGPSセンサ等によって検出された位置情報と、端末の時計機能から取得した日時とに基づいて、スケジュール期間におけるユーザUaの周辺環境の温度、湿度等を予測する。
[E. Schedule determination process]
The process of "2. Schedule determination" shown in FIG. 3 is executed by the measure group selection unit 12 and the measure information transmission unit 13. The measure group selection unit 12 selects a measure group for achieving the goal (subjective target level and objective target level) in STEP 12 of FIG. This selection is made in consideration of the improvement tendency of the subjective state of the skin condition, the improvement tendency of the objective state of the skin condition, and the suitable surrounding environment associated with each of the above-mentioned improvement targets. The measure group selection unit 12 determines the temperature, humidity, etc. of the surrounding environment of the user Ua during the schedule period based on the position information detected by the area or GPS sensor registered in advance and the date and time acquired from the clock function of the terminal. Predict.

例えば、施策グループ選択部12は、カテゴリーの希望が「自宅での行動、食生活、運動」であり、梅雨の時期のように湿度が平均50%と予測される季節であり、主観的な目標レベルが「乾燥感」の満足度5以上、客観的な目標レベルが皮脂適格性2以上である場合、主観状態の改善傾向が「乾燥感改善」を含み、客観状態の改善傾向が「皮脂適格性向上」を含み、カテゴリーに「自宅での行動、食生活、運動」のいずれかであり、適した周辺環境が湿度50%と矛盾しない施策を選択する。 For example, in the measure group selection unit 12, the category hope is "behavior at home, eating habits, exercise", and the humidity is predicted to be 50% on average, such as during the rainy season, which is a subjective goal. When the level is "dryness" satisfaction level 5 or higher and the objective target level is sebum eligibility 2 or higher, the subjective state improvement tendency includes "dryness improvement" and the objective state improvement tendency is "sebum eligibility". Select a measure that includes "improvement of sex" and is one of "behavior at home, eating habits, exercise" in the category, and the suitable surrounding environment is consistent with humidity of 50%.

ここで、主観状態の改善傾向及び客観状態の改善傾向は、予め担当者T等の専門家によって定められたものであってもよいし、サポートDB20に記憶された他のユーザUb、Ucが実施した施策と他のユーザUb、Ucの肌状態の時系列的変化に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよいし、実施した施策とユーザUaの肌状態の時系列的変化がサポートDB20に保存されている場合には、当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよい。 Here, the improvement tendency of the subjective state and the improvement tendency of the objective state may be determined in advance by an expert such as the person in charge T, or may be implemented by other users Ub and Uc stored in the support DB 20. It may be an improvement tendency of the subjective state and an improvement tendency of the objective state estimated based on the measures taken and the time-series change of the skin condition of other users Ub and Uc, or the measures taken and the skin condition of the user Ua. When the time-series change of is stored in the support DB 20, it may be an improvement tendency of the subjective state and an improvement tendency of the objective state estimated based on the information.

例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策と、その施策を実施した前後の他のユーザUb、Ucそれぞれごとの肌状態の主観データの時系列的変化及び他のユーザUb、Ucそれぞれごとの肌状態の客観データの時系列的変化の一方又は両方とが記憶される。 For example, in the support DB 20, the measures implemented by each of the other users Ub and Uc, and the time-series changes in the subjective data of the skin condition of each of the other users Ub and Uc before and after the measures are implemented, and other information. One or both of the time-series changes in the objective data of the skin condition for each of the users Ub and Uc are stored.

また、例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策「湯船につかる」と、その施策を実施した前後における、他のユーザUb、Ucそれぞれの肌状態の主観状態の時系列的変化としての「乾燥感についての満足度」が記憶されているとする。 Further, for example, in the support DB 20, the measure "Take a bath" implemented by each of the other users Ub and Uc and the subjective state of the skin condition of each of the other users Ub and Uc before and after the measure is implemented. It is assumed that "satisfaction with the feeling of dryness" as a time-series change is memorized.

このとき、施策グループ選択部12は、各他のユーザUb、Ucごとに、施策「湯船につかる」について、例えば、湯船につかる前日と、湯船につかった日の肌状態の主観データ(乾燥感についての満足度)の変化量を算出する。そして、施策グループ選択部12は、各他のユーザUb、Ucごとの乾燥感についての満足度の変化量の平均値をとる。施策グループ選択部12は、例えば、「乾燥感についての満足度」の変化量の平均値が所定値以上である場合に、施策「湯船につかる」の主観状態の改善傾向を「乾燥感改善」と認識する。客観状態の改善傾向についても、主観状態の改善傾向と同様に認識できる。 At this time, the measure group selection unit 12 determines the subjective data (dryness feeling) of the skin condition on the day before the bathtub and the day when the bathtub is used, for example, regarding the measure "immerse in the bathtub" for each other user Ub and Uc. Satisfaction with) is calculated. Then, the measure group selection unit 12 takes an average value of the amount of change in the degree of satisfaction with respect to the feeling of dryness for each of the other users Ub and Uc. For example, when the average value of the change amount of the "satisfaction with the feeling of dryness" is equal to or more than a predetermined value, the measure group selection unit 12 "improves the feeling of dryness" for the improvement tendency of the subjective state of the measure "immerse in the bathtub". Recognize that. The improvement tendency of the objective state can be recognized in the same way as the improvement tendency of the subjective state.

施策グループ選択部12は、ユーザUaの年齢及び肌状態に基づいて、同年代、同様の
肌状態等、処理対象とする他のユーザUb、Ucの範囲を絞ってもよい。
The measure group selection unit 12 may narrow down the range of other users Ub and Uc to be processed, such as the same age group and the same skin condition, based on the age and skin condition of the user Ua.

また、施策グループ選択部12は、サポートDBに実施した施策とユーザUaの肌状態の時系列的変化が保存されている場合には、上記と同様にして算出した当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 Further, when the measure implemented in the support DB and the time-series change of the skin condition of the user Ua are stored in the measure group selection unit 12, the measure group selection unit 12 is estimated based on the information calculated in the same manner as above. You may recognize the improvement tendency of the subjective state and the improvement tendency of the objective state.

施策グループ選択部12は、ユーザUaの第1回目のスケジュール決定工程においては、他のユーザUb、Ucの肌状態の主観データ、客観データから上記主観状態の改善傾向及び客観状態の改善傾向を認識し、ユーザUaの第2回目のスケジュール決定工程においてはユーザUaの肌状態の主観データ、客観データから主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 In the first schedule determination process of the user Ua, the measure group selection unit 12 recognizes the improvement tendency of the subjective state and the improvement tendency of the objective state from the subjective data and the objective data of the skin condition of other users Ub and Uc. However, in the second schedule determination step of the user Ua, the improvement tendency of the subjective state and the improvement tendency of the objective state may be recognized from the subjective data and the objective data of the skin condition of the user Ua.

施策グループ選択部12は、肌状態のみならず、心状態、体状態についても同様に主観状態の改善傾向及び客観状態の改善傾向を認識し、当該心状態、体状態の主観状態の改善傾向及び客観状態の改善傾向を加味して施策を選択してもよい。 The measure group selection unit 12 recognizes the improvement tendency of the subjective state and the improvement tendency of the objective state not only for the skin state but also for the mental state and the physical state, and the improvement tendency of the subjective state of the mental state and the physical state and the improvement tendency of the physical state. Measures may be selected in consideration of the tendency of improvement in the objective state.

施策グループ選択部12は、「現在行っている施策」と同内容及び同頻度または同程度の施策を施策グループから除外してもよい。ユーザが既に行っている施策は、提案するまでもないと考えられるからである。 The measure group selection unit 12 may exclude measures having the same content and frequency or the same degree as the “current measures” from the measure group. This is because it is not necessary to propose the measures that the user has already taken.

図11Aの例では、施策グループ選択部12は、「湯船につかる」「ビタミンC摂取」「野菜摂取」「1万歩以上歩く」を含むように複数の施策の組合せである施策グループを選択する。 In the example of FIG. 11A, the measure group selection unit 12 selects a measure group that is a combination of a plurality of measures so as to include "take a bath", "vitamin C intake", "vegetable intake", and "walk 10,000 steps or more". ..

施策情報送信部13は、施策グループの中から、ユーザUaの「施策のカテゴリー、希望、頻度」に応じて施策の優先度を評価し、当該優先度に従って初期の施策を決定する。図12には、初期の施策として「湯船につかる」「野菜摂取」「1万歩以上歩く」が選択されたスケジュールの例を示している。施策情報送信部13は、このようにして決定したスケジュールの内容を示すスケジュールデータをユーザ端末30に送信する。 The measure information transmission unit 13 evaluates the priority of the measure according to the "category, hope, frequency of the measure" of the user Ua from the measure group, and determines the initial measure according to the priority. FIG. 12 shows an example of a schedule in which "take a bath", "vegetable intake", and "walk 10,000 steps or more" are selected as initial measures. The measure information transmission unit 13 transmits schedule data indicating the contents of the schedule determined in this way to the user terminal 30.

施策情報送信部13は、併せて、ユーザUaの指定を基に、一定期間の各工程の実施の計画を作成する。図11Bには、START時にゴール設定とスケジュール決定を行い、毎日モニタリングをし、1週間ごとにスケジュール修正を行い、1か月後に進捗グラフを作成し、3か月目にゴール判定と新たなゴール設定を行うという一連のイベントの計画が示されている。施策情報送信部13は、ユーザUaの指定に加えてまたは代えて、あらかじめ定められた、一定期間の各工程の実施の計画を用いてもよい。 The measure information transmission unit 13 also creates a plan for implementing each process for a certain period based on the designation of the user Ua. In FIG. 11B, goals are set and schedules are determined at START, daily monitoring is performed, schedules are revised weekly, a progress graph is created one month later, goal judgments and new goals are determined in the third month. A plan for a series of events to configure is shown. In addition to or in place of the user Ua's designation, the measure information transmission unit 13 may use a predetermined plan for implementing each process for a certain period of time.

ユーザ端末30において、図6のSTEP52で、肌状態認識システム10からスケジュールデータを受信すると、肌サポートアプリ35aは、図12に示したようなスケジュールの実行表及び図11Bに示したような作業内容の計画を表示可能にして、ユーザUaによる各施策の実施を促す。図12のスケジュールの実行表においては、各施策(「湯船につかる」、「野菜摂取」、「1万歩以上歩く」)の内容が表示される。 When the user terminal 30 receives the schedule data from the skin condition recognition system 10 in STEP 52 of FIG. 6, the skin support application 35a has the schedule execution table as shown in FIG. 12 and the work contents as shown in FIG. 11B. The plan can be displayed to encourage the user Ua to implement each measure. In the execution table of the schedule of FIG. 12, the contents of each measure (“take a bath”, “vegetable intake”, “walk 10,000 steps or more”) are displayed.

[F.モニタリング工程]
図3に示した「3.モニタリング」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは毎日)、肌状態認識部11及び施策情報送信部13により実行される。肌サポートアプリ35aの利用を開始したユーザUaは、ユーザ端末30により、日々の肌、体、心の各状態と、スケジュールにより指示された施策の実施状況と、スケジュールにより指示された施策以外のユーザUaの自主的な行動(施策外行動)の実施状況とを入力する。施策の実施状況には、「湯船につかる」、「野菜摂取」、「1万歩以上歩く」をそれぞれ実施したかどうかを示す情報のほか、「30分」および「湯船につかる」、「300g」および「野菜を摂取」、「1万5千歩」および「歩く」など、時間、量などで表される施策の実行の度合いが含まれる。
[F. Monitoring process]
The process of "3. Monitoring" shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure information transmission unit 13 every period set by the user Ua on the skin support application 35a (every day in FIG. 11B). .. The user Ua who has started to use the skin support application 35a uses the user terminal 30 to check the daily skin, body, and mental states, the implementation status of the measures instructed by the schedule, and the users other than the measures instructed by the schedule. Enter the implementation status of Ua's voluntary actions (actions outside the policy). The implementation status of the measures includes information indicating whether or not "take a bath", "vegetable intake", and "walk 10,000 steps or more", as well as "30 minutes", "take a bath", and "300g". ”And“ ingest vegetables ”,“ 15,000 steps ”and“ walking ”, etc., the degree of implementation of measures expressed in terms of time, amount, etc. is included.

肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されるとSTEP60に処理を進め、上述した初期ユーザ情報データと同様に、ユーザUaの肌、体、心の状態についての主観データと客観データを含む現状ユーザ情報データを肌状態認識システム10に送信してSTEP54に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されない場合、そのままSTEP54に処理を進める。ここで送信されるデータには、角質採取テープ37によって採取された角層細胞に関するデータは含まれない。 When the skin, body, and mental state are input by the user Ua in STEP 53 of FIG. 6, the skin support application 35a proceeds to STEP 60, and similarly to the above-mentioned initial user information data, the skin, body, and skin of the user Ua. The current user information data including subjective data and objective data about the state of mind is transmitted to the skin condition recognition system 10 and processed in STEP 54. If the skin, body, and mind states are not input by the user Ua in STEP 53 of FIG. 6, the skin support application 35a proceeds to STEP 54 as it is. The data transmitted here does not include data on stratum corneum cells collected by the stratum corneum collection tape 37.

また、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されたときにSTEP61に処理を進め、スケジュールの実行状況を示す実行状況データを肌状態認識システム10に送信して図7のSTEP55に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されない時は、そのままSTEP55に処理を進める。 Further, the skin support application 35a advances the process to STEP 61 when the schedule execution status (execution status of each measure) is input by the user Ua in STEP 54 of FIG. 6, and displays the execution status data indicating the schedule execution status. It is transmitted to the skin condition recognition system 10 and the process proceeds to STEP 55 in FIG. When the schedule execution status (execution status of each measure) is not input by the user Ua in STEP 54 of FIG. 6, the skin support application 35a proceeds to STEP 55 as it is.

さらに、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されたときにSTEP62に処理を進め、実施された施策外行動の内容を示す施策外行動実施データを肌状態認識システム10に送信してSTEP56に処理を進める。なお、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されないときには、そのままSTEP56に処理を進める。 Further, the skin support application 35a advances the process to STEP 62 when the implementation status of the non-measure action is input by the user Ua in STEP 55 of FIG. 7, and the non-measure action implementation data showing the content of the implemented non-measure action is shown. Is transmitted to the skin condition recognition system 10 and the process proceeds to STEP56. The skin support application 35a proceeds to STEP 56 as it is when the implementation status of the non-measure action is not input by the user Ua in STEP 55 of FIG. 7.

図4のSTEP13〜図5のSTEP16、及び図4のSTEP20〜STEP22は、施策情報送信部13による処理である。肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信したときにSTEP20に処理を進め、現状ユーザ情報データをサポートDB20に蓄積してSTEP14に処理を進める。なお、肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信しないときは、STEP14にそのまま処理を進める。 STEP13 to STEP16 in FIG. 4 and STEP20 to STEP22 in FIG. 4 are processes by the measure information transmission unit 13. When the skin condition recognition unit 11 receives the current user information data from the user terminal 30 in STEP 13, the process proceeds to STEP 20, the current user information data is accumulated in the support DB 20, and the process proceeds to STEP 14. When the skin condition recognition unit 11 does not receive the current user information data from the user terminal 30 in STEP 13, the skin condition recognition unit 11 proceeds to the process as it is in STEP 14.

また、施策情報送信部13は、STEP14でユーザ端末30から実行状況データを受信したときにSTEP21に処理を進め、実行状況データをサポートDB20に蓄積してSTEP15に処理を進める。一方で、STEP14でユーザ端末30から実行状況データを受信していないと判定された場合は、そのままSTEP15に処理を進める。 Further, the measure information transmission unit 13 proceeds with processing in STEP 21 when the execution status data is received from the user terminal 30 in STEP 14, stores the execution status data in the support DB 20, and proceeds with processing in STEP 15. On the other hand, if it is determined in STEP 14 that the execution status data has not been received from the user terminal 30, the process proceeds to STEP 15 as it is.

さらに、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信したときにSTEP22に処理を進め、施策外行動実施データをサポートDB20に蓄積して図5のSTEP16に処理を進める。一方で、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信しない時は、そのまま図5のSTEP16に処理を進める。 Further, the measure information transmission unit 13 proceeds to STEP 22 when receiving the non-measure action implementation data from the user terminal 30 in STEP 15, stores the non-measure action implementation data in the support DB 20, and processes it in STEP 16 of FIG. Proceed. On the other hand, when the measure information transmission unit 13 does not receive the non-measure action implementation data from the user terminal 30 in STEP 15, the process proceeds to STEP 16 of FIG. 5 as it is.

図5に移って、STEP16で、施策情報送信部13は、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、及び施策外行動実施データ等に基づいて、スケジュールの進捗状況を示す進捗表データを作成し、この進捗表データをユーザ端末30に送信する。 Moving to FIG. 5, in STEP 16, the measure information transmission unit 13 is based on the initial user information data of the user Ua, the current user information data, the execution status data, the non-measure action implementation data, etc. accumulated in the support DB 20. Progress table data indicating the progress status of the schedule is created, and this progress table data is transmitted to the user terminal 30.

ここで、スケジュールの進捗表は、例えば図12に示したように、上から順に、肌状態(ここでは乾燥肌)のレベル、体状態のレベル、心状態のレベル、施策(湯船につかる、野菜摂取、1万歩以上歩く)の実施状況、暮らし情報(野菜摂取量、水分摂取量)、及び暮らし特殊事例が、1日単位で表示する構成となっている。 Here, as shown in FIG. 12, for example, the progress table of the schedule shows the level of skin condition (here, dry skin), the level of physical condition, the level of mental condition, and measures (ingestion of bathtub, vegetables) in order from the top. The implementation status (ingestion, walking 10,000 steps or more), living information (vegetable intake, water intake), and special living cases are displayed on a daily basis.

また、スケジュール進捗表には、施策の実行度合い(「30分」湯船につかる、「300g」野菜摂取、「1万5千歩」歩く)が含まれている。 In addition, the schedule progress table includes the degree of implementation of the measures ("30 minutes" bathtub, "300 g" vegetable intake, "15,000 steps" walking).

ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP56で、肌状態認識システム10から送信された進捗表データを受信したときにSTEP63に処理を進め、進捗表データをメモリ36に保持する。肌サポートアプリ35aは、メモリ36に格納された進捗表データを用いて、図12に示した進捗表をユーザ端末30の表示器31に表示する。 In the user terminal 30, when the skin support application 35a receives the progress table data transmitted from the skin condition recognition system 10 in STEP 56 of FIG. 7, the process proceeds to STEP 63 and the progress table data is held in the memory 36. The skin support application 35a displays the progress table shown in FIG. 12 on the display 31 of the user terminal 30 by using the progress table data stored in the memory 36.

また、肌サポートアプリ35aは、進捗表データの他に、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等を用いて、ユーザUaの肌、体、心の各状態の推移や変化を示す情報を、ユーザ端末30の表示器31に表示する。 Further, in addition to the progress table data, the skin support application 35a has the initial user information data, the current user information data, and the execution status data of the user Ua stored in the support DB 20 of the skin condition recognition system 10 recognized via communication. , Information indicating the transition or change of each state of the skin, body, and mind of the user Ua is displayed on the display 31 of the user terminal 30 by using the non-measure action implementation data or the like.

例えば、肌サポートアプリ35aは、図13に示したように、スケジュールによる施策以外のユーザUaの行動(洗顔法の変更、マッサージを受けた等)、及びユーザの体調(生理、睡眠不足等)と、ユーザUaの肌状態の変化の関係を日単位の時系列グラフで、表示器31に表示する。 For example, as shown in FIG. 13, the skin support application 35a includes the user's behavior (change of face washing method, massage, etc.) and the user's physical condition (physiology, lack of sleep, etc.) other than the measures according to the schedule. , The relationship between changes in the skin condition of the user Ua is displayed on the display 31 as a daily time-series graph.

また、肌サポートアプリ35aは、図14に示したように、一カ月単位で、ユーザUaの角質状態を含む肌状態、心理状態、肌ケアの満足度、及び化粧品の使い方の評価値の変化を対比したレーダーチャートを表示器31に表示する。 In addition, as shown in FIG. 14, the skin support application 35a changes the skin condition including the keratin state of the user Ua, the psychological condition, the satisfaction level of skin care, and the evaluation value of how to use the cosmetics on a monthly basis. The contrasting radar chart is displayed on the display 31.

ユーザUaは、肌サポートアプリ35aによるこれらの表示を視認して、自身の肌、体、心の各状態の変化を確認することにより、肌の改善度と共に、体と心の状態の変化も把握することができるため、肌、体、及び心の状態をバランス良く改善しながら、目標とする肌状態のゴールへの到達することができる。 The user Ua visually recognizes these displays by the skin support application 35a and confirms the change in each state of his / her skin, body, and mind, thereby grasping the change in the state of body and mind as well as the degree of improvement of the skin. Therefore, it is possible to reach the goal of the target skin condition while improving the skin, body, and mind condition in a well-balanced manner.

また、肌サポートアプリ35aは、STEP63の後、STEP64に進み、図19に示されるシミュレータ表示処理を実行する。シミュレータ表示処理の詳細については後述する。 Further, the skin support application 35a proceeds to STEP64 after STEP63, and executes the simulator display process shown in FIG. The details of the simulator display processing will be described later.

[G.スケジュール修正]
図3に示した「4.スケジュール修正」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは1週間ごとに)、施策情報送信部13により実行される。図5のSTEP17〜STEP20、及びSTEP30〜STEP33が、施策情報送信部13による処理である。
[G. Schedule correction]
The process of "4. Schedule correction" shown in FIG. 3 is executed by the measure information transmission unit 13 every period set by the user Ua on the skin support application 35a (every week in FIG. 11B). STEP17 to STEP20 and STEP30 to STEP33 in FIG. 5 are processes by the measure information transmission unit 13.

施策情報送信部13は、STEP17で、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、及び実行状況データ等に基づいて、ユーザUa肌状態の目標達成度、スケジュールに組み込まれた各施策の実行度、及び各施策の効果を評価する。 In STEP 17, the measure information transmission unit 13 is incorporated into the target achievement degree and schedule of the user Ua skin condition based on the initial user information data, the current user information data, the execution status data, etc. of the user Ua accumulated in the support DB 20. Evaluate the degree of implementation of each measure and the effect of each measure.

施策情報送信部13は、図15Aに示した施策の評価基準を用いて、肌状態と体又は心の状態との相関関係を抽出し、この相関関係に基づいて、スケジュールに組み込まれた各施策の継続、施策グループからの除外、施策の中止、別の施策への変更を判断する。 The measure information transmission unit 13 extracts the correlation between the skin condition and the physical or mental condition using the evaluation criteria of the measures shown in FIG. 15A, and based on this correlation, each measure incorporated in the schedule. Judgment of continuation, exclusion from the measure group, cancellation of the measure, change to another measure.

図15Aの評価基準では、判定項目として、実施の有無、肌への影響、体への影響、心への影響という四項目が使用され、実施率が所定実施率を超え、肌に良い影響があり、且つ、体と心に悪い影響がない施策については、A評価となって継続と判断される。なお、図15Aでは、実施率が所定の実施率を超えた施策を「実施」として表記し、実施率が所定の実施率以下であった施策を「不実施」として表記している。図12及び図15Bでも同様である。 In the evaluation criteria of FIG. 15A, four items are used as judgment items: presence / absence of implementation, effect on skin, effect on body, and effect on mind, and the implementation rate exceeds the predetermined implementation rate, which has a positive effect on the skin. Measures that are present and that do not have a negative effect on the body and mind are evaluated as A and are judged to be continued. In addition, in FIG. 15A, the measure whose implementation rate exceeds the predetermined implementation rate is described as "implementation", and the measure whose implementation rate is less than or equal to the predetermined implementation rate is described as "non-implementation". The same applies to FIGS. 12 and 15B.

施策の影響のタイミングと影響が継続する期間が施策ごとに定められている場合、施策
情報送信部13は、施策の影響のタイミングと施策の影響が継続する期間に基づいて、各施策の影響を判定してもよい。
When the timing of the impact of the measure and the period for which the impact continues are set for each measure, the measure information transmission unit 13 determines the impact of each measure based on the timing of the impact of the measure and the period during which the effect of the measure continues. You may judge.

例えば、「湯船につかる」という施策の肌への影響、体への影響、心への影響は、翌日に影響が出、1日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「湯船につかる」という施策の影響は、12月16日の各状態に反映されていると判断する。 For example, if it is stipulated that the effect of the measure of "immersing in a bathtub" on the skin, the body, and the mind will be affected the next day and will continue for only one day, the measure information transmission unit 13 will For example, it is judged that the influence of the measure of "immersing in a bathtub" on December 15 is reflected in each state on December 16.

また、「野菜摂取」という施策の肌への影響、体への影響、心への影響は、1週間後に影響が出、3日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「野菜摂取」という施策の影響は、12月22日〜12月24日の各状態に反映されていると判断する。 In addition, if it is stipulated that the effect of the measure of "vegetable intake" on the skin, the body, and the mind will be affected after one week and will continue for only three days, the measure information transmission unit 13 will be notified. For example, it is judged that the influence of the measure of "vegetable intake" on December 15 is reflected in each state from December 22 to December 24.

それに対して、実施され、肌に良い影響があるが、体と心のいずれかに悪い影響がある施策については、B評価となって中止或は別施策への変更と判断される。また、実施率が所定の実施率以下となった施策はユーザUaにとって負荷が大きかったと考えられるため、C評価となって中止或は別施策(例えば、ユーザUaの負荷が軽減する施策又は別の施策)への変更と判断される。 On the other hand, measures that are implemented and have a positive effect on the skin but have a negative effect on either the body or the mind are evaluated as B and are judged to be canceled or changed to another measure. In addition, since it is considered that the measure whose implementation rate is less than the predetermined implementation rate has a heavy load on the user Ua, it is evaluated as C and canceled or another measure (for example, a measure to reduce the load on the user Ua or another measure). Measure) is judged to be a change.

施策情報送信部13は、各施策を1日だけ実施することで肌、体、心への良いまたは悪い影響があるかの評価を行っても良いし、数日や数週間などの一定期間において各施策を実施することで、肌、体、心への良いまたは悪い影響があるかの評価を行ってもよい。一定期間で評価を行う場合、施策情報送信部13は、例えば、一定割合でいずれかの状態に悪影響が出た場合にB評価とし、実施割合が一定以下である場合にC評価とし、それ以外の場合A評価としてもよい。これに代えて、施策情報送信部13は、例えば、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価としてもよい。また、1日におけるいずれかの状態の満足度が所定以下となり、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にC評価とし、1日の評価におけるいずれかの状態の満足度が所定以下となり、または、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価とし、1日におけるいずれかの状態の満足度が所定値を超え、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定値を超えた場合にA評価とするなど、1日の評価と一定期間の評価とを組み合わせて用いてもよい。 The measure information transmission unit 13 may evaluate whether each measure has a positive or negative effect on the skin, body, and mind by implementing each measure for only one day, or in a certain period such as several days or several weeks. By implementing each measure, it may be evaluated whether it has a positive or negative effect on the skin, body and mind. When the evaluation is performed in a certain period, for example, the measure information transmission unit 13 gives a B evaluation when any of the states is adversely affected at a certain ratio, a C evaluation when the implementation ratio is below a certain ratio, and other cases. In the case of, it may be evaluated as A. Instead of this, the measure information transmission unit 13 may be evaluated as B when, for example, the average value of satisfaction in any of the states in a certain period is equal to or less than a predetermined value. In addition, if the satisfaction level of any of the states in one day is less than or equal to the predetermined value and the average value of the satisfaction levels of any of the states in a certain period is less than or equal to the predetermined value, the evaluation is C and any of the evaluations in one day. If the satisfaction level of one of the states is below the specified level, or if the average value of the satisfaction level of any of the states is below the specified level, the rating is B, and the satisfaction level of any of the states in one day is specified. If the value is exceeded and the average value of satisfaction in any of the states exceeds a predetermined value, the evaluation may be A, and the evaluation for one day and the evaluation for a certain period may be used in combination. ..

また、施策情報送信部13は、図8に示した肌状態のスコアの向上度が所定の向上度以下である場合に、当該肌状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。施策情報送信部13は、体状態又は心状態のスコアの向上度が所定の向上度以下である場合に、体状態又は心状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。 Further, when the improvement degree of the skin condition score shown in FIG. 8 is equal to or less than the predetermined improvement degree, the measure information transmission unit 13 implements a measure in which the improvement degree of the skin condition score is equal to or less than the predetermined improvement degree. It may be excluded from the measure group. The measure information transmission unit 13 sets a measure group in which the improvement degree of the physical condition or the mental state score is less than or equal to the predetermined improvement degree when the improvement degree of the physical condition or the mental state score is less than or equal to the predetermined improvement degree. May be excluded from.

図15Bは、図15Aに示した評価基準を、本実施形態における施策(湯船につかる、野菜摂取、1万歩以上歩く)に適用した例を示している。図15Bにより、施策情報送信部13は、「湯船につかる」についてはA評価として、次のスケジュールでの継続を決定し、「野菜摂取」についてはB評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定し、「1万歩以上歩く」についてはC評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定している。 FIG. 15B shows an example in which the evaluation criteria shown in FIG. 15A are applied to the measures in the present embodiment (soaking in a bathtub, ingesting vegetables, walking 10,000 steps or more). According to FIG. 15B, the measure information transmission unit 13 decides to continue on the next schedule with "use in the bathtub" as an A evaluation, and excludes "vegetable intake" from the measure group as a B evaluation. Decided to cancel or change to another measure on the schedule, and "walk 10,000 steps or more" is evaluated as C, excluded from the measure group, canceled on the next schedule or changed to another measure. I have decided.

施策情報送信部13は、複数の施策が行われた影響については、それらの施策の組合せごとに判断する。例えば、施策情報送信部13は、「湯船につかる」「野菜摂取」の組合せが、B評価又はC評価であった場合、「湯船につかる」若しくは「野菜摂取」の単独の施策のみとするか、又はこれらのいずれかの施策と別な施策との組み合わせとするように変更してもよい。 The measure information transmission unit 13 determines the influence of a plurality of measures for each combination of those measures. For example, if the combination of "soak in the bathtub" and "vegetable intake" is B evaluation or C evaluation, the measure information transmission unit 13 decides only one measure of "soak in the bathtub" or "vegetable intake". , Or it may be changed to be a combination of any of these measures and another measure.

施策情報送信部13はこのような評価処理を行って、スケジュール修正(主として施策グループの他の施策への変更による修正)の要否を判断し、スケジュール修正が必要と判断したときには、STEP30に処理を進めてスケジュールを修正する。そして、修正したスケジュールのデータであるスケジュール修正データをユーザ端末30送信して、ST
EP19に処理を進める。一方、スケジュールの修正が不要であると判断したときには、施策情報送信部13は、図5のSTEP18から図5のSTEP19に処理を進め、この場合はスケジュールは修正されない。
The measure information transmission unit 13 performs such an evaluation process, determines the necessity of schedule revision (mainly correction by changing to other measures of the measure group), and when it is determined that schedule revision is necessary, processes it in STEP30. To correct the schedule. Then, the schedule correction data, which is the data of the corrected schedule, is transmitted to the user terminal 30, and the ST
Proceed to EP19. On the other hand, when it is determined that the schedule revision is unnecessary, the measure information transmission unit 13 proceeds from STEP 18 in FIG. 5 to STEP 19 in FIG. 5, and in this case, the schedule is not revised.

次に、施策情報送信部13は、STEP19で、初期ユーザ情報データ、現状ユーザ情報データ、及び施策外行動実施データ等に基づいて、ユーザUaが行った各施策外行動(スケジュールに組み込まれている施策以外に、ユーザが行った行動)を評価する。 Next, the measure information transmission unit 13 is incorporated in each non-measure action (scheduled) performed by the user Ua based on the initial user information data, the current user information data, the non-measure action implementation data, etc. in STEP 19. In addition to the measures, the actions taken by the user) are evaluated.

施策情報送信部13は、図16Aに示した施策外行動の評価基準を用いて、施策外行動の推奨の有無又は禁止の提案を判断する。図16Aの評価基準では、判定項目として、肌、体、心の各状態への影響が使用される。 The measure information transmission unit 13 determines whether or not to recommend or prohibit the non-measure action by using the evaluation criteria of the non-measure action shown in FIG. 16A. In the evaluation criteria of FIG. 16A, the influence on each state of the skin, body, and mind is used as a determination item.

そして、「肌、体、心のいずれかに良い影響があり、且ついずれについても悪い影響が無い」場合は、D評価となって実施が推奨される。それに対して、「肌、体、心のいずれかに悪い影響がある」場合は、E評価となって禁止が提案される。また、「肌、体、心のいずれにも影響が無い」場合には、F評価となって実施が推奨されない。 If "there is a positive effect on the skin, body, or mind, and there is no negative effect on any of them," a D rating is recommended. On the other hand, if "it has a bad effect on the skin, body, or mind", it will be evaluated as E and prohibited. In addition, if "there is no effect on the skin, body, or mind", it will be evaluated as F and implementation is not recommended.

図16Bは、図16Aに示した評価基準を、本実施形態における施策外行動(マッサージを受けた、チョコレートを大量に摂取した)に適用した例を示している。図16Bにより、施策情報送信部13は、「マッサージを受ける」についてはD評価として、次のスケジュールでの実施の推奨を決定している。また、「チョコレートの大量摂取」についてはE評価として、次のスケジュールでの止めるための施策(例えば、和菓子を摂取する代替案)の提案を決定している。 FIG. 16B shows an example in which the evaluation criteria shown in FIG. 16A are applied to the out-of-measure behavior (massage received, ingested a large amount of chocolate) in the present embodiment. According to FIG. 16B, the measure information transmission unit 13 has decided to recommend the implementation according to the following schedule as a D evaluation for "receive a massage". In addition, regarding "large amount of chocolate intake", as an E evaluation, it has been decided to propose measures to stop it in the next schedule (for example, alternatives to ingesting Japanese sweets).

施策情報送信部13は、スケジュールに組み込まれた施策の中止或は変更、又は施策外行動について、実施の推奨或は禁止の提案を決定したときには、STEP20からSTEP31に処理を進める。そして、推奨を決定したときはSTEP31からSTEP33に処理を進め、施策外行動の実施を推奨する施策外行動推奨データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 When the measure information transmission unit 13 decides to recommend or prohibit the implementation of the measures incorporated in the schedule, such as cancellation or change, or actions outside the measures, the process proceeds from STEP 20 to STEP 31. Then, when the recommendation is decided, the process proceeds from STEP 31 to STEP 33, the non-measure action recommendation data for recommending the implementation of the non-measure action is transmitted to the user terminal 30, and the process proceeds to STEP 13 in FIG.

一方、施策情報送信部13は、禁止の提案を決定したときには、STEP31からSTEP32に処理を進め、施策外行動の禁止を提案する施策外行動禁止データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 On the other hand, when the measure information transmission unit 13 decides the prohibition proposal, the process proceeds from STEP 31 to STEP 32, and the non-measure action prohibition data proposing the prohibition of the non-measure action is transmitted to the user terminal 30, and FIG. Proceed to STEP13.

また、施策情報送信部13は、推奨又は禁止を提案する施策外行動がない場合には、STEP20から図4のSTEP13に処理を進める。なお、禁止を提案する施策外行動に代替行動がある場合には、禁止の提案に代えて代替行動への変更を提案する施策外行動禁止データをユーザ端末30に送信するようにしてもよい。 Further, the measure information transmission unit 13 proceeds from STEP 20 to STEP 13 of FIG. 4 when there is no action outside the measure that proposes recommendation or prohibition. If there is an alternative action in the non-measure action that proposes prohibition, the non-measure action prohibition data that proposes a change to the alternative action may be transmitted to the user terminal 30 instead of the prohibition proposal.

ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP57で、肌状態認識システム10からスケジュール修正データを受信すると、STEP65に処理を進め、スケジュール修正データに基づいてスケジュールを修正する。そして、肌サポートアプリ35aは、メモリ36に保持されたスケジュールデータを更新して、処理をSTEP58に進める。 When the skin support application 35a receives the schedule correction data from the skin condition recognition system 10 in STEP 57 of FIG. 7, the skin support application 35a proceeds to STEP 65 and corrects the schedule based on the schedule correction data. Then, the skin support application 35a updates the schedule data held in the memory 36, and advances the process to STEP 58.

また、肌サポートアプリ35aは、図7のSTEP58で、肌状態認識システム10から施策外行動推奨データ又は施策外行動禁止データを受信すると、STEP66に処理を進め、受信したデータに応じて、施策外行動を推奨又は禁止の提案を報知する画面をユーザ端末30の表示器31に表示する。なお、この報知は、例えば図12に示した進捗表に報知メッセージを表示して行ってもよい。また、推奨する施策外行動を、新たな施策とし
てスケジュールを修正してもよい。
Further, when the skin support application 35a receives the non-measure action recommendation data or the non-measure action prohibition data from the skin condition recognition system 10 in STEP 58 of FIG. 7, the process proceeds to STEP 66, and the non-measure action is performed according to the received data. A screen for notifying a proposal for recommending or prohibiting an action is displayed on the display 31 of the user terminal 30. Note that this notification may be performed by displaying a notification message on the progress table shown in FIG. 12, for example. In addition, the schedule may be revised as a new measure for the recommended non-measure action.

[H.ゴール判定工程]
図3に示した「5.ゴール判定」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11BにおいてはSTARTから3か月後)、肌状態認識部11、施策グループ選択部12及び施策情報送信部13により実行される。
[H. Goal judgment process]
In the process of "5. Goal determination" shown in FIG. 3, every period set by the user Ua on the skin support application 35a (3 months after START in FIG. 11B), the skin condition recognition unit 11 and the measure group It is executed by the selection unit 12 and the measure information transmission unit 13.

肌サポートアプリ35aは、角質採取テープ37の使用と、角質採取テープ37の郵送を促すメッセージをユーザ端末30の表示器31に表示する。 The skin support application 35a displays a message prompting the use of the keratin collecting tape 37 and the mailing of the keratin collecting tape 37 on the display 31 of the user terminal 30.

肌状態認識部11は、郵送された角質採取テープ37から得られた情報に基づいて、肌状態の客観値(保水能力、皮脂適格性など)を認識する。 The skin condition recognition unit 11 recognizes objective values of skin condition (water retention capacity, sebum eligibility, etc.) based on the information obtained from the mailed keratin collection tape 37.

また、肌サポートアプリ35aは、アンケートの回答、肌等の撮像の使用を促すメッセージをユーザ端末30の表示器31に表示し、得られた情報を送信する。 In addition, the skin support application 35a displays a message prompting the use of a questionnaire response and imaging of the skin or the like on the display 31 of the user terminal 30, and transmits the obtained information.

肌状態認識部11は、肌サポートアプリ35aから得られた情報に基づいて、肌の乾燥感の主観値(主観レベル)と、肌状態の客観値(肌の画像スコア)を認識する。 The skin condition recognition unit 11 recognizes the subjective value (subjective level) of the dryness of the skin and the objective value (skin image score) of the skin condition based on the information obtained from the skin support application 35a.

施策グループ選択部12及び施策情報送信部13は、肌の乾燥感の主観値と、肌状態の客観値とに基づいて、肌状態のサポート開始時と3カ月後における評価値を比較して、ゴール達成度を判定する。 The measure group selection unit 12 and the measure information transmission unit 13 compare the evaluation values at the start of support for the skin condition and after 3 months based on the subjective value of the dryness of the skin and the objective value of the skin condition. Determine the degree of goal achievement.

図17の例では、乾燥感の主観値のレベルが3カ月で3から5に増加しているので達成(○)と判定し、客観値についても、肌の画像スコアが3カ月で3から4に増大し、保水能力が2に維持され、皮脂適格性が1から2に増大しているので達成(○)と判定されている。そして、主観値と客観値が共にゴールを達成しているので、トータルとしてもゴールを達成したと判定している。 In the example of FIG. 17, since the level of the subjective value of dryness increased from 3 to 5 in 3 months, it was judged to be achieved (○), and as for the objective value, the skin image score was 3 to 4 in 3 months. It is judged to be achieved (◯) because the water retention capacity is maintained at 2 and the sebum eligibility is increased from 1 to 2. Since both the subjective value and the objective value have achieved the goal, it is judged that the goal has been achieved as a whole.

肌状態認識部11及び施策グループ選択部12は、ゴールを達成した場合には新たなゴールを設定するため、図3に示した「1.ゴール設定」の工程を再度実行する。肌状態認識部11及び施策グループ選択部12は、ゴール未達の場合は、「2.スケジュール決定」工程を実施してもよいし、ユーザの希望または進捗に応じて「1.ゴール設定」の工程を再度実行してもよい。 The skin condition recognition unit 11 and the measure group selection unit 12 re-execute the process of "1. Goal setting" shown in FIG. 3 in order to set a new goal when the goal is achieved. If the goal is not reached, the skin condition recognition unit 11 and the measure group selection unit 12 may carry out the "2. schedule determination" process, or "1. goal setting" according to the user's wishes or progress. The process may be performed again.

[I.2次データ生成]
図3に示した「6.2次データ生成」の工程は、2次データ生成部19により実行される。2次データ生成部19は、複数のユーザUから送信される初期ユーザ情報データ、角層細胞解析データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等の各種データ(以下、ユーザ個別データという)を、ユーザごとにサポートDB20に順次蓄積する。
[I. Secondary data generation]
The process of "6.2 Secondary data generation" shown in FIG. 3 is executed by the secondary data generation unit 19. The secondary data generation unit 19 includes various data such as initial user information data, stratum corneum cell analysis data, current user information data, execution status data, and out-of-measure action execution data transmitted from a plurality of users U (hereinafter, individual users). Data) is sequentially accumulated in the support DB 20 for each user.

そして、2次データ生成部19は、サポートDB20に蓄積されたユーザ個別データを分析して、例えば図18に示したように、各ユーザの特性(性別、年齢、居住地、嗜好、ライフスタイル等)、サポートの改善対象(乾燥感、ごわつき、敏感、ニキビ、しぼみ感等)、スケジュールにより提案された施策(湯船につかる、野菜摂取、1万歩以上歩く等)、及び施策の実施による肌、体、心の各状態の変化等を関連付けた2次データを生成する。 Then, the secondary data generation unit 19 analyzes the user individual data stored in the support DB 20, and as shown in FIG. 18, for example, the characteristics (gender, age, place of residence, preference, lifestyle, etc.) of each user. ), Support improvement targets (dryness, stiffness, sensitivity, acne, deflation, etc.), measures proposed by the schedule (soaking in a bathtub, vegetable intake, walking 10,000 steps or more, etc.), and skin due to implementation of the measures, Generates secondary data that associates changes in each state of the body and mind.

また、2次データ生成部19は、施策外行動についても図18と同様に、各ユーザの特性と施策外行動の実施による肌、体、心の各状態の影響とを関連付けた2次データを生成する。 In addition, as for the non-measure behavior, the secondary data generation unit 19 generates secondary data in which the characteristics of each user and the influence of each state of the skin, body, and mind due to the implementation of the non-measure behavior are associated with each other, as in FIG. Generate.

このようにして生成された2次データは、同様の特性を有するユーザについて、体及び心に良い影響を与えつつ肌状態の改善を図るために有効な施策を選択する際に、有効に活用することができる。例えば、上述した図3の「2.スケジュール決定」の工程において、施策グループ選択部12は、2次データを参照して、ユーザUaの特性に適合した施策を選択することができる。 The secondary data generated in this way is effectively utilized when selecting effective measures for improving the skin condition while having a positive effect on the body and mind for users having similar characteristics. be able to. For example, in the process of “2. Schedule determination” in FIG. 3 described above, the measure group selection unit 12 can select a measure suitable for the characteristics of the user Ua by referring to the secondary data.

また、上述した図3の「4.スケジュール修正」の工程において、施策情報送信部13は、ユーザUaの肌、体、心の各状態の推移に応じてスケジュールを変更する際に、2次データを参照して、より有効な施策或は施策外行動を組み込んだスケジュールに変更することができる。 Further, in the process of "4. Schedule correction" in FIG. 3 described above, the measure information transmission unit 13 changes the schedule according to the transition of each state of the skin, body, and mind of the user Ua, and the secondary data You can change to a schedule that incorporates more effective measures or actions outside the measures by referring to.

さらに、2次データは、肌状態のサポートを行う上で有効に利用できると共に、ある特性を有するユーザ(例えば、東京に住む30代のアウトドア志向の女性等)をターゲットとしたマーケティング等の目的にも利用することができる。そのため、2次データを図1に示した他のシステム60等に提供してもよい。 Furthermore, the secondary data can be effectively used to support the skin condition, and for marketing purposes targeting users with certain characteristics (for example, outdoor-oriented women in their 30s living in Tokyo). Can also be used. Therefore, the secondary data may be provided to another system 60 or the like shown in FIG.

[J.シミュレータ表示処理]
図19〜図24を参照して、肌サポートアプリ35aが実行するシミュレータ表示処理(図7のSTEP64)の詳細を説明する。
[J. Simulator display processing]
The details of the simulator display process (STEP 64 in FIG. 7) executed by the skin support application 35a will be described with reference to FIGS. 19 to 24.

図19のSTEP71で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データに基づいて、「所定の期間」の肌状態、心状態及び体状態の各スコアの平均値を認識し、メモリ36に記憶する。ここで、「所定の期間」とは、肌状態、心状態及び体状態と施策の実行の度合いとの関係が示される程度の期間であることが好ましく、例えば実行時点から前の、1週間、10日間、1カ月間又は3カ月間である。本実施形態では実行時点を2017年4月10日であるとし、その実行時点から9日前の2017年4月1日から実行時点までの10日間を「所定の期間」として説明する。 In STEP 71 of FIG. 19, the skin support application 35a is "predetermined" based on the initial user information data and the current user information data of the user Ua stored in the support DB 20 of the skin condition recognition system 10 recognized via communication. The average value of each score of the skin condition, the mental condition, and the physical condition of the "period" is recognized and stored in the memory 36. Here, the "predetermined period" is preferably a period to which the relationship between the skin condition, the mental condition and the physical condition and the degree of execution of the measure is shown, for example, one week before the execution time. 10 days, 1 month or 3 months. In the present embodiment, the execution time is assumed to be April 10, 2017, and 10 days from April 1, 2017, 9 days before the execution time, to the execution time will be described as a "predetermined period".

例えば、肌サポートアプリ35aは、図20Aに示されるような、所定期間におけるユーザUaの肌状態のスコア、心状態のスコア、体状態のスコアに基づいて、ユーザUaの肌状態のスコアの平均値、心状態のスコアの平均値、体状態のスコアの平均値を認識し、メモリ36に記憶する。ここでは、肌状態のスコアの平均値が8.2であり、心状態のスコアの平均値が5.0であり、体状態のスコアの平均値が2.2である。 For example, the skin support application 35a is an average value of the skin condition scores of the user Ua based on the skin condition score, the mental condition score, and the physical condition score of the user Ua in a predetermined period as shown in FIG. 20A. , The average value of the mental state score and the average value of the physical state score are recognized and stored in the memory 36. Here, the average value of the skin condition score is 8.2, the average value of the mental condition score is 5.0, and the average value of the physical condition score is 2.2.

図19のSTEP72で、肌サポートアプリ35aは、通信を介して認識した、肌状態認識システム10のサポートDB20に蓄積された初期ユーザ情報データ、現状ユーザ情報データ、実行状況データに基づいて、各施策ごと、各施策のカテゴリーごとの実行の度合いを認識し、メモリ36に記憶する。「施策の実行の度合い」は、各施策ごとに定められる施策の実行の度合いを示す数値である。「施策の実行の度合い」の例には、施策を実行する時間、施策にかかる物の消費量、施策を実行する距離、施策の1日当たりの実行回数、施策の1回実行当たりの実行時間、施策の1回実行当たりの量、施策の所定期間における実行の頻度が含まれる。 In STEP 72 of FIG. 19, the skin support application 35a recognizes each measure based on the initial user information data, the current user information data, and the execution status data stored in the support DB 20 of the skin condition recognition system 10 recognized via communication. Each, the degree of execution for each category of each measure is recognized and stored in the memory 36. The "degree of implementation of measures" is a numerical value indicating the degree of implementation of measures specified for each measure. Examples of "degree of implementation of measures" include time to execute measures, consumption of goods required for measures, distance to execute measures, number of executions of measures per day, execution time per execution of measures, and so on. The amount per implementation of the measure and the frequency of implementation of the measure in a predetermined period are included.

例えば、肌サポートアプリ35aは、図20Bに示されるカテゴリー「食事」の施策「野菜摂取」の所定の期間における実行の度合い「摂取量」を認識し、メモリ36に記憶する。なお、「摂取量」等の実行の度合いは、実際に取得されたデータ(たとえば野菜の摂取量のデータ)そのものであってもよいし、実際に取得されたデータの評価値であってもよい。たとえば、この評価値は、データに示される値が所定の基準値(たとえば野菜の摂取量350g等)に近づくほど、連続的または断続的に大きくなるような値であってもよいし、データに示される値が大きいほど連続的または断続的に大きくなるような値であってもよいし、データに示される値が小さいほど連続的または断続的に大きくなるような値であってもよい。 For example, the skin support application 35a recognizes the degree of execution "intake" in a predetermined period of the measure "vegetable intake" of the category "meal" shown in FIG. 20B, and stores it in the memory 36. The degree of execution of the "intake amount" or the like may be the actually acquired data (for example, vegetable intake data) itself, or may be an evaluation value of the actually acquired data. .. For example, this evaluation value may be a value that continuously or intermittently increases as the value shown in the data approaches a predetermined reference value (for example, vegetable intake of 350 g), or the data may include. The larger the value shown, the more continuously or intermittently the value may be, and the smaller the value shown in the data, the more continuously or intermittently the value may be.

肌サポートアプリ35aは、図21Aに示されるように、施策ごとに、所定期間における実行の度合いの平均値及び最大値を認識し、メモリ36に記憶する。所定期間における最大値は、ユーザUaが行った中で最大の値でもよいし、理論的に最大の値であってもよいし、予め定められた値であってもよい。 As shown in FIG. 21A, the skin support application 35a recognizes the average value and the maximum value of the degree of execution in a predetermined period for each measure, and stores them in the memory 36. The maximum value in a predetermined period may be the maximum value performed by the user Ua, the theoretical maximum value, or a predetermined value.

肌サポートアプリ35aは、カテゴリーごとに、施策の実行の度合いの平均値と最大値との比を取り、これらの平均値を算出することにより、カテゴリーごとの実行の度合いを算出し、メモリ36に記憶する。 The skin support application 35a calculates the degree of execution for each category by taking the ratio of the average value and the maximum value of the degree of execution of the measures for each category and calculating these average values, and stores the memory 36 in the memory 36. Remember.

例えば、肌サポートアプリ35aは、図21Aに示される各施策ごとの所定期間における実行の度合いの平均値及び最大値を基に、以下の式(1)により、カテゴリー「食事」の実行の度合いを評価する。なお、式(1)では小数点以下3桁を四捨五入している。 For example, the skin support application 35a determines the degree of execution of the category "meal" by the following formula (1) based on the average value and the maximum value of the degree of execution in the predetermined period for each measure shown in FIG. 21A. evaluate. In equation (1), three digits after the decimal point are rounded off.

Figure 0006974029
Figure 0006974029

図19のSTEP73で、肌サポートアプリ35aは、図22に示されるように、シミュレータ全体画面P1をユーザ端末30aの表示器31に出力する。 In STEP 73 of FIG. 19, the skin support application 35a outputs the entire simulator screen P1 to the display 31 of the user terminal 30a as shown in FIG. 22.

シミュレータ全体画面P1には、中央に三角形で囲まれる領域P10が表示されている。 An area P10 surrounded by a triangle is displayed in the center of the simulator as a whole screen P1.

領域P10の外側、且つ、三角形の各頂点の周辺には、それぞれ、肌状態のスコアを示す表示P11、心状態のスコアを示す表示P12、体状態のスコアを示す表示P13が表示されている。 On the outside of the region P10 and around each vertex of the triangle, a display P11 indicating the score of the skin condition, a display P12 indicating the score of the heart condition, and a display P13 indicating the score of the body condition are displayed, respectively.

領域P10が、本発明の「所定の領域」に相当する。 The region P10 corresponds to the "predetermined region" of the present invention.

各スコアを示す表示P11、P12、P13は、数値表示P111、P121、P131と、スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とを含む。 The displays P11, P12, and P13 indicating the respective scores include numerical displays P111, P121, and P131, score slide bars P112, P122, and P132, and score icons P113, P123, and P133.

スコアスライドバーP112、P122、P132と、スコアアイコンP113,P123,P133とが、本発明の「ユーザの肌状態、心状態及び体状態のうち少なくとも1つのスコアを示す表示」に相当する。 The score slide bars P112, P122, P132 and the score icons P113, P123, P133 correspond to the "display showing the score of at least one of the user's skin condition, mental condition, and physical condition" of the present invention.

スコアスライドバーP112、P122、P132が、本発明の「第2線分表示」に相当する。 The score slide bars P112, P122, and P132 correspond to the "second line segment display" of the present invention.

スコアアイコンP113,P123,P133が、本発明の「第2アイコン」に相当する。 The score icons P113, P123, and P133 correspond to the "second icon" of the present invention.

数値表示P111、スコアスライドバーP112及びスコアアイコンP113が、本発明の「ユーザの肌状態のスコアを示す表示」に相当する。 The numerical display P111, the score slide bar P112, and the score icon P113 correspond to the "display showing the score of the user's skin condition" of the present invention.

数値表示P121、P131、スコアスライドバーP122、P132、及びスコアアイコンP123,P133とが本発明の「ユーザの体状態及び心状態のうち少なくとも1つのスコアを示す表示」に相当する。 The numerical display P121, P131, the score slide bars P122, P132, and the score icons P123, P133 correspond to the "display showing at least one score of the user's physical state and mental state" of the present invention.

各数値表示P111、P121、P131には、それぞれ、図19のSTEP71で認識された対応するスコアの平均値が表示されている。 On each of the numerical display P111, P121, and P131, the average value of the corresponding scores recognized in STEP 71 of FIG. 19 is displayed.

各スコアスライドバーP112、P122、P132には、図19のSTEP71で認識された対応する各スコアの平均値に相当する位置にスコアアイコンP113,P123,P133が表示されている。また、各スコアスライドバーP112、P122、P132は、ユーザ端末30aの表示器31の水平方向(紙面の左右方向)に延びている線分である。表示器31の水平方向が本発明の「第2方向」に相当する。 Score icons P113, P123, and P133 are displayed on the score slide bars P112, P122, and P132 at positions corresponding to the average values of the corresponding scores recognized in STEP71 of FIG. Further, each score slide bar P112, P122, P132 is a line segment extending in the horizontal direction (horizontal direction of the paper surface) of the display 31 of the user terminal 30a. The horizontal direction of the display 31 corresponds to the "second direction" of the present invention.

領域P10の内側には、施策の夫々のカテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16が表示されている。領域P10の内側には、全てのカテゴリー表示が表示されてもよいし、ユーザに指定されたカテゴリーのカテゴリー表示が表示されてもよいし、ユーザに推薦している施策のカテゴリーのカテゴリー表示が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策のカテゴリーのカテゴリー表示が所定個数だけ表示されてもよい。 Inside the area P10, the categories “meal”, “behavior”, and “skin care” display P14, P15, and P16 of each measure are displayed. Inside the area P10, the category display of all categories may be displayed, the category display of the category specified by the user may be displayed, or the category display of the category of the measure recommended to the user may be displayed. It may be done, or the category display of the category of the measure judged to have a high influence on at least one of the user's skin condition, mental condition and physical condition based on the initial user information data, the current user information data and the execution status. May be displayed in a predetermined number.

各カテゴリー「食事」「行動」「肌ケア」表示P14、P15,P16は、カテゴリースライドバーP141、P151,P161と、カテゴリーアイコンP142、P152、P162とが含まれている。 Each category "meal" "behavior" "skin care" display P14, P15, P16 includes category slide bars P141, P151, P161 and category icons P142, P152, P162.

各カテゴリースライドバーP141、P151,P161には、図19のSTEP72で認識された対応する各カテゴリーの実行の度合いに相当する位置にカテゴリーアイコンP142、P152、P162が表示されている。また、各カテゴリースライドバーP141、P151,P161は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。表示器31の上下方向が本発明の「第1方向」に相当する。 The category icons P142, P152, and P162 are displayed on the category slide bars P141, P151, and P161 at positions corresponding to the degree of execution of the corresponding categories recognized in STEP 72 of FIG. Further, each category slide bar P141, P151, P161 is a line segment extending in the vertical direction (vertical direction of the paper surface) of the display 31 of the user terminal 30a. The vertical direction of the display 31 corresponds to the "first direction" of the present invention.

各カテゴリースライドバーP141、P151,P161及び各カテゴリーアイコンP142、P152、P162が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各カテゴリースライドバーP141、P151,P161が本発明の「第1線分表示」に相当する。各カテゴリーアイコンP142、P152、P162が、本発明の「第1アイコン」に相当する。 Each category slide bar P141, P151, P161 and each category icon P142, P152, P162 correspond to the "display showing the degree of execution of the user's measure" of the present invention. Each category slide bar P141, P151, P161 corresponds to the "first line segment display" of the present invention. Each category icon P142, P152, P162 corresponds to the "first icon" of the present invention.

図19のSTEP74で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかのカテゴリースライドバーの押圧操作が検知されたか否かを判定する。本操作は、例えば図22のカテゴリースライドバーP141、P151,P161のいずれか1つが操作された時を代表的な利用シーンとして想定して説明しているが、複数のカテゴリースライドバーが同時に操作されても良い。 In STEP 74 of FIG. 19, the skin support application 35a determines whether or not a pressing operation of any of the category slide bars is detected via the touch panel 32. This operation is described assuming that, for example, one of the category slide bars P141, P151, and P161 of FIG. 22 is operated as a typical usage scene, but a plurality of category slide bars are operated at the same time. May be.

図19のSTEP74の判定結果が否定的である場合(図19のSTEP74‥NO)、肌サポートアプリ35aは、再度図19のSTEP74の処理を実行する。 When the determination result of STEP74 in FIG. 19 is negative (STEP74 ... NO in FIG. 19), the skin support application 35a executes the process of STEP74 in FIG. 19 again.

図19のSTEP74の判定結果が肯定的である場合(図19のSTEP74‥YES)、肌サポートアプリ35aは、図19のSTEP75に進み、図23に示されるように、領域P10内に、施策表示P17、P18、P19を表示する。 When the determination result of STEP74 in FIG. 19 is positive (STEP74 ... YES in FIG. 19), the skin support application 35a proceeds to STEP75 in FIG. 19, and as shown in FIG. 23, the measure display is performed in the area P10. P17, P18, P19 are displayed.

施策表示P17、P18、P19は、押圧されたスライドバーに対応するカテゴリー(以下、指定カテゴリーという。)の施策である。図23には、「食事」カテゴリースライドバーP14の押圧操作が検知された場合の施策「野菜摂取」「水分摂取」「三食きちんと」の施策表示P17、P18、P19を記載している。 The measure display P17, P18, and P19 are measures of the category corresponding to the pressed slide bar (hereinafter referred to as a designated category). FIG. 23 describes the measures P17, P18, and P19 of the measures “vegetable intake”, “water intake”, and “three meals properly” when the pressing operation of the “meal” category slide bar P14 is detected.

施策表示P17,P18,P19は、全ての施策表示であってもよいし、指定カテゴリーに含まれる全ての施策が表示されてもよいし、ユーザが実行している施策が表示されてもよいし、ユーザに推薦している施策が表示されてもよいし、初期ユーザ情報データ、現状ユーザ情報データ及び実行状況に基づいてユーザの肌状態、心状態及び体状態の少なくとも1つへの影響が高いと判断された施策の施策表示が所定個数だけ表示されてもよい
施策表示P17,P18,P19は、カテゴリー表示P14,P15,P16と入れ替えて表示されもよいし、カテゴリー表示P14,P15,P16に付加する形で(例えば、カテゴリー表示P14,P15,P16の下方向)に表示されてもよい。
The measure display P17, P18, P19 may be all measure display, all measures included in the designated category may be displayed, or the measure being executed by the user may be displayed. , The measures recommended to the user may be displayed, and the influence on at least one of the user's skin condition, mental condition and physical condition is high based on the initial user information data, the current user information data and the execution status. The measure display of the measure determined to be may be displayed in a predetermined number. The measure display P17, P18, P19 may be displayed in place of the category display P14, P15, P16, or may be displayed on the category display P14, P15, P16. It may be displayed in an additional form (for example, downward in the category display P14, P15, P16).

各施策スライドバーP171、P181,P191には、図19のSTEP72で認識された対応する各施策の実行の度合いに相当する位置に施策アイコンP172、P182、P192が表示されている。また、各施策スライドバーP171、P181、P191は、ユーザ端末30aの表示器31の上下方向(紙面の上下方向)に延びている線分である。 The measure icons P172, P182, and P192 are displayed on the measure slide bars P171, P181, and P191 at positions corresponding to the degree of execution of the corresponding measures recognized in STEP 72 of FIG. Further, each measure slide bar P171, P181, P191 is a line segment extending in the vertical direction (vertical direction of the paper surface) of the display 31 of the user terminal 30a.

各施策スライドバーP171、P181、P191及び各施策アイコンP172、P182、P192が、本発明の「ユーザの施策の実行の度合いを示す表示」に相当する。各施策スライドバーP171、P181、P191が本発明の「第1線分表示」に相当する。各施策アイコンP172、P182、P192が、本発明の「第1アイコン」に相当する。 Each measure slide bar P171, P181, P191 and each measure icon P172, P182, P192 correspond to the "display showing the degree of execution of the user's measure" of the present invention. Each measure slide bar P171, P181, P191 corresponds to the "first line segment display" of the present invention. Each measure icon P172, P182, P192 corresponds to the "first icon" of the present invention.

図19のSTEP76で、肌サポートアプリ35aは、タッチパネル32を介して、いずれかの施策スライドバーの押圧操作が検知されたか否かを判定する。 In STEP 76 of FIG. 19, the skin support application 35a determines whether or not the pressing operation of any of the measure slide bars is detected via the touch panel 32.

当該判定結果が否定的である場合(図19のSTEP76でNO)、肌サポートアプリ35aは、再度図19のSTEP76を実行する。 If the determination result is negative (NO in STEP76 of FIG. 19), the skin support application 35a executes STEP76 of FIG. 19 again.

当該判定結果が肯定的である場合(図19のSTEP76でYES)、肌サポートアプリ35aは、図19のSTEP77に進み、押圧された施策スライドバー上の押圧位置を認識する。押圧された施策スライドバー上の押圧位置が本発明の「入力部を介してユーザにより指定された第1アイコンの位置」に相当する。押圧された施策スライドバー上の押圧位置に対応する施策の実行の度合いが、本発明の「指定された施策群の実行の度合い」に相当する。押圧された施策スライドバーに対応する施策が、本発明の「施策群」に相当する。 If the determination result is affirmative (YES in STEP 76 in FIG. 19), the skin support application 35a proceeds to STEP 77 in FIG. 19 and recognizes the pressed position on the pressed measure slide bar. Pressed measure The pressed position on the slide bar corresponds to the "position of the first icon designated by the user via the input unit" of the present invention. The degree of execution of the measure corresponding to the pressed position on the pressed measure slide bar corresponds to the "degree of execution of the designated measure group" of the present invention. The measures corresponding to the pressed measure slide bar correspond to the "measure group" of the present invention.

図19のSTEP78において、肌サポートアプリ35aは、押圧位置に対応する施策の実行度合いにおける各スコアを予測する。 In STEP 78 of FIG. 19, the skin support application 35a predicts each score in the degree of execution of the measure corresponding to the pressing position.

各スコアは、次の式(2)〜(4)で表される。 Each score is expressed by the following equations (2) to (4).

Figure 0006974029
Figure 0006974029

ここで、P(x)はユーザUaの肌状態のスコア、Q(x)はユーザUaの心状態のスコア、R(x)はユーザUaの体状態のスコアである。 Here, P (x) is the score of the skin condition of the user Ua, Q (x) is the score of the mental state of the user Ua, and R (x) is the score of the physical condition of the user Ua.

i(i=1、…、n)は、各施策を識別するための番号である。 i (i = 1, ..., N) is a number for identifying each measure.

(i=1、…、n)は、ユーザUaの各施策iの実行の度合いである。x(i=1、…、n)の全体(x(i=1、…、n)の全部からなるベクトル)をxとして表記する。 x i (i = 1, ... , n) is the degree of execution of each measure i of the user Ua. x i (i = 1, ... , n) entire denoted a (x i (i = 1, ..., vector comprising all of the n)) as x.

(x)、g(x)、h(x)(i=1、…、n)は、夫々、各施策iを各施策の実行度合いxで実行した場合のユーザUaの各スコアP(x)、Q(x)、R(x)の変化量である。f(x)、g(x)、h(x)(i=1、…、n)の夫々が本発明の「第1関数」の一例に相当する。 f i (x i), g i (x i), h i (x i) (i = 1, ..., n) , respectively, the user when a respective measures i was executed in the execution degree x i of each measure It is the amount of change of each score P (x), Q (x), R (x) of Ua. f i (x i), g i (x i), h i (x i) (i = 1, ..., n) each of which corresponds to an example of the "first function" of the present invention.

図24の折れ線グラフは、ユーザUaの施策「野菜摂取」の各実行の度合い「摂取量」と、ユーザUaの各スコアP(x)、Q(x)、R(x)との関係を示す折れ線グラフである。この折れ線グラフは、例えば、図20Bに示されるユーザUaの施策の実行度合いのそれぞれごとに、図20Aに示されるユーザUaの各スコアP(x)、Q(x)、R(x)の平均を取ることにより作成されうる。 The line graph of FIG. 24 shows the relationship between the degree “intake amount” of each execution of the measure “vegetable intake” of the user Ua and the scores P (x), Q (x), and R (x) of the user Ua. It is a line graph. This line graph is, for example, the average of the scores P (x), Q (x), and R (x) of the user Ua shown in FIG. 20A for each degree of execution of the measures of the user Ua shown in FIG. 20B. Can be created by taking.

また、図24には、各折れ線グラフの近似曲線が併せて表示されている。 Further, in FIG. 24, an approximate curve of each line graph is also displayed.

(x)、g(x)、h(x)は、例えば、実行度合い毎の近似曲線に示されるユーザUaの各スコアP(x)、Q(x)、R(x)により表現されうる。 f i (x i), g i (x i), h i (x i) , for example, each score P of the user Ua shown in approximate curve for each execution degree (x), Q (x) , R ( It can be expressed by x).

例えば、野菜摂取の摂取量が200gの場合、f(x)はおよそ10.0となり、g(x)はおよそ7.0となり、h(x)はおよそ2.0となる。 For example, if the intake of vegetables intake is 200g, f i (x i) is about 10.0 becomes, g i (x i) is about 7.0 becomes, h i (x i) is approximately 2.0 Become.

(x)、g(x)、h(x)は、ユーザUaが各施策を実施したときのユーザUaの各スコアの平均値をとっているが、このスコアには、同時に実行された他の施策の影響が反映されている可能性がある。 f i (x i), g i (x i), h i (x i) is the user Ua is taking the average of the scores of the user Ua when carried out each measure, this score , May reflect the impact of other measures implemented at the same time.

このため、係数p、q、rにより、各施策の影響度を調節する。係数p、q、rは、例えば、夫々の施策の実行の度合いに占める当該施策の実行の度合いの割合で求められる。例えば、施策sを実行度合いaで実行し、施策tを実行の度合いbで実行し、施策uを実行の度合いcで実行したときに、肌状態スコアがd改善した場合、以下の式(5)〜(7)で係数p、p、pが表される。なお、施策により肌状態スコアがd改善するとは、本実施形態では、施策の実行後の肌状態のスコアの平均値が施策の実行前の肌状態スコアの平均値よりもd増加したことを意味する。 Therefore, the degree of influence of each measure is adjusted by the coefficients p i , q i , and r i. The coefficients p i , q i , and r i are obtained, for example, by the ratio of the degree of execution of the measure to the degree of execution of each measure. For example, when the measure s is executed at the execution degree a, the measure t is executed at the execution degree b, and the measure u is executed at the execution degree c, when the skin condition score is improved by d, the following formula (5) )-(7) represent the coefficients p s , pt , pu. The fact that the skin condition score is improved by d means that the average value of the skin condition score after the implementation of the measure is d higher than the average value of the skin condition score before the implementation of the measure in the present embodiment. do.

Figure 0006974029
Figure 0006974029

k、l、mは、施策を何も実施しなかった場合の各スコアである。 k, l, and m are the scores when no measures are implemented.

肌サポートアプリ35aは、夫々の施策iについて、施策スライドバーのアイコンの位置に対応する施策の実行の度合いxを認識し、上記式(2)〜(4)を用いて各スコアP(x)、Q(x)、R(x)を予測する。なお、押圧されていないカテゴリーバーに対応するカテゴリーに含まれる施策又は押圧されていない施策スライドバーに対応する施策については、肌サポートアプリ35aは、図19のSTEP72で認識された対応する各施策の実行度合いを、施策の実行の度合いxとして用いる。予測された各スコアP(x)、Q(x)、R(x)が、本発明の「第1予測スコア」に相当する。予測された各スコアP(x)が、本発明の「第2予測スコア」に相当する。予測された各スコアQ(x)、R(x)が、本発明の「第3予測スコア」に相当する。 The skin support application 35a recognizes the degree of execution of the measure x i corresponding to the position of the icon on the measure slide bar for each measure i, and uses the above equations (2) to (4) to make each score P (x). ), Q (x), R (x). Regarding the measures included in the category corresponding to the non-pressed category bar or the measures corresponding to the non-pressed measure slide bar, the skin support application 35a is the corresponding measure recognized in STEP 72 of FIG. The degree of execution is used as the degree of execution of the measure x i. Each predicted score P (x), Q (x), R (x) corresponds to the "first predicted score" of the present invention. Each predicted score P (x) corresponds to the "second predicted score" of the present invention. Each predicted score Q (x) and R (x) corresponds to the "third predicted score" of the present invention.

図19のSTEP79で、肌サポートアプリ35aは、スコアスライドバーP112,P122,P132の夫々の、予測された各スコアP(x)、Q(x)、R(x)の夫々に相当する位置に、スコアアイコンP113,P123,P133を表示器31に表示する。 In STEP 79 of FIG. 19, the skin support application 35a is located at a position corresponding to each of the predicted scores P (x), Q (x), and R (x) of each of the score slide bars P112, P122, and P132. , Score icons P113, P123, P133 are displayed on the display 31.

図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP74以下の処理を実行する。これに代えて、図19のSTEP79の終了後、肌サポートアプリ35aは、図19のSTEP76以下の処理を実行してもよい。 After the end of STEP 79 in FIG. 19, the skin support application 35a executes the process of STEP 74 or less in FIG. Instead of this, after the end of STEP 79 in FIG. 19, the skin support application 35a may execute the process of STEP 76 or less in FIG.

このような処理により、ユーザに、施策の実行の度合いを変更したときの各スコアへの影響を認識させることができる。
(その他の実施形態)
本実施形態では、各実行の度合いに応じたスコアを予測するために、式(2)〜(7)を用いたが、各実行の度合いに応じたスコアを予測するためにはこれらの式やパラメータに限られない。シミュレータの精度を向上させるため、当業者は、適宜、式の変更、パラメータの算出方法の変更、パラメータの追加、削除、変更等、適当な修正を行ってもよい。
By such a process, the user can be made to recognize the influence on each score when the degree of execution of the measure is changed.
(Other embodiments)
In the present embodiment, the equations (2) to (7) are used to predict the score according to the degree of each execution, but these equations and the equations are used to predict the score according to the degree of each execution. Not limited to parameters. In order to improve the accuracy of the simulator, those skilled in the art may appropriately modify the formula, change the parameter calculation method, add, delete, or change the parameter.

肌サポートアプリ35aは、カテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示したが(図19のSTEP74及びSTEP75)、これに代えて、肌サポートアプリ35aは、カテゴリースライドバー上のアイコンの位置の変更をさせて、各スコアの予測を行ってもよい。この場合、カテゴリーの実行の度合いの変更に追従するように、各施策の実行度合いが均等にまたはあらかじめ定まった割合で変更されてもよい。この時、肌サポートアプリ35aは、変更後の各施策の実行の度合いから、式(2)〜(4)により各スコアを予測し、予測された各スコアに対応する位置に、それぞれのアイコンが位置するように、表示器31に出力する。なお、押圧されたカテゴリースライドバーに対応するカテゴリに含まれる施策が本発明の「施策群」に相当する。 When the skin support application 35a detects the pressing of the category slide bar, the measure slide bar of the measure included in the category corresponding to the category slide bar is displayed (STEP 74 and STEP 75 in FIG. 19), but instead of this. , The skin support application 35a may change the position of the icon on the category slide bar to predict each score. In this case, the degree of execution of each measure may be changed evenly or at a predetermined ratio so as to follow the change in the degree of execution of the category. At this time, the skin support application 35a predicts each score by the formulas (2) to (4) from the degree of execution of each measure after the change, and each icon is placed at the position corresponding to each predicted score. Output to the display 31 so that it is located. The measures included in the category corresponding to the pressed category slide bar correspond to the "measure group" of the present invention.

この場合、予測された各スコアに対応する位置にそれぞれのアイコンが位置している状態で、肌サポートアプリ35aがタッチパネル32を介してカテゴリースライドバーの押圧を検知したときに、そのカテゴリースライドバーに対応するカテゴリーに含まれる施策の施策スライドバーを表示してもよい。この時、各施策スライドバー上のアイコンの位置は、変更後の各施策の実行の度合いに対応する位置であることが好ましい。 In this case, when the skin support application 35a detects the pressing of the category slide bar via the touch panel 32 with each icon located at the position corresponding to each predicted score, the category slide bar is displayed. The measure slide bar of the measure included in the corresponding category may be displayed. At this time, the position of the icon on each measure slide bar is preferably a position corresponding to the degree of execution of each measure after the change.

肌サポートアプリ35aは、カテゴリースライドバーの表示に代えて、当初から図25に示されるように、施策表示P20、P21,P22を表示してもよい。 Instead of displaying the category slide bar, the skin support application 35a may display the measure displays P20, P21, and P22 as shown in FIG. 25 from the beginning.

肌サポートアプリ35aは、例えば、図26に示されるように、シミュレーション対象のスコア表示P31と、他のスコア表示P32〜P33、暮らし表示P34を含んでもよい。暮らし表示P34は、例えば、各カテゴリーの実行度合いの平均値又は各カテゴリーの実行度合いに夫々のカテゴリーごとの係数をかけて合算した値を示す表示である。肌サポートアプリ35aは、暮らし表示P34上のアイコンの変動に応じて、各施策の実行度合いを変化させ、式(2)〜(4)によりシミュレーション対象のスコアの予測を行い、シミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。暮らし表示P34が本発明の「ユーザの施策群の実行の度合いを示す表示」に相当し、他のスコア表示P32〜P33が本発明の「変動スコアを示す表示」に相当し、シミュレーション対象のスコア表示P31が本発明の「模擬スコアを示す表示」に相当する。 As shown in FIG. 26, for example, the skin support application 35a may include a score display P31 to be simulated, other score displays P32 to P33, and a living display P34. The living display P34 is, for example, a display showing an average value of the degree of execution of each category or a value obtained by multiplying the degree of execution of each category by a coefficient for each category. The skin support application 35a changes the degree of execution of each measure according to the change of the icon on the living display P34, predicts the score of the simulation target by the equations (2) to (4), and displays the score of the simulation target. The icon on P31 may be changed. The living display P34 corresponds to the "display showing the degree of execution of the user's measure group" of the present invention, and the other score displays P32 to P33 correspond to the "display showing the fluctuation score" of the present invention, and the score to be simulated. The display P31 corresponds to the "display showing a simulated score" of the present invention.

この場合、肌サポートアプリ35aは、他のスコア表示P32〜P33上のアイコンの変動に応じて、ユーザUaの肌状態、心状態及び体状態のスコアのデータに基づいて、図24に類似したグラフを作成することにより、シミュレーション対象のスコアの予測を行いシミュレーション対象のスコア表示P31上のアイコンを変動させてもよい。変動後のシミュレーション対象のスコア表示P31が、本発明の「模擬予測スコアを示す表示」に相当する。 In this case, the skin support application 35a is a graph similar to FIG. 24 based on the data of the score of the skin condition, the mental state and the physical condition of the user Ua according to the fluctuation of the icon on the other score displays P32 to P33. By creating the above, the score of the simulation target may be predicted and the icon on the score display P31 of the simulation target may be changed. The score display P31 of the simulation target after the fluctuation corresponds to the "display showing the simulated prediction score" of the present invention.

本実施形態では、ユーザUaの肌状態、心状態及び体状態の全てのシミュレーションが行われたが、同様の方法により、肌状態と、心状態及び体状態の一方とのシミュレーションが行われてもよいし、肌状態、心状態及び体状態のうち1つのシミュレーションが行われてもよい。また、ユーザUaの他の状態に関するシミュレーションが行われてもよい。 In the present embodiment, all the simulations of the skin condition, the mental state, and the physical condition of the user Ua are performed, but even if the skin condition and one of the mental condition and the physical condition are simulated by the same method. Alternatively, one of the skin condition, the mental condition and the physical condition may be simulated. In addition, simulations regarding other states of user Ua may be performed.

本実施形態では、ユーザUaの過去の施策の実行の度合いと、ユーザUaの肌状態、心状態及び体状態との関係を示す第1関数〜第3関数が認識されたが、これに限られず、他のユーザUb、Ucのデータに基づいて、第1関数〜第3関数が認識されてもよい。また、他のユーザUb、Ucのうち、ユーザUaの属性と同様の属性を持つユーザのデータが用いられてもよい。ユーザUaの属性としては、例えば、ユーザUaの年齢、性別、住んでいる地域、嗜好、肌の特性、心の特性、体の特性(遺伝子の情報等)がある。 In the present embodiment, the first to third functions indicating the relationship between the degree of execution of the past measures of the user Ua and the skin condition, the mental state, and the physical condition of the user Ua are recognized, but the present invention is not limited to this. , The first function to the third function may be recognized based on the data of other users Ub and Uc. Further, among other users Ub and Uc, the data of the user having the same attributes as the attributes of the user Ua may be used. The attributes of the user Ua include, for example, the age, gender, area of residence, preference, skin characteristics, mental characteristics, and body characteristics (genetic information, etc.) of the user Ua.

本実施形態では、スコアスライドバーとカテゴリースライドバー及び施策スライドバーとが直交する方向に延びていたが、これに限られず、互いに非平行な方向に延びていてもよいし、平行な方向に延びていてもよい。 In the present embodiment, the score slide bar, the category slide bar, and the measure slide bar extend in orthogonal directions, but the present invention is not limited to this, and they may extend in non-parallel directions or extend in parallel directions. May be.

本実施形態では、カテゴリースライドバー及び施策スライドバーとカテゴリーアイコン及び施策アイコンとにより施策の実行度合いを表示したが、これに代えてまたは加えて施策の実行度合いを示す数値を表示してもよい。また、施策の実行度合いに応じて変化する色、図形、キャラクタ等が表示されてもよい。 In the present embodiment, the degree of implementation of the measure is displayed by the category slide bar, the measure slide bar, the category icon, and the measure icon, but instead of or in addition to this, a numerical value indicating the degree of execution of the measure may be displayed. In addition, colors, figures, characters, and the like that change according to the degree of implementation of the measures may be displayed.

同様に、各状態のスコアについても、各状態のスコアに応じて変化する色、図形、キャラクタ等が表示されてもよい。 Similarly, for the score of each state, colors, figures, characters, etc. that change according to the score of each state may be displayed.

本実施形態では、CPU35が肌サポートアプリ35aを実行することにより、本発明の「スコア認識部」「出力制御部」「指定認識部」の各処理を実行したが、これに代えてネットワークを介して通信を行って必要なデータを送受信することにより、肌状態サポートシステムが本発明の「スコア認識部」「出力制御部」「指定認識部」の一部の処理を実行してもよい。 In the present embodiment, the CPU 35 executes each process of the "score recognition unit", "output control unit", and "designated recognition unit" of the present invention by executing the skin support application 35a, but instead of this, via a network. By communicating and transmitting and receiving necessary data, the skin condition support system may execute some processes of the "score recognition unit", "output control unit", and "designated recognition unit" of the present invention.

本実施形態において「関数」とは、スカラ値又はベクトル値のような数値等の情報の入力に対し、一定の操作を行ってスカラ値又はベクトル値のような数値等の情報を出力する機能を備えたものを言う。本実施形態では、施策iごとに関数f(x)、g(x)、h(x)が用いられたが、これに代えてまたは加えて、複数の施策i、jの組合せについての関数f(i、j)(x、x)、g(i、j)(x、x(i、j)(x、x)が用いられてもよい。また、本実施形態では、各状態のスコアごとに関数が使用されたが、これに代えて複数のスコアに対して共通の関数が用いられてもよい。また、関数は、例えば機械学習によって分類を行うものであってもよい。各関数は、各施策iの実行の度合いxに加え、ユーザUaの体調又は気分を表す数値等、各施策iの実行の度合いxとは異なる数値をを入力としてもよい。 In the present embodiment, the "function" is a function that outputs information such as a numerical value such as a scalar value or a vector value by performing a certain operation in response to input of information such as a numerical value such as a scalar value or a vector value. Say what you have prepared. In this embodiment, measures i for each function f i (x i), g i (x i), but h i (x i) is used, instead of or in addition to this, a plurality of measures i, j Functions f (i, j) (x i , x j ), g (i, j) (x i , x j ) , h (i, j) (x i , x j ) for the combination of May be good. Further, in the present embodiment, the function is used for each score of each state, but instead, a common function may be used for a plurality of scores. Further, the function may be classified by machine learning, for example. In addition to the degree of execution x i of each measure i, each function may input a numerical value different from the degree of execution x i of each measure i, such as a numerical value indicating the physical condition or mood of the user Ua.

肌サポートアプリ35aは、入力された値を基に、テーブルを参照することにより、各状態のスコアを認識してもよい。 The skin support application 35a may recognize the score of each state by referring to the table based on the input value.

肌サポートアプリ35aは、入力された値を肌状態認識システム10に送信して、各状態のスコアを受信することにより、各状態のスコアを認識してもよい。 The skin support application 35a may recognize the score of each state by transmitting the input value to the skin state recognition system 10 and receiving the score of each state.

本実施形態では、肌サポートアプリ35aは、施策またはカテゴリの実行の度合いの指定に応じてスコアを予測したが、これに代えて又は加えて、スコアの指定に応じて施策またはカテゴリの実行の度合いを予測してもよい。例えば、肌サポートアプリ35aは、タッチパネル32を介してユーザUaに一の施策またはカテゴリを選択させ、スコアの指定に応じて当該一の施策の実行の度合いの予測を行ってもよい。また、肌サポートアプリ35aは、タッチパネル32を介してユーザUaにそれぞれの施策またはカテゴリの変化の割合を入力させ、スコアの指定に応じて入力された割合で各施策の実行の度合いを変動させることにより、各施策の実行の度合いの予測を行ってもよい。たとえば、肌サポートアプリ35aは、睡眠時間1時間減少あたり野菜摂取量が100g増加するという割合で、指定されたスコアを実現するように、睡眠時間と野菜摂取量を変動させてもよい。 In the present embodiment, the skin support application 35a predicts the score according to the designation of the degree of execution of the measure or category, but instead of or in addition to this, the degree of execution of the measure or category according to the designation of the score. May be predicted. For example, the skin support application 35a may allow the user Ua to select one measure or category via the touch panel 32, and predict the degree of execution of the one measure according to the designation of the score. Further, the skin support application 35a causes the user Ua to input the rate of change of each measure or category via the touch panel 32, and changes the degree of execution of each measure by the input rate according to the designation of the score. Therefore, the degree of implementation of each measure may be predicted. For example, the skin support app 35a may vary the sleep time and vegetable intake so as to achieve a specified score at a rate that the vegetable intake increases by 100 g per hour of sleep time decrease.

本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。 The present invention is also realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiment is supplied to the system or device via a network or various storage media, and the computer (or CPU, MPU, etc.) of the system or device reads the program. This is the process to be executed.

1…通信ネットワーク、10…肌状態認識システム、11‥肌状態認識部、12…施策グループ選択部、13…施策情報送信部、19…2次データ生成部、20…サポートDB(データベース)、30(30a,30b,30c)…ユーザ端末(スマートフォン)、31…表示器、32…タッチパネル、33…カメラ、34…マイク、35…CPU、35a…肌サポートアプリ、36…メモリ、40…接続端子、45…測定機器。 1 ... Communication network, 10 ... Skin condition recognition system, 11 ... Skin condition recognition unit, 12 ... Measure group selection unit, 13 ... Measure information transmission unit, 19 ... Secondary data generation unit, 20 ... Support DB (database), 30 (30a, 30b, 30c) ... user terminal (smartphone), 31 ... display, 32 ... touch panel, 33 ... camera, 34 ... microphone, 35 ... CPU, 35a ... skin support application, 36 ... memory, 40 ... connection terminal, 45 ... Measuring equipment.

Claims (9)

情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備え、
前記出力制御部は、前記画像表示部に
前記施策群の実行の度合いの高低を示すための線分であって、該線分の一方の端部に向かうほど該施策群の実行の度合が高い状態を示し、該線分の他方の端部に向かうほど該施策群の実行の度合が低い状態を示す第1線分表示を出力させ、
前記スコア認識部が認識した前記施策群の前記ユーザの実行の度合いの値に対応する前記第1線分表示上の位置に第1アイコンを出力させ、
前記肌スコア、前記心スコア、及び前記体スコアそれぞれの高低を示すための線分であって、該線分の一方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが高い状態を示し、該線分の他方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが低い状態を示す第2線分表示、第3線分表示、及び第4線分表示を出力させ、
前記スコア認識部が認識した前記肌スコアに対応する前記第2線分表示上の位置に第2アイコンを出力させ、前記スコア認識部が認識した前記心スコアに対応する前記第3線分表示上の位置に第3アイコンを出力させ、前記スコア認識部が認識した前記体スコアに対応する前記第4線分表示上の位置に第4アイコンを出力させるように構成されている
ことを特徴とする画像表示装置。
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. and a control unit, a
The output control unit, before Symbol image display unit
It is a line segment for indicating the degree of execution of the measure group, and the degree of execution of the measure group is higher toward one end of the line segment, and the other end of the line segment is shown. The first line segment display indicating the state in which the degree of execution of the measure group is low is output toward the department.
The first icon is output at the position on the first line segment display corresponding to the value of the degree of execution of the user in the measure group recognized by the score recognition unit.
A line segment for indicating the height of each of the skin score, the heart score, and the body score, and the skin score, the heart score, and the body score are each toward one end of the line segment. The second line segment display, the third line segment display, and the fourth line segment show a high state, and the skin score, the heart score, and the body score are each lower toward the other end of the line segment. Output the minute display,
A second icon is output at a position on the second line segment display corresponding to the skin score recognized by the score recognition unit, and the third line segment display corresponding to the heart score recognized by the score recognition unit is displayed. The third icon is output at the position of, and the fourth icon is output at the position on the fourth line segment display corresponding to the body score recognized by the score recognition unit. An image display device characterized by.
請求項1に記載の画像表示装置において、
前記出力制御部は、前記第1線分表示が第1方向に延び、前記第2線分表示、前記第3線分表示及び前記第4線分表示当該第1方向と直交する第2方向に延びるように、前記第1線分表示及び前記第2線分表示を配置して表示する
ことを特徴とする画像表示装置。
In the image display device according to claim 1,
In the output control unit, the first line segment display extends in the first direction, and the second line segment display, the third line segment display, and the fourth line segment display are orthogonal to the first direction in the second direction. An image display device characterized in that the first line segment display and the second line segment display are arranged and displayed so as to extend to.
請求項1又は2に記載の画像表示装置において、
前記出力制御部は、前記画像表示部に
前記第2線分表示、前記第3線分表示、及び前記第4線分表示を、それぞれが三角形の各頂点に対応する位置に出力させ、かつ
前記第1線分表示を、前記各頂点を結ぶ線分で表される領域の内側に出力させるように構成されている
ことを特徴とする画像表示装置。
In the image display device according to claim 1 or 2.
The output control unit, before Symbol image display unit
The second line segment display, the third line segment display, and the fourth line segment display are output at positions corresponding to the vertices of the triangle, respectively, and
The first line segment display is configured to be output inside the area represented by the line segment connecting the vertices.
An image display device characterized by this.
情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備え、
前記出力制御部は、前記画像表示部に
前記スコア認識部により認識された前記肌スコア、前記心スコア、及び前記体スコアを示す表示を、それぞれが三角形の各頂点に対応する位置に出力させ、かつ
前記スコア認識部により認識された前記施策群の実行の度合いの値を示す表示を、前記肌スコア、前記心スコア、及び前記体スコアを示す表示と同一画面に出力させるように構成されている
ことを特徴とする画像表示装置。
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. and a control unit, a
The output control unit, before Symbol image display unit
The skin score, the heart score, and the display showing the body score recognized by the score recognition unit are output at positions corresponding to the vertices of the triangle, respectively.
The display showing the value of the degree of execution of the measure group recognized by the score recognition unit is configured to be output on the same screen as the display showing the skin score, the heart score, and the body score. An image display device characterized by <br />.
請求項4に記載の画像表示装置において、 In the image display device according to claim 4,
前記出力制御部は、前記画像表示部に The output control unit is attached to the image display unit.
前記スコア認識部により認識された前記施策群の実行の度合いの値を示す表示を、前記各頂点を結ぶ線分で表される領域の内側に出力させるように構成されている The display showing the value of the degree of execution of the measure group recognized by the score recognition unit is configured to be output inside the area represented by the line segment connecting the vertices.
ことを特徴とする画像表示装置。An image display device characterized by this.
情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備えるシステムに、
前記スコア認識部が、前記施策群の前記ユーザの実行の度合いの値と、当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアと、を認識するステップと、
前記出力制御部が、前記画像表示部に
前記施策群の実行の度合いの高低を示すための線分であって、該線分の一方の端部に向かうほど該施策群の実行の度合が高い状態を示し、該線分の他方の端部に向かうほど該施策群の実行の度合が低い状態を示す第1線分表示を出力するステップと、
前記スコア認識部が認識した前記施策群の前記ユーザの実行の度合いの値に対応する前記第1線分表示上の位置に第1アイコンを出力するステップと、
前記肌スコア、前記心スコア、及び前記体スコアそれぞれの高低を示すための線分であって、該線分の一方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが高い状態を示し、該線分の他方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが低い状態を示す第2線分表示、第3線分表示、及び第4線分表示を出力するステップと、
前記第2線分表示上の前記スコア認識部が認識した前記肌スコアに対応する位置に第2アイコンを出力させ、前記第3線分表示上の前記スコア認識部が認識した前記心スコアに対応する位置に第3アイコンを出力させ、前記第4線分表示上の前記スコア認識部が認識した前記体スコアに対応する位置に第4アイコンを出力するステップと、を実行させることを特徴とする画像表示プログラム。
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. For a system equipped with a control unit
A step in which the score recognition unit recognizes the value of the degree of execution of the user in the measure group, the skin score, the heart score, and the body score of the user.
The output control unit, before Symbol image display unit
It is a line segment for indicating the degree of execution of the measure group, and the degree of execution of the measure group is higher toward one end of the line segment, and the other end of the line segment is shown. A step to output a first line segment display indicating a state in which the degree of execution of the measure group is lower toward the department, and
A step of outputting the first icon at a position on the first line segment display corresponding to the value of the degree of execution of the user of the measure group recognized by the score recognition unit.
A line segment for indicating the height of each of the skin score, the heart score, and the body score, and the skin score, the heart score, and the body score are each toward one end of the line segment. The second line segment display, the third line segment display, and the fourth line segment show a high state, and the skin score, the heart score, and the body score are each lower toward the other end of the line segment. Steps to output the minute display and
The second icon is output at the position corresponding to the skin score recognized by the score recognition unit on the second line segment display, and corresponds to the heart score recognized by the score recognition unit on the third line segment display. It is characterized in that the step of outputting the third icon to the position corresponding to the body score recognized by the score recognition unit on the fourth line segment display and the step of outputting the fourth icon to the position corresponding to the body score is executed. Image display program.
情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備えるシステムが実行する方法であって、
前記スコア認識部が、前記施策群の前記ユーザの実行の度合いの値と、当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアと、を認識するステップと、
前記出力制御部が、前記画像表示部に
前記施策群の実行の度合いの高低を示すための線分であって、該線分の一方の端部に向かうほど該施策群の実行の度合が高い状態を示し、該線分の他方の端部に向かうほど該施策群の実行の度合が低い状態を示す第1線分表示を出力するステップと、
前記スコア認識部が認識した前記施策群の前記ユーザの実行の度合いの値に対応する前記第1線分表示上の位置に第1アイコンを出力するステップと、
前記肌スコア、前記心スコア、及び前記体スコアそれぞれの高低を示すための線分であって、該線分の一方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが高い状態を示し、該線分の他方の端部に向かうほど該肌スコア、該心スコア、及び該体スコアそれぞれが低い状態を示す第2線分表示、第3線分表示、及び第4線分表示を出力するステップと、
前記第2線分表示上の前記スコア認識部が認識した前記肌スコアに対応する位置に第2アイコンを出力させ、前記第3線分表示上の前記スコア認識部が認識した前記心スコアに対応する位置に第3アイコンを出力させ、前記第4線分表示上の前記スコア認識部が認識した前記体スコアに対応する位置に第4アイコンを出力するステップと、を含むことを特徴とする画像表示方法。
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. It is a method executed by a system equipped with a control unit.
A step in which the score recognition unit recognizes the value of the degree of execution of the user in the measure group, the skin score, the heart score, and the body score of the user.
The output control unit, before Symbol image display unit
It is a line segment for indicating the degree of execution of the measure group, and the degree of execution of the measure group is higher toward one end of the line segment, and the other end of the line segment is shown. A step to output a first line segment display indicating a state in which the degree of execution of the measure group is lower toward the department, and
A step of outputting the first icon at a position on the first line segment display corresponding to the value of the degree of execution of the user of the measure group recognized by the score recognition unit.
A line segment for indicating the height of each of the skin score, the heart score, and the body score, and the skin score, the heart score, and the body score are each toward one end of the line segment. The second line segment display, the third line segment display, and the fourth line segment show a high state, and the skin score, the heart score, and the body score are each lower toward the other end of the line segment. Steps to output the minute display and
The second icon is output at the position corresponding to the skin score recognized by the score recognition unit on the second line segment display, and corresponds to the heart score recognized by the score recognition unit on the third line segment display. An image characterized by including a step of outputting a third icon at a position corresponding to a position corresponding to the body score recognized by the score recognition unit on the fourth line segment display, and outputting the fourth icon at a position corresponding to the body score. Display method.
情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備えるシステムに、
前記スコア認識部が、前記施策群の前記ユーザの実行の度合いの値と、当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアと、を認識するステップと、
前記出力制御部が、前記画像表示部に
前記スコア認識部により認識された前記肌スコア、前記心スコア、及び前記体スコアを示す表示を、それぞれが三角形の各頂点に対応する位置に出力させるステップと、
前記スコア認識部により認識された前記施策群の実行の度合いの値を示す表示を、前記肌スコア、前記心スコア、及び前記体スコアを示す表示と同一画面に出力させるステップと、を実行させることを特徴とする画像表示プログラム。
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. For a system equipped with a control unit
A step in which the score recognition unit recognizes the value of the degree of execution of the user in the measure group, the skin score, the heart score, and the body score of the user.
The output control unit, before Symbol image display unit
A step of outputting the display showing the skin score, the heart score, and the body score recognized by the score recognition unit to the positions corresponding to the vertices of the triangle, respectively.
To execute the step of outputting the display showing the value of the degree of execution of the measure group recognized by the score recognition unit to the same screen as the display showing the skin score, the heart score, and the body score. An image display program featuring.
情報を出力する画像表示部と
一または複数の施策である施策群のユーザの実行の度合いの値と当該ユーザの肌状態、心状態及び体状態のそれぞれを数値化した情報である肌スコア、心スコア、及び体スコアと、を認識するスコア認識部と、
前記スコア認識部が認識した前記ユーザの施策群の実行の度合いの値を示す表示と当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアを示す表示とを前記画像表示部に出力させる出力制御部と、を備えるシステムが実行する方法であって、
前記スコア認識部が、前記施策群の前記ユーザの実行の度合いの値と、当該ユーザの前記肌スコア、前記心スコア、及び前記体スコアと、を認識するステップと、
前記出力制御部が、前記画像表示部に
前記スコア認識部により認識された前記肌スコア、前記心スコア、及び前記体スコアを示す表示を、それぞれが三角形の各頂点に対応する位置に出力させるステップと、
前記スコア認識部により認識された前記施策群の実行の度合いの値を示す表示を、前記肌スコア、前記心スコア、及び前記体スコアを示す表示と同一画面に出力させるステップと、を含むことを特徴とする画像表示方法。
An image display unit for outputting information,
The value of the degree of execution of the user of the measure group, which is one or more measures, and the skin score, the heart score, and the body score, which are the numerical information of each of the skin condition, the mental state, and the physical condition of the user, Score recognition unit that recognizes
Output to output to the image display unit a display showing the value of the degree of execution of the measure group of the user recognized by the score recognition unit and a display showing the skin score, the heart score, and the body score of the user. It is a method executed by a system equipped with a control unit.
A step in which the score recognition unit recognizes the value of the degree of execution of the user in the measure group, the skin score, the heart score, and the body score of the user.
The output control unit, before Symbol image display unit
A step of outputting the display showing the skin score, the heart score, and the body score recognized by the score recognition unit to the positions corresponding to the vertices of the triangle, respectively.
It includes a step of outputting a display showing the value of the degree of execution of the measure group recognized by the score recognition unit on the same screen as the display showing the skin score, the heart score, and the body score. Characteristic image display method.
JP2017091970A 2017-05-02 2017-05-02 Image display device, skin condition support system, image display program and image display method Active JP6974029B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017091970A JP6974029B2 (en) 2017-05-02 2017-05-02 Image display device, skin condition support system, image display program and image display method
JP2021180161A JP7280333B2 (en) 2017-05-02 2021-11-04 image display device
JP2023068387A JP7437549B2 (en) 2017-05-02 2023-04-19 image display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017091970A JP6974029B2 (en) 2017-05-02 2017-05-02 Image display device, skin condition support system, image display program and image display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021180161A Division JP7280333B2 (en) 2017-05-02 2021-11-04 image display device

Publications (2)

Publication Number Publication Date
JP2018190176A JP2018190176A (en) 2018-11-29
JP6974029B2 true JP6974029B2 (en) 2021-12-01

Family

ID=64479834

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017091970A Active JP6974029B2 (en) 2017-05-02 2017-05-02 Image display device, skin condition support system, image display program and image display method

Country Status (1)

Country Link
JP (1) JP6974029B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220027535A1 (en) * 2018-12-06 2022-01-27 Shiseido Company, Ltd. Information processing apparatus, cosmetic generator, and computer program
JPWO2022163239A1 (en) * 2021-01-27 2022-08-04

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040143513A1 (en) * 2002-10-31 2004-07-22 Margaret Aleles Method for providing personalized programs to retail customers
JP2004227601A (en) * 2004-03-30 2004-08-12 Mit:Kk Financial analysis system
JP2008242963A (en) * 2007-03-28 2008-10-09 Fujifilm Corp Health analysis display method and health analysis display device
JP5658890B2 (en) * 2010-02-23 2015-01-28 御木本製薬株式会社 Manufacturing method of cosmetics
WO2012008082A1 (en) * 2010-07-15 2012-01-19 日本電気株式会社 Display processing system, display processing method, and programme
JP6151016B2 (en) * 2012-12-13 2017-06-21 株式会社日立システムズ Health management prediction system
EP3054412A4 (en) * 2013-10-01 2017-03-01 Tohoku University Health information processing device, health information display device, and method
JP6320143B2 (en) * 2014-04-15 2018-05-09 株式会社東芝 Health information service system

Also Published As

Publication number Publication date
JP2018190176A (en) 2018-11-29

Similar Documents

Publication Publication Date Title
JP7211717B2 (en) Image display device, image display program and image display method
US20230335288A1 (en) Systems and methods for formulating personalized skincare products
JP7129867B2 (en) Information output system, information output method and information output program
JP7337484B2 (en) Image display device, image display system, image display program and image display method
JP6974029B2 (en) Image display device, skin condition support system, image display program and image display method
JP7264959B2 (en) Information output system for skin condition care
CN113707305A (en) Health scheme recommendation method, device, equipment and medium based on deep learning
WO2012012892A1 (en) Mattress ranking and selection
JP7048782B2 (en) Skin condition support system
CN113096773B (en) System and method for collecting and processing cognitive information
JP7001469B2 (en) Skin condition recognition system
JP7248385B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP7280333B2 (en) image display device
JP7051306B2 (en) Information output system, skin condition support program and skin condition support method
KR20220017590A (en) Apparatus and method for providing medical information and advertisement content related to medical information based on physical examination using vr
JP7129763B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
WO2023013722A1 (en) Program, information processing method, and information processing device
JP7300018B2 (en) Information output system, skin condition support program and skin condition support method
JP7083624B2 (en) Skin condition evaluation system, skin condition evaluation program, and computer execution method
JP7163130B2 (en) Information output system, information output method and information output program
JP7518223B2 (en) Information output system for skin condition, body condition, or mental condition care
JP6845008B2 (en) Skin condition support system
JP7270818B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP2019010280A (en) Information output program, information output system and information output method related to care of skin state, body state or mental state
KR20220086210A (en) Cognitive function and memory decline, early diagnosis service for dementia, and device and method for providing customized advertisement contents and advertisements

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201104

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211104

R150 Certificate of patent or registration of utility model

Ref document number: 6974029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150