JP7163130B2 - Information output system, information output method and information output program - Google Patents

Information output system, information output method and information output program Download PDF

Info

Publication number
JP7163130B2
JP7163130B2 JP2018193734A JP2018193734A JP7163130B2 JP 7163130 B2 JP7163130 B2 JP 7163130B2 JP 2018193734 A JP2018193734 A JP 2018193734A JP 2018193734 A JP2018193734 A JP 2018193734A JP 7163130 B2 JP7163130 B2 JP 7163130B2
Authority
JP
Japan
Prior art keywords
information
user
score
skin
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018193734A
Other languages
Japanese (ja)
Other versions
JP2019075120A (en
Inventor
智紀 本川
朋美 加藤
優 及川
隆 飯田
幸信 横田
淳 村越
知彦 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Publication of JP2019075120A publication Critical patent/JP2019075120A/en
Application granted granted Critical
Publication of JP7163130B2 publication Critical patent/JP7163130B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、情報出力システム、情報出力方法および情報出力プログラムに関する。 The present invention relates to an information output system, an information output method and an information output program.

従来、カウンセリングを受ける人の健康状態と精神状態と肌トラブルとの因果関係を、カウンセリングを受ける人に理解させるシステムが知られている(例えば、特許文献1参照)。 Conventionally, there is known a system that allows a person receiving counseling to understand the causal relationship between the health condition, mental state, and skin trouble of the person receiving counseling (see, for example, Patent Document 1).

特許文献1の技術では、次のようにしてカウンセリングを受ける人に上記因果関係を認識させている。 In the technique of Patent Document 1, the person receiving counseling is made aware of the causal relationship in the following manner.

すなわち、カウンセリングシステムの処理部は、カウンセリングに必要となる質問(例えば、「13.冷え性である」)に対する回答(例えば、「はい」)に基づいて、対応する自覚的要素(例えば、「冷え」)に得点として1点を付与する。 That is, the processing unit of the counseling system, based on the answer (eg, “Yes”) to the question (eg, “13. ) is given 1 point as a score.

そして、カウンセリングシステムの処理部は、カウンセリングシステムの記憶部に記憶された、自覚的要素および非自覚的要素間の因果関係を示す相関図に基づいて、上記回答に関連する自覚的要素(例えば、「冷え」)と因果律を有する自覚的要素および非自覚的要素(例えば、「血液循環不良」、「皮膚血流、うっ血」、「くま」、「肩こり」)のそれぞれを認識する。 Then, the processing unit of the counseling system stores the subjective elements (for example, "coldness") and subjective and non-subjective elements having causality (for example, "poor blood circulation", "skin blood flow, congestion", "dark circles", and "shoulder stiffness").

また、カウンセリングシステムの処理部は、カウンセリングシステムの記憶部に記憶された因果律を有する2つの要素間の相関係数(例えば、「冷え」に対する「血液循環不良」の相関係数「0.9」)に基づいて、認識された各要素(例えば、「血液循環不良」)に得点(例えば、1×0.9=0.9)を与える。 In addition, the processing unit of the counseling system calculates the correlation coefficient between two elements having the causality stored in the storage unit of the counseling system (for example, the correlation coefficient of "poor blood circulation" to "coldness" is "0.9"). ), a score (eg, 1×0.9=0.9) is given to each recognized element (eg, “poor blood circulation”).

高い評価点の要素が因果関係を示す矢印とともに画像表示部に強調表示されることで、カウンセリングを受ける人に、本人が自覚していない症状又は質問項目に対する回答の結果からみて今後症状となる可能性がある肌トラブルについて注意を喚起することができる。 Elements with high evaluation points are highlighted on the image display part along with arrows indicating causal relationships, so that the person receiving counseling is informed of symptoms that the person is unaware of, or that they may develop symptoms in the future based on the results of the answers to the question items. It can call attention to possible skin troubles.

特開2009-059126号公報JP 2009-059126 A

しかしながら、特許文献1の技術では、予め医学的に検証された因果関係または経験則に基づいて予め定められた因果関係、換言すれば一般的な因果関係に基づいて、回答に対応する要素と関連する要素を見出すにとどまっている。 However, in the technique of Patent Document 1, based on a causal relationship that has been medically verified in advance or a causal relationship predetermined based on empirical rules, in other words, based on a general causal relationship, the element corresponding to the answer and the related It remains only to find the elements to do.

このため、特許文献1の技術では、カウンセリングを受ける人それぞれの体質等に鑑みた要素間の因果関係をカウンセリングを受ける人に知らせることはできなかった。 For this reason, with the technique of Patent Document 1, it was not possible to inform the person receiving the counseling about the causal relationship between the factors in consideration of the constitution of each person receiving the counseling.

また、特許文献1の技術では、すでに医学的な研究がなされているような要素間の因果関係を用いているので、例えば、電子タバコ等の先端技術を用いた装置を使うことによる肌への影響など、着目されていない要素間の因果関係をカウンセリングを受ける人に知らせることはできなかった。 In addition, the technique of Patent Document 1 uses causal relationships between factors that have already been medically researched. It was not possible to inform counselees of causal relationships between unfocused factors, such as influences.

また、特許文献1の技術では、各要素間の因果関係を画像表示部に表示するにとどまっている。このため、特許文献1の技術では、カウンセリングを受ける人に改善のためには何が有効な施策なのかという情報を提供することはできなかった。 In addition, the technique disclosed in Patent Document 1 only displays the causal relationship between elements on the image display unit. For this reason, the technique of Patent Document 1 cannot provide the person receiving counseling with information about what measures are effective for improvement.

そこで、このような問題に鑑み、本発明は、ユーザ個別の事情に鑑みた要素間の関係又は今まで着目されていなかった要素間の関係をユーザに認識させることができる情報出力システム、情報出力方法および情報出力プログラムを提供することを第1の目的とする。 Therefore, in view of such problems, the present invention provides an information output system and an information output system that can make a user recognize the relationship between elements in consideration of individual circumstances of the user or the relationship between elements that has not been paid attention to until now. A first object is to provide a method and an information output program.

また、本発明は、ユーザに対し、当該ユーザに有効な行動を認識させることができる情報出力システム、情報出力方法および情報出力プログラムを提供することを第2の目的とする。 A second object of the present invention is to provide an information output system, an information output method, and an information output program that enable the user to recognize effective actions.

本発明の第1態様の情報出力システムは、
ユーザの固有のユーザ情報を認識するユーザ情報認識部と、
情報を出力する出力部と、
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するスコア情報認識部と、
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定期間ずらした時系列遷移との相関を認識する関係認識部と、
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶部と、
前記ユーザの最新の情報である現状ユーザ情報を認識する現状ユーザ情報認識部と、
前記現状ユーザ情報に示される前記ユーザの第1要素を認識する第1要素認識部と、
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出する第2要素抽出部と、
前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、前記ユーザの第2要素の将来のスコアを予測する予測部と、
前記ユーザの第2要素の将来のスコアに応じた情報を前記出力部に出力する出力制御部と、を備えることを特徴とする。
The information output system of the first aspect of the present invention comprises:
a user information recognition unit that recognizes unique user information of a user;
an output unit that outputs information;
a score information recognition unit that recognizes, based on the user information, score information indicating time-series transitions of scores of a plurality of elements included in the user information ;
a relationship recognition unit that recognizes the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period based on the score information;
a correlation information storage unit that stores information indicating mutually correlated elements and correlation coefficients between the elements based on the correlation;
a current user information recognition unit that recognizes current user information, which is the latest information of the user;
a first element recognition unit that recognizes the first element of the user indicated in the current user information;
a second element extraction unit that extracts a second element of the user that is correlated with the first element based on the information indicating the mutually correlated elements;
a prediction unit that predicts the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient between the elements and the current user information;
and an output control unit that outputs information corresponding to the future score of the user's second element to the output unit .

本発明の情報出力システムによれば、スコア情報認識部により、ユーザの固有のユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報が認識される。 According to the information output system of the present invention, the score information recognizing unit recognizes the score information indicating the time-series transition of the scores of the plurality of elements included in the user information based on the user's unique user information.

そして、関係認識部により、前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定期間ずらした時系列遷移との相関が認識される。 Based on the score information, the relationship recognition unit recognizes the correlation between the time-series transition of the score of one element and the time-series transition of the score of the other element shifted by a predetermined period .

一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との間に相関があれば、換言すれば、一方の要素の変化が、変化のあった時点よりも後の他方の要素の変化と相関がある場合、当該一方の要素の変化が当該他方の要素の変化の原因となっていたり、同一の原因により両方の変化が起こっていたりする可能性がある。If there is a correlation between the time-series transition of the score of one element and the time-series transition of the score of the other element shifted by a predetermined period, in other words, the change of one element If there is a correlation with a change in the other element after a certain point in time, the change in the one element may cause the change in the other element, or the same cause may cause both changes. there is a possibility.

また、相関情報記憶部により、前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数が記憶され、現状ユーザ情報認識部により、前記ユーザの最新の情報である現状ユーザ情報が認識される。Further, based on the correlation, the correlation information storage unit stores information indicating mutually correlated elements and correlation coefficients between the elements, and the current user information recognition unit stores the current information, which is the latest information of the user. User information is recognized.

さらに、第1要素認識部により、前記現状ユーザ情報に示されるユーザの第1要素が認識され、そして、第2要素抽出部により、互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素が抽出される。Further, the first element recognizing unit recognizes the first element of the user indicated in the current user information, and the second element extracting unit recognizes the first element based on the information indicating mutually correlated elements. A second factor of the user correlated with is extracted.

さらに、予測部により、前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアが予測される。そして、出力制御部により、ユーザの第2要素の将来のスコアに応じた情報が出力部に出力される。Further, the prediction unit predicts the future score of the second element of the user based on the correlation coefficient between the elements and the score of the first element indicated in the current user information. Then, the output control unit outputs information corresponding to the future score of the second element of the user to the output unit.

これにより、ユーザの情報に基づいて認識された相関とユーザの現状を示す現状ユーザ情報とに基づいて、ユーザにユーザの現状から予測されるユーザの将来の状態を認識させることができるので、ユーザにより有用な情報が与えられる。Accordingly, based on the correlation recognized based on the user's information and the current user information indicating the user's current situation, the user can be made to recognize the user's future state predicted from the user's current situation. gives useful information.

本発明の第2態様の情報出力システムは、The information output system of the second aspect of the present invention comprises:
ユーザの固有のユーザ情報を認識するユーザ情報認識部と、a user information recognition unit that recognizes unique user information of a user;
情報を出力する出力部と、an output unit that outputs information;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するスコア情報認識部と、a score information recognition unit that recognizes, based on the user information, score information indicating time-series transitions of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識する関係認識部と、a relationship recognition unit that recognizes, based on the score information, the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶部と、a correlation information storage unit that stores information indicating mutually correlated elements and correlation coefficients between the elements based on the correlation;
前記ユーザの最新の情報である現状ユーザ情報を認識する現状ユーザ情報認識部と、a current user information recognition unit that recognizes current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識する第1要素認識部と、a first element recognition unit that recognizes the first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出する第2要素抽出部と、a second element extraction unit that extracts a second element of the user that is correlated with the first element based on the information indicating the mutually correlated elements;
前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアを予測する予測部と、a prediction unit that predicts the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient and the current user information;
前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識する行動認識部と、an action recognition unit that recognizes, when the future score of the second element of the user is within a predetermined range, an action that causes the future score of the second element to fall outside the predetermined range;
前記行動の実施または回避を推奨する情報を前記出力部に出力するように構成されている出力制御部と、を備え、an output control unit configured to output information recommending implementation or avoidance of the action to the output unit;
前記相関情報記憶部は、各要素と相関を有する行動及び当該各要素と当該行動との相関係数を示す相関行動情報を記憶するように構成され、The correlation information storage unit is configured to store correlated behavior information indicating behavior correlated with each element and a correlation coefficient between each element and the behavior,
前記行動認識部は、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識するように構成されていることを特徴とする。The action recognition unit has a correlation with the first element or the second element based on the correlated action information when the future score of the second element of the user is included in a predetermined range, and It is characterized in that it is configured to recognize an action that causes the future score of the second element to fall outside the predetermined range.

当該構成の情報出力システムによれば、スコア情報認識部により、ユーザの固有のユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報が認識される。そして、関係認識部により、前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定期間ずらした時系列遷移との相関が認識される。According to the information output system having this configuration, the score information recognizing unit recognizes the score information indicating the time-series transition of the scores of the plurality of elements included in the user information based on the user's unique user information. Based on the score information, the relationship recognition unit recognizes the correlation between the time-series transition of the score of one element and the time-series transition of the score of the other element shifted by a predetermined period.

一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との間に相関があれば、換言すれば、一方の要素の変化が、変化のあった時点よりも後の他方の要素の変化と相関がある場合、当該一方の要素の変化が当該他方の要素の変化の原因となっていたり、同一の原因により両方の変化が起こっていたりする可能性がある。If there is a correlation between the time-series transition of the score of one element and the time-series transition of the score of the other element shifted by a predetermined period, in other words, the change of one element If there is a correlation with a change in the other element after a certain point in time, the change in the one element may cause the change in the other element, or the same cause may cause both changes. there is a possibility.

さらに、第1要素認識部により、前記現状ユーザ情報に示されるユーザの第1要素が認識され、そして、第2要素抽出部により、互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素が抽出される。Further, the first element recognizing unit recognizes the first element of the user indicated in the current user information, and the second element extracting unit recognizes the first element based on the information indicating mutually correlated elements. A second factor of the user correlated with is extracted.

また、予測部により、前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアが予測される。さらに、行動認識部により、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合に、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動が認識される。そして、出力制御部により、前記行動の実施または回避を推奨する情報が前記出力部に出力される。Further, the prediction unit predicts the future score of the second element of the user based on the correlation coefficient between the elements and the score of the first element indicated in the current user information. Furthermore, when the future score of the second element of the user is included in the predetermined range, the action recognition unit recognizes an action of making the future score of the second element out of the predetermined range. Then, the output control unit outputs information recommending implementation or avoidance of the action to the output unit.

これにより、相関係数に基づいて、第2要素の将来のスコアが所定範囲に含まれると予測された場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動の実施または回避を推奨する情報が出力部に出力される。その結果、ユーザの第2要素の将来のスコアを所定範囲に維持させ又は所定範囲から逸脱させる観点から有効な行動を、ユーザに提供することができる。Thereby, based on the correlation coefficient, if the future score of the second element is predicted to be included in the predetermined range, the future score of the second element is performed outside the predetermined range or Information recommending avoidance is output to the output section. As a result, it is possible to provide the user with an action that is effective from the viewpoint of keeping the future score of the user's second element within the predetermined range or deviating from the predetermined range.

さらに、前記行動認識部により、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動が認識される。Further, when the behavior recognition unit determines that the future score of the second element of the user is included in a predetermined range, it has a correlation with the first element or the second element based on the correlated behavior information, and , actions that cause the future score of the second factor to fall outside of the predetermined range are recognized.

ここで、相関行動情報は、各要素と相関を有する行動及び各要素と行動との相関係数を示す。これにより、第1要素又は第2要素と因果関係が存在する可能性のある行動をユーザに認識させることができる。Here, the correlated behavior information indicates the behavior correlated with each element and the correlation coefficient between each element and the behavior. This allows the user to recognize actions that may have a causal relationship with the first element or the second element.

また、仮に、第1要素又は第2要素と当該行動との関係が今まで注目されていなかったとしても、当該構成の情報出力システムによれば、第1要素又は第2要素と因果関係を有している可能性があり、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする当該行動をユーザに認識させることができる。In addition, even if the relationship between the first element or the second element and the action has not been noticed until now, according to the information output system of the configuration, it is possible to have a causal relationship with the first element or the second element. The user can be made aware of the behavior that may be occurring and that would cause the future score of the second element to fall outside the predetermined range.

当該構成の情報出力システムにおいて、
前記第1要素は、肌、体および心のうちの一に関する要素であり、前記第2要素は、肌、体および心のうちの他に関する要素であることが好ましい。
In the information output system with this configuration,
Preferably, the first element is an element related to one of skin, body and mind, and the second element is an element related to the other of skin, body and mind.

当該構成の情報出力システムによれば、ユーザが関心を持ちやすい肌、体及び心のうち2つに関する要素間の因果関係を、ユーザに知らしめることができる。 According to the information output system having this configuration, it is possible to inform the user of the causal relationship between the factors related to two of the skin, body, and mind that the user is likely to be interested in.

当該構成の情報出力システムにおいて、
前記第1要素はユーザの行動であり、前記第2要素は肌、体および心のうちの一に関する要素であることが好ましい。
In the information output system with this configuration,
Preferably, the first factor is user behavior and the second factor is one of skin, body and mind.

当該構成の情報出力システムによれば、ユーザが直接コントロールできるユーザの行動と、ユーザが関心を持ちやすい肌、体及び心のうち一に関する要素との関連をユーザに知らしめることができる。この結果、ユーザに、ユーザが関心を持ちやすい肌、体及び心のうち一に関する要素の状態を間接的にコントロールするヒントを与えることができる。 According to the information output system of this configuration, it is possible to inform the user of the relationship between the user's behavior that can be directly controlled by the user and the element related to one of the skin, body, and mind that the user is likely to be interested in. As a result, the user can be given hints to indirectly control the state of one of the skin, body, and mind that the user is likely to be interested in.

本発明の情報出力システムにおいて、In the information output system of the present invention,
前記ユーザ情報認識部は、前記ユーザの肌細胞画像データ、肌画像データ及び舌画像データのうち少なくとも1つを認識し、 The user information recognition unit recognizes at least one of skin cell image data, skin image data, and tongue image data of the user,
前記スコア情報認識部は、前記ユーザの肌細胞画像データ、肌画像データ及び舌画像データに基づいて、前記ユーザの複数の要素のスコアの時系列遷移を示す情報を認識するように構成されていることが好ましい。 The score information recognition unit is configured to recognize information indicating time-series transition of scores of the plurality of elements of the user based on the skin cell image data, skin image data, and tongue image data of the user. is preferred.

本発明者らの検討により、前記肌細胞画像データ、前記肌画像データ、前記舌画像データのうち少なくとも1つに基づいて、前記ユーザの各要素のスコアを比較的高精度に認識できることが判明した。A study by the present inventors revealed that the score of each element of the user can be recognized with relatively high accuracy based on at least one of the skin cell image data, the skin image data, and the tongue image data. .

この点に鑑みて構成された当該構成の情報出力システムによれば、前記肌細胞画像データ、前記肌画像データ、前記舌画像データのうち少なくとも1つに基づいて前記ユーザの各要素のスコアが認識される。これにより、ユーザがアンケートなどの情報を入力したりする手間が省かれながら、高精度に各要素のスコアが認識され、ひいては、これらの要素間の関係性をユーザに認識させることができる。According to the information output system configured in view of this point, the score of each element of the user is recognized based on at least one of the skin cell image data, the skin image data, and the tongue image data. be done. As a result, the score of each element can be recognized with high accuracy while the user is saved from inputting information such as a questionnaire, and the user can be made to recognize the relationship between these elements.

本発明の情報出力システムにおいて、In the information output system of the present invention,
前記ユーザの操作を受け付ける入力部を備え、 An input unit that receives the user's operation,
前記ユーザ情報認識部は、前記入力部に入力された情報を前記ユーザの情報として認識し、 The user information recognition unit recognizes information input to the input unit as information of the user,
前記スコア情報認識部は、前記入力部に入力された情報に基づいて、前記ユーザの複数の要素のスコアの時系列遷移を示す情報を認識するように構成されていることが好ましい。 It is preferable that the score information recognition unit is configured to recognize information indicating time-series transition of scores of the plurality of factors of the user based on the information input to the input unit.

当該構成の情報出力システムによれば、前記入力部に入力された情報に基づいて、前記ユーザの複数の要素のスコアが認識されるので、多岐にわたる要素についてのスコアの時系列遷移及びこれらの間の関係をユーザに認識させることができる。According to the information output system with this configuration, the score of the plurality of elements of the user is recognized based on the information input to the input unit, so that the time series transition of scores for a wide variety of elements and the transition between them The user can be made to recognize the relationship between

本発明の第3態様の情報出力プログラムは、The information output program of the third aspect of the present invention is
情報を出力する出力部を備えるシステムに、In a system equipped with an output unit that outputs information,
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶するステップと、Based on the correlation, storing information indicating elements having correlation with each other and correlation coefficients between the elements;
前記ユーザの最新の情報である現状ユーザ情報を認識するステップと、recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、前記ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the correlation coefficient between the elements and the score of the first element indicated in the current user information;
前記ユーザの第2要素の将来のスコアに応じた情報を前記出力部に出力するステップと、を実行させることを特徴とする。a step of outputting to the output unit information corresponding to the future score of the second factor of the user.

本発明の第4態様の情報出力プログラムは、The information output program of the fourth aspect of the present invention is
情報を出力する出力部を備えるシステムに、In a system equipped with an output unit that outputs information,
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶ステップと、a correlation information storage step of storing information indicating elements having correlation with each other and correlation coefficients between the elements based on the correlation;
ユーザの最新の情報である現状ユーザ情報を認識するステップと、a step of recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient and the current user information;
前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識する行動認識ステップと、an action recognition step of recognizing, when the future score of the second factor of the user is within a predetermined range, an action that causes the future score of the second factor to fall outside the predetermined range;
前記行動の実施または回避を推奨する情報を前記出力部に出力するように構成されているステップと、を実行させ、a step configured to output to the output unit information recommending implementation or avoidance of the action;
前記相関情報記憶ステップは、各要素と相関を有する行動及び当該各要素と当該行動との相関係数を示す相関行動情報を記憶するように構成され、The correlation information storing step is configured to store correlated behavior information indicating a behavior correlated with each element and a correlation coefficient between each element and the behavior;
前記行動認識ステップは、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識するように構成されていることを特徴とする。The action recognition step has a correlation with the first element or the second element based on the correlated action information when the future score of the second element of the user is included in a predetermined range, and It is characterized in that it is configured to recognize an action that causes the future score of the second element to fall outside the predetermined range.

本発明の情報出力プログラムにおいて、In the information output program of the present invention,
前記第1要素は、肌、体および心のうちの一に関する要素であり、前記第2要素は、肌、体および心のうちの他に関する要素であることが好ましい。Preferably, the first element is an element related to one of skin, body and mind, and the second element is an element related to the other of skin, body and mind.

本発明の情報出力プログラムにおいて、In the information output program of the present invention,
前記第1要素は、ユーザの行動であり、前記第2要素は、肌、体および心のうちの一に関する要素であることが好ましい。Preferably, the first factor is user behavior and the second factor is one of skin, body and mind.

本発明の第5態様の情報出力方法は、The information output method of the fifth aspect of the present invention includes:
情報を出力する出力部を備えるシステムが実行する方法であって、A method performed by a system comprising an output for outputting information, comprising:
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶するステップと、Based on the correlation, storing information indicating elements having correlation with each other and correlation coefficients between the elements;
前記ユーザの最新の情報である現状ユーザ情報を認識するステップと、recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、前記ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the correlation coefficient between the elements and the score of the first element indicated in the current user information;
前記ユーザの第2要素の将来のスコアに応じた情報を前記出力部に出力するステップと、を実行させることを特徴とする。a step of outputting to the output unit information corresponding to the future score of the second factor of the user.

本発明の第6態様の情報出力方法は、The information output method of the sixth aspect of the present invention comprises:
情報を出力する出力部を備えるシステムが実行する方法であって、A method performed by a system comprising an output for outputting information, comprising:
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶ステップと、a correlation information storage step of storing information indicating elements having correlation with each other and correlation coefficients between the elements based on the correlation;
ユーザの最新の情報である現状ユーザ情報を認識するステップと、a step of recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient and the current user information;
前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識する行動認識ステップと、an action recognition step of recognizing, when the future score of the second factor of the user is within a predetermined range, an action that causes the future score of the second factor to fall outside the predetermined range;
前記行動の実施または回避を推奨する情報を前記出力部に出力するように構成されているステップと、を実行させ、a step configured to output to the output unit information recommending implementation or avoidance of the action;
前記相関情報記憶ステップは、各要素と相関を有する行動及び当該各要素と当該行動との相関係数を示す相関行動情報を記憶するように構成され、The correlation information storing step is configured to store correlated behavior information indicating a behavior correlated with each element and a correlation coefficient between each element and the behavior;
前記行動認識ステップは、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識するように構成されていることを特徴とする。The action recognition step has a correlation with the first element or the second element based on the correlated action information when the future score of the second element of the user is included in a predetermined range, and It is characterized in that it is configured to recognize an action that causes the future score of the second element to fall outside the predetermined range.

本発明の情報出力方法において、In the information output method of the present invention,
前記第1要素は、肌、体および心のうちの一に関する要素であり、前記第2要素は、肌、体および心のうちの他に関する要素であることを特徴とする情報出力方法。The information output method, wherein the first element is an element related to one of skin, body and mind, and the second element is an element related to the other of skin, body and mind.

本発明の情報出力方法において、In the information output method of the present invention,
前記第1要素は、ユーザの行動であり、前記第2要素は、肌、体および心のうちの一に関する要素であることを特徴とする情報出力方法。The information output method, wherein the first element is a user's behavior, and the second element is an element related to one of skin, body and mind.

肌サポートサーバの利用形態の説明図。Explanatory drawing of the utilization form of a skin support server. 肌サポートサーバ及びユーザ端末の構成図。FIG. 2 is a configuration diagram of a skin support server and user terminals; 肌サポートサーバによる一連の肌サポート処理の説明図。Explanatory drawing of a series of skin support processing by a skin support server. 肌サポートサーバにおける処理の第1のフローチャート。The first flowchart of processing in the skin support server. 肌サポートサーバにおける処理の第2のフローチャート。A second flowchart of processing in the skin support server. ユーザ端末における処理の第1のフローチャート。4 is a first flowchart of processing in a user terminal; ユーザ端末における処理の第2のフローチャート。The second flowchart of processing in the user terminal. 主観データ及び客観データによる肌、心、体の初期データの解析処理の説明図。Explanatory drawing of the analysis processing of the initial data of the skin, the mind, and the body based on the subjective data and the objective data. 体状態の数値化の説明図。Explanatory drawing of digitization of a body state. 心状態の数値化の説明図。Explanatory drawing of digitization of the state of mind. 図11Aは各施策とその施策の改善傾向等との関係を示す図で、図11Bは各工程のスケジュールを示す図で、図11Cはなりたい肌と肌状態の主観状態、客観状態との関係を示す図。FIG. 11A is a diagram showing the relationship between each measure and its improvement trend, etc., FIG. 11B is a diagram showing the schedule of each process, and FIG. illustration. 画像表示を実施している期間における日々のモニタリングに基づく進捗表の説明図。Explanatory diagram of a progress table based on daily monitoring during the period of image display. 特殊事例による肌状態への影響の説明図。Explanatory drawing of the influence on the skin condition by a special case. ユーザ端末における肌状態の改善度の表示画面の説明図。FIG. 10 is an explanatory diagram of a display screen of a skin condition improvement degree on a user terminal; 施策の評価方法の説明図であり、図15Aは施策の評価基準を示し、図15Bは施策の評価例を示している。15A is an explanatory diagram of an evaluation method of measures, FIG. 15A shows evaluation criteria of measures, and FIG. 15B shows an example of evaluation of measures. 暮らし及び特殊事例の評価方法の説明図であり、図16Aは暮らし及び特殊事例の評価基準を示し、図16Bは暮らし及び特殊事例の評価例を示している。It is explanatory drawing of the evaluation method of a living and a special case, FIG. 16A shows the evaluation criteria of a living and a special case, and FIG. 16B shows the evaluation example of a living and a special case. ゴール達成度の判定方法の説明図。Explanatory drawing of the determination method of a goal achievement level. 2次データの説明図。Explanatory drawing of secondary data. 図19Aは、入力受付処理のフローチャート、図19Bは、スコア記憶処理のフローチャート、図19Cは、相関行動情報記憶処理のフローチャート、図19Dは、情報出力処理のフローチャート。19A is a flowchart of input reception processing, FIG. 19B is a flowchart of score storage processing, FIG. 19C is a flowchart of correlated action information storage processing, and FIG. 19D is a flowchart of information output processing. 情報入力画面の構成の一例を示す図。The figure which shows an example of a structure of an information input screen. 入力情報のスコア化の一例を説明する図。The figure explaining an example of scoring of input information. 肌のスコアのグラフと、行動のスコアのグラフを示す図。A diagram showing a skin score graph and an action score graph. 肌のスコアと行動のスコアとの相関の求め方を説明する図。FIG. 4 is a diagram for explaining how to obtain a correlation between a skin score and an action score; 図24Aは、肌、心、体の各要素と行動と相関係数とを記憶するテーブル、図24Bは、肌の要素と、体の要素との相関係数とを記憶するテーブル。FIG. 24A is a table storing skin, mind, and body elements, actions, and correlation coefficients, and FIG. 24B is a table storing correlation coefficients between skin elements and body elements. 施策認識処理のフローチャート。4 is a flowchart of policy recognition processing; 肌のスコアのグラフと、体のスコアのグラフを示す図。A diagram showing a skin score graph and a body score graph. 施策推奨画面の一例を示す図。The figure which shows an example of a measure recommendation screen.

本発明の実施形態の一例について、図1~図27を参照して説明する。 An example of an embodiment of the present invention will be described with reference to FIGS. 1 to 27. FIG.

[A.肌サポートサーバの利用形態]
図1を参照して、肌サポートサーバ10の構成および本発明を構成する系に対する位置付けを説明する。肌サポートサーバ10は、CPU、メモリ、各種インターフェース回路等を備えたコンピュータシステムにより構成される。肌サポートサーバ10は、メモリに保持された画像表示用のプログラムをCPUで実行することによって、複数のユーザU(図1ではUa,Ub,Ucを例示)の肌状態を改善又は維持するための処理(画像表示処理)を実行する機能を実現する。
[A. Usage form of skin support server]
The configuration of the skin support server 10 and its positioning with respect to the system constituting the present invention will be described with reference to FIG. The skin support server 10 is configured by a computer system including a CPU, memory, various interface circuits, and the like. The skin support server 10 executes an image display program held in a memory by a CPU to improve or maintain the skin condition of a plurality of users U (Ua, Ub, and Uc are exemplified in FIG. 1). A function to execute processing (image display processing) is realized.

肌サポートサーバ10は、インターネット等の通信ネットワーク1を介して、複数のユーザUの通信端末(ユーザ端末)30(図1では30a,30b,30cを例示)との間でデータ通信を行うことにより、ユーザUの肌状態の改善又は維持をサポートする。肌サポートサーバ10と、ユーザ端末30とにより構成されるシステムが、本発明の「情報出力システム」の一例に相当する。 The skin support server 10 performs data communication with communication terminals (user terminals) 30 (30a, 30b, and 30c are illustrated in FIG. 1) of a plurality of users U via a communication network 1 such as the Internet. , to support the improvement or maintenance of the user U's skin condition. A system configured by the skin support server 10 and the user terminal 30 corresponds to an example of the "information output system" of the present invention.

通信ネットワーク1には、担当者T(図1ではTa,Tbを例示)の通信端末50(図1では50a,50bを例示)も接続されている。担当者Tは、通信端末50を介して、ユーザUの肌の特徴や趣味嗜好、生活スタイル等を考慮した適切な肌ケア法等の情報を含むデータを、肌サポートサーバ10及びユーザ端末30に送信することにより、ユーザUの肌状態の改善に対するアドバイスを行う。なお、担当者Tの通信端末50とユーザUのユーザ端末30とは必ずしも一対一である必要はなく、肌サポートサーバ10、担当者Tの通信端末50、通信ネットワーク1を合わせた系全体によってユーザUの肌状態の改善に対するアドバイスがユーザUのユーザ端末30に提供されればよい。例えば、ユーザUの1又は複数のユーザ端末30に対して、複数の担当者Tによってそれぞれの通信端末50を介してアドバイスを提供する方法でも良い。 Communication terminals 50 (50a and 50b are exemplified in FIG. 1) of persons in charge T (Ta and Tb are exemplified in FIG. 1) are also connected to the communication network 1. FIG. The person in charge T sends data including information such as appropriate skin care methods considering the characteristics of the user U's skin, hobbies and tastes, lifestyle, etc. to the skin support server 10 and the user terminal 30 via the communication terminal 50. By transmitting the information, advice on improvement of the user U's skin condition is given. The communication terminal 50 of the person in charge T and the user terminal 30 of the user U do not necessarily have to be one-to-one. It is only necessary to provide the user terminal 30 of the user U with advice on improving U's skin condition. For example, a method of providing advice to one or a plurality of user terminals 30 of a user U by a plurality of persons in charge T via respective communication terminals 50 may be used.

さらに、肌サポートサーバ10は、複数のユーザUのユーザ端末30から送信される各ユーザの固有データを解析して、汎用的に活用可能な2次データを生成する機能を有し、この2次データを通信ネットワーク1を介して他のシステム60に提供するサービスも行うことができる。 Furthermore, the skin support server 10 has a function of analyzing unique data of each user transmitted from the user terminals 30 of a plurality of users U and generating secondary data that can be used for general purposes. Services that provide data to other systems 60 via the communications network 1 may also be provided.

[B.肌サポートサーバ、及びユーザ端末の構成]
図2を参照して、肌サポートサーバ10およびユーザ端末30の構成について説明する。肌サポートサーバ10は、メモリに保持された情報出力プログラムをCPUで実行することにより、肌状態認識部11、施策グループ選択部12、施策情報送信部13、2次データ生成部19、スコア情報認識部21、関係認識部22、現状ユーザ情報認識部23、第1要素認識部24、第2要素抽出部25、予測部26、目標認識部27及び行動認識部28として機能する。これらの構成による処理については後述する。また、肌サポートサーバ10は、ユーザUの画像表示処理に使用する各種データを保持するサポートDB(データベース)20を備えている。このサポートDB20はたとえばRAM上に展開され、後述する主観および客観データの更新によって書き換え可能である。サポートDB20は、本発明の「相関情報記憶部」の一例に相当する。
[B. Configuration of skin support server and user terminal]
The configurations of the skin support server 10 and the user terminal 30 will be described with reference to FIG. The skin support server 10 executes the information output program held in the memory by the CPU, whereby the skin condition recognition unit 11, the measure group selection unit 12, the measure information transmission unit 13, the secondary data generation unit 19, the score information recognition unit It functions as a unit 21 , a relationship recognition unit 22 , a current user information recognition unit 23 , a first element recognition unit 24 , a second element extraction unit 25 , a prediction unit 26 , a target recognition unit 27 and an action recognition unit 28 . Processing by these configurations will be described later. The skin support server 10 also includes a support DB (database) 20 that holds various data used for user U's image display processing. This support DB 20 is developed, for example, on a RAM, and can be rewritten by updating subjective and objective data, which will be described later. The support DB 20 corresponds to an example of the "correlation information storage section" of the present invention.

次に、本実施形態のユーザ端末30は、表示器31、タッチパネル32、カメラ33、マイク34、CPU35、及びメモリ36等を備えている。表示器31が、本発明の「出力部」に相当する。タッチパネル32が、本発明の「入力部」に相当する。これに代えてまたは加えて、カメラ33で撮像したユーザUの画像又はマイク34から入力されたユーザUの音声に基づいてユーザの指定を認識することにより、カメラ33又はマイク34を本発明の「入力部」として機能させてもよい。 Next, the user terminal 30 of this embodiment includes a display 31, a touch panel 32, a camera 33, a microphone 34, a CPU 35, a memory 36, and the like. The display 31 corresponds to the "output section" of the present invention. The touch panel 32 corresponds to the "input section" of the present invention. Instead of or in addition to this, by recognizing the designation of the user based on the image of the user U captured by the camera 33 or the voice of the user U input from the microphone 34, the camera 33 or the microphone 34 can be used as the " It may function as an "input unit".

なお、一の装置が情報を「認識する」とは、一の装置が他の装置から当該情報を受信すること、一の装置が当該一の装置に接続された記憶媒体に記憶された情報を読み取ること、一の装置が当該一の装置に接続されたセンサから出力された信号に基づいて情報を取得すること、一の装置が、受信した情報又は記憶媒体に記憶された情報又はセンサから取得した情報に基づいて、所定の演算処理(計算処理又は検索処理など)を実行することにより当該情報を導出すること、一の装置が他の装置による演算処理結果としての当該情報を当該他の装置から受信すること、一の装置が当該受信信号にしたがって内部記憶装置又は外部記憶装置から当該情報を読み取ること等、当該情報を取得するためのあらゆる演算処理が実行されることを意味する。 It should be noted that the fact that one device "recognizes" information means that one device receives the information from another device, and that one device recognizes information stored in a storage medium connected to the one device. reading, obtaining information by a device based on a signal output from a sensor connected to the device, or obtaining information received by a device or information stored in a storage medium or from a sensor Derivation of the information by executing predetermined arithmetic processing (calculation processing, search processing, etc.) based on the information obtained, one device passing the information as a result of arithmetic processing by another device to the other device It means that any arithmetic processing for obtaining the information is performed, such as receiving from, or reading the information from an internal storage device or an external storage device according to the received signal.

本実施形態においては、ユーザ端末30は例えばスマートフォンであるため、カメラ33やマイク34等を備えているが、ユーザ端末と有線無線にかかわらずやり取りできる構成であれば、外付けでの構成であったり、専門的な撮像装置を用いても良い。CPU35は、メモリ36に保持された画像表示用のアプリケーション35a(以下、肌サポートアプリ35aという)のプログラムを実行することにより、ユーザUが肌サポートアプリ35aを介して肌サポートサーバ10によるサポートを享受可能な状態とする。アプリケーション35aを実行したCPU35が本発明の「ユーザ情報認識部」及び「出力制御部」として機能する。 In the present embodiment, the user terminal 30 is, for example, a smart phone, and is equipped with a camera 33, a microphone 34, and the like. Alternatively, a specialized imaging device may be used. The CPU 35 executes a program of an image display application 35a (hereinafter referred to as a skin support application 35a) held in the memory 36 so that the user U can receive support from the skin support server 10 via the skin support application 35a. make it possible. The CPU 35 executing the application 35a functions as the "user information recognition section" and the "output control section" of the present invention.

また、ユーザUは、肌の細胞を取得するための角質採取テープ37(図1では37a、37b、37cを例示)を別途有している。この角質採取テープ37は、予め担当者TによりユーザUに提供されたものであってもよいし、ユーザUが市販の角質採取テープ37を購入してもよい。 In addition, the user U separately has a keratin collecting tape 37 (37a, 37b, and 37c are illustrated in FIG. 1) for obtaining skin cells. The keratin collecting tape 37 may be provided to the user U in advance by the person in charge T, or the user U may purchase a commercially available keratin collecting tape 37 .

なお、以下の説明では、説明の便宜のため、肌状態の改善又は維持のサポート処理の対象のユーザをユーザUaと表し、「ユーザUa」と異なるユーザを「他のユーザUb、Uc」と表す。 In the following description, for convenience of explanation, the user who is the target of the support process for improving or maintaining the skin condition is referred to as user Ua, and users different from "user Ua" are referred to as "other users Ub and Uc". .

[C.肌サポートサーバによる一連の処理]
次に、図3を参照して、肌サポートサーバによる一連の処理について説明する。肌サポートサーバ10は、「1.ゴール設定」、「2.スケジュール決定」、「3.モニタリング」、「4.スケジュール修正」、[5.ゴール判定]及び「6.2次データ生成」の各工程の処理を、図4,5に示したフローチャートに従って実行する。また、ユーザ端末30は、各工程における肌サポートサーバ10による処理に応じて、図6,7に示したフローチャートによる処理を実行する。以下では、各工程における肌サポートサーバ10及びユーザ端末30のCPU35の処理について、図4~7に示したフローチャート
を参照しつつ説明する。
[C. Series of processing by skin support server]
Next, a series of processes by the skin support server will be described with reference to FIG. The skin support server 10 performs "1. goal setting", "2. schedule determination", "3. monitoring", "4. schedule correction", and [5. goal determination] and “6. Secondary data generation” are executed according to the flowcharts shown in FIGS. Further, the user terminal 30 executes the processing according to the flowcharts shown in FIGS. 6 and 7 according to the processing by the skin support server 10 in each step. The processing of the skin support server 10 and the CPU 35 of the user terminal 30 in each step will be described below with reference to the flowcharts shown in FIGS.

ユーザUaは、図6のSTEP50で、肌サポートアプリ35aのプログラムをユーザ端末30にダウンロードして肌サポートアプリ35aを起動する。そして、ユーザUaは肌サポートアプリ35aへの登録申請を行う。 In STEP 50 of FIG. 6, the user Ua downloads the program of the skin support application 35a to the user terminal 30 and activates the skin support application 35a. Then, the user Ua applies for registration with the skin support application 35a.

肌サポートサーバ10は、図4のSTEP10で、ユーザUaからの登録申請を受け付けたときに、「ユーザUaからの登録申請を受け付けた」と認識し、STEP11に処理を進める。そしてSTEP11以降の画像表示処理を開始する。 When the skin support server 10 receives the registration application from the user Ua in STEP10 of FIG. Then, image display processing after STEP 11 is started.

[D.ゴール設定工程]
図3に示した「1.ゴール設定」の工程は、肌状態認識部11及び施策グループ選択部12により実行される。施策グループ選択部12は、図4のSTEP11でユーザ端末30にユーザUaの現状の肌、体、心の各状態、及びユーザUaが要望する肌状態を把握するための情報入力を促す初期情報要求データを送信する。
[D. Goal setting process]
Goal setting” shown in FIG. 3 is executed by the skin condition recognition unit 11 and the measure group selection unit 12 . In STEP 11 of FIG. 4, the measure group selection unit 12 prompts the user terminal 30 to input information for grasping the current skin, body, and mental conditions of the user Ua and the skin condition desired by the user Ua. Send data.

この初期情報要求データを受信したユーザ端末30では、肌サポートアプリ35aが、図6のSTEP51で、ユーザUaに対して、現状の肌、体、心の各状態、及びユーザUaが要望する肌状態の入力を促す画面を表示器31に表示する。それに対してユーザ端末30は、ユーザUaが入力した情報を含む初期ユーザ情報データを、肌サポートサーバ10に送信する。これらに加えてまたは変えて、肌サポートアプリ35aは、図6のSTEP100で、入力情報受付処理を実行する。入力情報受付処理の詳細については後述する。 In the user terminal 30 that has received this initial information request data, the skin support application 35a, in STEP 51 of FIG. is displayed on the display 31 to prompt the input of . In response, the user terminal 30 transmits initial user information data including the information input by the user Ua to the skin support server 10 . In addition to or instead of these, the skin support application 35a executes input information reception processing in STEP100 of FIG. Details of the input information acceptance process will be described later.

肌状態認識部11は、図4のSTEP11において、初期ユーザ情報データを受信して、初期ユーザ情報データから認識したユーザUaの肌、心、体の各状態と、ユーザUaが要望する肌状態とに基づいて、肌状態、心状態、又は体状態の目標スコア(ゴール)を設定する。 The skin condition recognition unit 11 receives the initial user information data in STEP 11 of FIG. A target score (goal) for skin condition, mental condition, or body condition is set based on the above.

ここで、初期ユーザ情報データには、肌状態、体状態、及び心状態についての主観データ及び客観データが含まれている。詳細な定義は後述するが、主観データはユーザの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。肌状態の主観データは、現状の肌状態に対するユーザUaの満足度を、例えば10段階で示したデータである。肌状態の客観データは、ユーザUaの肌画像データである。なお、肌状態の客観データには、初期ユーザ情報データに含まれる肌状態の客観データに加え、角質採取テープ37により採取されたユーザUaの角層細胞の解析データが含まれても良い。角層細胞の解析データは、具体的には例えば保水能力と皮脂適格性に関するデータである。この場合、角層細胞の解析を、例えばユーザ端末30に接続された測定機器45により行うことで、或は、角質採取テープ37の画像データをユーザ端末30から肌サポートサーバ10に送信し、肌サポートサーバ10側で角質採取テープ37の画像を分析して保水能力と皮脂適格性などを測定してもよい。 Here, the initial user information data includes subjective data and objective data regarding skin condition, body condition, and mental condition. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user, and objective data is data based on inspection results, image analysis, and factual information. The subjective data of the skin condition is data indicating the satisfaction level of the user Ua with respect to the current skin condition, for example, in 10 stages. The objective data of the skin condition is skin image data of the user Ua. In addition to the objective skin condition data included in the initial user information data, the objective skin condition data may include analysis data of the stratum corneum cells of the user Ua collected by the horny material collecting tape 37 . Specifically, the analytical data of stratum corneum cells are, for example, data relating to water retention capacity and sebum suitability. In this case, the stratum corneum cells are analyzed by, for example, a measuring device 45 connected to the user terminal 30, or the image data of the stratum corneum sampling tape 37 is transmitted from the user terminal 30 to the skin support server 10, and the skin is analyzed. The image of the keratin collecting tape 37 may be analyzed on the support server 10 side to measure the water retention capacity, the suitability for sebum, and the like.

ユーザUaの満足度は肌サポートアプリ35aにおけるアンケート入力によって取得される。また、肌画像データは、ユーザ端末30のカメラ33又は接続端子40に接続された外部カメラによってユーザUaがユーザUaの顔を撮像することによって取得した画像データである。 The degree of satisfaction of the user Ua is acquired by inputting a questionnaire in the skin support application 35a. The skin image data is image data obtained by the user Ua capturing an image of the user Ua's face using the camera 33 of the user terminal 30 or an external camera connected to the connection terminal 40 .

また、肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用方法を表示器31に表示し、角質採取テープ37の使用と別途の郵送とを促す。肌サポートアプリ35aは、ユーザUaに対して、角質採取テープ37の使用と肌画像の撮像を促し、撮像された画像が肌サポートサーバ10に送信されるようにしてもよい。 In addition, the skin support application 35a displays the usage of the keratin collecting tape 37 on the display 31 to the user Ua, and prompts the user Ua to use the keratin collecting tape 37 and mail it separately. The skin support application 35 a may prompt the user Ua to use the keratin collecting tape 37 and take a skin image, and the taken image may be transmitted to the skin support server 10 .

肌状態認識部11は、図8に示したように、肌状態の初期値を、主観のスコアをたとえば3、肌画像のスコアを3、保水能力のスコアを2、皮脂適格性のスコアを1に割り当てて、合計した値を肌状態のスコアとする。なお、スコアは正の整数ではなく、小数で表現されていてもよいし、負の数で表されてもよい。 As shown in FIG. 8, the skin condition recognition unit 11 sets the initial value of the skin condition to a subjective score of 3, a skin image score of 3, a water retention ability score of 2, and a sebum suitability score of 1. , and the total value is used as the skin condition score. The score may be represented by a decimal number instead of a positive integer, or may be represented by a negative number.

角層細胞の状態を解析したスコア(保水能力スコア及び皮脂適格性のスコア、角層バリア、メラニンスコアなど)の認識を第1認識方法と呼ぶ。第1認識方法は、これに代えてまたは加えて、角層水分量計によりユーザの肌の水分量を計測する方法及び皮脂量計によりユーザの肌の皮脂量を計測する方法のうち少なくとも1つを含む。また、第1の認識方法によるユーザの肌の認識を定期的に行うため、肌状態認識部11は、定期的にユーザ端末30に角質採取テープ37等の使用を促すメッセージを送信したりすることにより、ユーザに行動を促す。このときの「定期的」というのは厳密に時間的に等間隔である必要はなく、肌状態に影響が出ない範囲で等間隔であれば良い。例えば、3ヶ月ごとに第1の認識方法を実施する場合において、1月1日に初回を実施した場合、ちょうど3か月後の4月1日のみならず、例えばその1週間前の3月24日前後にユーザ端末30にメッセージを送信してもよいし、例えばその1週間後の4月8日前後にユーザ端末30にメッセージを送信してもよい。また、長期的にサービスを提供するときなどは、例えば細かい改善を調べたい時は1ヶ月ごとに第1の認識方法を設定し、肌状態に対する季節変化の影響を調べるために3か月ごとに第1の認識方法を設定するなど、認識のタイミングは変更可能である。 Recognition of scores obtained by analyzing the state of stratum corneum cells (water retention capacity score, sebum suitability score, stratum corneum barrier, melanin score, etc.) is referred to as a first recognition method. Alternatively or additionally, the first recognition method is at least one of a method of measuring the moisture content of the user's skin with a stratum corneum moisture meter and a method of measuring the sebum content of the user's skin with a sebum meter. including. Further, in order to periodically recognize the user's skin by the first recognition method, the skin condition recognition unit 11 may periodically send a message to the user terminal 30 prompting the user to use the keratin collecting tape 37 or the like. prompts the user to take action. In this case, "regularly" does not have to be strictly at regular time intervals, and may be at regular intervals as long as the skin condition is not affected. For example, when the first recognition method is performed every three months, if the first recognition method is performed on January 1st, not only April 1st, which is exactly three months later, but also March, for example, one week before The message may be sent to the user terminal 30 around the 24th, or may be sent to the user terminal 30 around April 8, one week later, for example. In addition, when providing a long-term service, for example, if you want to check detailed improvements, set the first recognition method every month, and check the effect of seasonal changes on the skin condition every three months. The timing of recognition can be changed, such as by setting the first recognition method.

アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユーザUaの肌画像データに基づく肌画像スコアの認識のそれぞれを第2認識方法と呼ぶ。第2認識方法は、アンケート入力による肌状態の主観データに基づいて主観スコアの認識及びユー
ザUaの肌画像データに基づく肌画像スコアの認識の一方によってユーザUaの肌状態を認識してもよいし、これらと異なる方法を含んでもよい。また、第2認識方法は、第1の認識方法よりも頻繁に行われる。これは角質採取テープ37の使用・郵送が手間的にも煩雑かつ値段的にも高価になってしまうためである。また、角質採取テープ37の使用が頻繁であると、ユーザUaの肌へ悪影響が及ぶおそれもある。
Recognition of the subjective score based on the subjective data of the skin condition entered in the questionnaire and recognition of the skin image score based on the skin image data of the user Ua are each referred to as a second recognition method. The second recognition method may recognize the skin condition of the user Ua by either recognizing a subjective score based on the subjective data of the skin condition entered in the questionnaire or recognizing the skin image score based on the skin image data of the user Ua. , may include methods different from these. Also, the second recognition method is performed more frequently than the first recognition method. This is because the use and mailing of the keratin collecting tape 37 is time-consuming, complicated, and expensive. In addition, frequent use of the keratin collecting tape 37 may adversely affect the skin of the user Ua.

例えば3か月間ごとに第1の認識方法が実施され、第2の認識方法は毎日実施にされる。また、第1の認識方法の実施と第2の認識方法の実施のタイミングが重なる時は、できれば同じタイミングで実施されると精度の良いデータが取れるために好ましい。ただし第1の認識方法の実施時に第2の認識方法が実施されなくても本発明の実施は可能であるし、効果も得られる。 For example, the first recognition method is performed every three months, and the second recognition method is performed every day. Further, when the timing of performing the first recognition method and the timing of performing the second recognition method overlap, it is preferable that they are performed at the same timing, so that accurate data can be obtained. However, even if the second recognition method is not performed when the first recognition method is performed, the present invention can be implemented and the effect can be obtained.

なお、主観スコアは、主観データに基づいて認識されたスコアであればよい。 Note that the subjective score may be a score recognized based on subjective data.

体状態の主観データと客観データは、図9に示したように分けられている。詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。体状態の主観データは、ユーザUaが肌サポートアプリ35aを通じてアンケートを入力することによって取得される。客観データは、ユーザUaがユーザ端末30のカメラ33を用いて撮像されたユーザUaの舌・唇の画像データ、ユーザ端末30の接続端子40に接続された測定機器45により測定されたユーザUaの血圧、不整脈、尿中成分、血中成分等の測定データと、肌サポートアプリ35aにおけるアンケート入力により取得された頭痛又は肩こり等の体調不良の回数、疲労度判定等のデータである。なお、将来の肌ケア以外のサービスへの展開に備えて、種々の病気の発生情報などについても初
期ユーザ情報データに含めてもよい。
The subjective data and objective data of body condition are separated as shown in FIG. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user Ua, and objective data is data based on test results, image analysis, and factual information, similar to the subjective data and objective data of the skin. The subjective data on the body condition is obtained by the user Ua inputting a questionnaire through the skin support application 35a. The objective data includes image data of the tongue and lips of the user Ua captured by the user Ua using the camera 33 of the user terminal 30, and data of the user Ua measured by the measuring device 45 connected to the connection terminal 40 of the user terminal 30. They are measurement data such as blood pressure, arrhythmia, urinary components, blood components, etc., and data such as the number of headaches, stiff shoulders, and other poor physical conditions obtained by inputting questionnaires in the skin support application 35a, fatigue level determination, and the like. In preparation for future development of services other than skin care, information on the occurrence of various diseases may be included in the initial user information data.

心状態の主観データと客観データは、図10に示したように分けられている。、詳細な定義は後述するが、肌の主観データおよび客観データと同様に、主観データはユーザUaの主観によって判定される項目、客観データは検査結果や画像解析、事実情報に基づいたデータである。主観データは、肌サポートアプリ35aにおけるアンケート入力によって取得される。客観データは、肌サポートアプリ35aにおけるアンケート入力(一日の笑った頻度等)と、測定機器による測定(脈拍モニタリングからの心理状態推定等)とにより取得される。なお、将来の肌ケア以外のサービスの展開に備えて、種々の精神疾患の発生情報についても初期ユーザ情報データに含めてもよい。 The subjective and objective data of the state of mind are separated as shown in FIG. Although detailed definitions will be described later, subjective data is an item determined subjectively by the user Ua, and objective data is data based on test results, image analysis, and factual information, similar to the subjective data and objective data of the skin. . The subjective data is acquired by inputting a questionnaire in the skin support application 35a. The objective data is obtained by inputting questionnaires (the frequency of laughter per day, etc.) in the skin support application 35a, and by measuring with a measurement device (estimation of psychological state from pulse monitoring, etc.). In preparation for future development of services other than skin care, the initial user information data may include information on the occurrence of various mental disorders.

肌状態認識部11は、認識したユーザUaの肌、体、心の状態の主観データ及び客観データを、サポートDB20に記憶する。 The skin condition recognition unit 11 stores the recognized subjective data and objective data of the skin, body, and mental conditions of the user Ua in the support DB 20 .

肌状態認識部11は、このようにして初期ユーザ情報データから認識したユーザUaの肌状態、体状態、及び心状態の主観データと客観データに基づいて、図8の右側の三角形で示したように、肌状態を1~9、体状態を1~6、心状態を1~6の各スコアで表した3軸の初期値を設定する。なお、肌状態のスコアと同様に、体状態又は心状態の主観データ及び客観データから体状態又は心状態の主観スコア及び客観スコアが算出され、それらに基づいて体状態のスコア及び心状態のスコアとして扱われてもよい。 Based on the subjective data and objective data of the user Ua's skin condition, body condition, and mental condition recognized from the initial user information data in this way, the skin condition recognition unit 11 recognizes as indicated by the triangles on the right side of FIG. , the initial values of the three axes are set, which are represented by scores of 1 to 9 for skin conditions, 1 to 6 for body conditions, and 1 to 6 for mental conditions. Similar to the skin condition score, the subjective score and objective score of the physical condition or mental condition are calculated from the subjective data and objective data of the physical condition or mental condition, and based on these, the physical condition score and the mental condition score are calculated. may be treated as

さらに、施策グループ選択部12は、初期ユーザ情報データに含まれる「なりたい肌スコア」「施策のカテゴリ、希望、頻度」「アレルギー情報」及び「現在行っている施策」を取得する。「なりたい肌スコア」「施策のカテゴリ,希望,頻度」「アレルギー情報」及び「現在行っている施策」は、肌サポートアプリ35aにより、ユーザUaが入力したものである。 Further, the measure group selection unit 12 acquires the "desired skin score", "categories, desires and frequencies of measures", "allergy information", and "current measures" included in the initial user information data. The "desired skin score", "category, desire and frequency of measures", "allergy information", and "current measures" are input by the user Ua through the skin support application 35a.

ここで、「なりたい肌スコア」において、「なりたい肌」とは、乾燥感改善、ごわつき改善、敏感肌改善、ニキビ改善、しぼみ感改善、シミ改善、シワ改善、たるみ改善、くすみ改善、くま改善、顔色改善、及びハリ改善の中から選択された肌状態の改善対象である。また、「スコア」とは、各対象の肌状態に対するユーザUaの満足度であって、肌サポートアプリにおいて1~10の10段階でユーザが選択したスコアである。 Here, in the "desired skin score", "desired skin" means improvement of dryness, improvement of stiffness, improvement of sensitive skin, improvement of acne, improvement of wrinkles, improvement of spots, improvement of wrinkles, improvement of sagging, improvement of dullness, improvement of dark circles, It is a skin condition improvement target selected from complexion improvement and firmness improvement. The “score” is the degree of satisfaction of the user Ua with respect to the skin condition of each target, and is the score selected by the user on a scale of 1 to 10 in the skin support application.

サポートDB20は、各改善対象に関連付けられた肌状態の主観状態の改善傾向及び客観状態の改善傾向を記憶している。例えば、図11Cに示されるように、「乾燥感改善」には、肌状態の主観状態「乾燥感改善」と、肌状態の客観状態の基準「保水能力と皮脂適格性との差を最小化」とが関連付けられている。 The support DB 20 stores the improvement tendency of the subjective state and the improvement tendency of the objective state of the skin condition associated with each improvement target. For example, as shown in FIG. 11C , “improvement of dryness” includes subjective skin condition “improvement of dryness” and objective criterion of skin condition “minimize difference between water retention capacity and sebum suitability”. ” is associated with.

例えば、「なりたい肌」が「乾燥感改善」であり、現状の肌状態の乾燥感の満足度のスコアが3であるときに、ユーザUaの選択に応じて、「乾燥感改善」と関連付けられたユーザUaの肌状態の主観状態「乾燥感改善」についての満足度5が主観的な目標スコアとして設定される。 For example, when the “desired skin” is “improved dryness” and the satisfaction score for the dryness of the current skin condition is 3, it is associated with “improved dryness” according to the selection of the user Ua. A satisfaction level of 5 with respect to the subjective skin condition “improved dryness” of the user Ua is set as a subjective target score.

また、施策グループ選択部12は、「乾燥感改善」に関連付けられた肌状態の客観的な改善対象を設定する。例えば、施策グループ選択部12は、「乾燥感改善」に関連付けられた基準「保水能力と皮脂適格性との差を最小化」に基づいて、ユーザUaの肌状態のうち、保水能力よりも低い皮脂適格性の値2を客観的な目標スコアとして設定する。 In addition, the measure group selection unit 12 sets an objective skin condition improvement target associated with "improvement of dryness". For example, the measure group selection unit 12 determines that the user Ua's skin condition is lower than the water retention ability based on the criterion "minimize the difference between the water retention ability and the sebum suitability" associated with the "improvement of dryness". A sebum suitability value of 2 is set as an objective target score.

心状態、体状態についても同様に目標スコアが定められうる。 Similarly, target scores can be set for mental and physical conditions.

また、「施策のカテゴリ、希望、頻度」において、カテゴリとしては「食生活、自宅での行動、運動、化粧品の使い方、飲食、肌ケア、行動」等、希望としては「難易度、金額制約、時間制約、やりたくない施策、肌ケアを行うシーン、施策のカテゴリに関する嗜好」等、頻度としては「1日当たりのアドバイスを受ける回数」等が選択される。 In addition, in the "category, preference, frequency of measures", the categories are "dietary habits, behavior at home, exercise, how to use cosmetics, eating and drinking, skin care, behavior", etc., and the preferences are "difficulty, amount restrictions, Time constraints, undesired measures, skin care scenes, preferences regarding categories of measures, etc., and as the frequency, the number of times advice is received per day, etc. are selected.

「アレルギー情報」は、ユーザUaがアレルギー疾患の場合のアレルギー物質に関する情報が含まれる。 The "allergy information" includes information on allergens when the user Ua has an allergic disease.

「現在行っている施策」は、ユーザUaがすでに行っている施策であり、「湯船につかる」等の内容及び頻度又は程度などにより表される。 The “measure currently being taken” is a measure that the user Ua has already taken, and is represented by the content and frequency or degree of “soaking in the bathtub” or the like.

また、初期ユーザ情報データには、ユーザUaの性別、年齢、住んでいる地域、職業、性格等のユーザの属性を示す情報が含まれている。 The initial user information data also includes information indicating attributes of the user Ua, such as gender, age, area of residence, occupation, personality, and the like.

[E.スケジュール決定工程]
図3に示した「2.スケジュール決定」の工程は、施策グループ選択部12、施策情報送信部13により実行される。
[E. Schedule decision process]
The process of “2. Determination of schedule” shown in FIG.

施策グループ選択部12は、図4のSTEP12で、ゴール(主観的な目標スコア及び客観的な目標スコア)を達成するための施策グループを選択する。この選択は、上述した各改善対象に関連付けられた、肌状態の主観状態の改善傾向と肌状態の客観状態の改善傾向と適した周辺環境とを考慮して行われる。施策グループ選択部12は、あらかじめ登録された地域またはGPSセンサ等によって検出された位置情報と、端末の時計機能から取得した日時とに基づいて、スケジュール期間におけるユーザUaの周辺環境の温度、湿度等を予測する。 The measure group selection unit 12 selects a measure group for achieving the goal (subjective target score and objective target score) in STEP 12 of FIG. This selection is made in consideration of the improvement tendency of the subjective skin condition, the improvement tendency of the objective skin condition, and the suitable surrounding environment, which are associated with each improvement target described above. The measure group selection unit 12 determines the temperature, humidity, etc. of the surrounding environment of the user Ua during the schedule period based on the location information detected by the GPS sensor or the like registered in advance and the date and time acquired from the clock function of the terminal. to predict.

例えば、施策グループ選択部12は、カテゴリの希望が「自宅での行動、食生活、運動」であり、梅雨の時期のように湿度が平均50%と予測される季節であり、主観的な目標スコアが「乾燥感」の満足度5以上、客観的な目標スコアが皮脂適格性2以上である場合、主観状態の改善傾向が「乾燥感改善」を含み、客観状態の改善傾向が「皮脂適格性向上」を含み、カテゴリに「自宅での行動、食生活、運動」のいずれかであり、適した周辺環境が湿度50%と矛盾しない施策を選択する。 For example, the policy group selection unit 12 selects the desired category as "activity at home, eating habits, exercise", the season when the humidity is expected to average 50%, such as the rainy season, and the subjective goal. If the score is 5 or more in satisfaction for "dryness" and the objective target score is 2 or more in sebum suitability, the subjective condition improvement tendency includes "dryness improvement", and the objective condition improvement tendency is "sebum eligible Including "enhancement of sexuality", the category is any of "action at home, eating habits, exercise", and the suitable surrounding environment is not inconsistent with the humidity of 50%.

ここで、主観状態の改善傾向及び客観状態の改善傾向は、予め担当者T等の専門家によって定められたものであってもよいし、サポートDB20に記憶された他のユーザUb、Ucが実施した施策と他のユーザUb、Ucの肌状態の時系列的変化に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよいし、実施した施策とユーザUaの肌状態の時系列的変化がサポートDB20に保存されている場合には、当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向であってもよい。 Here, the improvement tendency of the subjective state and the improvement tendency of the objective state may be determined in advance by an expert such as the person in charge T, or may be implemented by other users Ub and Uc stored in the support DB 20. It may be an improvement tendency of the subjective state and an improvement tendency of the objective state estimated based on the time-series change of the skin condition of the other users Ub and Uc, or the implemented measure and the skin condition of the user Ua. is stored in the support DB 20, it may be the improvement tendency of the subjective state and the improvement tendency of the objective state estimated based on the information.

例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策と、その施策を実施した前後の他のユーザUb、Ucそれぞれごとの肌状態の主観データの時系列的変化及び他のユーザUb、Ucそれぞれごとの肌状態の客観データの時系列的変化の一方又は両方とが記憶される。 For example, the support DB 20 stores measures implemented by each of the other users Ub and Uc, chronological changes in the subjective data of the skin condition of each of the other users Ub and Uc before and after implementation of the measures, and other data. One or both of chronological changes in objective skin condition data for each of users Ub and Uc are stored.

また、例えば、サポートDB20には、他のユーザUb、Ucのそれぞれが実施した施策「湯船につかる」と、その施策を実施した前後における、他のユーザUb、Ucそれぞれの肌状態の主観状態の時系列的変化としての「乾燥感についての満足度」が記憶されているとする。 In addition, for example, the support DB 20 stores information on the measure "soaking in the bathtub" implemented by each of the other users Ub and Uc, and subjective skin conditions of each of the other users Ub and Uc before and after implementing the measure. It is assumed that "satisfaction with dry feeling" is stored as a time-series change.

このとき、施策グループ選択部12は、各他のユーザUb、Ucごとに、施策「湯船につかる」について、例えば、湯船につかる前日と、湯船につかった日の肌状態の主観データ(乾燥感についての満足度)の変化量を算出する。そして、施策グループ選択部12は、各他のユーザUb、Ucごとの乾燥感についての満足度の変化量の平均値をとる。施策グループ選択部12は、例えば、「乾燥感についての満足度」の変化量の平均値が所定値以上である場合に、施策「湯船につかる」の主観状態の改善傾向を「乾燥感改善」と認識する。客観状態の改善傾向についても、主観状態の改善傾向と同様に認識できる。 At this time, for each of the other users Ub and Uc, the measure group selection unit 12 selects, for example, the subjective data of the skin condition (dry feeling) on the day before the bath and on the day of the bath for the measure “soak in the bathtub”. Calculate the amount of change in the degree of satisfaction for Then, the measure group selection unit 12 obtains the average value of the amount of change in the degree of satisfaction with regard to dryness for each of the other users Ub and Uc. For example, when the average value of the amount of change in "satisfaction with dryness" is equal to or greater than a predetermined value, the measure group selection unit 12 sets the improvement tendency of the subjective state of the measure "soak in the bathtub" to "improved dryness". Recognize. The improvement tendency of the objective state can also be recognized in the same way as the improvement tendency of the subjective state.

施策グループ選択部12は、ユーザUaの年齢及び肌状態に基づいて、同年代、同様の肌状態等、処理対象とする他のユーザUb、Ucの範囲を絞ってもよい。 Based on the age and skin condition of the user Ua, the measure group selection unit 12 may narrow down the range of other users Ub and Uc to be processed, such as the same age and the same skin condition.

また、施策グループ選択部12は、サポートDBに実施した施策とユーザUaの肌状態の時系列的変化が保存されている場合には、上記と同様にして算出した当該情報に基づいて推定される主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 Further, when the implemented measures and the chronological changes in the skin condition of the user Ua are stored in the support DB, the measure group selection unit 12 estimates based on the information calculated in the same manner as described above. The improvement tendency of the subjective state and the improvement tendency of the objective state may be recognized.

施策グループ選択部12は、ユーザUaの第1回目のスケジュール決定工程においては、他のユーザUb、Ucの肌状態の主観データ、客観データから上記主観状態の改善傾向及び客観状態の改善傾向を認識し、ユーザUaの第2回目のスケジュール決定工程においてはユーザUaの肌状態の主観データ、客観データから主観状態の改善傾向及び客観状態の改善傾向を認識してもよい。 In the first schedule determination process for user Ua, the measure group selection unit 12 recognizes the improvement tendency of the subjective condition and the improvement tendency of the objective condition from the subjective data and objective data of the skin conditions of the other users Ub and Uc. However, in the user Ua's second schedule determination process, the improvement tendency of the subjective condition and the improvement tendency of the objective condition may be recognized from the subjective data and the objective data of the skin condition of the user Ua.

施策グループ選択部12は、肌状態のみならず、心状態、体状態についても同様に主観状態の改善傾向及び客観状態の改善傾向を認識し、当該心状態、体状態の主観状態の改善傾向及び客観状態の改善傾向を加味して施策を選択してもよい。 The measure group selection unit 12 recognizes not only the skin condition but also the subjective state improvement tendency and the objective state improvement tendency for the mental state and the physical state. Measures may be selected in consideration of the improvement tendency of the objective state.

施策グループ選択部12は、「現在行っている施策」と同内容及び同頻度または同程度
の施策を施策グループから除外してもよい。ユーザが既に行っている施策は、提案するまでもないと考えられるからである。
The measure group selection unit 12 may exclude measures having the same content and the same frequency or degree as the “current measures” from the measure group. This is because it is considered unnecessary to propose measures that the user has already taken.

図11Aの例では、施策グループ選択部12は、「湯船につかる」「ビタミンC摂取」「野菜摂取」「1万歩以上歩く」を含むように複数の施策の組合せである施策グループを選択する。 In the example of FIG. 11A, the measure group selection unit 12 selects a measure group that is a combination of a plurality of measures so as to include "soak in the bathtub", "vitamin C intake", "vegetable intake", and "walk 10,000 steps or more". .

施策情報送信部13は、施策グループの中から、ユーザUaの「施策のカテゴリ、希望、頻度」に応じて施策の優先度を評価し、当該優先度に従って初期の施策を決定する。図12には、初期の施策として「湯船につかる」「野菜摂取」「1万歩以上歩く」が選択されたスケジュールの例を示している。施策情報送信部13は、このようにして決定したスケジュールの内容を示すスケジュールデータをユーザ端末30に送信する。 The policy information transmission unit 13 evaluates the priority of the policy among the policy group according to the user Ua's "policy category, desire, and frequency", and determines the initial policy according to the priority. FIG. 12 shows an example of a schedule in which "soak in a bathtub," "eat vegetables," and "walk 10,000 steps or more" are selected as initial measures. The policy information transmission unit 13 transmits schedule data indicating the details of the schedule thus determined to the user terminal 30 .

施策情報送信部13は、併せて、ユーザUaの指定を基に、一定期間の各工程の実施の計画を作成する。図11Bには、START時にゴール設定とスケジュール決定を行い、毎日モニタリングをし、1週間ごとにスケジュール修正を行い、1か月後に進捗グラフを作成し、F3か月目にゴール判定と新たなゴール設定を行うという一連のイベントの計画が示されている。施策情報送信部13は、ユーザUaの指定に加えてまたは代えて、あらかじめ定められた、一定期間の各工程の実施の計画を用いてもよい。 The policy information transmission unit 13 also creates a plan for implementing each process for a certain period based on the designation of the user Ua. In FIG. 11B, goal setting and schedule determination are performed at START, daily monitoring is performed, schedule is revised every week, a progress graph is created after one month, and goal determination and new goals are set in F3 months. A series of events of setting up are planned. In addition to or in place of the user Ua's specification, the policy information transmitting unit 13 may use a predetermined plan for performing each process for a certain period of time.

ユーザ端末30において、図6のSTEP52で、肌サポートサーバ10からスケジュールデータを受信すると、肌サポートアプリ35aは、図12に示したようなスケジュールの実行表及び図11Bに示したような作業内容の計画を表示可能にして、ユーザUaによる各施策の実施を促す。図12のスケジュールの実行表においては、各施策(「湯船につかる」、「野菜摂取」、「1万歩以上歩く」)の内容が表示される。 When the user terminal 30 receives the schedule data from the skin support server 10 in STEP 52 of FIG. 6, the skin support application 35a displays a schedule execution table as shown in FIG. The plan is made displayable to prompt the user Ua to implement each measure. In the execution table of the schedule in FIG. 12, the contents of each measure (“Soak in a hot tub”, “Eat vegetables”, “Walk 10,000 steps or more”) are displayed.

また、ユーザ端末30において、肌サポートサーバ10から図4のSTEP200の施策認識処理で認識された施策を示す情報を受信すると、肌サポートアプリ35aは、図6のSTEP110において、施策出力処理を実行する。施策出力処理の詳細については後述する。 When the user terminal 30 receives the information indicating the measures recognized in the measure recognition processing in STEP 200 of FIG. 4 from the skin support server 10, the skin support application 35a executes the measure output processing in STEP 110 of FIG. . Details of the policy output process will be described later.

[F.モニタリング工程]
図3に示した「3.モニタリング」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは毎日)、肌状態認識部11、施策情報送信部13、スコア情報認識部21及び関係認識部22により実行される。肌サポートアプリ35aの利用を開始したユーザUaは、ユーザ端末30により、日々の肌、体、心の各状態と、スケジュールにより指示された施策の実施状況と、スケジュールにより指示された施策以外のユーザUaの自主的な行動(施策外行動)の実施状況とを入力する。施策の実施状況には、「湯船につかる」、「野菜摂取」、「1万歩以上歩く」をそれぞれ実施したかどうかを示す情報のほか、「30分」および「湯船につかる」、「300g」および「野菜を摂取」、「1万5千歩」および「歩く」など、時間、量などで表される施策の実行の度合いが含まれる。
[F. Monitoring process]
The step of “3. Monitoring” shown in FIG. 3 includes the skin condition recognition unit 11, the measure information transmission unit 13, and the score information recognition every period set by the user Ua on the skin support application 35a (every day in FIG. 11B). It is executed by the unit 21 and the relationship recognition unit 22 . The user Ua, who has started using the skin support application 35a, uses the user terminal 30 to check the daily skin, body, and mental conditions, the implementation status of the measures specified by the schedule, and the measures other than the measures specified by the schedule. The implementation status of Ua's voluntary action (action outside the policy) is entered. The implementation status of the measures includes information indicating whether or not each of the measures, "soak in the bathtub,""eatvegetables," and "walk more than 10,000 steps," has been implemented, as well as "30 minutes,""soak in the bathtub,""300 g and "eating vegetables", "15,000 steps", and "walking".

肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されると図6のSTEP100及びSTEP60に処理を進める。図6のSTEP100の処理の詳細は後述する。肌サポートアプリ35aは、図6のSTEP60において、上述した初期ユーザ情報データと同様に、ユーザUaの肌、体、心の状態についての主観データと客観データを含む現状ユーザ情報データを肌サポートサーバ10に送信してSTEP54に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP53で、ユーザUaにより肌、体、心の状態が入力されない場合、そのままSTEP54に処理を進める。ここで送信されるデータには、角質採取テープ37によって採取された角層細胞に関するデータは含まれない。 The skin support application 35a advances the processing to STEP100 and STEP60 in FIG. 6 when the user Ua inputs the state of the skin, body, and mind in STEP53 in FIG. Details of the processing of STEP 100 in FIG. 6 will be described later. In STEP 60 of FIG. 6, the skin support application 35a sends current user information data including subjective data and objective data regarding the state of the skin, body, and mind of the user Ua to the skin support server 10 in the same way as the initial user information data described above. and advance the process to STEP54. It should be noted that the skin support application 35a directly advances the processing to STEP54 when the user Ua does not input the state of the skin, body, and mind in STEP53 of FIG. The data transmitted here does not include the data on the stratum corneum cells collected by the keratin collecting tape 37 .

また、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されたときにSTEP61に処理を進め、スケジュールの実行状況を示す実行状況データを肌サポートサーバ10に送信して図7のSTEP55に処理を進める。なお、肌サポートアプリ35aは、図6のSTEP54で、ユーザUaによりスケジュールの実行状況(各施策の実行状況)が入力されない時は、そのままSTEP55に処理を進める。 Further, in STEP 54 of FIG. 6, the skin support application 35a advances the process to STEP 61 when the schedule execution status (execution status of each measure) is input by the user Ua, and outputs execution status data indicating the schedule execution status. The data is transmitted to the skin support server 10, and the process proceeds to STEP55 in FIG. When the user Ua does not input the execution status of the schedule (execution status of each measure) in STEP54 of FIG. 6, the skin support application 35a directly proceeds to STEP55.

さらに、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されたときにSTEP62に処理を進め、実施された施策外行動の内容を示す施策外行動実施データを肌サポートサーバ10に送信してSTEP56に処理を進める。なお、肌サポートアプリ35aは、図7のSTEP55で、ユーザUaにより施策外行動の実施状況が入力されないときには、そのままSTEP56に処理を進める。 Furthermore, in STEP55 of FIG. 7, the skin support application 35a advances the process to STEP62 when the user Ua inputs the implementation status of the non-policy action, and performs non-policy action execution data indicating the details of the non-policy action that has been performed. is transmitted to the skin support server 10, and the process proceeds to STEP56. It should be noted that the skin support application 35a advances the processing to STEP56 as it is when the user Ua does not input the implementation status of the action outside the policy in STEP55 of FIG.

肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信したときに図4のSTEP200及びSTEP20に処理を進める。図4のSTEP200の処理の詳細は後述する。肌状態認識部11は、現状ユーザ情報データをサポートDB20に蓄積してSTEP14に処理を進める。なお、肌状態認識部11は、STEP13でユーザ端末30から現状ユーザ情報データを受信しないときは、STEP14にそのまま処理を進める。 When the skin condition recognition unit 11 receives the current user information data from the user terminal 30 in STEP 13, the process proceeds to STEP 200 and STEP 20 in FIG. Details of the processing of STEP 200 in FIG. 4 will be described later. The skin condition recognition unit 11 accumulates the current user information data in the support DB 20 and advances the process to STEP14. When the skin condition recognition unit 11 does not receive the current user information data from the user terminal 30 in STEP 13, the process proceeds to STEP 14 as it is.

また、施策情報送信部13は、STEP14でユーザ端末30から実行状況データを受信したときに図4のSTEP300及びSTEP21に処理を進める。図4のSTEP300の処理の詳細は後述する。施策情報送信部13は、実行状況データをサポートDB20に蓄積してSTEP15に処理を進める。一方で、STEP14でユーザ端末30から実行状況データを受信していないと判定された場合は、そのままSTEP15に処理を進める。 Also, when the policy information transmitting unit 13 receives the execution status data from the user terminal 30 in STEP 14, the process proceeds to STEP 300 and STEP 21 in FIG. Details of the processing of STEP 300 in FIG. 4 will be described later. The policy information transmission unit 13 accumulates the execution status data in the support DB 20 and advances the process to STEP15. On the other hand, if it is determined in STEP14 that the execution status data has not been received from the user terminal 30, the process proceeds directly to STEP15.

さらに、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信したときに図4のSTEP300及びSTEP22に処理を進める。図4のSTEP300の処理の詳細は後述する。施策情報送信部13は、施策外行動実施データをサポートDB20に蓄積して図5のSTEP16に処理を進める。一方で、施策情報送信部13は、STEP15でユーザ端末30から施策外行動実施データを受信しない時は、そのまま図5のSTEP16に処理を進める。 Further, when the policy information transmitting unit 13 receives the non-policy action execution data from the user terminal 30 in STEP15, the process advances to STEP300 and STEP22 in FIG. Details of the processing of STEP 300 in FIG. 4 will be described later. The policy information transmission unit 13 accumulates the non-policy action execution data in the support DB 20, and advances the process to STEP16 in FIG. On the other hand, when the policy information transmitting unit 13 does not receive the non-policy action execution data from the user terminal 30 in STEP15, the process proceeds to STEP16 in FIG. 5 as it is.

図5に移って、STEP16で、施策情報送信部13は、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、及び施策外行動実施データ等に基づいて、スケジュールの進捗状況を示す進捗表データを作成し、この進捗表データをユーザ端末30に送信する。 5, in STEP 16, the policy information transmission unit 13, based on the user Ua's initial user information data, current user information data, execution status data, non-policy action execution data, etc., accumulated in the support DB 20, Progress table data indicating the progress of the schedule is created, and this progress table data is transmitted to the user terminal 30 .

ここで、スケジュールの進捗表は、例えば図12に示したように、上から順に、肌状態(ここでは乾燥肌)のスコア、体状態のスコア、心状態のスコア、施策(湯船につかる、野菜摂取、1万歩以上歩く)の実施状況、暮らし情報(野菜摂取量、水分摂取量)、及び暮らし特殊事例が、1日単位で表示する構成となっている。 Here, for example, as shown in FIG. 12, the progress table of the schedule includes, from top to bottom, a skin condition (here, dry skin) score, a physical condition score, a mental condition score, measures (soaking in a bathtub, vegetables, etc.). Intake, walking 10,000 steps or more), living information (vegetable intake, water intake), and living special cases are displayed on a daily basis.

また、スケジュール進捗表には、施策の実行度合い(「30分」湯船につかる、「300g」野菜摂取、「1万5千歩」歩く)が含まれている。 The schedule progress table also includes the degree of implementation of measures (“30 minutes” soaking in a hot tub, “300g” eating vegetables, “15,000 steps” walking).

ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP56で、肌サポートサーバ10から送信された進捗表データを受信したときにSTEP63に処理を進め、進捗表データをメモリ36に保持する。肌サポートアプリ35aは、メモリ36に格納された進捗表データを用いて、図12に示した進捗表をユーザ端末30の表示器31に表示する。 In the user terminal 30, the skin support application 35a advances the process to STEP 63 when receiving the progress table data transmitted from the skin support server 10 in STEP 56 of FIG. The skin support application 35 a uses the progress table data stored in the memory 36 to display the progress table shown in FIG. 12 on the display 31 of the user terminal 30 .

また、肌サポートアプリ35aは、進捗表データの他に、通信を介して認識した、肌サポートサーバ10のサポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等を用いて、ユーザUaの肌、体、心の各状態の推移や変化を示す情報を、ユーザ端末30の表示器31に表示する。 In addition to the progress table data, the skin support application 35a also includes the initial user information data, the current user information data, the execution status data, Information indicating transitions and changes in each state of the user Ua's skin, body, and mind is displayed on the display 31 of the user terminal 30 using the non-policy action execution data and the like.

例えば、肌サポートアプリ35aは、図13に示したように、スケジュールによる施策以外のユーザUaの行動(洗顔法の変更、マッサージを受けた等)、及びユーザの体調(生理、睡眠不足等)と、ユーザUaの肌状態の変化の関係を日単位の時系列グラフで、表示器31に表示する。 For example, as shown in FIG. 13, the skin support application 35a can be used to determine the behavior of the user Ua other than the measures according to the schedule (change of face washing method, receiving a massage, etc.), and the physical condition of the user (physiology, lack of sleep, etc.). , the relationship of changes in the skin condition of the user Ua is displayed on the display 31 as a daily time-series graph.

また、肌サポートアプリ35aは、図14に示したように、一カ月単位で、ユーザUaの角質状態を含む肌状態、心理状態、肌ケアの満足度、及び化粧品の使い方の評価値の変化を対比したレーダーチャートを表示器31に表示する。 In addition, as shown in FIG. 14, the skin support application 35a monitors, on a month-by-month basis, the user Ua's skin condition including keratin condition, psychological condition, skin care satisfaction, and cosmetic usage evaluation values. A radar chart for comparison is displayed on the display 31 .

ユーザUaは、肌サポートアプリ35aによるこれらの表示を視認して、自身の肌、体、心の各状態の変化を確認することにより、肌の改善度と共に、体と心の状態の変化も把握することができるため、肌、体、及び心の状態をバランス良く改善しながら、目標とする肌状態のゴールへの到達することができる。 The user Ua visually recognizes these displays by the skin support application 35a and confirms changes in the conditions of his/her own skin, body, and mind, thereby grasping the degree of improvement in the skin as well as changes in the conditions of the body and mind. Therefore, the target skin condition goal can be achieved while improving the condition of the skin, body, and mind in a well-balanced manner.

[G.スケジュール修正]
図3に示した「4.スケジュール修正」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11Bでは1週間ごとに)、施策情報送信部13により実行される。図5のSTEP17~STEP20、及びSTEP30~STEP33が、施策情報送信部13による処理である。
[G. schedule modification]
The process of "4. schedule modification" shown in FIG. 3 is executed by the measure information transmitting unit 13 for each period set by the user Ua on the skin support application 35a (every week in FIG. 11B). STEP 17 to STEP 20 and STEP 30 to STEP 33 in FIG.

施策情報送信部13は、STEP17で、サポートDB20に蓄積されたユーザUaの初期ユーザ情報データ、現状ユーザ情報データ、及び実行状況データ等に基づいて、ユーザUa肌状態の目標達成度、スケジュールに組み込まれた各施策の実行度、及び各施策の効果を評価する。各施策の効果とは、各施策の実行の前後におけるユーザUaのゴールに関連した、肌状態、体状態又は心状態のうち少なくとも1つの状態(指定状態)のスコアの変化により求められる。例えば、ある施策を実行したときに、指定状態のスコアが2から3に上昇した場合には、効果+1として求められうる。 In STEP 17, the policy information transmission unit 13 incorporates the user Ua's skin condition target achievement level and schedule into the user Ua's initial user information data, current user information data, execution status data, and the like accumulated in the support DB 20. Evaluate the degree of implementation of each measure and the effect of each measure. The effect of each policy is obtained from the change in the score of at least one state (designated state) among the skin condition, physical condition, and mental condition related to the goal of the user Ua before and after execution of each policy. For example, if the specified state score rises from 2 to 3 when a certain policy is executed, the effect can be calculated as +1.

施策情報送信部13は、図15Aに示した施策の評価基準を用いて、肌状態と体又は心の状態との相関関係を抽出し、この相関関係に基づいて、スケジュールに組み込まれた各施策の継続、施策グループからの除外、施策の中止、別の施策への変更を判断する。 The policy information transmission unit 13 extracts the correlation between the skin condition and the physical or mental condition using the policy evaluation criteria shown in FIG. continuation of the policy, exclusion from the policy group, cancellation of the policy, and change to another policy.

図15Aの評価基準では、判定項目として、実施の有無、肌への影響、体への影響、心への影響という四項目が使用され、実施率が所定実施率を超え、肌に良い影響があり、且つ、体と心に悪い影響がない施策については、A評価となって継続と判断される。なお、図15Aでは、実施率が所定の実施率を超えた施策を「実施」として表記し、実施率が所定の実施率以下であった施策を「不実施」として表記している。図12及び図15Bでも同様である。 In the evaluation criteria of FIG. 15A, four items are used as judgment items: presence or absence of implementation, effect on skin, effect on body, and effect on mind. If there is, and there is no adverse effect on the body and mind, it will be evaluated as A and will be judged to be continued. Note that, in FIG. 15A, a measure whose implementation rate exceeds a predetermined implementation rate is indicated as "implemented", and a measure whose implementation rate is equal to or lower than the predetermined implementation rate is indicated as "non-implemented". The same applies to FIGS. 12 and 15B.

施策の影響のタイミングと影響が継続する期間が施策ごとに定められている場合、施策情報送信部13は、施策の影響のタイミングと施策の影響が継続する期間に基づいて、各施策の影響を判定してもよい。 When the timing of the impact of the policy and the duration of the impact are determined for each policy, the policy information transmission unit 13 calculates the impact of each policy based on the timing of the impact of the policy and the duration of the impact of the policy. You can judge.

例えば、「湯船につかる」という施策の肌への影響、体への影響、心への影響は、翌日に影響が出、1日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「湯船につかる」という施策の影響は、12月16日の各状態に反映されていると判断する。 For example, if it is determined that the effect of the measure "soaking in the bathtub" on the skin, the body, and the mind will affect the next day and will continue for only one day, the measure information transmission unit 13 will: For example, it is determined that the effect of the measure "soak in the bathtub" on December 15th is reflected in each state on December 16th.

また、「野菜摂取」という施策の肌への影響、体への影響、心への影響は、1週間後に影響が出、3日だけ継続すると定められていた場合、施策情報送信部13は、例えば12月15日の「野菜摂取」という施策の影響は、12月22日~12月24日の各状態に反映されていると判断する。 In addition, if the effect of the measure "vegetable intake" on the skin, the body, and the mind is set to occur after one week and continue for only three days, the measure information transmission unit 13 For example, it is determined that the influence of the measure "vegetable intake" on December 15th is reflected in each state from December 22nd to December 24th.

それに対して、実施され、肌に良い影響があるが、体と心のいずれかに悪い影響がある施策については、B評価となって中止或は別施策への変更と判断される。また、実施率が所定の実施率以下となった施策はユーザUaにとって負荷が大きかったと考えられるため、C評価となって中止或は別施策(例えば、ユーザUaの負荷が軽減する施策又は別の施策)への変更と判断される。 On the other hand, a measure that has a good effect on the skin but has a bad effect on either the body or the mind is given a B rating and is judged to be canceled or changed to another measure. In addition, since it is considered that a measure whose implementation rate is equal to or less than a predetermined implementation rate imposes a heavy burden on the user Ua, it is evaluated as C and canceled or another measure (for example, a measure that reduces the load on the user Ua or another measure is implemented). measures).

施策情報送信部13は、各施策を1日だけ実施することで肌、体、心への良いまたは悪い影響があるかの評価を行っても良いし、数日や数週間などの一定期間において各施策を実施することで、肌、体、心への良いまたは悪い影響があるかの評価を行ってもよい。一定期間で評価を行う場合、施策情報送信部13は、例えば、一定割合でいずれかの状態に悪影響が出た場合にB評価とし、実施割合が一定以下である場合にC評価とし、それ以外の場合A評価としてもよい。これに代えて、施策情報送信部13は、例えば、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価としてもよい。また、1日におけるいずれかの状態の満足度が所定以下となり、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にC評価とし、1日の評価におけるいずれかの状態の満足度が所定以下となり、または、一定期間におけるいずれかの状態の満足度の平均値が所定以下となった場合にB評価とし、1日におけるいずれかの状態の満足度が所定値を超え、かつ、一定期間におけるいずれかの状態の満足度の平均値が所定値を超えた場合にA評価とするなど、1日の評価と一定期間の評価とを組み合わせて用いてもよい。 The measure information transmission unit 13 may evaluate whether each measure has a good or bad effect on the skin, body, and mind by implementing each measure for only one day, or for a certain period of time such as several days or weeks. Implementation of each measure may be evaluated to determine whether it has a positive or negative effect on the skin, body, or mind. When the evaluation is performed for a certain period of time, the measure information transmission unit 13, for example, gives a B rating when any state is adversely affected at a given rate, a C rating when the implementation rate is below a given rate, and otherwise. In the case of , it is good as A evaluation. Instead of this, the policy information transmitting unit 13 may, for example, give a B evaluation when the average value of satisfaction in any state during a certain period of time is below a predetermined value. In addition, if the satisfaction level of any state in one day is below a predetermined level, and the average value of the satisfaction level of any state over a certain period of time is below a predetermined level, it will be evaluated as C, and any of the evaluations for the day If the level of satisfaction in any state falls below a predetermined level, or if the average value of satisfaction levels in any one state over a certain period of time falls below a predetermined level, it will be evaluated as B, and the level of satisfaction in any state in a day will be a predetermined level. value, and the average value of satisfaction in any state in a certain period of time exceeds a predetermined value, such as A evaluation, such as a one-day evaluation and a certain period of time evaluation may be used in combination. .

また、施策情報送信部13は、図8に示した肌状態のスコアの向上度が所定の向上度以下である場合に、当該肌状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。施策情報送信部13は、体状態又は心状態のスコアの向上度が所定の向上度以下である場合に、体状態又は心状態のスコアの向上度が所定の向上度以下である施策を施策グループから除外してもよい。 In addition, when the degree of improvement of the skin condition score shown in FIG. It may be excluded from the policy group. When the degree of improvement in the score of the physical condition or the mental state is equal to or less than a predetermined degree of improvement, the measure information transmitting unit 13 selects the measures in which the degree of improvement in the score of the physical state or the mental state is equal to or less than the predetermined degree of improvement in the measure group. can be excluded from

図15Bは、図15Aに示した評価基準を、本実施形態における施策(湯船につかる、野菜摂取、1万歩以上歩く)に適用した例を示している。図15Bにより、施策情報送信部13は、「湯船につかる」についてはA評価として、次のスケジュールでの継続を決定し、「野菜摂取」についてはB評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定し、「1万歩以上歩く」についてはC評価として、施策グループからの除外、次のスケジュールでの中止或は他の施策への変更を決定している。 FIG. 15B shows an example in which the evaluation criteria shown in FIG. 15A are applied to measures (soaking in a bathtub, eating vegetables, walking 10,000 steps or more) in this embodiment. According to FIG. 15B, the measure information transmission unit 13 gives an A rating for “soak in the bathtub” and determines to continue with the next schedule, and gives a B rating for “vegetable intake” and excludes it from the measure group. Decide to cancel the schedule or change to another measure, and give a C grade for "walking more than 10,000 steps", exclude from the measure group, cancel the next schedule or change to another measure. have decided.

施策情報送信部13は、複数の施策が行われた影響については、それらの施策の組合せごとに判断する。例えば、施策情報送信部13は、「湯船につかる」「野菜摂取」の組合せが、B評価又はC評価であった場合、「湯船につかる」若しくは「野菜摂取」の単独の施策のみとするか、又はこれらのいずれかの施策と別な施策との組み合わせとするように変更してもよい。 The policy information transmission unit 13 determines the influence of a plurality of policies for each combination of the policies. For example, if the combination of "soaking in a hot tub" and "eating vegetables" is rated B or C, the measure information transmitting unit 13 determines whether only the single measures of "soaking in a hot tub" or "eating vegetables" are considered. , or may be changed to combine any of these measures with other measures.

施策情報送信部13はこのような評価処理を行って、スケジュール修正(主として施策グループの他の施策への変更による修正)の要否を判断し、スケジュール修正が必要と判断したときには、STEP30に処理を進めてスケジュールを修正する。 The measure information transmission unit 13 performs such evaluation processing to determine whether schedule correction (mainly by changing the measure group to another measure) is necessary or not. to correct the schedule.

そして、修正したスケジュールのデータであるスケジュール修正データをユーザ端末30送信して、STEP19に処理を進める。一方、スケジュールの修正が不要であると判断したときには、施策情報送信部13は、図5のSTEP18から図5のSTEP19に処理を進め、この場合、スケジュールは修正されない。 Then, the user terminal 30 transmits schedule correction data, which is data of the corrected schedule, and the process proceeds to STEP19. On the other hand, when it is determined that the schedule need not be revised, the measure information transmission unit 13 advances the processing from STEP 18 in FIG. 5 to STEP 19 in FIG. 5, and in this case the schedule is not revised.

次に、施策情報送信部13は、STEP19で、初期ユーザ情報データ、現状ユーザ情報データ、及び施策外行動実施データ等に基づいて、ユーザUaが行った各施策外行動(スケジュールに組み込まれている施策以外に、ユーザが行った行動)を評価する。 Next, in STEP 19, the policy information transmission unit 13, based on the initial user information data, the current user information data, the data on the execution of the action outside the policy, etc., each non-policy action performed by the user Ua (included in the schedule In addition to measures, actions performed by users) are evaluated.

施策情報送信部13は、図16Aに示した施策外行動の評価基準を用いて、施策外行動の推奨の有無又は禁止の提案を判断する。図16Aの評価基準では、判定項目として、肌、体、心の各状態への影響が使用される。 The policy information transmitting unit 13 uses the evaluation criteria for the behavior outside the policy shown in FIG. 16A to determine whether the behavior outside the policy is recommended or not. In the evaluation criteria of FIG. 16A, influences on each state of skin, body, and mind are used as judgment items.

そして、「肌、体、心のいずれかに良い影響があり、且ついずれについても悪い影響が無い」場合は、D評価となって実施が推奨される。それに対して、「肌、体、心のいずれかに悪い影響がある」場合は、E評価となって禁止が提案される。また、「肌、体、心のいずれにも影響が無い」場合には、F評価となって実施が推奨されない。 If "there is a positive effect on the skin, body, or mind, and there is no negative effect on any of them," the evaluation is D, and implementation is recommended. On the other hand, if it "has a negative effect on the skin, body or mind," an E rating is given and a ban is proposed. In addition, if "there is no effect on the skin, body, or mind," the evaluation is F, and implementation is not recommended.

図16Bは、図16Aに示した評価基準を、本実施形態における施策外行動(マッサージを受けた、チョコレートを大量に摂取した)に適用した例を示している。図16Bにより、施策情報送信部13は、「マッサージを受ける」についてはD評価として、次のスケジュールでの実施の推奨を決定している。また、「チョコレートの大量摂取」についてはE評価として、次のスケジュールでの止めるための施策(例えば、和菓子を摂取する代替案)の提案を決定している。 FIG. 16B shows an example in which the evaluation criteria shown in FIG. 16A are applied to behaviors outside the policy (receiving a massage, ingesting a large amount of chocolate) in this embodiment. According to FIG. 16B, the measure information transmitting unit 13 determines that “get a massage” is evaluated as D and is recommended to be implemented in the next schedule. In addition, regarding "a large amount of chocolate intake", it is evaluated as E, and it is decided to propose a measure to stop it in the next schedule (for example, an alternative to ingesting Japanese sweets).

施策情報送信部13は、スケジュールに組み込まれた施策の中止或は変更、又は施策外行動について、実施の推奨或は禁止の提案を決定したときには、STEP20からSTEP31に処理を進める。そして、推奨を決定したときはSTEP31からSTEP33に処理を進め、施策外行動の実施を推奨する施策外行動推奨データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 When the measure information transmitting unit 13 decides to recommend or prohibit the execution of the measures incorporated in the schedule, or to propose to cancel or change the measures outside the measures, the process advances from STEP 20 to STEP 31 . Then, when the recommendation is determined, the process proceeds from STEP31 to STEP33, the non-policy action recommendation data recommending the execution of the non-policy action is transmitted to the user terminal 30, and the process proceeds to STEP13 in FIG.

一方、施策情報送信部13は、禁止の提案を決定したときには、STEP31からSTEP32に処理を進め、施策外行動の禁止を提案する施策外行動禁止データをユーザ端末30に送信して、図4のSTEP13に処理を進める。 On the other hand, when the policy information transmitting unit 13 decides to propose the prohibition, the process advances from STEP 31 to STEP 32, and transmits to the user terminal 30 non-policy action prohibition data proposing prohibition of the non-policy action. The process proceeds to STEP13.

また、施策情報送信部13は、推奨又は禁止を提案する施策外行動がない場合には、STEP20から図4のSTEP13に処理を進める。なお、禁止を提案する施策外行動に代替行動がある場合には、禁止の提案に代えて代替行動への変更を提案する施策外行動禁止データをユーザ端末30に送信するようにしてもよい。 If there is no non-policy action to be recommended or prohibited, the policy information transmitting unit 13 advances the process from STEP 20 to STEP 13 in FIG. If the non-policy action proposed to be prohibited includes an alternative action, non-policy action prohibition data proposing a change to the alternative action may be transmitted to the user terminal 30 instead of the prohibition proposal.

ユーザ端末30において、肌サポートアプリ35aは、図7のSTEP57で、肌サポートサーバ10からスケジュール修正データを受信すると、STEP65に処理を進め、スケジュール修正データに基づいてスケジュールを修正する。そして、肌サポートアプリ35aは、メモリ36に保持されたスケジュールデータを更新して、処理をSTEP58に進める。 In the user terminal 30, when the schedule correction data is received from the skin support server 10 in STEP57 of FIG. 7, the skin support application 35a proceeds to STEP65 and corrects the schedule based on the schedule correction data. The skin support application 35a then updates the schedule data held in the memory 36 and advances the process to STEP58.

また、肌サポートアプリ35aは、図7のSTEP58で、肌サポートサーバ10から施策外行動推奨データ又は施策外行動禁止データを受信すると、STEP66に処理を進め、受信したデータに応じて、施策外行動を推奨又は禁止の提案を報知する画面をユーザ端末30の表示器31に表示する。なお、この報知は、例えば図12に示した進捗表に報知メッセージを表示して行ってもよい。また、推奨する施策外行動を、新たな施策としてスケジュールを修正してもよい。 Further, when the skin support application 35a receives the non-policy action recommendation data or the non-policy action prohibition data from the skin support server 10 in STEP 58 of FIG. is displayed on the display device 31 of the user terminal 30 to inform the user of the recommendation or prohibition proposal. Note that this notification may be performed by displaying a notification message on the progress table shown in FIG. 12, for example. In addition, the recommended non-policy behavior may be used as a new policy to modify the schedule.

また、関係認識部22、現状ユーザ情報認識部23、第1要素認識部24、第2要素抽出部25、予測部26、目標認識部27及び行動認識部28は、図5のSTEP400において、施策認識処理を実行して、スケジュールを修正してもよい。施策認識処理の詳細は後述する。 In addition, the relationship recognition unit 22, the current user information recognition unit 23, the first element recognition unit 24, the second element extraction unit 25, the prediction unit 26, the goal recognition unit 27, and the action recognition unit 28, in STEP400 of FIG. A recognition process may be performed to modify the schedule. Details of the policy recognition process will be described later.

また、肌サポートアプリ35aは、肌サポートサーバ10から施策認識処理で認識された施策を示す情報を受信すると、図7のSTEP110に示す施策出力処理を実行する。施策出力処理の詳細は後述する。 When skin support application 35a receives information indicating a measure recognized in the measure recognition process from skin support server 10, skin support application 35a executes measure output processing shown in STEP 110 of FIG. Details of the policy output process will be described later.

[H.ゴール判定工程]
図3に示した「5.ゴール判定」の工程は、ユーザUaが肌サポートアプリ35a上で設定した期間ごとに(図11BにおいてはSTARTから3か月後)、肌状態認識部11、施策グループ選択部12及び施策情報送信部13により実行される。
[H. Goal Judgment Process]
The process of "5. Goal determination" shown in FIG. It is executed by the selection unit 12 and the policy information transmission unit 13 .

肌サポートアプリ35aは、角質採取テープ37の使用と、角質採取テープ37の郵送を促すメッセージをユーザ端末30の表示器31に表示する。 The skin support application 35a displays on the display 31 of the user terminal 30 a message prompting the user to use the keratin collecting tape 37 and to send the keratin collecting tape 37 by mail.

肌状態認識部11は、郵送された角質採取テープ37から得られた情報に基づいて、肌状態の客観値(保水能力、皮脂適格性など)を認識する。客観値は、水分量が0-100μS等、肌の物理状態を示す値そのままであってもよいし、それぞれの物理状態を大小に応じて1~10のいずれかに割り当てるなどして正規化した値であってもよい。 The skin condition recognition unit 11 recognizes objective values of the skin condition (water retention capacity, sebum suitability, etc.) based on the information obtained from the mailed keratin collecting tape 37 . The objective value may be a value that indicates the physical state of the skin, such as a moisture content of 0-100 μS, or normalized by assigning each physical state to one of 1 to 10 according to the magnitude. can be a value.

また、肌サポートアプリ35aは、アンケートの回答、肌等の撮像の使用を促すメッセージをユーザ端末30の表示器31に表示し、得られた情報を送信する。 In addition, the skin support application 35a displays on the display 31 of the user terminal 30 a message prompting the user to answer the questionnaire and use imaging of the skin, etc., and transmits the obtained information.

肌状態認識部11は、肌サポートアプリ35aから得られた情報に基づいて、肌の乾燥感の主観値(主観スコア)と、肌状態の客観値(肌の画像スコア)を認識する。 The skin condition recognition unit 11 recognizes the subjective value of skin dryness (subjective score) and the objective value of skin condition (skin image score) based on the information obtained from the skin support application 35a.

施策グループ選択部12及び施策情報送信部13は、肌の乾燥感の主観値と、肌状態の客観値とに基づいて、肌状態のサポート開始時と3カ月後における評価値を比較して、ゴール達成度を判定する。 The measure group selection unit 12 and the measure information transmission unit 13 compare the evaluation values at the start of skin condition support and after 3 months based on the subjective value of skin dryness and the objective value of skin condition, Determine goal achievement.

図17の例では、乾燥感の主観値のスコアが3カ月で3から5に増加しているので達成(○)と判定し、客観値についても、肌の画像スコアが3カ月で3から4に増大し、保水能力が2に維持され、皮脂適格性が1から2に増大しているので達成(○)と判定されている。そして、主観値と客観値が共にゴールを達成しているので、トータルとしてもゴールを達成したと判定している。 In the example of FIG. 17, the subjective score of dryness increased from 3 to 5 in 3 months, so it was determined to be achieved (○). , the water retention capacity was maintained at 2, and the sebum suitability increased from 1 to 2, so it was determined to be achieved (○). Since both the subjective value and the objective value have achieved the goal, it is determined that the goal has been achieved as a whole.

肌状態認識部11及び施策グループ選択部12は、ゴールを達成した場合には新たなゴールを設定するため、図3に示した「1.ゴール設定」の工程を再度実行する。肌状態認識部11及び施策グループ選択部12は、ゴール未達の場合は、「2.スケジュール決定」工程を実施してもよいし、ユーザの希望または進捗に応じて「1.ゴール設定」の工程を再度実行してもよい。 In order to set a new goal when the goal is achieved, the skin condition recognition unit 11 and the measure group selection unit 12 repeat the process of "1. Goal setting" shown in FIG. The skin condition recognizing unit 11 and the measure group selecting unit 12 may perform the step of "2. Determine schedule" when the goal is not achieved, or perform the step of "1. Goal setting" according to the user's desire or progress. The process may be performed again.

[I.2次データ生成]
図3に示した「6.2次データ生成」の工程は、2次データ生成部19により実行される。2次データ生成部19は、複数のユーザUから送信される初期ユーザ情報データ、角層細胞解析データ、現状ユーザ情報データ、実行状況データ、施策外行動実施データ等の各種データ(以下、ユーザ個別データという)を、ユーザごとにサポートDB20に順次蓄積する。
[I. Secondary data generation]
The step of “6. Secondary data generation” shown in FIG. 3 is executed by the secondary data generator 19 . The secondary data generation unit 19 generates various data transmitted from a plurality of users U, such as initial user information data, stratum corneum analysis data, current user information data, execution status data, non-measure action execution data (hereinafter referred to as user-specific data). data) are sequentially stored in the support DB 20 for each user.

そして、2次データ生成部19は、サポートDB20に蓄積されたユーザ個別データを分析して、例えば図18に示したように、各ユーザの特性(性別、年齢、居住地、嗜好、ライフスタイル等)、サポートの改善対象(乾燥感、ごわつき、敏感、ニキビ、しぼみ感等)、スケジュールにより提案された施策(湯船につかる、野菜摂取、1万歩以上歩く等)、及び施策の実施による肌、体、心の各状態の変化等を関連付けた2次データを生成する。 Then, the secondary data generation unit 19 analyzes the individual user data accumulated in the support DB 20, and, for example, as shown in FIG. ), support improvement targets (dryness, stiffness, sensitivity, acne, wrinkled feeling, etc.), measures proposed by the schedule (soaking in a bathtub, eating vegetables, walking more than 10,000 steps, etc.), and skin by implementing measures, Secondary data is generated that associates changes in each state of the body and mind.

また、2次データ生成部19は、施策外行動についても図18と同様に、各ユーザの特性と施策外行動の実施による肌、体、心の各状態の影響とを関連付けた2次データを生成する。 18, the secondary data generation unit 19 also generates secondary data that associates each user's characteristics with the effects of each user's skin, body, and mental state due to the implementation of the non-policy action, as in FIG. Generate.

このようにして生成された2次データは、同様の特性を有するユーザについて、体及び心に良い影響を与えつつ肌状態の改善を図るために有効な施策を選択する際に、有効に活用することができる。例えば、上述した図3の「2.スケジュール決定」の工程において、施策グループ選択部12は、2次データを参照して、ユーザUaの特性に適合した施策を選択することができる。 The secondary data generated in this manner is effectively used when selecting effective measures for improving the skin condition while having a positive effect on the body and mind of users with similar characteristics. be able to. For example, in the process of "2. schedule determination" in FIG. 3 described above, the measure group selection unit 12 can refer to the secondary data and select a measure suitable for the characteristics of the user Ua.

また、上述した図3の「4.スケジュール修正」の工程において、施策情報送信部13は、ユーザUaの肌、体、心の各状態の推移に応じてスケジュールを変更する際に、2次データを参照して、より有効な施策或は施策外行動を組み込んだスケジュールに変更することができる。 In addition, in the process of "4. Schedule correction" in FIG. can be referred to and the schedule can be changed to include more effective measures or actions outside the measures.

さらに、2次データは、肌状態のサポートを行う上で有効に利用できると共に、ある特性を有するユーザ(例えば、東京に住む30代のアウトドア志向の女性等)をターゲットとしたマーケティング等の目的にも利用することができる。そのため、2次データを図1に示した他のシステム60等に提供してもよい。 In addition, the secondary data can be effectively used to support skin conditions, and can be used for marketing purposes targeting users with certain characteristics (for example, outdoor-oriented women in their 30s living in Tokyo). can also be used. As such, the secondary data may be provided to other systems such as 60 shown in FIG.

[J.入力受付処理]
次に、図19Aを参照して、図6のSTEP100の入力受付処理の詳細を説明する。
[J. Input reception processing]
Next, with reference to FIG. 19A, the details of the input reception processing in STEP 100 of FIG. 6 will be described.

図19AのSTEP102において、肌サポートアプリ35aは、図20に示される情報入力画面P1を表示器31に表示する。 In STEP 102 of FIG. 19A, skin support application 35a displays information input screen P1 shown in FIG.

情報入力画面P1には、肌ケアに関する入力表示P11と、体状態に関する入力表示P12と、気分及び行動に関する入力表示P13と、疾患の状態P14と、決定ボタンP15とを含む。 The information input screen P1 includes an input display P11 regarding skin care, an input display P12 regarding body condition, an input display P13 regarding mood and behavior, a disease state P14, and an enter button P15.

肌ケアに関する入力表示P11には、例えば、ニキビ入力フォームP111及び肌ケア時の乳液の状態に関する入力フォームP112のように、肌に関する各要素に関する入力フォームがネストされている。 In the input display P11 regarding skin care, input forms regarding each element regarding skin are nested, such as an input form P111 for acne and an input form P112 regarding the state of milky lotion during skin care.

体状態に関する入力表示P12には、例えば、便秘入力フォームP121、体調入力フォームP122、舌の色入力フォームP123、舌の斑点入力フォームP124、舌のひび割れ入力フォームP125、舌の苔入力フォームP126のように、体に関する各要素に関する入力フォームがネストされている。ここで、「体状態」との用語を、肌以外の身体の状態を意味し、疾患なども含むが、心の状態のように、精神的な状態は含まない用語として用いる。 The input display P12 regarding the physical condition includes, for example, a constipation input form P121, a physical condition input form P122, a tongue color input form P123, a tongue spot input form P124, a cracked tongue input form P125, and a tongue coating input form P126. , an input form for each element related to the body is nested. Here, the term "physical condition" is used as a term that means a condition of the body other than the skin and includes diseases and the like, but does not include a mental condition like a mental condition.

気分・行動に関する入力表示P13には、今日の気分入力フォームP131、気持ちの疲労感入力フォームP132、気持ちよく接することができたかについての入力フォームP133、及び今日の自分についての入力フォームP134等の、心又は行動に関する各要素に関する入力フォームがネストされている。 In the input display P13 regarding mood/behavior, there is an input form P131 for today's mood, an input form P132 for feelings of fatigue, an input form P133 for whether or not you were able to interact comfortably, and an input form P134 for yourself today. Or the input form for each element related to action is nested.

疾患の状態に関する入力表示P14には、今日の状態入力フォームP141、血液値入力フォームP142等の疾患に関する各要素に関する入力フォームがネストされている。 In the input display P14 regarding the state of the disease, input forms regarding each element regarding the disease such as a today's state input form P141 and a blood value input form P142 are nested.

各入力フォームは、5個等の数値の入力を受け付ける入力フォームであってもよいし、スライドバーにより数値の指定可能な入力フォームであってもよいし、各状態を示す文言をプルダウンメニュー等により選択可能な選択ボックスであってもよいし、ユーザUaが任意にテキストを入力可能なテキストボックスであってもよいし、その他の入力フォームであってもよい。 Each input form may be an input form that accepts input of numerical values such as 5, an input form in which numerical values can be specified using a slide bar, or a pull-down menu that indicates each state. It may be a selectable selection box, a text box in which the user Ua can arbitrarily enter text, or another input form.

図19AのSTEP104において、肌サポートアプリ35aは、タッチパネル32を介してユーザUaの操作を検知すると、入力された情報を認識する。 In STEP 104 of FIG. 19A , the skin support application 35a recognizes the input information when detecting the operation of the user Ua via the touch panel 32 .

図19AのSTEP106において、肌サポートアプリ35aは、不図示の時計機能を参照して、入力日時を認識する。これに加えてまたは変えて、肌サポートアプリ35aは、タッチパネル32を介してユーザにより指定された日時を認識してもよい。 In STEP 106 of FIG. 19A, the skin support application 35a refers to the clock function (not shown) to recognize the input date and time. Additionally or alternatively, the skin support application 35a may recognize the date and time specified by the user via the touch panel 32. FIG.

タッチパネル32を介して決定ボタンP15の押圧操作を検知すると、図19AのSTEP108において、肌サポートアプリ35aは、入力された情報と入力日時とを肌サポートサーバ10に送信する。 Upon detecting the press operation of the enter button P15 via the touch panel 32, the skin support application 35a transmits the input information and the input date and time to the skin support server 10 in STEP108 of FIG. 19A.

[K.入力受付処理]
次に、図19Bを参照して、図4のSTEP200で実行されるスコア記憶処理を説明する。
[K. Input reception processing]
Next, with reference to FIG. 19B, the score storage processing executed in STEP200 of FIG. 4 will be described.

図19BのSTEP202において、スコア情報認識部21は、指定の基準に従って、ユーザ端末30から受信した情報に含まれる各要素の状態をスコア化する。例えば、スコア情報認識部21は、不図示のテーブル又は関数を用いることにより、図21に示されるように、受信したニキビ「5個」などの情報をニキビのスコア50のようにスコア化する。スコア情報認識部21は、各要素の状態が数値で表されているときには、その数値をそのままスコアとして認識してもよいし、所定の式による演算等を行ってスコア化してもよい。また、スコア情報認識部21は、例えば、機械学習により生成されたフィルタを用いて、ユーザにより自由に入力されたテキスト情報をスコア化してもよい。スコア情報認識部21は、ユーザにより自由に入力されたテキスト情報について、予め定められた単語の数を数えることにより、スコア化をしてもよい。スコア情報認識部21は、複数の入力情報から1つのスコアを認識してもよいし、1の入力情報から複数のスコアを認識してもよい。 In STEP 202 of FIG. 19B, the score information recognition unit 21 scores the state of each element included in the information received from the user terminal 30 according to specified criteria. For example, the score information recognizing unit 21 uses a table or a function (not shown) to score the received information such as "five" pimples into a score of pimples 50, as shown in FIG. When the state of each element is represented by a numerical value, the score information recognizing unit 21 may recognize the numerical value as the score as it is, or may calculate the score by performing an operation or the like using a predetermined formula. The score information recognition unit 21 may score text information freely input by the user, for example, using a filter generated by machine learning. The score information recognition unit 21 may score the text information freely input by the user by counting a predetermined number of words. The score information recognition unit 21 may recognize one score from a plurality of pieces of input information, or may recognize a plurality of scores from one piece of input information.

図19BのSTEP204において、スコア情報認識部21は、各スコアと入力の日付とを現状ユーザ情報データの一部としてサポートDB20に記憶する。スコア情報認識部21は、入力の日付について、ユーザ端末30から受信した情報を用いることに代えてまたは加えて、肌サポートサーバ10の時計機能等を参照することにより、STEP204実行時点の日付を認識してもよい。 In STEP 204 of FIG. 19B, the score information recognition unit 21 stores each score and the date of input in the support DB 20 as part of the current user information data. Instead of using the information received from the user terminal 30, or in addition to using the information received from the user terminal 30, the score information recognition unit 21 refers to the clock function of the skin support server 10 for the input date, thereby recognizing the date when STEP 204 is executed. You may

[L.相関行動情報記憶処理]
次に、図19Cを参照して、図4のSTEP300で実行される相関行動情報記憶処理を説明する。
[L. Correlated behavior information memory processing]
Next, with reference to FIG. 19C, the correlated behavior information storage processing executed in STEP300 of FIG. 4 will be described.

図19CのSTEP302において、スコア情報認識部21は、受信した情報に示されるユーザUaの行動をスコア化する。受信した情報とは、例えば、図5のSTEP14で受信された施策実施データであってもよいし、図5のSTEP15で受信された施策外行動実施データであってもよいし、任意のタイミングで図20の情報入力画面P1又はこれに類似する画面に入力された情報であってもよいし、ユーザ端末30のユーザUaが使用するウェアラブルデバイスから任意のタイミングで受信した情報であってもよいし、ユーザUaが使用するSNS(Social Networking System)等の外部のサーバから受信した情報であってもよい。 In STEP302 of FIG. 19C, the score information recognition unit 21 scores the actions of the user Ua indicated in the received information. The received information may be, for example, the policy implementation data received in STEP 14 of FIG. 5, the non-policy action implementation data received in STEP 15 of FIG. It may be information input on the information input screen P1 of FIG. 20 or a screen similar thereto, or may be information received at any timing from the wearable device used by the user Ua of the user terminal 30. , information received from an external server such as a SNS (Social Networking System) used by the user Ua.

図19CのSTEP304において、スコア情報認識部21は、ユーザUaの行動のスコアと日付とをサポートDB20に記憶する。日付については、STEP204と同様である。 In STEP304 of FIG. 19C, the score information recognition unit 21 stores the score and date of the behavior of the user Ua in the support DB20. The date is the same as in STEP204.

図19CのSTEP306において、関係認識部22は、各期間におけるユーザUaの肌、心又は体の要素のスコアを分析し、当該スコアが所定の条件を満たす期間を抽出する。例えば、関係認識部22は、ユーザUaの肌、心又は体の要素のスコアが所定の第1範囲に含まれる期間を抽出する。また、関係認識部22は、ユーザUaの肌、心又は体の要素のスコアの微分値または変化量を認識する。また、関係認識部22は、ユーザUaの肌、心又は体の要素のスコアの微分値または変化量が所定の第2範囲に含まれる期間を抽出する。 In STEP306 of FIG. 19C, the relationship recognition unit 22 analyzes the score of the skin, mind, or body element of the user Ua in each period, and extracts the period when the score satisfies a predetermined condition. For example, the relationship recognition unit 22 extracts a period during which the score of the skin, mind, or body element of the user Ua is included in a predetermined first range. In addition, the relationship recognition unit 22 recognizes the differential value or the amount of change of the score of the skin, mind, or body element of the user Ua. In addition, the relationship recognition unit 22 extracts a period in which the differential value or the amount of change of the score of the skin, mind, or body element of the user Ua is included in a predetermined second range.

より具体的には、関係認識部22は、例えば、図22に示されるように、サポートDB20に記憶された図21の右側のテーブルなどを参照することにより、ユーザの乾燥感スコアC(t)(tは日付を示す変数)が、所定の閾値C1以上となる期間ti1~ti2、tj1~tj2を認識する。 More specifically, for example, the relationship recognition unit 22 refers to the table on the right side of FIG. 21 stored in the support DB 20 as shown in FIG. (t is a variable indicating a date) recognizes the periods t i1 to t i2 and t j1 to t j2 in which it is equal to or greater than a predetermined threshold value C1.

そして、図19CのSTEP308において、関係認識部22は、サポートDB20に記憶された図21の右側のテーブルなどを参照することにより、肌、心又は体の要素のスコアが所定の条件を満たす期間より所定の第1期間前の行動のスコアを認識する。 Then, in STEP 308 of FIG. 19C, the relationship recognition unit 22 refers to the table on the right side of FIG. Recognize behavioral scores prior to a predetermined first time period.

例えば、関係認識部22は、例えば、図22に示されるように、図19CのSTEP306において認識された期間ti1~ti2、tj1~tj2より、所定の第1期間Δt1前の期間ti1-Δt1~ti3-Δt1、tj1-Δt1~ti3-Δt1の行動のスコアD(t)を認識する。ここで、第1期間Δt1は、例えば、1日、3日、1週間、1か月のように、予め一律に定められた期間であってもよいし、例えば、乾燥感に対応する期間のように、肌、心又は体の各要素ごとに定められた期間であってもよいし、乾燥感および野菜摂取に対応する期間のように、肌、心又は体の各要素及び行動の要素ごとに定められた期間であってもよい。また、第1期間Δt1は、予め開発者等により定められた期間であってもよいし、ユーザUaの過去のデータから定められた期間であってもよい。 For example, as shown in FIG. 22, the relationship recognizing unit 22 detects a period ti1, which is a predetermined first period Δt1 before the periods t i1 to t i2 and t j1 to t j2 recognized in STEP 306 of FIG. 19C. Recognize the score D(t) of the behavior of −Δt1˜t i3 −Δt1, t j1 −Δt1˜t i3 −Δt1. Here, the first period Δt1 may be a predetermined period, such as one day, three days, one week, or one month. It may be a period determined for each element of the skin, mind, or body, such as a period corresponding to dryness and vegetable intake, and each element of the skin, mind, or body and behavior. It may be a period specified in Also, the first period Δt1 may be a period determined in advance by a developer or the like, or may be a period determined based on past data of the user Ua.

また、STEP306で認識される期間の長さとSTEP308で認識される期間の長さとは同一である必要はなく、STEP306で認識される期間の方が長くてもよいし、STEP308で認識される期間の方が長くてもよい。また、STEP306で認識される期間の長さに適当な係数をかけることにより、STEP308で認識される期間の長さが算出されてもよい。 Also, the length of the period recognized in STEP 306 and the length of the period recognized in STEP 308 do not have to be the same. may be longer. Also, the length of the period recognized in STEP 308 may be calculated by multiplying the length of the period recognized in STEP 306 by an appropriate factor.

図19CのSTEP310において、関係認識部22は、肌、心又は体の要素のスコアが所定の条件を満たす期間における肌、心又は体の要素のスコアC(t)と、当該期間より所定の第1期間前における行動のスコアD(t)との相関係数r(C,D)を認識する。 In STEP 310 of FIG. 19C , the relationship recognition unit 22 obtains the score C(t) of the element of the skin, mind, or body during the period when the score of the element of the skin, mind, or body satisfies a predetermined condition, and a predetermined number from that period. Recognize the correlation coefficient r(C, D) with the behavior score D(t) one period before.

例えば、関係認識部22は、下記式1を用いて肌、心又は体の要素のスコアが所定の条件を満たす期間における肌、心又は体の要素のスコアC(t)と、当該期間より所定の第1期間前における行動のスコアD(t)との相関係数r(C,D)を求める。 For example, the relationship recognition unit 22 uses Equation 1 below to determine the score C(t) of the element of the skin, mind, or body during the period when the score of the element of the skin, mind, or body satisfies a predetermined condition, and a predetermined period from the period. A correlation coefficient r(C, D) with the behavior score D(t) before the first period is obtained.

Figure 0007163130000001
Figure 0007163130000001

ここで、SCDは、肌、心又は体の要素のスコアが所定の条件を満たす期間における肌、心又は体の要素のスコアC(t)と、当該期間より所定の第1期間前における行動のスコアD(t)との共分散である。 Here, S CD is the score C(t) of the skin, mind, or body element during the period when the score of the skin, mind, or body element satisfies a predetermined condition, and the behavior during a predetermined first period before that period. with the score D(t).

Scは肌、心又は体の要素のスコアが所定の条件を満たす期間を含む、当該期間及び第1期間よりも長期間である考慮対象期間における肌、心又は体の要素のスコアC(t)の標準偏差である。 Sc is the score C(t) of the skin, mind, or body element in the period under consideration that is longer than the period and the first period, including the period in which the score of the skin, mind, or body element satisfies a predetermined condition. is the standard deviation of

は肌、第1期間を含む、考慮対象期間における行動の要素のスコアD(t)の標準偏差である。 SD is the standard deviation of the behavioral component scores D(t) for the period under consideration, including the skin and the first period.

第1期間は、例えば、1週間であり、考慮対象期間は、例えば、3か月である。 The first period is, for example, one week, and the period under consideration is, for example, three months.

共分散SCDと標準偏差S、Sとの関係は、図23に示されている。 The relationship between the covariance S CD and the standard deviations S C and S D is shown in FIG.

所定の条件を満たす期間における肌、心又は体の要素のスコアC(t)の個数と、当該期間より所定の第1期間前における行動のスコアD(t)の個数とが異なる場合、関係認識部22は、例えば、次のように調整して共分散を算出してもよい。 If the number of scores C(t) for the elements of the skin, mind, or body during the period satisfying a predetermined condition is different from the number of scores D(t) for the behavior during a predetermined first period prior to the period, relationship recognition The unit 22 may calculate the covariance by adjusting as follows, for example.

(1)少ない個数のスコアに基づいて補完スコアを作成する。 (1) Complementary scores are created based on a small number of scores.

例えば、所定の条件を満たす期間における肌、心又は体の要素のスコアがC(ti1)、C(ti2)の2つであり、当該期間より所定の第1期間前における行動のスコアがD(ti1-Δt)、D(ti2-Δt)、D(ti3-Δt)の3つである場合、関係認識部22は、C(ti1)又はC(t)を1つ増やしたり、C(ti1)とC(ti)との平均(C(ti1)+C(ti2))/2をC(t)とC(t)との間に追加したりすることによって、共分散に用いる所定の条件を満たす期間における肌、心又は体の要素のスコアの個数と、当該期間より所定の第1期間前における行動のスコアの個数とを同一にする。 For example, there are two scores C(t i1 ) and C(t i2 ) for the elements of the skin, mind, or body during the period that satisfies the predetermined condition, and the action score before the first predetermined period is the score for the period. If there are three of D(t i1 −Δt 1 ), D(t i2 −Δt 1 ), and D(t i3 −Δt 1 ), the relationship recognition unit 22 determines C(t i1 ) or C(t 2 ) is increased by one, or the average of C(t i1 ) and C(ti 2 ) (C(t i1 )+C(t i2 ))/2 between C(t 1 ) and C(t 2 ) By adding, the number of scores for skin, mind, or body elements in a period that satisfies a predetermined condition used for covariance and the number of scores for actions in a predetermined first period before that period are made the same. do.

(2)多い個数のスコアの一部を無視する。 (2) ignore some of the large number of scores;

例えば、所定の条件を満たす期間における肌、心又は体の要素のスコアがC(ti1)、C(ti2)の2つであり、当該期間より所定の第1期間前における行動のスコアがD(ti1-Δt)、D(ti2-Δt)、D(ti3-Δt)の3つである場合、関係認識部22は、D(ti1-Δt)、D(ti2-Δt)、D(ti3-Δt)のいずれかを無視することによって、共分散に用いる所定の条件を満たす期間における肌、心又は体の要素のスコアの個数と、当該期間より所定の第1期間前における行動のスコアの個数とを同一にする。 For example, there are two scores C(t i1 ) and C(t i2 ) for the elements of the skin, mind, or body during the period that satisfies the predetermined condition, and the action score before the first predetermined period is the score for the period. When there are three of D(t i1 −Δt 1 ), D(t i2 −Δt 1 ), and D(t i3 −Δt 1 ), the relationship recognition unit 22 recognizes D(t i1 −Δt 1 ), D( By ignoring either t i2 −Δt 1 ) or D(t i3 −Δt 1 ), the number of scores of the skin, mind or body element in the period satisfying the predetermined condition used for covariance and the period The number of behavior scores before the predetermined first period is made the same.

なお、関係認識部22は、各スコアの時系列における順序を保ちながら、共分散を算出する。 Note that the relationship recognition unit 22 calculates the covariance while maintaining the time-series order of the scores.

図19CのSTEP312において、関係認識部22は、相関係数が所定の第3範囲(例えば、0.5以上または-0.5未満の範囲)の肌、心又は体に関する要素と行動とこれらの相関係数とをサポートDB20に記憶する。 In STEP 312 of FIG. 19C , the relationship recognition unit 22 recognizes the elements and behaviors related to the skin, mind, or body having a correlation coefficient in a predetermined third range (for example, a range of 0.5 or more or less than −0.5) and and the correlation coefficient are stored in the support DB 20 .

例えば、関係認識部22は、図24Aに示されるように、肌、心又は体に関する各要素「ニキビ」「乾燥感」「頭痛」と、各行動「野菜を食べる」「水を飲む」「お酒を飲む」と、これらの相関係数「-0.8」「-0.6」「0.8」とを関連付けてサポートDB20に記憶する。 For example, as shown in FIG. 24A, the relationship recognizing unit 22 recognizes the elements "acne", "dryness", "headache" and the behaviors "eating vegetables", "drinking water", drink" and these correlation coefficients "-0.8", "-0.6" and "0.8" are associated and stored in the support DB20.

[M.施策認識処理]
次に、図25を参照して、図5のSTEP400で実行される施策認識処理を説明する。
[M. Policy Recognition Processing]
Next, with reference to FIG. 25, the policy recognition processing executed in STEP400 of FIG. 5 will be described.

図25のSTEP402において、関係認識部22は、各期間における肌の各要素のスコアを分析し当該スコアが所定の条件を満たす期間を抽出する。関係認識部22は、例えば、図26に示されるように、ニキビのスコアE(t)がE1以上となる期間tk1~tk3、tl1~tl3を抽出する。図25のSTEP402の処理は、図19のSTEP306の処理と同様であるので、説明を省略する。 In STEP402 of FIG. 25, the relationship recognition unit 22 analyzes the score of each element of the skin in each period and extracts the period in which the score satisfies a predetermined condition. For example, as shown in FIG. 26, the relationship recognition unit 22 extracts periods tk1 to t k3 and t l1 to t l3 during which the acne score E(t) is equal to or greater than E1. The processing of STEP 402 in FIG. 25 is the same as the processing of STEP 306 in FIG. 19, so the description is omitted.

以下、処理対象の要素を第1要素として説明する。第1要素は、何らかの基準により選択された要素であってもよいし、ユーザUa等により指定された要素であってもよい。また、肌の各要素をそれぞれ第1要素として図25のSTEP404以下の処理が行われてもよい。 Hereinafter, the element to be processed will be described as the first element. The first element may be an element selected according to some criteria, or may be an element designated by the user Ua or the like. Alternatively, the processing from STEP 404 in FIG. 25 may be performed with each element of the skin as the first element.

図25のSTEP404において、関係認識部22は、第1要素のスコアが所定の条件を充足する期間より、所定の期間後の体の各要素のスコアを認識する。 In STEP 404 of FIG. 25, the relationship recognition unit 22 recognizes the score of each element of the body after a predetermined period of time from the period in which the score of the first element satisfies the predetermined condition.

例えば、関係認識部22は、図26に示されるように、上記期間tk1~tk3、tl1~tl3の所定の期間Δt2後の期間tk1+Δt2~tk2+Δt2、tl1+Δt2~tl2+Δt2を抽出し、図21の右に示されるテーブル等を参照することにより、当該期間における体の要素「頭痛」のスコアF(tk1+Δt2)、F(tk2+Δt2)、F(tl1+Δt2)、F(tl2+Δt2)を認識する。図25のSTEP404
の処理の詳細は、図19CのSTEP308と同様であるので説明を省略する。
For example, as shown in FIG. 26, the relationship recognition unit 22 performs periods t k1 +Δt2 to t k2 +Δt2, t l1 +Δt2 to t l2 after a predetermined period Δt2 of the periods t k1 to t k3 and t l1 to t l3 . By extracting + Δt2 and referring to the table shown on the right side of FIG. ), F(t l2 +Δt2). STEP404 in FIG.
The details of the process are the same as those of STEP 308 in FIG. 19C, so description thereof is omitted.

図25のSTEP406において、関係認識部22は、肌の要素と体の要素との相関係数を認識する。図25のSTE406の処理は、図19CのSTEP310と同様の処理である。関係認識部22は、図24Bに示されるように、肌の要素と体の要素とこれらの相関係数とを関連付けてサポートDB20に記憶する。 In STEP406 of FIG. 25, the relationship recognition unit 22 recognizes the correlation coefficient between the skin element and the body element. The processing of STE406 in FIG. 25 is the same processing as STEP310 in FIG. 19C. As shown in FIG. 24B , the relationship recognition unit 22 associates the skin element, the body element, and their correlation coefficients and stores them in the support DB 20 .

図25のSTEP410において、現状ユーザ情報認識部23はサポートDB20に記憶された最新の現状ユーザ情報データを認識する。 In STEP 410 of FIG. 25 , the current user information recognition unit 23 recognizes the latest current user information data stored in the support DB 20 .

図25のSTEP410において、第1要素認識部24は最新の現状ユーザ情報データに基づいて、最新のユーザUaの肌の第1要素のスコアを認識する。 In STEP410 of FIG. 25, the first element recognition unit 24 recognizes the latest score of the first element of the skin of the user Ua based on the latest current user information data.

図25のSTEP412において、第2要素抽出部25は、サポートDB20を参照して、第1要素との相関係数が所定の4範囲(例えば0.7以上、または-0.7未満)に含まれる体の第2要素を抽出する。例えば、第2要素抽出部25は、図24Bに示されるテーブルから、第1要素「ニキビ」との相関係数が所定の4範囲(例えば0.7以上、または-0.7未満)に含まれる体の第2要素「頭痛」を抽出する。 In STEP412 of FIG. 25, the second element extraction unit 25 refers to the support DB 20, and the correlation coefficient with the first element is included in a predetermined four ranges (for example, 0.7 or more, or less than -0.7). Extract the second element of the body. For example, from the table shown in FIG. 24B, the second element extraction unit 25 determines that the correlation coefficient with the first element “acne” is included in four predetermined ranges (for example, 0.7 or more, or less than −0.7). Extract the second element of the body, "headache".

図25のSTEP414において、予測部26は、過去のデータ及び相関係数に基づいて、第2要素の将来のスコアを予測する。例えば、予測部26は、相関係数が正の第1所定値(例えば0.7)以上であれば、現在のスコアから過去のデータにおける増分の平均値だけ増加するとして第2要素の将来のスコアを予測する。例えば、予測部26は、相関係数が負の所定値(例えば-0.7)以下であれば、現在のスコアから過去のデータにおける減分の平均値だけ減少するとして第2要素の将来のスコアを予測する。 In STEP414 of FIG. 25, the prediction unit 26 predicts future scores of the second element based on past data and correlation coefficients. For example, if the correlation coefficient is a positive first predetermined value (for example, 0.7) or more, the prediction unit 26 increases the current score by the average value of increments in the past data, and predicts the future value of the second element. Predict score. For example, if the correlation coefficient is a negative predetermined value (for example, -0.7) or less, the prediction unit 26 determines that the current score is decreased by the average value of the decrement in the past data, and the future value of the second element is Predict score.

図25のSTEP416において、目標認識部27は、ユーザUaの体の第2要素についての目標スコアを認識する。この目標スコアは、例えば図4のSTEP11で設定され、サポートDB20に記憶された目標スコアでもよい。 In STEP416 of FIG. 25, the target recognition unit 27 recognizes the target score for the second element of the user Ua's body. This target score may be, for example, the target score set in STEP 11 of FIG. 4 and stored in the support DB 20 .

図25のSTEP418において、行動認識部28は、第2要素の将来のスコアが所定の第5範囲に含まれているか否かを判定する。 In STEP418 of FIG. 25, the action recognition unit 28 determines whether or not the future score of the second element is within a predetermined fifth range.

例えば、第5範囲は、第2要素の将来のスコアが、第2要素の現在のスコアよりも第2要素の目標スコアからかい離するという範囲であってもよい。例えば、目標スコアが100であり、現在のスコアが50であれば、第5範囲は50未満の範囲である。また、第5範囲は、頭痛等の疾患の症状が現れるというあらかじめ定められた範囲であってもよい。第5範囲は、ユーザUa等により指定された範囲であってもよい。 For example, a fifth range may be the range in which the future score for the second factor is further from the target score for the second factor than the current score for the second factor. For example, if the target score is 100 and the current score is 50, the fifth range is the range below 50. Also, the fifth range may be a predetermined range in which a symptom of a disease such as headache appears. The fifth range may be a range designated by the user Ua or the like.

これに加えて又は代えて、行動認識部28は、第2要素の将来のスコアが目標スコアかつ所定の値(例えば第2要素の現在のスコア)より小さいか否かを判定してもよい。これに加えて又は代えて、行動認識部28は、第2要素の将来のスコアが現在の第2要素のスコアより目標スコアから遠のくかどうかを判定してもよい。 Additionally or alternatively, the action recognizer 28 may determine whether the future score of the second factor is less than the target score and a predetermined value (eg, the current score of the second factor). Additionally or alternatively, the action recognizer 28 may determine whether the future score of the second factor is further from the target score than the current score of the second factor.

当該判定結果が肯定的である場合(図25のSTEP418でYES)、図25のSTEP420において、行動認識部28は、第2要素のスコアが所定の第5範囲を回避する施策を認識する。行動認識部28は、第2要素と対応策とを予め記憶したテーブルなどを参照することにより、第2要素の将来のスコアが所定の第5範囲から範囲外となる施策を認識してもよい。また、行動認識部28は、図24Aに示される第1要素又は第2要素と行動の相関係数に基づいて、第1要素のスコアが第4範囲から外れるような行動又は第2要素のスコアが第5範囲から外れるような行動を、第2要素の将来のスコアが所定の第5範囲から範囲外となる施策として認識してもよい。 If the determination result is affirmative (YES in STEP418 of FIG. 25), in STEP420 of FIG. 25, the action recognition unit 28 recognizes measures for avoiding the score of the second element from the predetermined fifth range. The action recognizing unit 28 may recognize a measure in which the future score of the second element is out of the predetermined fifth range by referring to a table or the like in which the second element and countermeasures are stored in advance. . Further, based on the correlation coefficient between the first element or the second element and the behavior shown in FIG. may be recognized as a measure that causes the future score of the second element to fall outside the predetermined fifth range.

当該判定結果が否定的である場合(図25のSTEP418でNO)、図25のSTEP420において、行動認識部28は、現在の行動を維持することを施策として認識する。 If the determination result is negative (NO in STEP418 of FIG. 25), in STEP420 of FIG. 25, the action recognition unit 28 recognizes that the current action is maintained as a measure.

図25のSTEP422において、行動認識部28は、認識した施策と、第1要素の現在のスコアに応じた状態、第2要素の将来のスコアに応じた状態を含む情報をユーザ端末30に送信する。 In STEP422 of FIG. 25, the action recognition unit 28 transmits information including the recognized measure, the state corresponding to the current score of the first element, and the state corresponding to the future score of the second element to the user terminal 30. .

[N.施策認識処理]
次に、図19Dを参照して、図7のSTEP110で実行される施策出力処理を説明する。
[N. Policy Recognition Processing]
Next, with reference to FIG. 19D, the policy output processing executed in STEP 110 of FIG. 7 will be described.

図19DのSTEP112において、肌サポートアプリ35aは、受信した情報に基づいて、施策推奨画面P2を作成する。 In STEP 112 of FIG. 19D, the skin support application 35a creates a measure recommendation screen P2 based on the received information.

図19DのSTEP112において、肌サポートアプリ35aは、施策推奨画面P2を表示器31に出力する。 In STEP 112 of FIG. 19D, the skin support application 35a outputs the measure recommendation screen P2 to the display 31. In FIG.

施策推奨画面P2は、図27に示されるように、予測情報の表示P21と、施策情報の表示P22とが含まれている。 As shown in FIG. 27, the policy recommendation screen P2 includes a display P21 of prediction information and a display P22 of policy information.

予測情報の表示P21は第1要素(図27では「ニキビ」)の現在のスコアに応じた状態(図27では「多くなっている」)と、第2要素(図27では「頭痛」)の将来のスコアに応じた状態(図27では「悪化する」)とを含む情報の表示である。 The display P21 of the prediction information shows the state ("increasing" in FIG. 27) according to the current score of the first element ("acne" in FIG. 27) and the state of the second element ("headache" in FIG. 27). FIG. 27 is a display of information including a state ("worse" in FIG. 27) according to the future score.

施策情報の表示P22は、図25のSTEP418又はSTEP420で認識された施策を示す情報の表示である。 The policy information display P22 is a display of information indicating the policy recognized in STEP418 or STEP420 of FIG.

(本実施形態の作用効果)
本実施形態の情報出力システムによれば、スコア情報認識部21により、ユーザの固有のユーザ情報に基づいて、図21の右側に示されるように、ユーザの複数の要素のスコアの時系列遷移を示す情報が認識される(図19BのSTEP202~STEP204)。
(Action and effect of the present embodiment)
According to the information output system of the present embodiment, the score information recognizing unit 21 recognizes the time-series transition of scores of a plurality of elements of the user based on the user's unique user information, as shown on the right side of FIG. The indicated information is recognized (STEP202 to STEP204 in FIG. 19B).

そして、関係認識部22により、前記情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間にずらした時系列遷移との相関が認識される(図25のSTEP402~STEP404)。 Based on the information, the relationship recognition unit 22 recognizes the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period. (STEP402 to STEP404 in FIG. 25).

一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との間に相関があれば、換言すれば、一方の要素の変化が、変化のあった時点よりも後の他方の要素の変化と相関がある場合、当該一方の要素の変化が当該他方の要素の変化の原因となっている可能性がある。すなわち、一の要素は、他の要素と何らかの因果関係を有している可能性がある。 If there is a correlation between the time-series transition of the score of one element and the time-series transition of the score of the other element shifted by a predetermined period, in other words, the change of one element If there is a correlation with changes in the other element after a point in time, changes in the one element may cause changes in the other element. That is, one element may have some causal relationship with another element.

そして、肌サポートアプリ35aにより、前記相関に基づいて、要素の一又は複数の組を示す予測情報の表示P21が表示器31に出力される(図19DのSTEP114)。 Then, based on the correlation, the skin support application 35a outputs a display P21 of prediction information indicating one or more sets of elements to the display 31 (STEP 114 in FIG. 19D).

これにより、因果関係が存在する可能性のある要素の組をユーザUaに認識させることができる。 This allows the user Ua to recognize a set of elements that may have a causal relationship.

また、上記相関は、ユーザUaの固有の複数の要素のそれぞれのスコアの時系列遷移から求められた相関である。したがって、このような相関は、先行の研究等がなくとも認識されうる。 Also, the above correlation is a correlation obtained from the time-series transition of scores of each of a plurality of unique elements of the user Ua. Therefore, such a correlation can be recognized without prior research or the like.

したがって、仮に、ある2つの要素が今まで注目されていなかったとしても、当該構成の情報出力システムによれば、これらの要素間の関連性をユーザUaに認識させることができる。 Therefore, even if two elements have not received attention until now, the information output system having this configuration can make the user Ua recognize the relationship between these elements.

また、当該構成の情報出力システムによれば、第1要素認識部24により、現状ユーザ情報に示されるユーザの第1要素が認識される(図25のSTEP410)。 Further, according to the information output system having this configuration, the first element recognition unit 24 recognizes the first element of the user indicated in the current user information (STEP 410 in FIG. 25).

そして、第2要素抽出部25により、互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素が抽出される(図25のSTEP412)。 Then, the second element extracting unit 25 extracts the second element of the user correlated with the first element based on the information indicating the mutually correlated elements (STEP 412 in FIG. 25).

そして、予測部26により、互いに相関を有する要素を示す情報及び現状ユーザ情報に示される第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアが予測される(図25のSTEP414)。 Then, the prediction unit 26 predicts the future score of the second element of the user based on the information indicating the mutually correlated elements and the score of the first element indicated in the current user information (STEP 414 in FIG. 25). .

そして、肌サポートアプリ35aにより、ユーザの第2要素の将来のスコアに応じた予測情報の表示P21が表示器31に出力される(図19DのSTEP114)。 Then, the skin support application 35a outputs a display P21 of prediction information corresponding to the future score of the second factor of the user to the display 31 (STEP 114 in FIG. 19D).

これにより、ユーザUaの情報に基づいて認識された相関とユーザUaの現状を示す現状ユーザ情報とに基づいて、ユーザUaにユーザUaの現状から予測されるユーザUaの将来の状態を認識させることができるので、ユーザUaにより有用な情報が与えられる。 This allows the user Ua to recognize the future state of the user Ua predicted from the current state of the user Ua based on the correlation recognized based on the information of the user Ua and the current user information indicating the current state of the user Ua. can provide more useful information to the user Ua.

また、当該構成の情報出力システムによれば、ユーザUaが関心を持ちやすい肌及び体に関する要素間の因果関係を、ユーザUaに知らしめることができる。 Moreover, according to the information output system of the said structure, the user Ua can be informed of the causal relationship between the elements regarding the skin and the body which the user Ua tends to be interested in.

また、当該構成の情報出力システムによれば、ユーザUaが直接コントロールできるユーザUaの行動と、ユーザUaが関心を持ちやすい肌、体及び心のうち一に関する要素との関連をユーザに知らしめることができる。この結果、ユーザUaに、ユーザUaが関心を持ちやすい肌、体及び心のうち一に関する要素の状態を間接的にコントロールするヒントを与えることができる。 Further, according to the information output system of this configuration, it is possible to inform the user of the relationship between the behavior of the user Ua that can be directly controlled by the user Ua and the element related to one of the skin, body, and mind that the user Ua tends to be interested in. can be done. As a result, the user Ua can be given a hint to indirectly control the state of one of the skin, body, and mind that the user Ua is likely to be interested in.

また、当該構成の情報出力システムによれば、現状ユーザ情報認識部23により、ユーザUaの最新の情報である現状ユーザ情報データが認識される(図25のSTEP408)。 Further, according to the information output system having this configuration, the current user information recognition unit 23 recognizes the current user information data, which is the latest information of the user Ua (STEP 408 in FIG. 25).

そして、第1要素認識部24により、現状ユーザ情報データに示されるユーザUaの肌、体及び心のうちの少なくとも一に関連する要素である第1要素が認識される(図25のSTEP410)。 Then, the first element recognition unit 24 recognizes the first element, which is an element related to at least one of the skin, body, and mind of the user Ua indicated in the current user information data (STEP 410 in FIG. 25).

そして、第2要素抽出部25により、互いに相関を有する要素を示す情報に基づいて、第1要素と相関を有し、かつ、ユーザUaの肌、体及び心のうちの少なくとも一に関連する要素である第2要素が抽出される(図25のSTEP412)。 Then, the second element extraction unit 25 extracts an element that is correlated with the first element and related to at least one of the skin, body, and mind of the user Ua based on the information indicating the mutually correlated elements. is extracted (STEP 412 in FIG. 25).

予測部26により、前記相関係数及び現状ユーザ情報データに示される第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアが予測される(図25のSTEP414)。 The prediction unit 26 predicts the future score of the second element of the user based on the correlation coefficient and the score of the first element indicated in the current user information data (STEP 414 in FIG. 25).

行動認識部により、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合に(図25のSTEP418でYES)、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動が認識される(図25のSTEP420)。 When the future score of the second element of the user is included in the predetermined range by the action recognition unit (YES in STEP418 in FIG. 25), the action of setting the future score of the second element outside the predetermined range is recognized (STEP 420 in FIG. 25).

出力制御部により、前記行動の実施を推奨する情報が前記出力部に出力される(図19DのSETP114)。 The output control unit outputs the information recommending the execution of the action to the output unit (SETP114 in FIG. 19D).

これにより、相関係数に基づいて、第2要素の将来のスコアが所定範囲に含まれると予測された場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動の実施または回避を推奨する情報が出力部に出力される。これにより、ユーザUaの第2要素の将来のスコアを所定範囲に維持させ又は所定範囲から逸脱させる観点から有効な行動を、ユーザUaに提供することができる。 Thereby, based on the correlation coefficient, if the future score of the second element is predicted to be included in the predetermined range, the future score of the second element is performed outside the predetermined range or Information recommending avoidance is output to the output section. As a result, it is possible to provide the user Ua with an effective action from the viewpoint of keeping the future score of the second element of the user Ua within the predetermined range or deviating from the predetermined range.

また、当該構成の情報出力システムによれば、行動認識部28により、ユーザUaの第2要素の将来のスコアが所定範囲に含まれる場合、相関行動情報(図24A)に基づいて、第1要素または前記第2要素と相関を有し、かつ、第2要素の将来のスコアを前記所定範囲の範囲外にする行動が認識される(図5/STEP420)。 Further, according to the information output system having this configuration, when the future score of the second element of the user Ua is included in the predetermined range, the action recognition unit 28 detects the first element based on the correlated action information (FIG. 24A). Alternatively, an action that has a correlation with the second element and causes the future score of the second element to fall outside the predetermined range is recognized (FIG. 5/STEP 420).

ここで、相関行動情報は、各要素と相関を有する行動及び各要素と行動との相関係数を示す。 Here, the correlated behavior information indicates the behavior correlated with each element and the correlation coefficient between each element and the behavior.

これにより、第1要素又は第2要素と因果関係が存在する可能性のある行動をユーザUaに認識させることができる。 This allows the user Ua to recognize actions that may have a causal relationship with the first element or the second element.

また、仮に、第1要素又は第2要素と当該行動との関係が今まで注目されていなかったとしても、当該構成の情報出力システムによれば、第1要素又は第2要素と因果関係を有している可能性があり、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする当該行動をユーザUaに認識させることができる。 In addition, even if the relationship between the first element or the second element and the action has not been noticed until now, according to the information output system of the configuration, it is possible to have a causal relationship with the first element or the second element. It is possible to make the user Ua aware of the behavior that may cause the future score of the second element to fall outside the predetermined range.

当該構成の情報出力システムによれば、第2要素の将来のスコアが目標スコアからかい離する範囲(第5範囲)に含まれると予測された場合に(図25/STEP418でYES)、すなわち、第2要素の将来のスコアが目標スコアから遠ざかると予測された場合に、行動認識部28により、第2要素の将来のスコアを当該所定範囲外とするような行動が認識される(図25/STEP420)。 According to the information output system with this configuration, when it is predicted that the future score of the second element is included in the range (fifth range) that deviates from the target score (FIG. 25/YES in STEP 418), that is, the second When the future score of the two elements is predicted to be far from the target score, the action recognition unit 28 recognizes an action that makes the future score of the second element out of the predetermined range (FIG. 25/STEP 420 ).

そして、肌サポートアプリ35aにより、当該行動の実施を推奨する情報が表示器31に出力される。 Then, the skin support application 35a outputs to the display device 31 information recommending the implementation of the action.

これにより、第2要素の将来のスコアが目標からかい離するおそれがある場合にユーザUaにその状態を回避するための行動の実施を推薦することができる。 Thereby, when there is a possibility that the future score of the second element deviates from the target, it is possible to recommend the user Ua to take action to avoid the situation.

(変形態様)
上記情報出力システムにより、サポートDB20により、複数のユーザUa、Ub、Ucの情報に基づいて、当該複数のユーザUa、Ub、Ucのそれぞれの年齢、性別、住所等の属性ごとに、各要素間の相関が認識されてもよい。
(Modification mode)
Based on the information of the plurality of users Ua, Ub, and Uc, the above information output system allows the support DB 20 to display information between each element for each attribute such as age, gender, and address of each of the plurality of users Ua, Ub, and Uc. may be recognized.

この場合、肌サポートアプリ35aにより、対象の属性に対し、対象の属性に対応する
相関に基づいて、対象の属性に対応し、かつ、互いに相関を有する各要素を示す情報が表示器31に出力されてもよい。
In this case, based on the correlation corresponding to the target attribute, the skin support application 35a outputs to the display device 31 information indicating each element that corresponds to the target attribute and is correlated with each other. may be

このように構成すれば、サービスの提供開始段階など、一のユーザUaの情報が十分には収集されていない段階でも、当該ユーザUaと同一の属性の他のユーザUb、Ucの情報が収集されていれば、複数の情報に基づいて属性ごとに要素間の相関が認識されるので、対象の属性(ユーザUaの属性)に対応し、かつ、互いに相関を有する各要素について、ユーザUaに知らしめることができる。 With this configuration, even at a stage where sufficient information on one user Ua is not collected, such as at the start of service provision, information on other users Ub and Uc having the same attributes as the user Ua can be collected. If so, the correlation between the elements is recognized for each attribute based on a plurality of pieces of information. Therefore, the user Ua is informed of each element that corresponds to the target attribute (attribute of the user Ua) and has a correlation with each other. can be tightened.

また、上記実施形態において、肌サポートアプリ35aが、スコア情報認識部21、関係認識部22、現状ユーザ情報認識部23、第1要素認識部24、第2要素抽出部25、予測部26、目標認識部27及び行動認識部28の一部または全部として機能してもよい。この場合、肌サポートアプリ35aは、予めまたは処理の実行時に肌サポートサーバ10と通信して処理に必要なデータをダウンロードしてもよいし、検索等の適当な機能を肌サポートサーバ10に実行させ、その結果を受信してもよい。 In the above embodiment, the skin support application 35a includes the score information recognition unit 21, the relationship recognition unit 22, the current user information recognition unit 23, the first element recognition unit 24, the second element extraction unit 25, the prediction unit 26, the target It may function as part or all of the recognition unit 27 and the action recognition unit 28 . In this case, the skin support application 35a may communicate with the skin support server 10 in advance or during execution of the process to download data necessary for the process, or cause the skin support server 10 to execute an appropriate function such as searching. , may receive its results.

上記実施形態では、第2要素の将来のスコアが所定の範囲内である場合に(図25/STEP418・・YES)、行動認識部28は、第2要素の将来のスコアが所定の範囲の範囲外となるような施策が認識した(図25/STEP420)。これは、所定の範囲がユーザUaにとって好ましくない場合を想定している。 In the above embodiment, when the future score of the second element is within the predetermined range (FIG. 25/STEP 418 . YES), the action recognition unit 28 determines that the future score of the second element is within the predetermined range. I recognized a measure that would be outside (FIG. 25/STEP 420). This assumes that the predetermined range is not preferable for the user Ua.

これに代えて、第2要素の将来のスコアが好ましい範囲、例えばユーザUaの目標スコアに近づくまたは目標スコアを達成するような場合には、行動認識部28は、第2要素の将来のスコアが所定の範囲の範囲外となるような行動を認識してもよい。肌サポートアプリ35aは、「このままでいけば第2要素の目標スコアが達成できそうです。この目標スコアの達成を阻害するような○○のような行動は避けましょう」などの当該行動の回避を推奨する情報を表示器31に表示してもよい。 Alternatively, if the future score of the second factor is within a preferable range, such as approaching or achieving the target score of the user Ua, the action recognition unit 28 determines that the future score of the second factor is Behavior that falls outside of a predetermined range may be recognized. The skin support application 35a provides an action avoidance such as "It seems that the target score of the second element can be achieved if things continue as they are. Let's avoid actions like XX that hinder the achievement of this target score." may be displayed on the display device 31.

関係認識部22は、一の要素のスコアが所定の第1閾値を超えたまたは下回った期間の所定期間前後の他の要素のスコアが所定の第2閾値を超えたまたは下回る割合または他の要素のスコアが変曲点を含む割合を算出することにより、相関係数を算出してもよい。 The relationship recognition unit 22 determines the ratio of the scores of other elements exceeding or falling below a predetermined second threshold before and after a predetermined period of time during which the score of one element exceeds or falls below a predetermined first threshold, or other elements The correlation coefficient may be calculated by calculating the ratio of the score of , including the inflection point.

関係認識部22は、一の要素のスコアの変曲点を迎えた時点の所定期間前後の他の要素のスコアが所定の第2閾値を超えたまたは下回る割合または他の要素のスコアが変曲点を含む割合を算出することにより、相関係数を算出してもよい。 The relationship recognition unit 22 determines the ratio of the scores of other elements exceeding or falling below a predetermined second threshold for a predetermined period of time before and after the inflection point of the score of one element, or the score of the other elements being inflection. You may calculate a correlation coefficient by calculating the ratio containing a point.

上記実施形態では、各要素のスコアで相関を認識したが、これに代えてまたは加えて、各スコアを特定の状態が発生したか否かの2値として各要素間の相関を認識してもよい。 In the above embodiment, the correlation is recognized by the score of each element, but instead of or in addition to this, each score may be a binary value indicating whether or not a specific state has occurred. good.

なお、上記実施形態では、スコア情報認識部21は、図19Aの入力受付処理で入力された情報に基づいて第1要素及び第2要素等のスコアを認識したが、これに限られない。 Note that in the above embodiment, the score information recognition unit 21 recognizes the scores of the first element, the second element, etc. based on the information input in the input reception process of FIG. 19A, but the present invention is not limited to this.

スコア情報認識部21は、例えば、ユーザ端末30から受信した現状ユーザ情報データに含まれる情報に基づいて、指定の基準に従って、ユーザUaの肌の状態、体の状態、心の状態、ユーザUaの行動のそれぞれに関連する各要素をスコア化してもよい。 For example, based on the information included in the current user information data received from the user terminal 30, the score information recognition unit 21 determines the skin condition, body condition, mental condition, and user Ua's condition according to specified criteria. Each component associated with each behavior may be scored.

例えば、スコア情報認識部21は、ユーザ端末30から受信したデータ等に基づいて、ユーザUaの角層水分量、皮脂量、水分蒸散量、粘弾性、角層状態、電導度、電気信号、脈波、汗、血流、爪の色、写真データ、体のにおい、体の色、主観、舌状態、生活習慣及び手相のスコアを算出してもよい。 For example, the score information recognition unit 21, based on the data received from the user terminal 30, the stratum corneum moisture content, the sebum content, the amount of water evaporation, the viscoelasticity, the stratum corneum state, the electrical conductivity, the electrical signal, the pulse rate, and the like. Waves, sweat, blood flow, nail color, photographic data, body odor, body color, subjectivity, tongue state, lifestyle, and palmistry scores may be calculated.

例えば、スコア情報認識部21は、毎日、ユーザUaの肌に接着したウェアラブルデバイスから受信したデータ(皮膚電位、汗、心拍数、血流状態)及びユーザ端末30から受信したユーザUaの主観に基づいて、ユーザUaの肌の状態、体の状態、心の状態、ユーザUaの行動のそれぞれに関連する各要素をスコア化し、さらに加えて、スコア情報認識部21は、定期的にユーザUaから郵送される角質採取テープの解析結果に基づいて、ユーザUaの肌の状態に関連する各要素をスコア化してもよい。 For example, the score information recognition unit 21 receives data (skin potential, sweat, heart rate, blood flow state) from a wearable device attached to the skin of the user Ua every day and user Ua's subjectivity received from the user terminal 30. Then, each element related to the user Ua's skin condition, body condition, mental condition, and behavior of the user Ua is scored. Each element related to the skin condition of the user Ua may be scored based on the analysis result of the keratin collecting tape.

例えば、スコア情報認識部21は、毎日、ユーザ端末30から受信したユーザUaの肌を撮影した画像データ及びユーザ端末30から受信したユーザUaの主観に基づいて、ユーザUaの肌の状態に関連する各要素をスコア化し、さらに加えて、スコア情報認識部21は、定期的にユーザUaから郵送される角質採取テープの解析結果に基づいて、ユーザUaの肌の状態に関連する各要素をスコア化してもよい。 For example, the score information recognition unit 21 recognizes the condition of the skin of the user Ua based on the image data of the skin of the user Ua received from the user terminal 30 and the subjective opinion of the user Ua received from the user terminal 30 every day. Each element is scored, and in addition, the score information recognition unit 21 scores each element related to the skin condition of the user Ua based on the analysis results of the keratin collecting tape periodically mailed by the user Ua. may

例えば、スコア情報認識部21は、毎日、ユーザUaの肌に接着したウェアラブルデバイスから受信したデータ(皮膚電位、汗、心拍数、血流状態)及びユーザ端末30から受信したユーザUaの主観に基づいて、ユーザUaの肌の状態、体の状態、心の状態、ユーザUaの行動のそれぞれに関連する各要素をスコア化し、さらに加えて、スコア情報認識部21は、定期的にユーザ端末30から受信したユーザUaの肌を撮影した画像データに基づいて、ユーザUaの肌の状態に関連する各要素をスコア化してもよい。 For example, the score information recognition unit 21 receives data (skin potential, sweat, heart rate, blood flow state) from a wearable device attached to the skin of the user Ua every day and user Ua's subjectivity received from the user terminal 30. Then, each element related to the user Ua's skin condition, body condition, mental condition, and behavior of the user Ua is scored. Each element related to the skin condition of the user Ua may be scored based on the received image data of the skin of the user Ua.

また、例えば、スコア情報認識部21は、毎日、ユーザ端末30から受信したユーザUaの主観に基づいて、ユーザUaの肌の状態、体の状態、心の状態、ユーザUaの行動のそれぞれに関連する各要素をスコア化し、さらに加えて、スコア情報認識部21は、定期的にユーザUaから郵送される角質採取テープの解析結果に基づいて、ユーザUaの肌の状態に関連する各要素をスコア化してもよい。 In addition, for example, the score information recognition unit 21, based on the user Ua's subjective opinion received from the user terminal 30 every day, generates a In addition, the score information recognizing unit 21 scores each element related to the skin condition of the user Ua based on the analysis results of the keratin collecting tape periodically mailed by the user Ua. may be changed.

例えば、スコア情報認識部21は、毎日、または一定間隔ごとに、ユーザUaの肌に接着したウェアラブルデバイスから受信したデータ(皮膚電位、汗、心拍数、血流状態)及びユーザ端末30から受信したユーザUaの主観のみに基づいて、ユーザUaの肌の状態、体の状態、心の状態、ユーザUaの行動のそれぞれに関連する各要素をスコア化してもよい。 For example, the score information recognition unit 21 receives data (skin potential, sweat, heart rate, blood flow state) received from the wearable device attached to the skin of the user Ua every day or at regular intervals, and data received from the user terminal 30 Each element related to each of the user Ua's skin condition, body condition, mental condition, and behavior of the user Ua may be scored based only on the subjectivity of the user Ua.

また、例えば、スコア情報認識部21は、毎日、または一定間隔ごとに、ユーザ端末30から受信したユーザUaの主観のみに基づいて、ユーザUaの肌の状態、体の状態、心の状態、ユーザUaの行動のそれぞれに関連する各要素をスコア化してもよい。 Further, for example, the score information recognition unit 21, based only on the subjectivity of the user Ua received from the user terminal 30 every day or at regular intervals, recognizes the user Ua's skin condition, body condition, mental condition, user Each factor associated with each of Ua's actions may be scored.

また、例えば、スコア情報認識部21は、毎日又は定期的にユーザ端末30から受信したユーザUaの肌を撮影した画像データのみに基づいて、ユーザUaの肌の状態に関連する各要素をスコア化してもよい。 Also, for example, the score information recognition unit 21 scores each element related to the skin condition of the user Ua based only on image data of the skin of the user Ua received daily or periodically from the user terminal 30. may

スコア情報認識部21は、毎日、又は、定期的にユーザUaに装着した匂いセンサーにより検出されたユーザUaの体の匂いに基づいて、ユーザUaの体の状態に関連する各要素をスコア化してもよい。 The score information recognition unit 21 scores each element related to the state of the body of the user Ua based on the body odor of the user Ua detected by the odor sensor attached to the user Ua every day or periodically. good too.

予測部26は、過去のある期間(例えば1週間)におけるユーザUaの行動等の一の要素に基づいて、不図示の対応表を参照する等により、現時点から所定期間後(例えば3日後)の他の要素のスコア又はその変化量を予測してもよい。 The prediction unit 26 refers to, for example, a correspondence table (not shown) based on one element such as the behavior of the user Ua during a certain period of time (eg, one week) in the past. You may predict the score of another element, or its change amount.

また、予測部26は、ユーザUaの一の要素の有無又は度合いの周期性を認識し、当該周期性に基づいて現時点から所定期間後の他の要素のスコア又はその変化量を予測してもよい。
例えば、予測部26は、ユーザUaの一の要素の有無又は度合いの時系列データを離散フーリエ変換により周波数成分に分解し、各周波数におけるピークが閾値を超える割合を求めることにより、ユーザUaの一の要素の有無又は度合いの周期性を認識する。そして、予測部26は、一の要素の周期が継続すると仮定して、所定期間における一の要素の回数又は度合いの累計値を推定する。そして、予測部26は、現時点から所定期間における一の要素の回数又は度合いの累計値と不図示の対応表等を用いて、現時点から所定期間後の他の要素のスコア又はその変化量を予測してもよい。
Also, the prediction unit 26 may recognize the periodicity of the presence or absence or degree of one element of the user Ua, and predict the score of another element after a predetermined period from the current time or the amount of change thereof based on the periodicity. good.
For example, the prediction unit 26 decomposes the time-series data of the presence or absence or degree of one element of the user Ua into frequency components by discrete Fourier transform, and obtains the ratio of the peak at each frequency exceeding the threshold value. Recognize the periodicity of the presence or degree of the elements of Then, the prediction unit 26 assumes that the cycle of one element continues, and estimates the cumulative value of the number of times or degree of one element in a predetermined period. Then, the prediction unit 26 predicts the score of another element after a predetermined period from the current time or the amount of change thereof using the cumulative value of the number of times or the degree of one element during the predetermined period from the current time and a correspondence table (not shown). You may

予測部26は、ユーザUaのデータのみならず、他のユーザUb、Ucに示される過去の一の要素に対する他の要素のスコア又はその変化量も勘案して、現時点から所定期間後のユーザUaの一の要素のスコア又はその変化量を予測してもよい。 The prediction unit 26 considers not only the data of the user Ua, but also the scores of other elements with respect to one element in the past indicated by the other users Ub and Uc or the amount of change thereof, and You may predict the score of one element of or its change amount.

例えば、予測部26は、ユーザUaと同様の体質、属性及び目標のうち少なくとも1つが共通しているユーザを抽出し、これらのユーザの過去の行動のそれぞれに対する処理時点から所定期間後のこれらのユーザの一の要素のスコアの変化量を認識する。予測部26は、これらのユーザの過去の一の要素のスコアに対する現時点から所定期間後の他の要素のスコアの変化量と、ユーザUaの一の要素のスコアから、現時点から所定期間後のユーザUaの他の要素のスコア又はその変化量を予測してもよい。 For example, the prediction unit 26 extracts users who share at least one of the same constitution, attributes, and goals as the user Ua, and extracts these users' past actions after a predetermined period of time from the time of processing each of these users' past actions. Recognize the amount of change in the user's score for one factor. The prediction unit 26 calculates the amount of change in the score of the other element after a predetermined period from the current time with respect to the score of the past one element of these users, and the score of the one element of the user Ua from the current time. You may predict the score of other elements of Ua, or its change amount.

予測部26は、例えば、対応表を参照することにより、ユーザの一の要素に基づいて、ユーザの顔又は体の各部位ごとに、ユーザの他の要素の予測をしてもよい。 The prediction unit 26 may, for example, refer to a correspondence table to predict other factors of the user based on one factor of the user for each part of the user's face or body.

出力制御部は、現時点から所定期間後のユーザUaの他の要素のスコアを示す画像として、例えば、ユーザUaの顔写真若しくは体の写真を修正した画像、ユーザUaを模したアバター画像、アニメキャラクタの画像又は丸等の図形を表示器31に出力してもよい。 The output control unit selects, for example, an image obtained by correcting the face photograph or body photograph of the user Ua, an avatar image imitating the user Ua, an animation character, etc. , or a figure such as a circle may be output to the display 31 .

この場合、例えば、出力制御部は、タッチパネル32等の入力部に対する操作に応じて、表示した画像を変化させてもよい。 In this case, for example, the output control unit may change the displayed image according to the operation on the input unit such as the touch panel 32 .

例えば、出力制御部は、入力部に対する第1操作(例えば、横方向へのスライド操作)に応じて、予測の基準となる時点を切り替え、切替後の時点におけるユーザUaの各要素の予測を示す画像を表示器31に出力してもよい。例えば、出力制御部は、入力部に対する第1操作に応じて、現時点から1日後、2日後、3日後、・・・におけるユーザの各要素のスコアの予測を示す画像を表示器31に出力してもよい。ユーザの各要素の予測を示す画像は、現時点から所定期間後のユーザUaの一の要素のスコア(例えば肌状態)の予測を示す画像であってもよい。現時点から所定期間後のユーザUaの一の要素のスコア(例えば肌状態)の予測を示す画像は、例えば、3日後のユーザUaの顔又は体の各部位における肌の状態を文言又は色で示した画像、ユーザUaの顔の各部位における肌の角層の状態を示す画像であってもよい。 For example, the output control unit switches the reference time point for prediction in response to a first operation (for example, a horizontal sliding operation) on the input unit, and indicates the prediction of each element of the user Ua at the time point after switching. Images may be output to the display 31 . For example, in response to the first operation on the input unit, the output control unit outputs to the display 31 an image showing predictions of the scores of the user's elements one day, two days, three days, . . . from the current time. may The image showing the prediction of each factor of the user may be an image showing the prediction of the score (for example, skin condition) of one factor of the user Ua after a predetermined period of time from the current time. The image showing the prediction of the score (for example, skin condition) of one element of the user Ua after a predetermined period of time from the present time, for example, shows the condition of the skin of each part of the face or body of the user Ua three days later in words or colors. image, or an image showing the condition of the stratum corneum of the skin at each part of the face of the user Ua.

また、例えば、出力制御部は、入力部に対する第2操作(例えば、縦方向へのスライド操作)に応じて、ユーザUaの一の要素とは異なる他の要素のスコア(例えば、体状態)の予測を示す画像を表示してもよい。 In addition, for example, the output control unit, in response to a second operation (for example, a slide operation in the vertical direction) on the input unit, determines the score of another element (for example, body condition) different from the one element for the user Ua. An image showing the prediction may be displayed.

現状ユーザ情報認識部23は、体重計、血圧計、心拍数計などの生体情報収集装置からユーザUaの体質を示すデータを収集してもよい。 The current user information recognition unit 23 may collect data indicating the physical constitution of the user Ua from a biological information collection device such as a weight scale, blood pressure monitor, heart rate monitor, or the like.

また、現状ユーザ情報認識部23は、歩数計、睡眠の深さセンサ、目覚めの時刻センサなどの生活情報収集装置等からユーザUaの行動を示すデータを収集してもよい。 In addition, the current user information recognition unit 23 may collect data indicating the behavior of the user Ua from a living information collection device such as a pedometer, sleep depth sensor, wake-up time sensor, or the like.

生体情報収集装置及び生活情報収集装置は、例えば、スマートフォンのようにユーザUaにより携帯される装置であってもよいし、スマートウォッチのようにユーザUaに装着される装置であってもよい。これらの装置から、インターネットなどのネットワークを介して肌サポートサーバ10にユーザUaの識別情報とともに各データが送信されてもよいし、これらの装置からUSB接続などでユーザUaのユーザ端末30aにデータが送信され、ユーザ端末30aでユーザUaの識別情報ともに各データが肌サポートサーバ10に送信されてもよい。ユーザ端末30aに測定用のアプリケーションがインストールがされることでこれらのデータが収集されてもよい。 The biological information collection device and the life information collection device may be, for example, a device carried by the user Ua like a smart phone, or a device worn by the user Ua like a smart watch. Each data may be transmitted from these devices to the skin support server 10 along with the identification information of the user Ua via a network such as the Internet, or data may be sent from these devices to the user terminal 30a of the user Ua via a USB connection or the like. Each data may be transmitted to the skin support server 10 together with the identification information of the user Ua at the user terminal 30a. These data may be collected by installing an application for measurement in the user terminal 30a.

また、本発明者らの検討によれば、肌の細胞の撮像画像である肌細胞画像データ、肌の撮像画像である肌画像データ及び舌の撮像画像である舌画像データから、ユーザの行動、体状態、心状態、ユーザの性別及び年齢等の属性、ユーザの体質、及びユーザのライフスタイル(飲酒などの習慣的な行動)の少なくとも1つに関する項目の値を高精度に推定できることが分かった。 Further, according to the study of the present inventors, from skin cell image data that is a captured image of skin cells, skin image data that is a captured image of skin, and tongue image data that is a captured image of the tongue, user behavior, It was found that the values of items related to at least one of physical condition, mental condition, attributes such as user's gender and age, user's constitution, and user's lifestyle (habitual behavior such as drinking alcohol) can be estimated with high accuracy. .

これを利用して、現状ユーザ情報認識部23は、ユーザUaの肌細胞画像データ、肌細胞データ及び舌画像データのうち少なくとも1つを認識し、スコア情報認識部21は、入力フォームに入力された各情報に加えてまたは代えて、ユーザUaの肌細胞画像データ、肌細胞データ及び舌画像データのうち少なくとも1つに基づいて、ユーザUaの行動、属性、体質、体状態、心状態及びライフスタイル等の要素のスコアを認識してもよい。 Utilizing this, the current user information recognition unit 23 recognizes at least one of the user Ua's skin cell image data, skin cell data, and tongue image data, and the score information recognition unit 21 recognizes the information entered in the input form. In addition to or instead of each information, based on at least one of user Ua's skin cell image data, skin cell data, and tongue image data, user Ua's behavior, attributes, constitution, physical condition, mental condition, and life Scores for elements such as style may be recognized.

より具体的には、スコア情報認識部21は、あらかじめ収集された複数の人の肌細胞画像データ、肌細胞データ及び舌画像データのうち少なくとも1つと、複数の人それぞれの行動、体状態、心状態、属性、体質及びライフスタイル等の特性とを教師データとして、機械学習により、線形推測式又は畳込みニューラルネットワークなどのモデルを構築する。ここで、肌細胞画像データは、例えば、角質採取テープによって採取された細胞を拡大して撮像した画像データであってもよいし、角質染色液又はメラニン染色液などの薬剤による処理後の細胞を撮像した画像データであってもよい。 More specifically, the score information recognition unit 21 recognizes at least one of pre-collected skin cell image data, skin cell data, and tongue image data of a plurality of people, and behavior, physical condition, and mental state of each of the plurality of people. A model such as a linear estimation formula or a convolutional neural network is constructed by machine learning using characteristics such as state, attributes, constitution and lifestyle as teacher data. Here, the skin cell image data may be, for example, image data obtained by enlarging and imaging cells collected with a keratin collection tape, or cells after treatment with a chemical such as a keratin stain or a melanin stain. Image data captured may be used.

例えば、肌サポートサーバ10に設けられた撮像部が肌細胞を撮像してもよいし、スマートフォン等のカメラが撮像した肌細胞の画像データを肌サポートサーバ10がスマートフォン等から受信してもよい。 For example, an imaging unit provided in the skin support server 10 may image skin cells, or the skin support server 10 may receive image data of skin cells captured by a camera of a smartphone or the like from a smartphone or the like.

また、肌画像データは、スマートフォンなどで人の顔又は腕の肌を撮像した画像であってもよい。例えば、肌サポートサーバ10に設けられた撮像部が肌を撮像してもよいし、スマートフォン等のカメラが撮像した肌の画像データを肌サポートサーバ10がスマートフォン等から受信してもよい。 Also, the skin image data may be an image of the skin of a person's face or arm captured by a smartphone or the like. For example, the imaging unit provided in the skin support server 10 may image the skin, or the skin support server 10 may receive image data of the skin captured by a camera such as a smartphone from the smartphone or the like.

また、舌画像データは、スマートフォンなどで人の舌を撮像した画像であってもよい。
例えば、肌サポートサーバ10に設けられた撮像部が舌を撮像してもよいし、スマートフォン等のカメラが撮像した舌の画像データを肌サポートサーバ10がスマートフォン等から受信してもよい。
Also, the tongue image data may be an image of a person's tongue captured by a smartphone or the like.
For example, an imaging unit provided in the skin support server 10 may image the tongue, or the skin support server 10 may receive image data of the tongue captured by a camera such as a smartphone from a smartphone or the like.

複数の人それぞれの行動、属性、体質、体状態、心状態及びライフスタイル等の特性は、例えば、当該複数の人からのヒアリングされたものであってもよい。体重計、血圧計、心拍数計などの生体情報収集装置から複数の人それぞれの体質を示すデータが収集されてもよい。歩数計、睡眠の深さセンサ、目覚めの時刻センサなどの生活情報収集装置等から複数の人それぞれのライフスタイルを示すデータが収集されてもよい。 Characteristics such as behavior, attributes, constitution, physical condition, state of mind, and lifestyle of each of the plurality of persons may be obtained by hearing from the plurality of persons, for example. Data indicating the constitution of each of a plurality of persons may be collected from a biological information collection device such as a weight scale, blood pressure monitor, heart rate monitor, or the like. Data indicating the lifestyles of each of a plurality of people may be collected from a lifestyle information collection device such as a pedometer, a sleep depth sensor, or a wake-up time sensor.

また、現状ユーザ情報認識部23は、ユーザUaの角質採取テープ37aで採取された細胞の撮像画像である肌細胞画像データ、ユーザUaの肌の撮像画像である肌画像データ及びユーザUaの舌の撮像画像である舌画像データを認識する。 In addition, the current user information recognition unit 23 recognizes skin cell image data, which is a captured image of cells collected by the keratin collecting tape 37a of the user Ua, skin image data, which is a captured image of the skin of the user Ua, and the tongue of the user Ua. Tongue image data, which is a captured image, is recognized.

現状ユーザ情報認識部23は、肌サポートサーバ10に設けられた撮像部が撮像した、ユーザUaの角質採取テープ37aで採取されたユーザUaの肌細胞の画像データを取得してもよい。
これに加えてまたは代えて、現状ユーザ情報認識部23は、ユーザ端末30aのカメラ33aが撮像した、ユーザUaの角質採取テープ37aで採取されたユーザUaの肌細胞の画像データをユーザ端末30aから受信してもよい。
The current user information recognition unit 23 may acquire image data of skin cells of the user Ua collected by the keratin collection tape 37a of the user Ua, which is imaged by the imaging unit provided in the skin support server 10 .
In addition to or instead of this, the current user information recognition unit 23 transmits image data of user Ua's skin cells collected by the keratin collection tape 37a of the user Ua captured by the camera 33a of the user terminal 30a from the user terminal 30a. may receive.

また、現状ユーザ情報認識部23は、肌サポートサーバ10に設けられた撮像部が撮像したユーザUaの肌の画像データを取得してもよい。これに代えてまたは加えて、現状ユーザ情報認識部23は、ユーザ端末30aのカメラ33aが撮像した肌の画像データをユーザ端末30aから受信してもよい。 In addition, the current user information recognition unit 23 may acquire image data of the skin of the user Ua captured by the imaging unit provided in the skin support server 10 . Instead of or in addition to this, the current user information recognition unit 23 may receive skin image data captured by the camera 33a of the user terminal 30a from the user terminal 30a.

1…通信ネットワーク、10…肌サポートサーバ、11‥肌状態認識部、12…施策グループ選択部、13…施策情報送信部、19…2次データ生成部、20…サポートDB(データベース)、21‥スコア情報認識部、22‥関係認識部、23‥現状ユーザ情報認識部、24‥第1要素認識部、25‥第2要素抽出部、26‥予測部、27‥目標認識部、28‥行動認識部、30(30a,30b,30c)…ユーザ端末(スマートフォン)、31…表示器(出力部)、32…タッチパネル(入力部)、33…カメラ、34…マイク、35…CPU、35a…肌サポートアプリ(ユーザ情報認識部、出力制御部)、36…メモリ、40…接続端子、45…測定機器。 1... communication network, 10... skin support server, 11... skin condition recognition unit, 12... measure group selection unit, 13... measure information transmission unit, 19... secondary data generation unit, 20... support DB (database), 21... Score information recognition unit 22 Relationship recognition unit 23 Current user information recognition unit 24 First element recognition unit 25 Second element extraction unit 26 Prediction unit 27 Goal recognition unit 28 Action recognition Part 30 (30a, 30b, 30c) User terminal (smartphone) 31 Display (output unit) 32 Touch panel (input unit) 33 Camera 34 Microphone 35 CPU 35a Skin support Application (user information recognition unit, output control unit), 36 memory, 40 connection terminal, 45 measuring device.

Claims (15)

ユーザの固有のユーザ情報を認識するユーザ情報認識部と、
情報を出力する出力部と、
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するスコア情報認識部と、
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定期間ずらした時系列遷移との相関を認識する関係認識部と、
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶部と、
前記ユーザの最新の情報である現状ユーザ情報を認識する現状ユーザ情報認識部と、
前記現状ユーザ情報に示される前記ユーザの第1要素を認識する第1要素認識部と、
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出する第2要素抽出部と、
前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、前記ユーザの第2要素の将来のスコアを予測する予測部と、
前記ユーザの第2要素の将来のスコアに応じた情報を前記出力部に出力する出力制御部と、を備えることを特徴とする情報出力システム。
a user information recognition unit that recognizes unique user information of a user;
an output unit that outputs information;
a score information recognition unit that recognizes, based on the user information, score information indicating time-series transitions of scores of a plurality of elements included in the user information ;
a relationship recognition unit that recognizes the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period based on the score information;
a correlation information storage unit that stores information indicating mutually correlated elements and correlation coefficients between the elements based on the correlation;
a current user information recognition unit that recognizes current user information, which is the latest information of the user;
a first element recognition unit that recognizes the first element of the user indicated in the current user information;
a second element extraction unit that extracts a second element of the user that is correlated with the first element based on the information indicating the mutually correlated elements;
a prediction unit that predicts the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient between the elements and the current user information;
An information output system , comprising: an output control unit that outputs information corresponding to the future score of the second element of the user to the output unit .
ユーザの固有のユーザ情報を認識するユーザ情報認識部と、
情報を出力する出力部と、
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するスコア情報認識部と、
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識する関係認識部と、
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶部と、
前記ユーザの最新の情報である現状ユーザ情報を認識する現状ユーザ情報認識部と、
前記現状ユーザ情報に示される前記ユーザの第1要素を認識する第1要素認識部と、
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出する第2要素抽出部と、
前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアを予測する予測部と、
前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識する行動認識部と、
前記行動の実施または回避を推奨する情報を前記出力部に出力するように構成されている出力制御部と、を備え、
前記相関情報記憶部は、各要素と相関を有する行動及び当該各要素と当該行動との相関係数を示す相関行動情報を記憶するように構成され、
前記行動認識部は、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識するように構成されていることを特徴とする情報出力システム。
a user information recognition unit that recognizes unique user information of a user;
an output unit that outputs information;
a score information recognition unit that recognizes, based on the user information, score information indicating time-series transitions of scores of a plurality of elements included in the user information;
a relationship recognition unit that recognizes, based on the score information, the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
a correlation information storage unit that stores information indicating mutually correlated elements and correlation coefficients between the elements based on the correlation;
a current user information recognition unit that recognizes current user information, which is the latest information of the user;
a first element recognition unit that recognizes the first element of the user indicated in the current user information;
a second element extraction unit that extracts a second element of the user that is correlated with the first element based on the information indicating the mutually correlated elements;
a prediction unit that predicts the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient and the current user information;
an action recognition unit that recognizes, when the future score of the second element of the user is within a predetermined range, an action that causes the future score of the second element to fall outside the predetermined range;
an output control unit configured to output information recommending implementation or avoidance of the action to the output unit;
The correlation information storage unit is configured to store correlated behavior information indicating behavior correlated with each element and a correlation coefficient between each element and the behavior,
The action recognition unit has a correlation with the first element or the second element based on the correlated action information when the future score of the second element of the user is included in a predetermined range, and An information output system configured to recognize an action that causes a future score of the second element to fall outside the predetermined range .
請求項1又は2記載の情報出力システムにおいて、
前記第1要素は、肌、体および心のうちの一に関する要素であり、前記第2要素は、肌、体および心のうちの他に関する要素であることを特徴とする情報出力システム。
In the information output system according to claim 1 or 2,
The information output system , wherein the first element is an element related to one of skin, body and mind, and the second element is an element related to the other of skin, body and mind .
請求項1又は2記載の情報出力システムにおいて、
前記第1要素は、ユーザの行動であり、前記第2要素は、肌、体および心のうちの一に関する要素であることを特徴とする情報出力システム。
In the information output system according to claim 1 or 2 ,
The information output system , wherein the first element is a user's behavior, and the second element is an element related to one of skin, body and mind .
請求項記載の情報出力システムにおいて、
前記ユーザの第2要素に関する目標を認識する目標認識部を備え、
前記行動認識部は、前記ユーザの第2要素の将来のスコアが、目標から遠ざかると予測された場合、前記第2要素の将来のスコアを前記目標に近づける行動を認識し、
前記出力制御部は、前記行動の実施を推奨する情報を前記出力部に出力するように構成されていることを特徴とする情報出力システム。
In the information output system according to claim 2 ,
a target recognition unit that recognizes a target related to the second element of the user;
The action recognition unit, when the future score of the second element of the user is predicted to move away from the target, recognizes an action that brings the future score of the second element closer to the target,
The information output system , wherein the output control unit is configured to output information recommending implementation of the action to the output unit .
請求項1~5のうちいずれか1項記載の情報出力システムにおいて、
前記ユーザ情報認識部は、前記ユーザの肌細胞画像データ、肌画像データ及び舌画像データのうち少なくとも1つを認識し、
前記スコア情報認識部は、前記ユーザの肌細胞画像データ、肌画像データ及び舌画像データに基づいて、前記ユーザの複数の要素のスコアの時系列遷移を示す情報を認識するように構成されていることを特徴とする情報出力システム。
In the information output system according to any one of claims 1 to 5 ,
The user information recognition unit recognizes at least one of skin cell image data, skin image data, and tongue image data of the user,
The score information recognition unit is configured to recognize information indicating time-series transition of scores of the plurality of elements of the user based on the skin cell image data, skin image data, and tongue image data of the user. An information output system characterized by:
請求項1~6のうちいずれか1項記載の情報出力システムにおいて、
前記ユーザの操作を受け付ける入力部を備え、
前記ユーザ情報認識部は、前記入力部に入力された情報を前記ユーザの情報として認識し、
前記スコア情報認識部は、前記入力部に入力された情報に基づいて、前記ユーザの複数の要素のスコアの時系列遷移を示す情報を認識するように構成されていることを特徴とする情報出力システム。
In the information output system according to any one of claims 1 to 6 ,
An input unit that receives the user's operation,
The user information recognition unit recognizes information input to the input unit as information of the user,
The information output, wherein the score information recognition unit is configured to recognize information indicating a time-series transition of scores of the plurality of factors of the user based on information input to the input unit. system.
情報を出力する出力部を備えるシステムに、In a system equipped with an output unit that outputs information,
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶するステップと、Based on the correlation, storing information indicating elements having correlation with each other and correlation coefficients between the elements;
前記ユーザの最新の情報である現状ユーザ情報を認識するステップと、recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、前記ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the correlation coefficient between the elements and the score of the first element indicated in the current user information;
前記ユーザの第2要素の将来のスコアに応じた情報を前記出力部に出力するステップと、を実行させることを特徴とする情報出力プログラム。and a step of outputting information corresponding to the future score of the second element of the user to the output unit.
情報を出力する出力部を備えるシステムに、In a system equipped with an output unit that outputs information,
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と、他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶ステップと、a correlation information storage step of storing information indicating elements having correlation with each other and correlation coefficients between the elements based on the correlation;
ユーザの最新の情報である現状ユーザ情報を認識するステップと、a step of recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient and the current user information;
前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識する行動認識ステップと、an action recognition step of recognizing, when the future score of the second factor of the user is within a predetermined range, an action that causes the future score of the second factor to fall outside the predetermined range;
前記行動の実施または回避を推奨する情報を前記出力部に出力するように構成されているステップと、を実行させ、a step configured to output to the output unit information recommending implementation or avoidance of the action;
前記相関情報記憶ステップは、各要素と相関を有する行動及び当該各要素と当該行動との相関係数を示す相関行動情報を記憶するように構成され、The correlation information storing step is configured to store correlated behavior information indicating a behavior correlated with each element and a correlation coefficient between each element and the behavior;
前記行動認識ステップは、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識するように構成されていることを特徴とする情報出力プログラム。The action recognition step has a correlation with the first element or the second element based on the correlated action information when the future score of the second element of the user is included in a predetermined range, and An information output program configured to recognize an action that causes a future score of the second element to fall outside the predetermined range.
請求項8又は9記載の情報出力プログラムにおいて、In the information output program according to claim 8 or 9,
前記第1要素は、肌、体および心のうちの一に関する要素であり、前記第2要素は、肌、体および心のうちの他に関する要素であることを特徴とする情報出力プログラム。The information output program, wherein the first element is an element related to one of skin, body and mind, and the second element is an element related to the other of skin, body and mind.
請求項8又は9記載の情報出力プログラムにおいて、In the information output program according to claim 8 or 9,
前記第1要素は、ユーザの行動であり、前記第2要素は、肌、体および心のうちの一に関する要素であることを特徴とする情報出力プログラム。The information output program, wherein the first element is a user's behavior, and the second element is an element relating to one of skin, body and mind.
情報を出力する出力部を備えるシステムが実行する方法であって、A method performed by a system comprising an output for outputting information, comprising:
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶するステップと、Based on the correlation, storing information indicating elements having correlation with each other and correlation coefficients between the elements;
前記ユーザの最新の情報である現状ユーザ情報を認識するステップと、recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記要素間の前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、前記ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the correlation coefficient between the elements and the score of the first element indicated in the current user information;
前記ユーザの第2要素の将来のスコアに応じた情報を前記出力部に出力するステップと、を実行させることを特徴とする情報出力方法。and a step of outputting information corresponding to the future score of the second element of the user to the output unit.
情報を出力する出力部を備えるシステムが実行する方法であって、A method performed by a system comprising an output for outputting information, comprising:
ユーザの固有のユーザ情報を認識するステップと、recognizing the unique user information of the user;
前記ユーザ情報に基づいて、当該ユーザ情報に含まれる複数の要素のスコアの時系列遷移を示すスコア情報を認識するステップと、a step of recognizing, based on the user information, score information indicating a time-series transition of scores of a plurality of elements included in the user information;
前記スコア情報に基づいて、一の要素のスコアの時系列遷移と他の要素のスコアの時系列遷移を所定の期間ずらした時系列遷移との相関を認識するステップと、Based on the score information, recognizing the correlation between the time-series transition of the score of one element and the time-series transition obtained by shifting the time-series transition of the score of another element by a predetermined period;
前記相関に基づいて、互いに相関を有する要素を示す情報及び当該要素間の相関係数を記憶する相関情報記憶ステップと、a correlation information storage step of storing information indicating elements having correlation with each other and correlation coefficients between the elements based on the correlation;
ユーザの最新の情報である現状ユーザ情報を認識するステップと、a step of recognizing current user information, which is the latest information of the user;
前記現状ユーザ情報に示される前記ユーザの第1要素を認識するステップと、recognizing a first element of the user indicated in the current user information;
前記互いに相関を有する要素を示す情報に基づいて、前記第1要素と相関のある前記ユーザの第2要素を抽出するステップと、A step of extracting a second element of the user correlated with the first element based on the information indicating the mutually correlated elements;
前記相関係数及び前記現状ユーザ情報に示される前記第1要素のスコアに基づいて、ユーザの第2要素の将来のスコアを予測するステップと、Predicting the future score of the second element of the user based on the score of the first element indicated in the correlation coefficient and the current user information;
前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識する行動認識ステップと、an action recognition step of recognizing, when the future score of the second factor of the user is within a predetermined range, an action that causes the future score of the second factor to fall outside the predetermined range;
前記行動の実施または回避を推奨する情報を前記出力部に出力するように構成されているステップと、を実行させ、a step configured to output to the output unit information recommending implementation or avoidance of the action;
前記相関情報記憶ステップは、各要素と相関を有する行動及び当該各要素と当該行動との相関係数を示す相関行動情報を記憶するように構成され、The correlation information storing step is configured to store correlated behavior information indicating a behavior correlated with each element and a correlation coefficient between each element and the behavior;
前記行動認識ステップは、前記ユーザの第2要素の将来のスコアが所定範囲に含まれる場合、前記相関行動情報に基づいて、前記第1要素または前記第2要素と相関を有し、かつ、前記第2要素の将来のスコアを前記所定範囲の範囲外にする行動を認識するように構成されていることを特徴とする情報出力方法。The action recognition step has a correlation with the first element or the second element based on the correlated action information when the future score of the second element of the user is included in a predetermined range, and An information output method, wherein the information output method is configured to recognize an action that causes the future score of the second element to fall outside the predetermined range.
請求項12又は13記載の情報出力方法において、In the information output method according to claim 12 or 13,
前記第1要素は、肌、体および心のうちの一に関する要素であり、前記第2要素は、肌、体および心のうちの他に関する要素であることを特徴とする情報出力方法。The information output method, wherein the first element is an element related to one of skin, body and mind, and the second element is an element related to the other of skin, body and mind.
請求項12又は13記載の情報出力方法において、In the information output method according to claim 12 or 13,
前記第1要素は、ユーザの行動であり、前記第2要素は、肌、体および心のうちの一に関する要素であることを特徴とする情報出力方法。The information output method, wherein the first element is a user's behavior, and the second element is an element related to one of skin, body and mind.
JP2018193734A 2017-10-12 2018-10-12 Information output system, information output method and information output program Active JP7163130B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017198828 2017-10-12
JP2017198828 2017-10-12

Publications (2)

Publication Number Publication Date
JP2019075120A JP2019075120A (en) 2019-05-16
JP7163130B2 true JP7163130B2 (en) 2022-10-31

Family

ID=66543224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018193734A Active JP7163130B2 (en) 2017-10-12 2018-10-12 Information output system, information output method and information output program

Country Status (1)

Country Link
JP (1) JP7163130B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013198794A (en) 2008-01-28 2013-10-03 Ethicon Endo Surgery Inc Device for predicting performance of gastric restriction system
JP2013238970A (en) 2012-05-14 2013-11-28 Secom Co Ltd Health management system
JP2014219850A (en) 2013-05-09 2014-11-20 パナソニックヘルスケア株式会社 Lifestyle-related diseases improvement support system and control method thereof
WO2015029801A1 (en) 2013-08-30 2015-03-05 ソニー株式会社 Information processing device, information processing method, and information processing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013198794A (en) 2008-01-28 2013-10-03 Ethicon Endo Surgery Inc Device for predicting performance of gastric restriction system
JP2013238970A (en) 2012-05-14 2013-11-28 Secom Co Ltd Health management system
JP2014219850A (en) 2013-05-09 2014-11-20 パナソニックヘルスケア株式会社 Lifestyle-related diseases improvement support system and control method thereof
WO2015029801A1 (en) 2013-08-30 2015-03-05 ソニー株式会社 Information processing device, information processing method, and information processing system

Also Published As

Publication number Publication date
JP2019075120A (en) 2019-05-16

Similar Documents

Publication Publication Date Title
JP7129867B2 (en) Information output system, information output method and information output program
JP7211717B2 (en) Image display device, image display program and image display method
KR102199441B1 (en) Product recommendation apparatus for evaluating comsmetics based on evaluation items selected by user information
JP5727706B2 (en) Lifestyle improvement support system, lifestyle improvement support method and program
KR102175504B1 (en) Product recommendation apparatus and method for providing component analysis
KR102199440B1 (en) Product recommendation apparatus for recommending comsmetics matching characteristics of user skin
JP2016081519A (en) Characteristics evaluation apparatus, characteristics evaluation system, characteristics evaluation method and characteristics evaluation program
JP7264959B2 (en) Information output system for skin condition care
JP7048782B2 (en) Skin condition support system
JP7337484B2 (en) Image display device, image display system, image display program and image display method
JP7248385B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP6974029B2 (en) Image display device, skin condition support system, image display program and image display method
JP7001469B2 (en) Skin condition recognition system
JP7163130B2 (en) Information output system, information output method and information output program
JP7129763B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP7051306B2 (en) Information output system, skin condition support program and skin condition support method
JP7300018B2 (en) Information output system, skin condition support program and skin condition support method
JP6845008B2 (en) Skin condition support system
JP7306787B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
JP7280333B2 (en) image display device
JP7129866B2 (en) Information output system, information output method and information output program
JP7518223B2 (en) Information output system for skin condition, body condition, or mental condition care
JP7270818B2 (en) Information output system, information output program and information output method regarding care for skin condition, physical condition or mental condition
KR20220086210A (en) Cognitive function and memory decline, early diagnosis service for dementia, and device and method for providing customized advertisement contents and advertisements
EP4331483A1 (en) Emotion estimating device, emotion estimating system, and emotion estimating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221019

R150 Certificate of patent or registration of utility model

Ref document number: 7163130

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150