WO2022201875A1 - 情報処理装置、情報処理方法および情報処理プログラム - Google Patents

情報処理装置、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
WO2022201875A1
WO2022201875A1 PCT/JP2022/003785 JP2022003785W WO2022201875A1 WO 2022201875 A1 WO2022201875 A1 WO 2022201875A1 JP 2022003785 W JP2022003785 W JP 2022003785W WO 2022201875 A1 WO2022201875 A1 WO 2022201875A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information processing
story
information
risk
Prior art date
Application number
PCT/JP2022/003785
Other languages
English (en)
French (fr)
Inventor
真旗 執行
正範 勝
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022201875A1 publication Critical patent/WO2022201875A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data

Definitions

  • the present technology relates to an information processing device, an information processing method, and an information processing program.
  • Patent Document 1 story generation technology using neural networks and the like has been proposed.
  • the subject matter of the story is the one that the user who is the target of the story prefers, the one that is assumed to be widely accepted in general, the one that is related to the user who is the target of the story, and the one that is not related to a specific real person. , and so on.
  • the present technology has been developed in view of these points, and aims to provide an information processing device, an information processing method, and an information processing program that generate a story showing the user's future risks.
  • the first technology includes a risk prediction unit that predicts user-related risks from user information, a user model that is constructed from user information, and future risks of the user based on the risks and the user model. and a story generation unit that generates a story about.
  • the second technology is an information processing method that predicts user-related risks from user information, builds a user model from user information, and generates stories about future risks of users based on the risks and user models. is.
  • a third technology is an information processing method for predicting user-related risks from user information, constructing a user model from the user information, and generating a story about the future risks of the user based on the risks and the user model. It is an information processing program to be executed.
  • FIG. 2 is a block diagram showing the configuration of the device 10;
  • FIG. 2 is a block diagram showing the configuration of the information processing apparatus 100;
  • FIG. 4 is a flowchart showing overall processing by the information processing apparatus 100;
  • 4 is a flowchart showing risk prediction processing;
  • FIG. 4 is an explanatory diagram of PHR;
  • 10 is a flowchart showing story generation processing.
  • FIG. 4 is an explanatory diagram of user model construction in story generation;
  • FIG. 4 is an explanatory diagram of event generation in story generation;
  • FIG. 10 is an explanatory diagram of plot generation in story generation;
  • FIG. 10 is an explanatory diagram of an improvement point database; It is a figure which shows the presentation aspect of a story. It is a figure which shows the presentation aspect of an improvement point.
  • FIG. 10 is a diagram showing a mode of presenting an improvement point that has been achieved and a message to the effect that the improvement point has been achieved;
  • FIG. 10 is an explanatory diagram of a
  • Embodiment> [1-1. Configuration of device 10] [1-2. Configuration of information processing device 100] [1-3. Processing by information processing device 100] ⁇ 2. Variation>
  • the device 10 includes a control section 11 , a storage section 12 , an interface 13 , an input section 14 , a display section 15 , a speaker 16 , a biosensor 17 and an information processing device 100 .
  • the control unit 11 is composed of a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), and the like.
  • the CPU executes various processes according to the programs stored in the ROM and issues commands to control the entire device 10 and each part.
  • the storage unit 12 is a large-capacity storage medium such as a hard disk or flash memory.
  • the storage unit 12 stores various applications that operate on the device 10, various types of information used by the information processing apparatus 100, and the like.
  • the interface 13 is an interface between other devices, the Internet, and the like.
  • Interface 13 may include a wired or wireless communication interface. More specifically, the wired or wireless communication interface includes cellular communication such as 3TTE, Wi-Fi, Bluetooth (registered trademark), NFC (Near Field Communication), Ethernet (registered trademark), HDMI (registered trademark) (High-Definition Multimedia Interface), USB (Universal Serial Bus), and the like.
  • the interface 13 may include a bus within the apparatus, a data reference within a program module, and the like (hereinafter, these are referred to as apparatus (Also known as the internal interface).
  • apparatus Also known as the internal interface
  • the interface 13 may include different types of interfaces for each apparatus.
  • the input unit 14 is for the user to input various instructions to the device 10 .
  • a control signal corresponding to the input is generated and supplied to the control unit 11 .
  • the control unit 11 performs various processes corresponding to the control signal.
  • the input unit 14 includes, in addition to physical buttons, a touch panel, speech input by voice recognition, gesture input by human body recognition, and the like.
  • the display unit 15 is a display device such as a display that displays stories and improvements generated by the information processing apparatus 100, GUI (Graphical User Interface), and the like.
  • the speaker 16 is an audio output device for outputting the story generated by the information processing apparatus 100 and points for improvement as audio.
  • the biosensor 17 is a variety of sensors for acquiring biometric information of the user.
  • the biosensor 17 include a heart rate sensor that measures heart rate, a body temperature sensor that measures body temperature, a blood pressure sensor that measures blood pressure, and an acceleration sensor that measures acceleration of body parts of the user. It is desirable that the biosensor 17 continue to acquire the user's biometric information on a regular basis.
  • the user's biometric information continuously acquired by the biosensor 17 is used as user information in the processing in the information processing apparatus 100 .
  • the biosensor 17 may be provided in the device 10 itself, or the biosensor 17 may be configured as a device separate from the device 10, and biometric information may be sent to the device 10 via communication such as a network or Bluetooth (registered trademark). You may make it transmit.
  • the device 10 is a smart phone, and the wristwatch-type wearable device includes the biosensor 17 .
  • the device 10 is connected to an external device, external sensor, server, cloud, etc. via an interface 13 in order to acquire user information, BMI, body fat percentage, calorie intake, exercise content, and the like.
  • Devices 10 include, for example, wearable devices, smart phones, tablet terminals, and personal computers.
  • the information processing apparatus 100 includes an information acquisition unit 101 , a risk prediction unit 102 , a story generation unit 103 , an improvement point identification unit 104 and a presentation processing unit 105 .
  • the information processing device 100 predicts the user's future risk and presents the risk as a story to the user in order to improve the user's bad habits that lead to the risk.
  • the information processing apparatus 100 also presents the user with improvement points in the user's behavior and thoughts in order to improve the bad habit.
  • the description is given assuming that the risk is related to disease.
  • the information acquisition unit 101 acquires user information and supplies it to the risk prediction unit 102 and story generation unit 103 .
  • User information includes basic user information, daily log information, and text information.
  • User basic information is basic information for identifying a user, such as the user's name, gender, age, hobbies, occupation, and family structure.
  • User basic information can be acquired by, for example, having the user input via the device 10 . It can also be obtained from a server that manages an SNS (Social Network Service) already registered by the user or various online services.
  • SNS Social Network Service
  • the daily log information includes the user's biometric information such as heart rate, body temperature, blood pressure, and amount of exercise that can be obtained by the biosensor 17, as well as BMI, body fat percentage, calorie intake, and exercise details that can be obtained from other sensors and inputs from the user. and information indicating the user's daily state, behavior, and the like.
  • Text information is information sent by users such as SNS, emails, messages, diaries, contents of telephone conversations, and other voice data of conversations, and is a variety of information that can be handled in text format. These pieces of information can be obtained by APIs (Application Programming Interfaces) of SNS, mail, message, diary, and voice call applications installed in the device 10, for example.
  • APIs Application Programming Interfaces
  • the daily log information and text information are not necessarily limited to information that can be acquired every day, and can be acquired at any interval, such as once a week, once a month, or irregularly.
  • the risk prediction unit 102 predicts the user's risk based on the user information.
  • the story generation unit 103 builds a user model that learns patterns of user behavior and thinking based on text information, and generates a story about the user's risk based on the user model and predicted risk.
  • the improvement point identification unit 104 identifies improvement points for avoiding or reducing the user's risk based on the predicted risk.
  • the presentation processing unit 105 performs conversion into various presentation modes in order to present the story and points to be improved to the user, and outputs them from the display unit 15 and/or the speaker 16 .
  • the information processing device 100 is configured as described above.
  • the information processing apparatus 100 may be configured as a single apparatus, or may operate in the device 10 .
  • a program that performs processing related to the information processing apparatus 100 may be installed in the device 10 in advance, or may be downloaded or distributed in a storage medium and installed by the provider himself/herself.
  • step S101 the information acquisition unit 101 acquires user information.
  • step S102 the risk prediction unit 102 predicts risks that may occur in the user based on the user information.
  • the risk relates to disease.
  • step S103 the story generation unit 103 generates a story to be presented to the user based on the user information and risk prediction results.
  • step S104 the improvement point identification unit 104 identifies improvement points based on the risk prediction results.
  • step S ⁇ b>105 the presentation processing unit 105 presents the story and points to be improved in a predetermined presentation mode to the user via the display unit 15 and the speaker 16 of the device 10 .
  • step S102 of FIG. 3 will be described with reference to the flowchart of FIG.
  • step S201 daily log information is collected as user information used for risk prediction.
  • a plurality of items related to the user's health are determined in a plurality of stages based on the daily log information.
  • Health-related items include, for example, BMI, blood pressure, visual acuity, hearing, lung capacity, total protein and albumin in liver tests, total cholesterol, blood sugar, red blood cell count, and platelet count.
  • BMI blood pressure
  • visual acuity hearing
  • lung capacity total protein and albumin in liver tests
  • total cholesterol blood sugar
  • red blood cell count red blood cell count
  • platelet count total cholesterol, blood sugar, red blood cell count, and platelet count.
  • the health-related items are not limited to these, and any health-related items may be used.
  • Health-related items may be set in the information processing apparatus 100 in advance, or may be obtained from the results of a health checkup that the user has taken at a hospital or the like.
  • the results of the health checkup may be obtained by inputting them via the device 10 by the user, or by connecting to a server of a hospital or the like and obtaining them via a network.
  • stages there are three stages: “A: Normal”, “B: Caution required”, and “C: Abnormal”.
  • the number of stages is not necessarily limited to three stages, and may be five stages or the like, and the number of stages is not limited. This embodiment will be described in three stages.
  • step S203 it is determined whether or not any of the determination results of a plurality of health-related items is worse than a predetermined standard.
  • the predetermined criterion is, for example, "B: caution required", which is the intermediate level among the above three stages. Therefore, if there is “B: need attention” or “C: abnormal” among the determination results of the health-related items, the process proceeds to step S204 (Yes in step S203). On the other hand, if there is no “B: need attention” or “C: abnormal” among the determination results of the health-related items, the process ends. (No in step S203). Note that the predetermined criterion is not limited to "B: caution required", which is the middle of the three levels.
  • step S204 detailed risk prediction is performed to predict in detail the risks of health-related items whose judgment results are worse than a predetermined standard.
  • PHRs personal health records
  • diseases with the highest probability of developing from health-related items with worse judgment results than predetermined standards are predicted as risks.
  • Disease prediction can be performed using a known method.
  • Personal health records include medical records and test results at multiple different medical institutions and facilities outside medical institutions, information on drugs prescribed at multiple pharmacies, and information measured by various sensors. This is a collection of personal biometric information for each user.
  • step S103 of FIG. 3 story generation in step S103 of FIG. 3 will be described with reference to the flowchart of FIG.
  • step S301 text information is collected as user information used for story generation.
  • step S302 the story generation unit 103 builds a user model, which is a model unique to the user.
  • User model construction is based on text information.
  • the text information is subjected to preprocessing such as summarization and text normalization.
  • Text normalization is a process of correcting dialects, slang, spelling variations, etc., and converting to a standard expression using a known method such as machine learning.
  • the scene and the user's actions and thoughts about the scene are extracted.
  • a scene is the user's state, the environment and phenomena around the user, and the user's actions and thoughts are the user's actions and thoughts regarding the scene.
  • an action/thought of "examination” as a scene and "anxiety” with respect to the scene from the posting of the SNS, which is the text information shown in FIG. 7A.
  • the action/thought of "low pressure” as a scene and "not feeling well” with respect to that scene.
  • a plurality of scenes and user's actions/thoughts are extracted from one piece of text information (one post on SNS, one message, etc.).
  • the scene and the user's behavior/thoughts on the scene are associated and extracted based on the text information. For example, when a scene and a user's behavior/thoughts on the scene are extracted from one piece of text information (for example, one post on SNS), they are associated with each other and extracted.
  • FIG. 7B schematically shows the relationship between scenes and actions/thoughts.
  • the “examination” represented by a rectangle is a scene
  • the user's actions/thoughts on the scene are represented by a plurality of ellipses.
  • Scenes and actions/thoughts are associated with numerical values indicating the degree of relevance. For example, in FIG.
  • a user model may be constructed by adding the emotion of each scene to the output using biometric information. For example, if specific biometric information (eg, body temperature is higher than normal) is obtained in a particular scene (eg, headache), it can be added to the output to construct a user model. This makes it possible to construct a model that reflects the individuality of the user.
  • biometric information eg, body temperature is higher than normal
  • step S303 the story generation unit 103 extracts a reference person. Extraction of the reference person is performed by extracting a person similar to the user from the PHR based on the risk prediction result obtained in the risk prediction and the PHR.
  • a person who is close to the user's age and sex indicated by the basic user information and various biological information indicated by the daily log information is extracted as a reference person. If a specific disease is not predicted in the risk prediction, a person with similar health-related items may be extracted from the PHR and used as a reference person.
  • a person with a related disease from the PHR as a reference person.
  • the predicted disease is polycythemia vera
  • a blood-related disease is extracted as a relevant disease
  • a person with essential thrombocythemia is extracted as a reference person.
  • step S304 the story generation unit 103 identifies the event.
  • the event is specified by extracting disease-related events from the PHR of the reference person extracted in step S303 and arranging them in chronological order as shown in FIG.
  • Disease-related events include, for example, medical examination, examination, hospitalization, surgery, treatment, discharge, and the like.
  • the event may be specified in more detail if more information about the event can be obtained from the PHR.
  • the test may be further specified to be a blood test, an endoscopy, and the like.
  • an event may be specified by creating a database of disease-related events in advance and extracting disease-related events from the event database.
  • an event model may be prepared in advance in which the input is text information and the output is an event, and the event may be identified using the event model. It should be noted that when events about diseases are created in advance in chronological order, the events can be identified from the diseases without extracting the reference person.
  • step S305 the story generation unit 103 generates plots.
  • the event generated in step S304 as an input for the user model constructed in step S301, it is possible to obtain the actions and thoughts that the user would take in response to the event as an output from the user model. Actions and thoughts, which are outputs of the user model, are plotted together for each event.
  • FIG. 9A is an example of a plurality of user actions/thoughts that are output when the event "examination" is input to the user model. Any one action/thought among the multiple outputs is selected according to a predetermined rule, and the selected action/thought and the action/thought highly related to the selected action/thought among the multiple outputs are selected. Thinking is associated with events and plotted. Therefore, a plot is a collection of one or more actions/thoughts for one event.
  • Predetermined rules include, for example, selecting actions/thoughts with a high appearance frequency, selecting actions/thoughts with a large number of nodes of related actions/thoughts, and the like. Actions/thoughts that are highly relevant to the selected action/thoughts are, for example, actions/thoughts that have a high probability of occurring after the selected action/thoughts.
  • FIG. 9B is an example of a plot that associates the scene "surgery” with the user's actions and thoughts corresponding thereto.
  • FIG. 9C is an example of a plot in which a scene of "discharge from the hospital" is associated with the user's behavior/thoughts corresponding thereto.
  • the input event Actions and thoughts about similar events are output.
  • a model that outputs the similarity between words is created in advance by machine learning using a tool that vectorizes the meaning of words such as Word2Vec. can be specified.
  • step S306 the story generation unit 103 generates a story based on the plot.
  • the story is assumed to be generated as sentences.
  • a story can be generated by preparing a template in advance and applying a plot to the template. It can also be performed using models such as RNN (Recurrent Neural Network) and LSTM (Long Short-Term Memory).
  • a story written by the user may be generated by reflecting the fluctuation of the user's notation in the text-normalized sentences.
  • Story generation is performed as described above.
  • step S104 of FIG. 3 the identification of improvement points by the improvement point identification unit 104 in step S104 of FIG. 3 will be described.
  • points to be improved may be specifically presented as item names and numerical values in the risk prediction results.
  • the improvement point includes a specific numerical value indicating the period of performing a specific action and a specific numerical value of the item to be adjusted
  • the user can adjust the period without changing the numerical value of the item to be finally adjusted. You may enable it to adjust the numerical value to show. For example, if the improvement point is "to lose weight by 5 kg in one month", adjust it to "to lose weight by 2.5 kg in two months (2.5 kg weight loss every month)”. . This adjustment can be realized by calculating from the numerical value indicating the period and the numerical value of the item.
  • the improvement point includes a specific numerical value indicating the number or frequency of a specific action, the user may be allowed to adjust the number or frequency.
  • the presentation of stories can be done in a variety of ways. As shown in FIG. 11A, the story can be presented to the user by displaying the story generated as text on the display unit 15 as text.
  • the text of the story may be read out by an existing read-aloud function and presented to the user by voice output from the speaker 16. At that time, the story may be read aloud using the user's voice acquired as the daily log information.
  • the story may be presented by displaying on the display unit 15 a combination of images (including photographs, illustrations, etc.) matching the words in the story and sentences.
  • a story may be presented by generating a cartoon by combining a plurality of images and sentences that match and displaying the cartoon on the display unit 15.
  • a moving image may be generated by combining a plurality of images and sentences that match the sentences of the story or the words in the sentences, and the moving image may be displayed on the display unit 15 to present the story.
  • the moving image may be combined with the voice of the text of the story read aloud to create a moving image with sound.
  • Images can be obtained, for example, by searching an image database that stores images in association with tag information that indicates what kind of image they are, using the words in the story.
  • the image database may be included in the information processing apparatus 100, or may be connected to an external server or cloud via the interface 13.
  • the improvement points are displayed on the display unit 15 as a character string as shown in FIG. 12 and presented to the user.
  • the improvement points may be presented in the same way as the story presentation method, or may be presented in a presentation method different from the story. Additionally, improvements may be presented as part of the story.
  • information useful for improvement may be presented at the same time. For example, if the point to be improved is related to smoking cessation such as "quit smoking", information and advertisements related to non-smoking goods such as gums and patches are presented together with the point to be improved based on the keyword "no smoking". This can assist the user in making improvements.
  • Information useful for improvement can be obtained, for example, by searching a database in which keywords included in points to be improved and information useful for improvement are linked and stored in advance using keywords.
  • the database may be included in the information processing apparatus 100, or may be connected to an external server or cloud via the interface 13. FIG.
  • the user's future risk can be presented to the user as a story that reflects the user's actions and thoughts. This makes it possible for the user to sympathize with the story and increase the motivation for the user to improve bad habits in order to avoid the risk rather than simply presenting the risk as information. In addition to the story, by presenting improvement points and useful information, it is possible to increase motivation to improve bad habits, and to make it easier for the user to take actions and thoughts for improvement.
  • story generation, identification and presentation of improvement points using this technology are not limited to one time, and may be performed any number of times. By repeating this process many times and constructing a user model and predicting risk based on the latest user information each time, it is possible to always present a story that reflects the latest state of the user and points to be improved.
  • the latest presentation may have better risk prediction results than past presentations.
  • a story may be generated and presented to the user based on the difference between the past risk prediction result and the latest risk prediction result or the improved risk prediction result. This can increase the user's motivation to improve bad habits. If there are improved elements and unimproved elements in the risk prediction result, both of them should be presented to the user as stories.
  • the user when presenting the latest story, the user may have achieved improvements that were presented in the past. In this case, it is preferable to display the improved points and a message to the effect that the improved points have been achieved on the display unit 15 as shown in FIG. This can increase the user's motivation to improve other bad habits.
  • the information processing apparatus 100 is described as operating on the device 10, but the information processing apparatus 100 performs processing on a server, cloud, personal computer, or the like other than the device 10, and only presents stories and points for improvement on the device. 10. In that case, a story generated by a server other than the device 10, a cloud, a personal computer, or the like and the identified improvements are transmitted to the device 10 via the network.
  • the risk is explained as being related to the user's disease.
  • the technology is also applicable to risks other than diseases.
  • the risk can be the risk related to learning (for example, test results or test results), and the improvement can be the study plan.
  • information on good subjects and weak subjects is included in the basic user information.
  • daily study time, school grades, etc. are included in the daily log information.
  • the stress level of the user may be calculated from various biometric information, and the user's good subjects and weak subjects may be specified and used as user basic information.
  • the reference person is specified from the data of the student and the examinee.
  • a user model is constructed from the text information in the same manner as in the embodiment.
  • the event is specified from the information of the reference person. Events include grade advancement, mock exams, exams, and announcement of results.
  • the user model is used to generate a plot as shown in FIG. 14C.
  • the user is presented with a story such as not being able to pass the desired school with the current academic ability, or the result of the examination is not good, and improvement points such as study goals, concrete study plans, optimal study time, etc. be.
  • the present technology can also take the following configurations.
  • a risk prediction unit that predicts user-related risks from user information
  • a story generator that constructs a user model from the user information and generates a story about the user's future risk based on the risk and the user model;
  • Information processing device (2)
  • the story generation unit constructs a user model from the user information, inputs the event related to the risk identified based on the risk to the user model, and plots the story as an output (1).
  • the information processing apparatus including an improvement point identification unit that identifies an improvement point for the risk that the user has.
  • the information processing apparatus identifies the improvement point by referring to a database in which the risk and the improvement point are associated in advance.
  • the information processing apparatus according to (5) or (6), further comprising a presentation processing unit that presents the story and the points to be improved to the user.
  • the information processing apparatus according to (7), wherein the story is displayed as text and presented to the user.
  • the information processing apparatus according to (7) or (8), wherein the story is presented to the user by voice output.
  • the information processing apparatus according to any one of (1) to (15), wherein the risk is a disease-related risk.
  • the information processing apparatus according to any one of (1) to (15), wherein the risk is a learning-related risk.
  • Predict risks related to users from user information An information processing method for constructing a user model from the user information and generating a story about the future risk of the user based on the risk and the user model.
  • Predict risks related to users from user information An information processing program that causes a computer to execute an information processing method of constructing a user model from the user information and generating a story about the future risk of the user based on the risk and the user model.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Development Economics (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Public Health (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

ユーザの将来におけるリスクを示すストーリーを生成する情報処理装置、情報処理方法および情報処理プログラムを提供する。 ユーザ情報からユーザに関するリスクを予測するリスク予測部と、ユーザ情報からユーザモデルを構築し、リスクと前記ユーザモデルに基づいてユーザの将来のリスクに関するストーリーを生成するストーリー生成部とを備える情報処理装置。 である。

Description

情報処理装置、情報処理方法および情報処理プログラム
 本技術は、情報処理装置、情報処理方法および情報処理プログラムに関する。
 従来からニューラルネットワークなどを用いたストーリー生成技術が提案されている(特許文献1)。ストーリーの題材としてはストーリーの提示対象であるユーザが好むもの、一般的に広く受け入れられることを想定したもの、ストーリーの提示対象であるユーザに関連するもの、実在の特定の人物には関連しないもの、など様々なものがある。
特開平10-143488号公報
 ストーリーが特定のユーザに提示されるものであり、かつ、そのストーリーがその提示対象であるユーザが有するリスクに関連するものである場合、よりそのユーザ個人に結びついたストーリーを生成することが求められる。
 本技術はこのような点に鑑みなされたものであり、ユーザの将来におけるリスクを示すストーリーを生成する情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。
 上述した課題を解決するために、第1の技術は、ユーザ情報からユーザに関するリスクを予測するリスク予測部と、ユーザ情報からユーザモデルを構築し、リスクとユーザモデルに基づいてユーザの将来のリスクに関するストーリーを生成するストーリー生成部とを備える情報処理装置である。
 また、第2の技術は、ユーザ情報からユーザに関するリスクを予測し、ユーザ情報からユーザモデルを構築し、リスクとユーザモデルに基づいてユーザの将来のリスクに関するストーリーを生成する情報処理方法である。
である。
 また、第3の技術は、ユーザ情報からユーザに関するリスクを予測し、ユーザ情報からユーザモデルを構築し、リスクとユーザモデルに基づいてユーザの将来のリスクに関するストーリーを生成する情報処理方法をコンピュータに実行させる情報処理プログラムである。
デバイス10の構成を示すブロック図である。 情報処理装置100の構成を示すブロック図である。 情報処理装置100による全体処理を示すフローチャートである。 リスク予測の処理を示すフローチャートである。 PHRの説明図である。 ストーリー生成の処理を示すフローチャートである。 ストーリー生成におけるユーザモデル構築の説明図である。 ストーリー生成におけるイベント生成の説明図である。 ストーリー生成におけるプロット生成の説明図である。 改善点データベースの説明図である。 ストーリーの提示態様を示す図である。 改善点の提示態様を示す図である。 達成した改善点とその改善点を達成した旨のメッセージの提示態様を示す図である。 本技術の変形例の説明図である。
 以下、本技術の実施の形態について図面を参照しながら説明する。なお、説明は以下の順序で行う。
<1.実施の形態>
[1-1.デバイス10の構成]
[1-2.情報処理装置100の構成]
[1-3.情報処理装置100による処理]
<2.変形例>
<1.実施の形態>
[1-1.デバイス10の構成]
 図1を参照して情報処理装置100が動作するデバイス10の構成について説明する。
 デバイス10は制御部11、記憶部12、インターフェース13、入力部14、表示部15、スピーカ16、生体センサ17、情報処理装置100を備えて構成されている。
 制御部11は、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)などから構成されている。CPUは、ROMに記憶されたプログラムに従い様々な処理を実行してコマンドの発行を行うことによってデバイス10の全体および各部の制御を行う。
 記憶部12は、例えばハードディスク、フラッシュメモリなどの大容量記憶媒体である。記憶部12にはデバイス10で動作する各種アプリケーションや、情報処理装置100で使用する各種情報などが格納されている。
 インターフェース13は、他の装置やインターネットなどとの間のインターフェースである。インターフェース13は、有線または無線の通信インターフェースを含みうる。また、より具体的には、有線または無線の通信インターフェースは、3TTEなどのセルラー通信、Wi-Fi、Bluetooth(登録商標)、NFC(Near Field Communication)、イーサネット(登録商標)、HDMI(登録商標)(High-Definition Multimedia Interface)、USB(Universal Serial Bus)などを含みうる。また、デバイス10と情報処理装置100の少なくとも一部が同一の装置で実現される場合、インターフェース13は、装置内のバスや、プログラムモジュール内でのデータ参照などを含みうる(以下、これらを装置内のインターフェースともいう)。また、デバイス10と情報処理装置100が複数の装置に分散して実現される場合、インターフェース13はそれぞれの装置のための異なる種類のインターフェースを含みうる。
 入力部14は、デバイス10に対してユーザが各種指示などを入力するためのものである。入力部14に対してユーザから入力がなされると、その入力に応じた制御信号が生成されて制御部11に供給される。そして、制御部11はその制御信号に対応した各種処理を行う。入力部14は物理ボタンの他、タッチパネル、音声認識による音声入力、人体認識によるジェスチャ入力などがある。
 表示部15は、情報処理装置100により生成されるストーリーや改善点、GUI(Graphical User Interface)などを表示するディスプレイなどの表示デバイスである。
 スピーカ16は、情報処理装置100により生成されるストーリーや改善点などを音声として出力するための音声出力デバイスである。
 生体センサ17は、ユーザの生体情報を取得するための種々のセンサである。生体センサ17としては、心拍数を測定する心拍センサ、体温を測定する体温センサ、血圧を測定する血圧センサ、ユーザの体の部位の加速度を測定する加速度センサなどがある。生体センサ17は定期的に継続してユーザの生体情報を取得し続けることが望ましい。生体センサ17により継続的に取得されるユーザの生体情報はユーザ情報として情報処理装置100における処理で用いられる。
 なお、生体センサ17はデバイス10自体が備えていてもよいし、生体センサ17をデバイス10とは別体の装置として構成して生体情報をネットワークやBluetooth(登録商標)などの通信でデバイス10に送信するようにしてもよい。例えばデバイス10がスマートフォンであり、腕時計型ウェアラブルデバイスが生体センサ17を備えている場合などである。
 また、デバイス10はユーザ情報、BMI、体脂肪率、摂取カロリー、運動内容などを取得するために外部装置、外部センサ、サーバ、クラウドなどとインターフェース13を介して接続されている。
 デバイス10としては例えばウェアラブルデバイス、スマートフォン、タブレット端末、パーソナルコンピュータなどがある。
[1-2.情報処理装置100の構成]
 次に図2を参照して、情報処理装置100の構成について説明する。情報処理装置100は、情報取得部101、リスク予測部102、ストーリー生成部103、改善点特定部104、提示処理部105を備えて構成されている。
 情報処理装置100はユーザの将来におけるリスクを予測し、そのリスクに繋がるユーザの悪習慣を改善させるためにリスクをストーリーとしてユーザに提示する。情報処理装置100は、さらにその悪習慣を改善させるためにユーザの行動や思考の改善点もユーザに提示する。本実施の形態ではリスクが疾患に関するものであるとして説明を行う。
 情報取得部101はユーザ情報を取得してリスク予測部102およびストーリー生成部103に供給する。ユーザ情報にはユーザ基本情報、日常ログ情報、テキスト情報がある。
 ユーザ基本情報とは、ユーザの氏名、性別、年齢、趣味、職業、家族構成などユーザを特定するための基本的な情報である。ユーザ基本情報は例えば、ユーザにデバイス10を介して入力させることで取得できる。また、ユーザが既に登録しているSNS(Social Network Service)や各種のオンラインサービスなどを管理するサーバなどから取得することもできる。
 日常ログ情報とは、生体センサ17で取得できる心拍数、体温、血圧、運動量、さらに他のセンサやユーザからの入力で取得できるBMI、体脂肪率、摂取カロリー、運動内容など、ユーザの生体情報や、ユーザの日常における状態や行動などを示す情報である。
 テキスト情報とは、SNS、メール、メッセージ、日記、電話の通話内容、その他会話の音声データなどユーザが発信したものであり、テキスト形式で取り扱うことができる各種の情報である。これらの情報は例えばデバイス10にインストールされているSNS用、メール用、メッセージ用、日記用、音声通話用のアプリケーションのAPI(Application Programming Interface)により取得することができる。
 なお、日常ログ情報、テキスト情報は必ずしも毎日取得できる情報に限られず、週一回、月一回、不定期などどのような取得間隔でもよい。
 リスク予測部102は、ユーザ情報に基づいてユーザが有するリスクを予測する。
 ストーリー生成部103は、テキスト情報に基づいてユーザの行動や思考のパターンを学習したユーザモデルを構築し、そのユーザモデルと予測されたリスクに基づいてユーザのリスクに関するストーリーを生成する。
 改善点特定部104は、予測されたリスクに基づいてユーザのリスクを回避または低減させるための改善点を特定する。
 提示処理部105は、ストーリーと改善点をユーザに提示するために種々の提示態様への変換などを行い、表示部15とスピーカ16の両方またはいずれか一方から出力させる。
 情報処理装置100は以上のようにして構成されている。情報処理装置100は単体の装置として構成されてもよいし、デバイス10において動作するものでもよい。情報処理装置100に係る処理を行うプログラムは予めデバイス10内にインストールされていてもよいし、ダウンロード、記憶媒体などで配布されて、提供者が自らインストールするようにしてもよい。
[1-3.情報処理装置100による処理]
 次に情報処理装置100による処理について説明する。まず図3のフローチャートを参照して、全体処理の流れについて説明する。
 まずステップS101で、情報取得部101がユーザ情報を取得する。
 次にステップS102で、リスク予測部102がユーザ情報に基づいてユーザにおいて発生する可能性があるリスクを予測する。上述したように本実施の形態ではリスクは疾患に関するものである。
 次にステップS103で、ストーリー生成部103がユーザ情報とリスク予測結果に基づいてユーザに提示するストーリーを生成する。
 次にステップS104で、改善点特定部104がリスク予測結果に基づいて改善点を特定する。
 次にステップS105で、提示処理部105によって所定の提示態様でストーリーおよび改善点がデバイス10の表示部15とスピーカ16を介してユーザに提示される。
 次に図4のフローチャートを参照して、図3のステップS102におけるリスク予測について説明する。
 まずステップS201で、リスク予測に用いるユーザ情報として日常ログ情報を収集する。
 次にステップS202で、日常ログ情報に基づいてユーザの健康に関する複数の項目を複数の段階で判定する。健康に関する項目としては、例えば、BMI値、血圧値、視力、聴力、肺活量、肝臓検査における総たんぱく量やアルブミン、総コレステロール、血糖値、赤血球量、血小板数などがある。ただし、健康に関する項目はこれらに限定されるものではなく、健康に関するものであればどのようなものでもよい。
 健康に関する項目は予め情報処理装置100において設定しておいてもよいし、ユーザが病院などで受診した健康診断の結果から取得してもよい。健康診断の結果はユーザがデバイス10を介して入力したものを取得してもよいし、病院などのサーバと接続してネットワークを経由して取得してもよい。
 複数の段階としては例えば、「A:正常」、「B:要注意」、「C:異常」という3段階がある。段階は必ずしも3段階に限られず、5段階などでもよいし、段階数は限定されるものではない。本実施の形態では3段階で説明を行う。
 次にステップS203で、健康に関する複数の項目の判定結果のいずれかが所定の基準よりも悪いか否かを判定する。所定の基準は例えば、上述の3段階の中間の「B:要注意」である。したがって、健康に関する項目の判定結果のうち、「B:要注意」、または、「C:異常」がある場合、処理はステップS204に進む(ステップS203のYes)。一方、健康に関する項目の判定結果のうち、「B:要注意」と「C:異常」がない場合、処理は終了となる。(ステップS203のNo)。なお、所定の基準は3段階の中間である「B:要注意」に限定されるものではない。
 次にステップS204で、判定結果が所定の基準よりも悪い健康に関する項目についてリスクを詳細に予測するリスク詳細予測を行う。
 リスク詳細予測では、パーソナルヘルスレコード(PHR:Personal Health Record)を参照して、判定結果が所定の基準よりも悪い健康に関する項目から最も発症する可能性が高い疾患をリスクとして予測する。疾患の予測は公知の手法を用いて行うことができる。
 パーソナルヘルスレコードとは、図5に示すように、異なる複数の医療機関や医療機関外の施設などにおける診療の記録や検査結果、さらに複数の薬局において処方された薬の情報、各種センサで計測された個人の生体情報などをユーザごとに集約したものである。
 疾患の予測に加え、パーソナルヘルスレコードに基づいて予測した疾患の発症年齢を予測してもよい。例えば、予測した疾患にすでに罹患(発症)している人の中で、発症前の状態がユーザと似た人を抽出し、複数人抽出できた場合はその発症年齢の平均値を算出することで予測できる。
 以上のようにしてリスク予測が行われる。
 次に図6のフローチャートを参照して、図3のステップS103におけるストーリー生成について説明する。
 まずステップS301で、ストーリー生成に用いるユーザ情報としてテキスト情報を収集する。
 次にステップS302で、ストーリー生成部103はユーザ固有のモデルであるユーザモデルを構築する。ユーザモデルの構築はテキスト情報に基づいて行われる。まずテキスト情報に要約処理、テキスト正規化などの前処理を施す。テキスト正規化とは機械学習などの公知の方法を用いて方言、スラング、表記ゆれなどを直す、標準的な表現に変換するなどの処理である。そしてテキスト情報からシーンとそのシーンに対するユーザの行動・思考を抽出する。
 シーンとはユーザの状態やユーザの周囲の環境や現象などであり、ユーザの行動・思考とはそのシーンに対するユーザがとった行動と思考である。例えば、図7Aに示すテキスト情報であるSNSの投稿からはシーンとして「検査」、そのシーンに対して「不安」という行動・思考を抽出することができる。また、図7Aに示す別の投稿からはシーンとして「低気圧」、そのシーンに対して「調子悪い」という行動・思考を抽出することができる。なお、一つのテキスト情報(SNSにおける一つの投稿、一つのメッセージなど)から複数のシーンとユーザの行動・思考が抽出される場合もある。
 図7Bに示すように、シーンとそのシーンに対するユーザの行動・思考はテキスト情報に基づいて関連付けて抽出される。例えば一つのテキスト情報(例えば、SNSにおける一つの投稿)の中からシーンとそのシーンに対するユーザの行動・思考が抽出された場合、それらは関連性があるものとして関連付けられる抽出される。図7Bはシーンと行動・思考の関係を模式的に表したものである。図7Bにおいて矩形で表す「検査」はシーンであり、複数の楕円で表すのはそのシーンに対するユーザの行動・思考である。シーンと行動・思考は関連度を示す数値が紐付けられる。例えば、図7Bにおける、「検査」というシーンと「長かった」という行動・思考の関連度を示す数値である10%は、「検査」というシーンにおいて「長かった」という行動・思考になる確率が10%であるということを示している。このようにして様々なシーンとそのシーンに対する行動・思考をテキスト情報から抽出する。抽出して集められたシーンと行動・思考が多ければ多いほどユーザモデルは様々なシーンに対応することができるものとして構築される。
 そして、テキスト情報から抽出したシーンとそれに対応するユーザの行動・思考をシーンごとに分類し、機械学習によりユーザの行動、思考パターンを学習する。これにより図7Cに示すように、入力をシーンとし、出力を行動・思考としたユーザモデルを構築することができる。
 なお、生体情報を用いてシーンごとの情動を出力に加えてユーザモデルを構築してもよい。例えば、特定のシーン(例、頭痛)において特定の生体情報(例、体温が平熱よりも高いという)が得られた場合、それを出力に加えてユーザモデルを構築することができる。これにより、ユーザの個性を反映したモデルを構築することができる。
 このようにしてユーザモデルを構築することにより、シーンをユーザモデルに入力すれば、そのシーンに対してユーザがどのような行動・思考を行うかを把握することができるようになる。
 次にステップS303で、ストーリー生成部103は参照人物の抽出を行う。参照人物の抽出はリスク予測で得られたリスク予測結果とPHRに基づいて、PHRの中からユーザと似ている人物を抽出することにより行う。
 具体的には、PHRにおける、リスクとして予測された疾患と同じ疾患を有する複数の人物の中からユーザ基本情報で示されるユーザの年齢、性別や日常ログ情報で示される各種の生体情報が近い人物を参照人物として抽出する。なお、リスク予測において具体的な疾患が予測されなかった場合には健康に関する項目が近い人物をPHRから抽出して参照人物とするとよい。
 なお、リスク予測で予測した疾患を有する人物がいない場合、関連性がある疾患を有する人物を参照人物としてPHRから抽出するとよい。例えば、予測された疾患が真性多血症である場合、血液に関する疾患を関連性がある疾患として、本態性血小板血症を有する人物を参照人物として抽出する。
 次にステップS304でストーリー生成部103はイベントの特定を行う。イベントの特定は、ステップS303で抽出された参照人物のPHRから疾患に関係するイベントを抽出し、図8に示すように時系列順に並べることにより行う。疾患に関係するイベントとしては、例えば、診察、検査、入院、手術、治療、退院などがある。PHRからイベントの情報を詳細に得ることができる場合にはイベントを更に詳細に特定してもよい。例えば、検査をさらに詳細に特定して、血液検査、内視鏡検査にする、などである。
 なお、疾患に関係するイベントを予めデータベース化しておき、そのイベントデータベースから疾患に関係するイベントを抽出することでイベントを特定してしてもよい。また、入力をテキスト情報、出力をイベントとするイベントモデルを予め用意しておき、そのイベントモデルを用いてイベントを特定してもよい。なお、疾患についてのイベントが時系列に沿って事前に作成されている場合には参照人物を抽出することなく、疾患からイベントを特定することができる。
 次にステップS305で、ストーリー生成部103はプロット生成を行う。ステップS304で生成されたイベントをステップS301で構築したユーザモデルの入力とすることで、そのイベントに対してユーザがとるであろう行動・思考をユーザモデルからの出力として得ることができる。そのユーザモデルの出力である行動・思考をイベントごとにまとめてプロットとする。
 例えば、図9Aは「検査」というイベントをユーザモデルに入力した場合に出力されるユーザの複数の行動・思考の例である。その複数の出力の中のいずれか一つの行動・思考を所定のルールで選択し、その選択した行動・思考と、その複数の出力の中でその選択した行動・思考と関連性が高い行動・思考とをイベント対応付けてプロットとする。したがって、一つのイベントに対して一または複数の行動・思考がまとめられたものがプロットとなる。所定のルールとは、例えば、出現頻度が高い行動・思考を選択する、関連する行動・思考のノード数が多い行動・思考を選択する、などである。また、選択した行動・思考と関連性が高い行動・思考とは、例えば、選択した行動・思考の後に続けて起きる確率が高い行動・思考などである。
 図9Bは「手術」というシーンとそれに対応するユーザの行動・思考とを対応付けたプロットの例である。また、図9Cは「退院」というシーンとそれに対応するユーザの行動・思考とを対応付けたプロットの例である。
 なお、入力されたイベントがユーザモデルにおいて未知のものである場合(ユーザが過去に検査というものを受けたことがない場合、ユーザモデルにおいて検査は未知のものとなる)、その入力されたイベントに類似するイベントについての行動・思考を出力とする。例えば、Word2Vecなどの単語の意味をベクトル化するツールを用いて単語間の類似度を出力するモデルを機械学習で予め作成しておき、そのモデルを用いて、入力されたイベントに類似するイベントを特定することができる。
 次にステップS306で、ストーリー生成部103はプロットに基づいてストーリーを生成する。ここではストーリーは文章として生成されるものとする。ストーリーの生成は予め用意したテンプレートを用意しておき、そのテンプレートにプロットを当てはめることで行うことができる。また、RNN(Recurrent Neural Network)やLSTM(Long Short-Term Memory)などのモデルを用いて行うこともできる。さらに、テキスト正規化された文章にユーザの表記ゆらぎを反映させてユーザが書いたようなストーリーを生成してもよい。
 以上のようにしてストーリー生成が行われる。
 次に図3のステップS104における改善点特定部104による改善点の特定について説明する。
 改善点を特定するには、予め、図10に示すようなリスク予測結果における健康に関する項目ごとに改善点を対応付けた改善点データベースを用意しておく。そして、ユーザのリスク予測結果において所定の基準より悪いと判定された項目に対応付けられた改善点を改善点データベースから読み出すことで改善点を特定することができる。
 また、日常ログ情報とリスクとの因果関係を把握できる場合には改善点をリスク予測結果における項目名や数値などで具体的に提示してもよい。
 なお、改善点が特定の行動を行う期間を示す具体的な数値と、調整すべき項目の具体的な数値を含む場合、最終的に調整すべき項目の数値を変えることなくそのユーザが期間を示す数値を調整できるようにしてもよい。例えば、改善点が「1ヶ月で体重を5kg落とす」である場合、それを「2ヶ月で体重を2.5kg減らす(1ヶ月毎に体重を2.5kg減らす)」に調整する、などである。この調整は、期間を示す数値と項目の数値とから算出することで実現できる。なお、期間を示す数値だけでなく、改善点が特定の行動の回数や頻度を示す具体的な数値を含む場合にユーザがその回数や頻度を調整できるようにしてもよい。
 次に図3のステップS105におけるストーリーおよび改善点の提示について説明する。ストーリーの提示は種々の方法で行うことができる。ストーリーは図11Aに示すように、文章として生成されたストーリーをそのまま文章として表示部15に表示することによりユーザに提示することができる。
 また、ストーリーの文章を既存の読み上げ機能により読み上げてスピーカ16からの音声出力でユーザに提示してもよい。その際、日常ログ情報として取得したユーザの声を使用してストーリーを読み上げてもよい。
 また、ストーリー内の単語に合う画像(写真、イラストなども含む)と文章を組み合わせて表示部15に表示することによりストーリーを提示してもよいし、図11Bに示すように、ストーリー内の単語に合う複数枚の画像と文章を組み合わせて漫画を生成し、その漫画を表示部15に表示することによりストーリーを提示してもよい。また、ストーリーの文章や文章内の単語に合う複数枚の画像と文章を組み合わせて動画を生成し、その動画を表示部15に表示することによりストーリーを提示してもよい。また、その動画にストーリーの文章を読み上げた音声を合わせて音声付き動画にしてもよい。
 画像は、例えば、画像をその画像がどのような画像であるかを示すタグ情報と紐付けて保存している画像データベースをストーリー内の単語で検索することにより得ることができる。画像データベースは情報処理装置100が備えていてもよいし、外部のサーバやクラウドが備えるものにインターフェース13を介して接続してもよい。また、公知の画像提供サービスを利用してもよい。
 そして、ストーリーの提示後に改善点をユーザに提示する。改善点は図12に示すように文字列として表示部15に表示されてユーザに提示される。
 なお、改善点をストーリーの提示方法と同一の方法で提示するようにしてもよいし、ストーリーとは異なる提示方法で提示してもよい。さらに、改善点をストーリーの一部として提示してもよい。
 また、改善点提示の際に改善に役立つ情報を同時に提示してもよい。例えば、改善点が「禁煙する」という禁煙に関するものである場合、禁煙というキーワードからガム、パッチなどの禁煙グッズに関する情報や広告を改善点と同時に提示する。これにより、ユーザによる改善の実行を補助することができる。改善に役立つ情報は、例えば、予め改善点に含まれるキーワードと改善に役立つ情報とを紐付けて保存しているデータベースをキーワードで検索することにより得ることができる。データベースは情報処理装置100が備えていてもよいし、外部のサーバやクラウドが備えるものにインターフェース13を介して接続してもよい。
 以上のようにして本技術が構成されている。本技術によれば、ユーザの将来のリスクをユーザの行動・思考を反映したストーリーとしてユーザに提示することができる。これにより、ユーザがそのストーリーに共感し、単にリスクを情報として提示するよりもユーザがリスクを回避するために悪習慣を改善するモチベーションを高めることができる。また、ストーリーに加え、改善点やそれに役立つ情報も提示することにより、さらに悪習慣を改善するモチベーションが上げることができるとともに、ユーザが改善のための行動や思考を取りやすくすることができる。
 将来のリスクをストーリーとして共感しやすい形で提示することは悪習慣を改善させるだけでなく、良い習慣を身に付けることへのモチベーションを上げることができる。特にユーザ自身の日常ログ情報から具体的な改善施策を提案することにより、ユーザに効率的に良い習慣を身に付けさせることができる。
 また、ユーザのリスクが高まる(健康状態が悪くなる)とより死に近いストーリーが生成されて提示されるため、ユーザに気を抜かずに悪習慣の改善に取り組ませることができる。
 なお、本技術によるストーリー生成、改善点の特定および提示は一回に限られるものではなく何度行ってもよい。何度も行い、その都度、最新のユーザ情報に基づいてユーザモデル構築とリスク予測を行うことにより、常にユーザの最新の状態を反映したストーリーと改善点を提示することができる。
 本技術を複数回利用してユーザがストーリーおよび改善点の提示を受ける場合、最新の提示の際に過去の提示よりもリスク予測結果が改善している場合がある。その場合には過去のリスク予測結果と最新のリスク予測結果の差分や、改善したリスク予測結果に基づいてストーリーを生成してユーザに提示してもよい。これにより、ユーザの悪習慣改善のモチベーションを高めることができる。なお、リスク予測結果に改善している要素と改善していない要素がある場合にはその両方をストーリーとしてユーザに提示するとよい。
 また、最新のストーリーの提示の際に、過去に提示した改善点をユーザが達成している場合もある。その場合には、達成した改善点とその改善点を達成した旨のメッセージを図13に示すように表示部15に表示したり、スピーカ16からの音声出力でユーザに提示するとよい。これにより、ユーザの他の悪習慣改善へのモチベーションを高めることができる。
<2.変形例>
 以上、本技術の実施の形態について具体的に説明したが、本技術は上述の実施の形態に限定されるものではなく、本技術の技術的思想に基づく各種の変形が可能である。
 実施の形態では情報処理装置100はデバイス10で動作するものとして説明したが、情報処理装置100はデバイス10以外のサーバ、クラウド、パーソナルコンピュータなどにおいて処理を行い、ストーリーと改善点の提示のみがデバイス10で行われるようにしてもよい。その場合、デバイス10以外のサーバ、クラウド、パーソナルコンピュータなどが生成したストーリーと特定した改善点を、ネットワークを通じてデバイス10に送信する。
 実施の形態ではストーリー生成と改善点特定を行った後にそれらの提示を行うとして説明したが、ストーリー生成後にまずストーリーを提示し、その後に改善点を特定して提示するという流れでもよい。
 上述の実施の形態ではリスクをユーザの疾患に関するものとして説明を行った。しかし、本技術は疾患以外のリスクにも適用可能である。
 例えば、ユーザが学生であり、リスクを学習に関するリスク(例えば、受験結果や試験結果など)とし、改善点を勉強計画についてのものとすることもできる。この場合、得意科目や不得意科目の情報をユーザ基本情報に含める。また、日々の勉強時間、学校の成績などを日常ログ情報に含める。また、各種生体情報からユーザのストレス度を算出し、ユーザの得意科目、不得意科目を特定してそれをユーザ基本情報としてもよい。また、参照人物は学生、受験生のデータから特定する。
 そして、図14Aに示すように、実施の形態と同様にしてテキスト情報からユーザモデルを構築する。また、図14Bに示すように参照人物の情報からイベントを特定する。イベントは進級、模試、受験、結果発表などである。さらに、図14Cに示すようにユーザモデルを用いてプロットを生成する。
 そして、プロットに基づいてストーリーを生成し、リスク予測結果から改善点を特定する。そしてストーリーと改善点がユーザに提示される。この場合の例えば、今の学力では志望校に受からない、試験の結果がよくないなどのストーリーと、勉強の目標、具体的な勉強計画、最適な勉強時間、などの改善点がユーザに提示される。
 本技術は以下のような構成も取ることができる。
(1)
 ユーザ情報からユーザに関するリスクを予測するリスク予測部と、
 前記ユーザ情報からユーザモデルを構築し、前記リスクと前記ユーザモデルに基づいて前記ユーザの将来のリスクに関するストーリーを生成するストーリー生成部と、
を備える情報処理装置。
(2)
 前記ストーリー生成部は、前記ユーザ情報からユーザモデルを構築し、前記リスクに基づいて特定した前記リスクに関連するイベントを前記ユーザモデルに入力して得られる出力を前記ストーリーのプロットとする(1)記載の情報処理装置。
(3)
 前記ストーリー生成部は、前記リスクと前記イベントを予め対応付けたデータベースを参照して前記イベントを特定する(2)に記載の情報処理装置。
(4)
 前記ストーリー生成部は、前記プロットに基づいて前記ストーリーを生成する(2)ままたは(3)に記載の情報処理装置。
(5)
 前記ユーザが有するリスクに対する改善点を特定する改善点特定部を備える(1)から(4)のいずれかに記載の情報処理装置。
(6)
 改善点特定部は、予めリスクと前記改善点を対応付けたデータベースを参照して前記改善点を特定する(5)に記載の情報処理装置。
(7)
 前記ストーリーおよび前記改善点を前記ユーザに提示する提示処理部を備える(5)または(6)に記載の情報処理装置。
(8)
 前記ストーリーは文章として表示されて前記ユーザに提示される(7)に記載の情報処理装置。
(9)
 前記ストーリーは音声出力により前記ユーザに提示される(7)または(8)に記載の情報処理装置。
(10)
 前記ストーリーは一または複数の画像とともに表示されて前記ユーザに提示される(7)から(9)のいずれかに記載の情報処理装置。
(11)
 前記ストーリーは動画として表示されて前記ユーザに提示される(7)から(10)のいずれかに記載の情報処理装置。
(12)
 前記改善点は文字列として表示されて前記ユーザに提示される(7)から(11)のいずれかに記載の情報処理装置。
(13)
 前記ユーザ情報は前記ユーザについての生体情報を含む(1)から(12)のいずれかに記載の情報処理装置。
(14)
 前記ユーザ情報はユーザが発信したテキスト情報を含む(1)から(13)のいずれかに記載の情報処理装置。
(15)
 前記ストーリー生成部は、前記テキスト情報に基づいて前記ユーザモデルを構築する(14)に記載の情報処理装置。
(16)
 前記リスクは疾患に関するリスクである(1)から(15)のいずれかに記載の情報処理装置。
(17)
 前記リスクは学習に関するリスクである(1)から(15)のいずれかに記載の情報処理装置。
(18)
 ユーザ情報からユーザに関するリスクを予測し、
 前記ユーザ情報からユーザモデルを構築し、前記リスクと前記ユーザモデルに基づいて前記ユーザの将来のリスクに関するストーリーを生成する
情報処理方法。
(19)
 ユーザ情報からユーザに関するリスクを予測し、
 前記ユーザ情報からユーザモデルを構築し、前記リスクと前記ユーザモデルに基づいて前記ユーザの将来のリスクに関するストーリーを生成する
情報処理方法をコンピュータに実行させる情報処理プログラム。
100・・・情報処理装置
102・・・リスク予測部
103・・・ストーリー生成部
104・・・改善点特定部
105・・・提示処理部

Claims (19)

  1.  ユーザ情報からユーザに関するリスクを予測するリスク予測部と、
     前記ユーザ情報からユーザモデルを構築し、前記リスクと前記ユーザモデルに基づいて前記ユーザの将来のリスクに関するストーリーを生成するストーリー生成部と、
    を備える情報処理装置。
  2.  前記ストーリー生成部は、前記ユーザ情報からユーザモデルを構築し、前記リスクに基づいて特定した前記リスクに関連するイベントを前記ユーザモデルに入力して得られる出力を前記ストーリーのプロットとする
    請求項1に記載の情報処理装置。
  3.  前記ストーリー生成部は、前記リスクと前記イベントを予め対応付けたデータベースを参照して前記イベントを特定する
    請求項2に記載の情報処理装置。
  4.  前記ストーリー生成部は、前記プロットに基づいて前記ストーリーを生成する
    請求項2に記載の情報処理装置。
  5.  前記ユーザが有するリスクに対する改善点を特定する改善点特定部を備える
    請求項1に記載の情報処理装置。
  6.  改善点特定部は、予めリスクと前記改善点を対応付けたデータベースを参照して前記改善点を特定する
    請求項5に記載の情報処理装置。
  7.  前記ストーリーおよび前記改善点を前記ユーザに提示する提示処理部を備える
    請求項5に記載の情報処理装置。
  8.  前記ストーリーは文章として表示されて前記ユーザに提示される
    請求項7に記載の情報処理装置。
  9.  前記ストーリーは音声出力により前記ユーザに提示される
    請求項7に記載の情報処理装置。
  10.  前記ストーリーは一または複数の画像とともに表示されて前記ユーザに提示される
    請求項7に記載の情報処理装置。
  11.  前記ストーリーは動画として表示されて前記ユーザに提示される
    請求項7に記載の情報処理装置。
  12.  前記改善点は文字列として表示されて前記ユーザに提示される
    請求項7に記載の情報処理装置。
  13.  前記ユーザ情報は前記ユーザについての生体情報を含む
    請求項1に記載の情報処理装置。
  14.  前記ユーザ情報はユーザが発信したテキスト情報を含む
    請求項1に記載の情報処理装置。
  15.  前記ストーリー生成部は、前記テキスト情報に基づいて前記ユーザモデルを構築する
    請求項14に記載の情報処理装置。
  16.  前記リスクは疾患に関するリスクである
    請求項1に情報処理装置。
  17.  前記リスクは学習に関するリスクである
    請求項1に情報処理装置。
  18.  ユーザ情報からユーザに関するリスクを予測し、
     前記ユーザ情報からユーザモデルを構築し、前記リスクと前記ユーザモデルに基づいて前記ユーザの将来のリスクに関するストーリーを生成する
    情報処理方法。
  19.  ユーザ情報からユーザに関するリスクを予測し、
     前記ユーザ情報からユーザモデルを構築し、前記リスクと前記ユーザモデルに基づいて前記ユーザの将来のリスクに関するストーリーを生成する
    情報処理方法をコンピュータに実行させる情報処理プログラム。
PCT/JP2022/003785 2021-03-22 2022-02-01 情報処理装置、情報処理方法および情報処理プログラム WO2022201875A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021047243 2021-03-22
JP2021-047243 2021-03-22

Publications (1)

Publication Number Publication Date
WO2022201875A1 true WO2022201875A1 (ja) 2022-09-29

Family

ID=83396770

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003785 WO2022201875A1 (ja) 2021-03-22 2022-02-01 情報処理装置、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
WO (1) WO2022201875A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018025933A (ja) * 2016-08-09 2018-02-15 株式会社Hmcエデュケーション パーソナライズされた情報誌の発行・配信システム
JP2019212263A (ja) * 2018-09-18 2019-12-12 Social Healthcare Design株式会社 情報処理装置及びプログラム
JP2020003690A (ja) * 2018-06-29 2020-01-09 株式会社なるほどゼミナール 学習支援装置、方法、及びコンピュータプログラム
JP2020042433A (ja) * 2018-09-07 2020-03-19 大日本印刷株式会社 情報提供システム、ユーザ携帯装置、情報提供装置、コンピュータプログラム及び情報提供方法
JP6834046B1 (ja) * 2020-05-08 2021-02-24 長瀬産業株式会社 バーチャル疾患体験システム、バーチャル疾患体験方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018025933A (ja) * 2016-08-09 2018-02-15 株式会社Hmcエデュケーション パーソナライズされた情報誌の発行・配信システム
JP2020003690A (ja) * 2018-06-29 2020-01-09 株式会社なるほどゼミナール 学習支援装置、方法、及びコンピュータプログラム
JP2020042433A (ja) * 2018-09-07 2020-03-19 大日本印刷株式会社 情報提供システム、ユーザ携帯装置、情報提供装置、コンピュータプログラム及び情報提供方法
JP2019212263A (ja) * 2018-09-18 2019-12-12 Social Healthcare Design株式会社 情報処理装置及びプログラム
JP6834046B1 (ja) * 2020-05-08 2021-02-24 長瀬産業株式会社 バーチャル疾患体験システム、バーチャル疾患体験方法、及びプログラム

Similar Documents

Publication Publication Date Title
US10950332B2 (en) Targeted sensation of touch
US20200395112A1 (en) A System and Method for Documenting a Patient Medical History
Graaf et al. Characteristics of narrative interventions and health effects: A review of the content, form, and context of narratives in health-related narrative persuasion research
Barrett-Lennard The relationship inventory: A complete resource and guide
Hoerger Participant dropout as a function of survey length in Internet-mediated university studies: Implications for study design and voluntary participation in psychological research
Lipkus Numeric, verbal, and visual formats of conveying health risks: suggested best practices and future recommendations
US10025910B2 (en) Endpoint development process
Mackenzie et al. Picture description in neurologically normal adults: Concepts and topic coherence
Lalor et al. ComprehENotes, an instrument to assess patient reading comprehension of electronic health record notes: development and validation
Menichetti et al. Tested communication strategies for providing information to patients in medical consultations: a scoping review and quality assessment of the literature
Goodman et al. It's not what you say but how you say it: Examining the influence of perceived voice assistant gender and pitch on trust and reliance
Sissoko et al. It’s more than skin-deep: Gendered racial microaggressions, skin tone satisfaction, and traumatic stress symptoms among Black women
Hardy et al. Associations between voice and gestural characteristics of transgender women and self-rated femininity, satisfaction, and quality of life
Hussain et al. Moderator assistant: A natural language generation-based intervention to support mental health via social media
Chatzimina et al. Employing conversational agents in palliative care: a feasibility study and preliminary assessment
WO2022201875A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
KR102488550B1 (ko) 셀프 마인드 케어 시스템
Kao et al. Bicultural straddling among immigrant adolescents: a concept analysis
Engelhoven et al. Respondent burden and readability of patient-reported outcome measures for people with aphasia
Conti‐Ramsden et al. The PTT‐20: UK normative data for 5‐to 11‐year‐olds on a 20‐item past‐tense task
Madill et al. The Stakeholder Model of voice research: Acknowledging barriers to human rights of all stakeholders in a communicative exchange
US11694797B2 (en) Virtual healthcare communication platform
WO2022024192A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022024193A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2024024294A1 (ja) 推定装置、推定方法、推定システム、及び推定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22774677

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22774677

Country of ref document: EP

Kind code of ref document: A1