WO2014080585A1 - 認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム - Google Patents

認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム Download PDF

Info

Publication number
WO2014080585A1
WO2014080585A1 PCT/JP2013/006566 JP2013006566W WO2014080585A1 WO 2014080585 A1 WO2014080585 A1 WO 2014080585A1 JP 2013006566 W JP2013006566 W JP 2013006566W WO 2014080585 A1 WO2014080585 A1 WO 2014080585A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
message
feeling
word
input
Prior art date
Application number
PCT/JP2013/006566
Other languages
English (en)
French (fr)
Inventor
裕 大野
美峰子 山口
康高 山本
敦 新貝
雄大 田口
一輩 西井
小百合 武智
Original Assignee
Necソフト株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necソフト株式会社 filed Critical Necソフト株式会社
Priority to US14/646,506 priority Critical patent/US20160117597A1/en
Priority to EP13856563.5A priority patent/EP2923643A4/en
Priority to AU2013349184A priority patent/AU2013349184A1/en
Priority to JP2014548442A priority patent/JP6034400B2/ja
Publication of WO2014080585A1 publication Critical patent/WO2014080585A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/167Personality evaluation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0027Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the hearing sense
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M21/00Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
    • A61M2021/0005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
    • A61M2021/0044Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
    • A61M2021/005Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61MDEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
    • A61M2205/00General characteristics of the apparatus
    • A61M2205/50General characteristics of the apparatus with microprocessors or computers
    • A61M2205/502User interfaces, e.g. screens or keyboards

Definitions

  • the present invention relates to a cognitive distortion correction support system, a user consciousness information acquisition method, and a program for cognitive distortion correction support that provide a user with support for correcting or recognizing the user's cognitive distortion based on cognitive behavioral therapy. .
  • Cognitive reconstruction is one of the cognitive behavioral therapies that is a methodology for correcting the trap of thinking that concentrates on the bad side into a balanced way of thinking by focusing on the facts and actions.
  • the cognitive reconstruction method in a situation where the mind of the consultant is shaken, the thoughts, thoughts, and reasons that occurred at that time are written out in order, so that the way of thinking can be reviewed.
  • Non-Patent Document 1 Mental health care based on the cognitive reconstruction method is systemized and provided as a service to users (for example, Non-Patent Document 1).
  • Patent Document 1 describes a mental health care system that acquires and measures a user's stress state in an interactive format and performs counseling on the user in an interactive format using the measurement result.
  • the characteristic of cognitive behavioral therapy is that it deals with the consciousness of the consultant, which is different from psychoanalysis that deals with unconsciousness. Therefore, the point of treatment is how to draw out information and solutions necessary for the solution from the consultant.
  • Patent Document 1 a fixed question is prepared, and it is a form in which it is presented and answered in order, so that it is a solution from a consultant. It is hard to say that the information can be extracted sufficiently. In order to improve the counseling effect, it is necessary to devise description support for the user and user interface.
  • An object of the present invention is to provide a distortion correction support system, a user awareness information extraction method, and a program for a cognitive distortion correction support system.
  • the cognitive distortion correction support system includes an automatic thought extraction step including a process of outputting a message that prompts an input of automatic thinking, which is an idea that has occurred to the user in a situation where the user's feeling is shaken,
  • An interactive cognitive distortion correction support system that executes an adaptive thought extraction step including a process of outputting a message that prompts the user to input adaptive thought, which is an idea that the user is currently thinking about.
  • the cognitive distortion correction support system includes an automatic thought extraction step including a process of outputting a message for prompting an input of automatic thinking, which is an idea that has occurred to the user in a situation where the user's feeling is shaken, and the situation
  • An adaptive cognitive distortion correction support system that executes an adaptive thought extraction step including a process of outputting a message that prompts the user to input adaptive thought, which is an idea that the user is currently thinking about
  • the flow control means includes a flow control means for controlling the execution order. The flow control means is based on the basic flow of performing at least the automatic thought extraction step and the adaptive thought extraction step in this order, and in the automatic thought extraction step or the adaptive thought extraction step. If it is determined that the user input has not progressed, the step is interrupted and It may perform flow control proceeds to a predetermined step comprising a process of outputting a message prompting the input of the trigger or hint information serving user input in the steps described.
  • the cognitive distortion correction support system has a screen for extracting information about a situation in which the user's feeling is shaken from the user, and the screen includes an entry field for writing a scene, and an event. There may be a separate entry field for writing.
  • the cognitive distortion correction support system has a screen for extracting information related to a situation in which the user's feeling is shaken from the user, and the screen is an apparent entry of an entry field that the user can fill in.
  • the possible space may be limited to a size within a predetermined number of characters.
  • the cognitive distortion correction support system has a screen for extracting automatic thinking, which is an idea that has occurred to the user in a situation where the user's feeling is shaken, from the user, It may include a screen having a plurality of entry fields for entering automatic thinking and a screen having a selection function for selecting one of them when a plurality of automatic thinking is entered.
  • the cognitive distortion correction support system has a screen for extracting from the user an adaptive thought that is an idea that the user can now think about when the user's feelings are shaken. Is generated from the evidence obtained from the user before that, the reason why the automatic thinking, which is the idea that occurred to the user in the situation where the user's feelings were shaken, or the grounds and the disproval against the automatic thinking An example sentence of adaptive thinking may be displayed.
  • the cognitive distortion correction support system has a screen for extracting from the user a basis for automatic thinking, which is an idea that has occurred to the user in a situation where the user's feelings are shaken.
  • the sentence that connects the conjunction of the tangent and the general expression of automatic thinking may be displayed in the form following the entry field of the basis.
  • the user awareness information extraction method includes an automatic thought extraction step including a process of outputting a message for prompting input of automatic thought, which is an idea that has occurred to the user in a situation in which the user's feeling is shaken,
  • an adaptive thought extraction step including a process of outputting a message that prompts the user to input adaptive thought, which is an idea that the user is currently thinking about
  • an interactive message which is a message for extracting necessary information from a user, is generated by using information input so far by the user in at least one of the steps.
  • An interactive message is output.
  • the user awareness information extraction method includes an automatic thought extraction step including a process of outputting a message for prompting input of automatic thought, which is an idea that has occurred to the user in a situation in which the user's feeling is shaken,
  • User consciousness information extraction applied to an interactive cognitive distortion correction support system that executes an adaptive thought extraction step including a process of outputting a message that prompts the user to input adaptive thought, which is an idea that the user is currently thinking about
  • the flow control means for controlling the execution order of each step is based on the basic flow of performing the automatic thought extraction step and the adaptive thought extraction step in this order, and the automatic thought extraction step or the adaptive thought extraction step. If it is determined that the user input is not advanced, the step is interrupted. It may perform flow control proceeds to a predetermined step comprising a process of outputting a message prompting input of information that triggers or hint of a user input at the step of interruption.
  • the cognitive distortion correction support program includes an automatic thought extraction step including a process of outputting a message for prompting an input of an automatic thought that is an idea generated by the user in a situation where the user's feeling is shaken, Cognitive information applied to an interactive cognitive distortion correction support system that executes an adaptive thought extraction step including a process of outputting a message that prompts the user to input adaptive thought, which is an idea that the user is currently thinking about A distortion correction support program, a message output process for outputting an interactive message, which is a message for extracting necessary information from a user at each step, to a computer, and a dialog in at least one of the steps Type messages using information entered by the user so far Characterized in that to perform the message generation processing.
  • the cognitive distortion correction support program includes an automatic thought extraction step including a process of outputting a message for prompting an input of an automatic thought that is an idea generated by the user in a situation where the user's feeling is shaken, Cognitive information applied to an interactive cognitive distortion correction support system that executes an adaptive thought extraction step including a process of outputting a message that prompts the user to input adaptive thought, which is an idea that the user is currently thinking about A program for assisting distortion correction, in which the user input in the automatic thought extraction step or the adaptive thought extraction step proceeds with the basic flow of performing the automatic thought extraction step and the adaptive thought extraction step in this order on the computer. If it is determined that there is no It may be executed the flow control process proceeds to a predetermined step comprising a process of outputting a message prompting a definitive input trigger or hint information serving user input.
  • an idea generated by a consultant in a situation where the consulter's heart is shaken is called “automatic thinking”. If there is a distortion of cognition in this automatic thinking, the facts may be mistakenly recognized from a biased idea, making it easy to feel depressed or making it difficult to achieve the purpose. In order to correct such cognitive distortion or make the user aware of the distortion and improve the feeling, it is important to identify the automatic thinking that caused the counselor's feeling. Further, in the present invention, information that is up to the user's consciousness, such as information necessary for solving the situation, automatic thinking, mood, grounds for generating automatic thinking, etc., disagreement against automatic thinking, adaptive thinking, etc. The information that is the solution is collectively referred to as “user awareness information”.
  • FIG. 1 is a block diagram illustrating a configuration example of the mental health care system according to the first embodiment of this invention.
  • the mental health care system shown in FIG. 1 includes a user interface unit 1 (hereinafter referred to as UI unit 1) and an interactive function unit 2.
  • the interactive function unit 2 includes a flow control unit 3, an information sharing unit 4, and an information extracting unit 5.
  • the information extraction unit 5 includes a situation extraction unit 51, an automatic thought extraction unit 52, an adaptive thought extraction unit 53, a mood extraction unit 54, and a grounds / disposal extraction unit 55.
  • the UI unit 1 is a functional unit that provides a user with a screen serving as a user interface of the system. In addition, the UI unit 1 executes screen control defined in advance by screen information.
  • the UI unit 1 includes input / output means such as a network communication means such as a display, a mouse, or a LAN card, and is not particularly limited as long as processing according to protocols and programs used for general screen control is possible. .
  • the dialogue function unit 2 (more specifically, the dialogue function unit 2 (more specifically, A process of transferring to the flow control unit 3 and each information extraction unit 5) is included. “After entry” is, for example, when a “next” button or the like on the entered screen is pressed. Further, “after entry” may be, for example, when the focus is lost from the text box. Further, “after entry” may be, for example, when the return key is pressed after “.” (Punctuation) in the input key from the user.
  • Before entry is, for example, when a button for instructing screen transition such as “next” is pressed on a screen associated with a step before the target step.
  • “Before entry” may be, for example, when the focus is removed from the information entry text box or the like on the input screen associated with the target step.
  • “Before entry” means, for example, that when the input of the return key is designated in advance as the end of the input from the user, the return key is displayed on the screen associated with the step before the target step. It may be when it is pressed.
  • the dialog function unit 2 is notified that such a control button or the like has been pressed. Processing is included. Also, for example, in the step of allowing the user to input some characters, the number of characters per predetermined time in order to operate the flow switching on condition that the value obtained by measuring the number of characters does not increase every predetermined time. Measurement and an increase check thereof may be included in the screen control. Further, the screen control may include a process of providing information on the number of input characters so that the interactive function unit 2 can measure the number of characters every predetermined time and check the increase. Note that the predetermined time, that is, the measurement interval described above may be constant, or may be variable in consideration of the fact that it takes some time to start writing.
  • the UI unit 1 may perform processing according to protocols and programs used for general screen control.
  • the flow control unit 3 controls the entire flow. Specifically, the flow control unit 3 instructs the information extraction unit 5 corresponding to each step to start and end the process, and exchanges information between steps as necessary.
  • Each processing unit of the information extraction unit 5 (in this example, the situation extraction unit 51, the automatic thought extraction unit 52, the adaptive thought extraction unit 53, the mood extraction unit 54, and the grounds / disposal extraction unit 55) is assigned to each step. Execute the process. Specifically, each processing unit of the information extraction unit 5 responds to a step according to the cognitive reconstruction method, and causes the user to input information through the UI unit 1 or a message that fosters a therapeutic relationship. Is output. It should be noted that a processing unit that performs processing common to each processing unit of the information extracting unit 5 is provided separately, and each processing unit calls a processing unit that performs the common processing as necessary. Good.
  • the process executed by the mental health care system according to the present embodiment includes at least an automatic thought extraction step and an adaptive thought extraction step.
  • the process which the mental health care system of this embodiment performs contains a condition extraction step other than these.
  • the process executed by the mental health care system of the present embodiment may further include a mood extraction step and a basis / disproof extraction step. Each of these steps is basically executed in the following order.
  • Step if there is a “situation extraction step” ⁇ if there was or was there, if necessary, “a mood extraction step” ⁇ “automatic thinking extraction step” ⁇ if there was or if there was a “foundation / disproof extraction” "Step” ⁇ "Adaptive thought extraction step”.
  • “if there is” here means that the step is implemented.
  • “if necessary, as needed” may be omitted if the information that was intended to be extracted in the previous step is obtained on the assumption that the step is implemented. It represents a good thing.
  • flow control is performed such that the step is temporarily skipped and the next step is executed, and the step is executed when necessary information cannot be extracted in the next step. It also shows what may be done.
  • the information extraction unit 5 associated with the step process is a situation extraction unit 51.
  • the situation extraction unit 51 executes various processes for extracting the “situation” from the consultant in the situation extraction step.
  • the information that the situation drawing unit 51 draws from the consultant is information related to the situation when automatic thinking with distortion in recognition occurs. This information may be, for example, information related to an event that the user has recently disliked or a situation when the user's feeling has recently shaken.
  • the situation drawer 51 outputs a message that prompts the user to input information related to the problem situation of the user, and accepts input of information (information related to the problem situation of the user) from the user.
  • FIG. 2 and 3 are explanatory diagrams showing examples of screens used in the situation extraction step.
  • the screen illustrated in FIG. 2 includes an area for displaying a message such as “Please tell me what you are having trouble with”, more specifically, a message prompting the user to enter information about the problem status, including.
  • the situation drawing unit 51 causes the counselor to input text expressing the “situation” that the counselor thinks using, for example, a screen as shown in FIG.
  • a screen created in advance may be used, or may be generated each time.
  • screen information defining screen parts and screen control thereof may be prepared in advance, and the content of a message to be displayed may be reflected on the screen in real time. This also applies to screens used for other step processes.
  • the screen illustrated in FIG. 3 includes two entry fields for inputting “scene” and “event” separately for the troubled situation.
  • the situation drawing unit 51 may draw the problem situation from the consultant using, for example, the screen shown in FIG.
  • This screen may include an input field for inputting “time” instead of “scene”.
  • the user can be made aware of Slice of Time.
  • the number of lines in the entry column for example, one line
  • the apparent entry space is reduced, for example, limited to a size within a predetermined number of characters (for example, within 100 characters), it is possible to encourage the user to organize the contents to be written. Note that the number of characters that can be actually input is not limited to this, only by limiting the apparent size of the entry space. In order to enhance the feeling improvement effect, it is effective to clarify the scene in this way and focus on one problem.
  • the message output is in a balloon shape in order to give a sense of dialogue.
  • the position of the balloon is provided at the top of the screen so that the conversation is first noticeable, and the characters are relatively enlarged.
  • the characters of the message may be displayed delayed by one character.
  • the situation drawing unit 51 may generate and output a message indicating empathy with the other party's troubled situation or the happened event as an interactive function.
  • the output destination of the message may be on the screen of the step or on the screen of the next step.
  • the status drawing unit 51 may input text information written by the counselor in the status entry column, and generate and output a sympathetic message.
  • the situation drawer 51 may input only the information of “event”.
  • the empathy message should be a summary of what the other party felt painful. “Summary” means summarizing what actually happened and reiterating it, or speaking or reciting the person's feelings. Note that the status drawing unit 51 may generate a message indicating all these contents.
  • the situation extraction unit 51 identifies a part indicating that the person feels painful, that is, a troubled part and a feeling, from the document in which the problem situation for the user is described, and outputs a message to repeat it. May be. At this time, even if the feeling is not clearly described, the situation drawing unit 51 may estimate the feeling felt by the person and include it in the empathy message.
  • the identification of the trouble part and feeling may be performed by, for example, extracting a phrase expressing the trouble (hereinafter referred to as a trouble word) or a phrase expressing the feeling (hereinafter referred to as a feeling word) using a dictionary. Good. At this time, it is important that what is extracted is the consultant's own feelings and feelings.
  • the situation extraction unit 51 performs various individual determinations such as self-other determination, negative determination, question determination, guess determination, and condition determination based on expressions before and after the trouble word or feeling word extracted using a dictionary. Also good. Then, the situation drawing unit 51 summarizes the results, and whether or not the extracted trouble word has occurred to the consultant and whether or not the extracted feeling word has been felt by the consultant. It may be determined. As a processing procedure, it may be performed in the order of extraction of trouble words and feeling words, various individual determinations, and comprehensive determination. Note that the individual determination does not necessarily require all of these, and what is considered to be necessary as appropriate depending on what kind of recognition is handled and what user is targeted.
  • trouble words and feeling words for example, for expressions that are likely to become trouble words or feeling words in advance, the original form of the word is registered in a dictionary, and morphological analysis etc. is performed on the input sentence. This is done by matching the prototype with a dictionary.
  • the situation extraction unit 51 may extract “pointed out”, which is a portion corresponding to “pointed / doed / done”, as a troubled word by matching with the dictionary.
  • FIG. 4 is an explanatory diagram showing an example of a flow of self-other determination processing in Japanese.
  • the situation extraction unit 51 includes one sentence (including a extracted worried word or sentiment word) based on the extracted concerned word or sentiment word and its preceding and following expressions in the input text. It may be determined whether the subject of the emotion expression sentence or the event expression sentence) is the self, another person, or unknown.
  • the situation extraction unit 51 determines in which case the speaker has appeared (genus), and the verb state in the sentence including the case that has appeared and the extracted trouble word or feeling word. To determine the subject.
  • the situation drawing unit 51 determines whether the extracted trouble word or feeling word is denied. And if it is "No", the situation drawing part 51 considers that it is not a trouble part, and excludes it from the object in determination whether the said trouble word or feeling word is the trouble and feeling which a consultant produced. Process to lower the degree. For example, let us consider a case where the part “pointed out” is extracted as a troubled word for an input sentence “sorry not to be pointed out”. In such a case, the situation drawing unit 51 appears behind the extracted concerned word or feeling word and indicates a negative word or negative expression such as “none” or “impossible” (an expression used when expressing a negative word). Hereinafter, the expression is collectively referred to as negative expression), and if it is an odd number, it may be determined that it is denied.
  • the situation drawing unit 51 determines whether or not a sentence including a trouble word or a feeling word is a question sentence. Then, the situation drawing unit 51 considers that it is not actually caused / feeling if it is a question sentence, and in the determination of whether the concerned word or feeling word is a trouble or feeling caused to the consultant, You may perform the process which excludes from the object or reduces the degree. For example, let us consider a case where the part “pointed out” is extracted as a trouble word from the expression “Is it pointed out?”. In such a case, the situation extraction unit 51 uses symbols such as “Is it?”, “Is not?”, “?” Symbol, etc. used to express a question behind the extracted trouble word or feeling word. If there is an expression (hereinafter collectively referred to as question expression), it may be determined that the sentence is a question sentence.
  • question expression an expression
  • the situation drawing unit 51 determines whether the trouble word or the feeling word is a conditional term.
  • the situation drawing unit 51 may perform a process of excluding from the object or lowering the priority because it is regarded as not actually occurring / feeling if it is a conditional term. For example, let us consider a case where the part “pointed out” is extracted as a trouble word from the expression “if pointed out”. In such a case, if there is a word that becomes a conditional clause such as “Tara” or “Nara” in the character string behind the extracted trouble word or feeling word, the situation extraction unit 51 determines that it is a conditional term. You may judge.
  • the situation extraction unit 51 determines whether or not the trouble word or the feeling word is an guess. Then, the situation drawing unit 51 considers that it is not actually caused / feeling if it is a guess, and excludes it from the target in determining whether the concerned word or feeling word is a trouble / feeling generated in the consultant. You may perform the process which reduces or reduces the degree. For example, let us consider a case where the part of “pointed out” is extracted as a trouble word from the expression “will be pointed out”. In such a case, the situation extraction unit 51 is used to represent a phrase or guess representing an guess such as “will” or “may” in the character string behind the extracted trouble word or feeling word. If there is an expression that can be used (hereinafter collectively referred to as an inference expression), it may be determined to be an inference.
  • an inference expression it may be determined to be an inference.
  • the situation extraction unit 51 determines, for example, self-others, denials, questions, conditions, guesses, etc., as necessary, for the trouble word or feeling word detected using each of the above determination processes. And based on the result, you may produce
  • the evaluation value may be normalized by a value such as a sum of importance.
  • the situation drawing unit 51 assigns the strength of the concerned word or feeling word to the dictionary or the like, and the intensity indicating the feeling size, and the evaluation value is obtained by multiplying it. It may be added. Eventually, the status drawing unit 51 determines that the highest evaluation value or the top several are the troubled words and feelings of the consultant.
  • the situation drawing unit 51 may make individual selections such as requiring that the subject is “self” or excluding the subject from the target if it is “other”. .
  • FIG. 5 shows an example of the comprehensive judgment result together with an example of the input sentence.
  • the evaluation value which is the result of each determination process and the result of a comprehensive determination process is shown about the trouble word extracted from each of six types of input sentences.
  • the evaluation value for the trouble word “pointed out” (pointed out) extracted from the input sentence “pointed out to the boss” is “1”.
  • the evaluation value for the trouble word “pointed out” that is extracted from the input sentence “synchronization was pointed out” is “0.66”.
  • the evaluation value for the trouble word “pointed-out-led” extracted from the input sentence “not pointed out by the boss” is “0.7”.
  • the evaluation value for the trouble word “pointed-out-led” extracted from the input sentence “is pointed out by the boss?” Is “0.83”.
  • the evaluation value for the trouble word “pointed out” is extracted from the input sentence “if pointed out by the boss” is “0.83”.
  • the evaluation value for the trouble word “pointed-out-led” extracted from the input sentence “will be pointed out by the boss” is “0.93”.
  • the troubled word “pointed out” extracted from “highly rated by the boss” with the highest evaluation value occurred in the consultant. It can be judged that it is likely. In the comprehensive judgment process, not only for the same trouble word, but for all the trouble words and feeling words in the input sentence, the trouble word and the feeling word are set to one or a predetermined number. Can be squeezed.
  • the situation drawing unit 51 identifies a part indicating that the person feels painful, that is, a troubled part, and a feeling if possible, from the document describing the problem situation.
  • the situation drawing unit 51 When the troubled part or feeling is specified, the situation drawing unit 51 generates and outputs a message of empathy based on the specified troubled part or feeling.
  • the situation extraction unit 51 first acquires “wo case” and “ga case” from the phrase before the identified trouble part or feeling, and extracts the trouble word or feeling word extracted. Format words that contain.
  • “document is pointed out” is obtained by obtaining “wo case” of “document” from the phrase before “pointed out” which is the point of concern and synthesizing it with a character string indicating the trouble word.
  • a well-formed phrase is obtained.
  • the situation extraction unit 51 generates a sympathy message using the obtained formatted phrase.
  • the situation extraction unit 51 may generate a message such as “You have been pointed out the material. At this time, the part of “No. It was hard” may be prepared as a template.
  • a plurality of types of template sentences may be prepared, and the template sentences may be selected in a predetermined order or randomly. By doing so, even a user who uses the system a plurality of times can be presented with a different message each time it is used, so that it is possible to avoid getting tired of the system.
  • the status drawing unit 51 may replace the “spicy” part with the acquired feeling words.
  • the emotional word is not included in the input sentence, for example, by associating the emotion that is easily recalled by associating it with the troubled word in the dictionary, the feeling is estimated from the troubled word and the estimated feeling is It may be possible to generate a sympathy message including an expression to represent.
  • the status extraction unit 51 stores the information obtained in this step process (input sentence, summary of what happened to the user, troubled words, feeling words, etc.) in the information sharing unit 4 and can be used in other steps. It may be.
  • the information extraction unit 5 associated with the step process is an automatic thought extraction unit 52.
  • the automatic thought extraction unit 52 executes various processes for extracting “automatic thinking” from the consultant in the automatic thought extraction step.
  • the information that the automatic thinking drawer 52 draws from the consultant is specifically information that indicates an idea that has occurred to the consultant in the situation heard in the situation drawing step, particularly an idea that leads to a hard feeling.
  • the automatic thought extraction unit 52 outputs a message that prompts the user to input automatic thinking that occurs in a situation where the user's feelings are shaken, and receives input of information (information indicating automatic thinking) from the user.
  • FIG. 6 and 7 are explanatory diagrams showing examples of screens used in the automatic thought extraction step.
  • the automatic thought extraction unit 52 in the automatic thought extraction step, for example, an area for displaying a message prompting entry (input) of automatic thinking such as “What did you think at that time” as shown in FIG.
  • the counselor is allowed to input text that expresses the “automatic thinking” that the consultant thinks.
  • the automatic thought drawing unit 52 may use a screen including a message that prompts the user to fill in the automatic thinking after including the feelings of the consultant acquired up to the previous step. In this way, it is possible to make it easier to write automatic thoughts that lead to painful feelings.
  • the message output is in a balloon shape in order to give a sense of dialogue.
  • the position of the balloon is provided at the top of the screen so that the conversation is first noticeable, and the characters are relatively enlarged.
  • the automatic thought drawing unit 52 may allow a plurality of automatic thoughts to be written using a screen including a plurality of entry fields in order to raise as many automatic thoughts as possible. Thereafter, the consultant may be limited to one automatic thinking by using a screen that allows the user to select one of the entered automatic thoughts that leads to the hardest feeling. In this way, by using a screen that allows automatic thinking as much as possible and a screen that selects it, it is possible to make it easier for the counselor to view himself objectively.
  • the automatic thinking drawer 52 also displays a screen in which one automatic thinking is selected from a plurality of automatic thinking, such as “Which is most saddening you?” A message prompting the selection of automatic thinking may be output after including the acquired consultant's feelings.
  • the automatic thought drawing unit 52 may estimate the feeling in the step. It is desirable for automatic thinking to respond to the painful feelings of the consultant. In addition, if the situation of the consultant can be known, it is possible to infer to some extent the feeling that the consultant felt at that time. Therefore, the automatic thought drawing unit 52 may estimate feelings based on information indicating the situation obtained in the situation drawing step. By outputting the estimated feelings together with a message for listening to automatic thinking, it is easy to expose the automatic thinking that leads to feelings.
  • the consultant will write down your feelings, such as “I was sad” in response to a question that asks automatic thinking such as “What thoughts came to mind at that time?” There are many. In order to avoid such an answer, it is effective to include feelings in the question message in advance. This is because few consultants write the same feelings in response to question messages that include feelings. In this way, by including the feeling at that time in the message for prompting the entry of automatic thinking, it is possible to prevent feelings from being entered in the entry field where automatic thinking is to be written.
  • the automatic thought extraction unit 52 estimates the feeling based on the words included in the input text by inputting the text information written by the counselor in the status entry column in the status extraction step. A message that prompts the user to enter automatic thoughts including the estimated feelings may be output. Note that the automatic thought drawing unit 52 may output a front message before a message that prompts entry of automatic thought.
  • the automatic thought extraction unit 52 can identify the feeling that the person feels painful from the document describing the problem situation
  • the prepared template may be used.
  • the process of estimating feelings from information about the event may be the same as the method described in the situation extraction step. As already described in the process of identifying the troubled part and feeling in the situation extraction step, it is important to extract and estimate what the counselor actually felt in feeling extraction and estimation.
  • a predetermined number of categories such as “sad”, “anxiety”, “anger”, etc.
  • one or more feeling categories recalled from the word may be stored together with the degree of association.
  • the automatic thought extracting unit 52 may acquire the feeling category associated with all the trouble words identified as occurring in the self thinking section. Then, for each acquired feeling category, the automatic thought drawing unit 52 may calculate a linear sum of the degree of association and the evaluation value of the associated trouble word as a certainty factor. Then, the automatic thought drawing unit 52 outputs the feeling category having the highest certainty factor as the feeling of the consultant.
  • FIG. 8 is an explanatory diagram showing an example of a dictionary used for feeling estimation.
  • the original form of the word may be registered in the dictionary together with the degree of relevance to the feeling category.
  • the degree of relevance “0.8” between the emotion category “sad” and the emotion category “anger” is associated with the original word “point-out-re” of the trouble word such as “pointed out”. "0.2" is registered.
  • the degree of relevance “0.4” between the emotion category “sad” and the emotion category “ The degree of association with “anxiety” is registered as “0.5”.
  • the degree of association with the feeling category “sad” is “0.7” ”And the feeling category“ anxiety ”and the degree of association“ 0.5 ”are registered.
  • words such as “Bocchi” are included between words connected by “ ⁇ ”.
  • the degree of association “0.5” between the feeling category “sad” and the degree of association “0. 6 is registered.
  • the automatic thought extraction unit 52 obtains a feeling category corresponding to each specified trouble word, and calculates the certainty factor for each feeling category from the product sum of the relevance level and the evaluation value as follows. Good.
  • the automatic thought extraction unit 52 generates the feeling category “sad” having the highest certainty as an estimation result and applies a message including the “sad” to a template prepared in advance. Also good.
  • the automatic thought extraction unit 52 may generate a sympathy message such as “That makes you sad” and add it before the message that prompts you to fill in the automatic thought. You may generate and output a message that prompts you to enter your automatic thoughts while identifying the feelings that occurred, such as "What did you think?"
  • the automatic thought extraction unit 52 may have a function of calling attention to an ambiguous expression included in the obtained automatic thought expression text.
  • cognitive behavioral therapy it is important to be aware of automatic thinking, but consultants who are not able to use this method often make automatic thinking ambiguous. Therefore, the automatic thought extraction unit 52 may detect an ambiguous expression from the input text in an automatic thought extraction step, and may call attention to describe the automatic thought in the form of a word.
  • the automatic thought extraction unit 52 performs, for example, text information written by a counselor in the automatic thought entry field as an input to alert the ambiguous expression, and extracts the ambiguous description. For example, a message including an indication regarding how to write automatic thinking, that is, how to express may be output.
  • the automatic thinking drawer 52 may “become difficult to make material again”. "I think it's a good idea to say it too.”
  • the automatic thought extraction unit 52 may extract, for example, an expression of a question and a guess in an attention calling process for an ambiguous expression.
  • the automatic thought extraction unit 52 may extract the expression of the question and the guess using the question determination and the guess determination described in the process of specifying the troubled part or feeling.
  • the automatic thought extraction unit 52 may scan each phrase from the back of the sentence until there is a verb after performing morphological analysis and syntax analysis on the input sentence. Then, until the verb is found, the automatic thought extraction unit 52 has an inference expression such as “Would” or “Maybe” or a question expression such as “ka” or “?” Before the verb is applied. It may be determined whether or not there is. As a result of the determination, if there is such an expression, the automatic thought extracting unit 52 cuts a group of sentences including those characters from the input sentence, and outputs the corrected sentence ending so as to be in the form of a sentence. May be.
  • the automatic thought drawer 52 may have a function of detecting contradictions between feelings and automatic thoughts.
  • the automatic thinking drawer 52 expresses, for example, a text expressing the consultant's automatic thinking or an automatic thinking category in which the consultant's automatic thinking is classified into a predetermined category, and the feeling of the consultant when the automatic thinking occurs. Assume that a text or a feeling category obtained by classifying the feelings of a consultant into a predetermined category is input. At this time, the automatic thought drawing unit 52 determines whether or not there is a contradiction between the automatic thinking and the feeling based on the text or the automatic thinking category expressing the automatic thinking and the text or the feeling category expressing the feeling. May be.
  • Automatic thinking is said to be related to four cognitions: “loss”, “danger”, “unfair”, and “acquisition”. Among them, there are three negative automatic thoughts: “loss”, “danger”, and “unfair”, which are said to recall the feelings of “depression”, “anxiety”, and “anger”, respectively.
  • automatic thinking and feeling are said to have a one-to-one relationship when they are classified into categories. That is, it is said that “loss” reminds of “depression”, “danger” recalls “anxiety”, and “unfair” recalls “anger”.
  • “Acquisition” is said to remind “joy”.
  • the classification of automatic thinking in terms of the above recognition is referred to as “automatic thinking category”, and the feeling category corresponding to this automatic thinking category is referred to as “feeling category”.
  • the automatic thought drawing unit 52 may estimate a feeling category corresponding to automatic thinking from, for example, a text expression of automatic thinking or an automatic thinking category. Then, the automatic thought drawing unit 52 determines whether or not the feeling category corresponding to the estimated automatic thinking matches the feeling category into which the feeling input from the consultant is classified, It may be determined whether there is any inconsistency between the two.
  • the automatic thought extraction unit 52 may use a classifier (model) such as a probability model as a document classification technique for estimating a feeling category.
  • a classifier such as a generation model or an identification model.
  • the classifier is not particularly limited as long as it is a model that can identify which feeling category or which automatic thinking category corresponds to automatic thinking. A user-friendly one may be selected according to the usage scene.
  • Examples of the generation model include Naive Bayes (simple Bayes classifier) and Support Vector Machine (SVM).
  • Each cognitive category that is an automatic thinking category has a characteristic tendency of thinking.
  • the recognition classified into the “lost” category includes, for example, the expression “I don't wait for a bright future”, “I ca n’t do it”, “I can't do myself”, “The future There are many ideas such as “No.
  • the recognition classified into the “crisis” category includes, for example, the expression “depressed patients will definitely not be able to return to work”, “immediate danger”, “I have no power”, “others” Many people think that there is no support from other people.
  • the recognition that is classified into the “unfair” category is, for example, the idea that “I think that there is no problem with myself, but that people are not good”, such as the expression “the company takes away my freedom”. Many.
  • the automatic thought drawer 52 may learn such a difference in the tendency of the way of thinking in the generator during the automatic thought category classification.
  • the automatic thought extraction unit 52 identifies features unique to cognitive expressions, specifically tense, subject and verb state, and sentence type.
  • the automatic thinking expression classified into the “lost” category has the following characteristics. In other words, this automatic thinking expression is often spoken in the past or present tense. Moreover, in this automatic thinking expression, it is often spoken in an active manner with the subject as the subject. Also, this automatic thinking expression is often spoken in a question form. For example, automatic thinking expressions classified into the “danger” category have the following characteristics. In other words, this automatic thinking expression is often spoken in the present or future tense.
  • this automatic thinking expression it is often spoken in an active manner with another person as the subject. Moreover, in this automatic thinking expression, it is often told in a guessing form.
  • the automatic thinking expression classified into the “unfair” category has the following characteristics. In other words, this automatic thinking expression is often spoken in the present or past tense. Moreover, in this automatic thinking expression, it is often spoken in the active voice with the other person as the subject, or is spoken in the passive voice with the subject as the subject.
  • the automatic thought extraction unit 52 becomes very sad if it is "Is it impossible to feel" XX "with the idea of" OO "" or "OOO"? You may output a message informing you that there is a contradiction, such as “I wonder why I often feel angry.” In this case, the automatic thought drawer 52 may output a message for reconfirming or deepening the automatic thought or feeling.
  • the automatic thinking drawer 52 for example, “If you think that“ always fail to make a document ”, it will be“ Yu depression ”. Why did you feel“ anxious ”at that time? "Please tell me a little more about that.”
  • the automatic thought drawing unit 52 can also output a message for reviewing feelings.
  • the automatic thought extraction unit 52 may generate and output a sympathy message for the finally obtained automatic thought as one of the interactive functions. For example, if the sentence “Always fail to create a document” is obtained as an expression text for automatic thinking, the automatic thinking drawer 52 will say, “The idea of“ Always fail to create a document ” You may output a sentence such as In addition, when feelings are specified at this time, the automatic thought drawer 52 says, “The idea of“ always failing to make materials ”makes you feel“ depressed ”?” May be output.
  • the automatic thought extraction unit 52 also obtains information obtained in this step process (input sentence, automatic thought summary, automatic thought classification result, estimated feeling, concerned word, concerned word evaluation value, ambiguous expression for automatic thinking) Or the like) may be stored in the information sharing unit 4 and made available in other steps.
  • the information extraction unit 5 associated with the step process is an adaptive thought extraction unit 53.
  • the adaptive thought extraction unit 53 executes various processes for extracting “adaptive thinking” from the consultant in the adaptive thought extraction step.
  • the information that the adaptive thinking drawer 53 extracts from the counselor is information that indicates how the situation when the automatic thinking occurs can be considered now.
  • the adaptive thought extraction unit 53 outputs a message that prompts the user to input adaptive thought about the situation in which the user's feeling is shaken, and accepts input of information (information indicating adaptive thought) from the user.
  • the adaptive thought extraction unit 53 displays, for example, an area for displaying a message for prompting entry of adaptive thoughts such as “How do you think when the same situation occurs” as shown in FIG.
  • the screen including the situation entry field the counselor is allowed to input text that expresses "adaptive thinking" that the counselor thinks.
  • the adaptive thinking extraction unit 53 may have obtained “foundation”, “but” “disapproval” on the basis of the basis and disproval by the previous step. May be displayed in the entry field as an example sentence of adaptive thinking so that the counselor can easily input the adaptive thought.
  • the adaptive thought extraction unit 53 may select the two most likely to be established as sentences for the grounds and the proofs.
  • the adaptive thought extraction unit 53 may enter a sentence ending in reverse connection such as ““ foundation ”+ but” in the entry column. This makes it easier to write disproval that leads to adaptive thinking.
  • the adaptive thought extraction unit 53 may have a function of outputting a hint of rebuttal from information obtained as automatic thinking even when a ground or a rebuttal is not obtained.
  • the consultant will input the result of considering how the situation will be considered in the same situation in the future.
  • presenting the answer information is contrary to the concept of “derived from the counselor” of cognitive behavioral therapy. Therefore, by presenting a hint that the counselor notices “a fact different from his / her own idea”, the counselor becomes aware of the objection and can draw out as an adaptive thought.
  • the adaptive thought extraction unit 53 confirms whether or not the expression of the belief is included in the text document entered by the counselor in the automatic thought entry field, and selects the hint based on the result to confirm the hint. May be generated.
  • a hint text may be prepared in advance.
  • the adaptive thought extraction unit 53 may specify which hint sentence can be used among the prepared hint sentences for the input automatic thinking.
  • the adaptive thought extracting unit 53 may also use the text document in which the basis is written.
  • the hint sentence is identified by, for example, classifying automatic thinking and grounds.
  • Negative automatic thinking is said to be easy for either "self”, “others” or “world”. There is a possibility that automatic thinking can be grasped from a different viewpoint by changing the view.
  • automatic thinking in which the subject is classified as “others” is characterized by a lot of dissatisfaction with a specific person. For this reason, as an example of expression, a word representing a person, a word representing a specific person such as he or she, and its usage, etc. are stored in the dictionary in association with information indicating that it is in the “other” category. Also good.
  • the adaptive thought extraction unit 53 may determine whether or not the target category of automatic thinking is “other” by matching with the dictionary. Further, if it is a passive expression, the adaptive thought extraction unit 53 may determine that there is another person.
  • adaptive thought extraction unit 53 may be configured such that the “self” category does not correspond to the “world” category and the “other” category.
  • the adaptive thought extraction unit 53 may select a hint and generate an output message based on such an automatic thinking type (target category). For example, as shown in FIG. 11, the adaptive thought extraction unit 53 stores hint sentences in association with automatic thinking target categories, refers to them, and extracts hints corresponding to the extracted automatic thinking target categories. A sentence may be selected.
  • FIG. 12 is an explanatory diagram illustrating an example of a dictionary in which an example of expression for each classification item of a belief expression is registered.
  • the adaptive thought extraction unit 53 may acquire a belief expression by the same method as the method for extracting the trouble word using the above dictionary, for example.
  • a belief expression by the same method as the method for extracting the trouble word using the above dictionary, for example.
  • possible expression with respect to the words and phrases classified into the speculative expression, possible expression, generalized expression, evaluation expression, and self-emotional expression, those whose self-others determination is “self” are extracted.
  • words and phrases classified into other person psychological expressions those whose self-other judgment is “other” are extracted.
  • the adaptive thought extraction unit 53 stores hint sentences in association with the types of belief expressions, refers to them, and selects hint sentences corresponding to the extracted belief expressions. May be.
  • a hint sentence such as “Please look back to see if“ extracted part ”is too emotional” is registered.
  • An example is shown.
  • a hint sentence such as "Please look back to see if” the extracted part "contains your guess” is registered .
  • the “extracted part” included in the hint sentence means to apply a phrase extracted as a belief expression.
  • the content of the template may be anything that can output a message that points out the feature or thinks whether there is a fact that denies the feature based on the feature of the extracted expression.
  • the adaptive thought extraction unit 53 uses such registration data to extract a generalized expression “always” for an input sentence such as “always fail to make a document” and register a hint By applying it to a sentence template, you can generate an output message such as "Is 'Always' too generalized?"
  • the adaptive thought extraction unit 53 may generate and output an example sentence of adaptive thinking using grounds and disproval.
  • Adaptive thinking is usually a difficult item to fill in because it is difficult for people who are concerned to review the current way of thinking, and it is difficult to understand how to write.
  • As a way to review the way of thinking instead of suddenly thinking about adaptive thinking, it is possible to divide your thoughts into steps by subdividing the steps, such as grounds and disproving (foundation and disproving to be described later) See step).
  • the adaptive thought pulling unit 53 uses the grounds for the purpose of allowing the consultant to understand the description method as a dialogue function in this step.
  • a model (example sentence) of adaptive thinking may be created from the disproval and output.
  • the adaptive thought extraction unit 53 selects a good connection and generates a template. Specifically, the adaptive thought extraction unit 53 selects a combination of a basis and a rebuttal that does not fail as the meaning of a sentence when writing as adaptive thought from all combinations.
  • the adaptive thought extraction unit 53 may determine whether or not the meaning of the sentence is broken as follows, for example. First, the adaptive thought extraction unit 53 collects sentence pairs connected by reverse conjuncts and sentence pairs not connected from the network. The adaptive thought extraction unit 53 constructs a learning device that can determine whether or not they are easily connected in reverse with respect to an input of any two sentences by using those sentence pairs as positive examples and unexplained cases. .
  • the adaptive thought extraction unit 53 inputs each combination of grounds and objections to the learning device, and presents the combination determined to be easily connected by the reversely connected conjunction to the user.
  • the adaptive thought extraction unit 53 selects a pair of “I have been pointed out before making a document” and “I have not been pointed out” that can be easily connected with the reverse conjunction. You may create a template for adaptive thinking that was previously pointed out in the documentation.
  • the adaptive thought extraction unit 53 stores the information obtained by the step processing (input sentence, automatic thinking type, presence / absence of assumption expression, assumption expression, classification result of assumption expression, etc.) in the information sharing unit 4, It may be made available in other steps.
  • the information extraction unit 5 associated with the step process is a mood extraction unit 54.
  • the mood extraction unit 54 performs various processes for extracting “mood” when an automatic thinking is generated from the consultant in the mood extraction step.
  • the information that the mood drawing unit 54 draws from the consultant is specifically information that indicates the feeling felt in the situation heard in the situation drawing step, in particular, the hardest feeling.
  • the mood extraction unit 54 outputs a message that prompts the user to input a feeling that occurs in the situation where the user's feelings are shaken in this step, and accepts input of information (information indicating the feelings) from the user.
  • the mood extraction unit 54 displays a screen including an area for outputting a message for prompting the user to enter a feeling such as “How did you feel at that time” as shown in FIG. Use it to let the counselor enter text that expresses the “feelings” of the counselor.
  • the mood extraction unit 54 outputs a sentence summarizing the situation of the user, for example, as shown in FIG. You may output the message which hears the feeling at that time. By clarifying when you are listening, you can make it easier for the counselors to write their own feelings.
  • the method for generating the problem situation summary message may be the same as the method for generating the sympathy message in the situation extraction step. In the case of this processing, it is preferable to narrow down the trouble word or feeling word used in the problem situation summary message to one. Note that when the information sharing unit 4 stores a message corresponding to the general message of the problem situation generated by this process, that is, a sympathy message for the user's situation, the mood extraction unit 54 The empathy message stored in the sharing unit 4 may be read and used.
  • the feeling entry field may be in a free entry form (a form in which a consultant can freely enter a phrase), or a selection input form (a word representing several moods is prepared in advance, of which Format).
  • a free entry form and a selection entry form may be combined.
  • the mood extraction unit 54 may generate and output a feeling empathy message as one of the interactive functions.
  • the treatment relationship that is important for mental health care can be determined with the consultant and the system. Can be cultivated between.
  • the feelings of the consultant are accurately grasped, and the expectation that the system can be used effectively, it corresponds to multiple troubles. It is important to accurately identify the parts that should be sympathetic even if there is a word.
  • the mood extraction unit 54 may generate and output a message that sympathizes with the feeling, for example, by inputting information representing the feeling input by the consultant in the mood extraction step.
  • the mood extraction step it is possible to input the strength of feeling with numbers or the like, and include the value in the input of the process of generating the empathy message.
  • the feeling strength does not have to be a quantitative number.
  • select items corresponding to the degree of feeling such as “Very”, “Normal”, “Slight”, and let the consultant select the degree of feeling as well as fill in or select the feeling, and enter the selection result May be included.
  • the mood extraction unit 54 performs, for example, a process of extracting a negative word from a text expressing feelings in the process of generating the empathy message, and the empathy message prepared in advance according to the extracted word and the intensity of the feeling.
  • the contents of the template sentence may be changed.
  • Negative words can be extracted by matching with a dictionary. That is, a word representing a negative feeling and a representative feeling are associated with each other and registered in the dictionary in advance, and if there is a word registered in the dictionary in the input sentence, it is extracted.
  • sentence examples may be associated with the dictionary so that a natural message is obtained.
  • sentence examples of a plurality of patterns may be prepared, such as a case of empathy with a plurality of feelings and a case of empathy with a single feeling. Thereby, the mood extraction part 54 can generate a more natural empathy message.
  • the mood extraction unit 54 may add modifiers such as “strongly”, “pretty”, and “a little” depending on the magnitude of the value.
  • the mood extraction unit 54 may determine that the feeling is strongly felt. . Note that importance may be given to each word, and the result of calculating the sum for each representative feeling category may be used as the intensity of the feeling.
  • the mood extraction unit 54 may first convert these into representative feelings.
  • “sad” and “anxiety” are typical feelings and are left as they are, and “want to cry” is converted to “sad”.
  • an extraction result in which the intensity of “sad” is 100 and the intensity of “anxiety” is 30 is obtained.
  • the mood extraction unit 54 uses the template sentences “" strong strength modifier "" feelings expression "," weak strength modifier "” feelings expression "prepared in advance. , "You were very sad and anxious.”
  • an example sentence “sad” is registered in the first sentence, and “sad” is registered in other cases.
  • the mood extraction unit 54 may store information (input sentence, feeling word, feeling classification result, etc.) obtained by the step processing in the information sharing unit 4 and make it usable in other steps.
  • the information extraction unit 5 associated with the step process is a ground / disproof extraction unit 55.
  • the grounds / disproval drawer unit 55 executes various processes for extracting “basis” and “disposal” of automatic thinking in the grounds / disproof drawer step.
  • the information that the grounds / disproval drawer unit 55 pulls out from the consultant is specifically the grounds why the consultant thinks about the automatic thinking that is pulled out. That is, the information that the grounds / disprove drawer 55 extracts from the consultant is information on the reason why automatic thinking has occurred in the consultant and another view of automatic thinking that the consultant has noticed.
  • this step may be divided into two steps, a ground extraction step and a rebuttal extraction step.
  • the grounds / disproval drawer 55 outputs a message that prompts the user to input grounds for automatic thinking in the grounds / refusal withdrawal step, and accepts input of information (information indicating the grounds) from the user. Further, the grounds / disproval drawer 55 outputs a message prompting the user to input a rebuttal for automatic thinking, and accepts input of information (information indicating the rebuttal) from the user.
  • FIGS. 16 and 17 are explanatory diagrams showing examples of screens used in the ground extraction step of the ground / disproof extraction step.
  • the ground / disposal drawing unit 55 displays an area for displaying a message for prompting the entry of the grounds for automatic thinking, such as “What was the reason for thinking?” As shown in FIG. Using an image including a ground entry column, the counselor is allowed to input text that expresses the “foundation” that the consultant thinks.
  • the basis / disproval drawer 55 uses a screen that displays a message such as “So-called“ automatic thinking ”” in the entry field of the basis, for example, as shown in FIG. You may induce to be grounded.
  • the reason / disproof drawer unit 55 serves to lead the subsequent context as a result of the preceding context such as “So”, “So”, “So”, “So”, etc.
  • a message connecting the extracted automatic thinking summary expression may be output.
  • the grounds / disproof drawer unit 55 adds a phrase such as “I thought” to the end of the message, such as “So, I thought“ so-called “summary expression of the automatic thought that I pulled out” ”, and“ It may be made clear that the expression of is automatic thinking.
  • the ground / refusal extraction unit 55 checks whether or not the presumed remark is included in the written ground. This is because the basis for automatic thinking is required to be fact-based. However, in the case of a person whose ideas are concentrated in one direction, there are many cases where the assumption is written as a basis. Therefore, the grounds / disposal drawing unit 55 may extract a belief expression from the text input as the grounds, and determine whether or not the counselor's belief is included in the grounds. If it is determined that a belief is included, the grounds / disproval drawer 55 may output a message that points out that fact or a belief expression, or a message that prompts a description in accordance with the fact.
  • the presence / absence of a belief expression can be determined by extracting the belief expression from the input text.
  • the method for extracting the belief expression may be the same as the method for extracting the belief expression for the automatic thinking described above.
  • the basis / disposal drawing unit 55 has a specific expression example for each classification of a belief expression such as a guess expression, possible expression, generalized expression, evaluation expression, other person's psychological expression, self emotion expression, and limited expression.
  • a phrase obtained by morphological analysis and syntax analysis from an input text is compared with each expression example registered in the dictionary, and a matching expression may be extracted as a belief expression.
  • the ground / disproof drawer unit 55 may perform self-other determination on the extracted expression.
  • the grounds / disproval extraction unit 55 selects words / phrases classified as guess expression, possible expression, generalized expression, evaluation expression, and self-emotion expression, whose self-other judgment is “self”.
  • the grounds / disproval extraction unit 55 extracts words / phrases classified as others' psychological expressions whose own / others determination is “others”.
  • the basis / disproval drawer unit 55 may construct a message using the template registered in association with each type and the utterance part (the extracted belief expression).
  • a template for example, a message such as “Please write in an expression that can be understood by other people, not the way you perceive like“ extracted part ”” is given to the evaluation expression.
  • a template for example, for other person's psychological expressions, write down what facts you received and thought about, without using an expression that guesses the other party ’s feelings like “extracted part” Please try it out.
  • the content of the template may be anything that explains the characteristics of the extracted belief expression but can output a message that encourages writing to be the opposite expression or facts instead of such an expression. .
  • the grounds / disproof drawer unit 55 may extract the belief expression (the other person's psychological expression) included in the text of the ground 2 using such registered data. Then, the grounds / disproof drawer 55 should write down what facts you received and thought about it without using an expression that guesses the feelings of the other party, such as “I was angry”. May be output. In addition, the grounds / disproof drawer unit 55 extracts the belief expression (evaluation expression) “Zuibun”, and it is not an expression of your own like “Zuibun”, but an expression that other people can understand. You may output an indication message such as “Please write.”
  • FIG. 18 and FIG. 19 are explanatory diagrams showing examples of screens used in the rebuttal withdrawal step of the grounds / disproof withdrawal step.
  • the ground / disposal drawer unit 55 displays an area for displaying a message prompting the user to fill in an automatic-consultation rebuttal such as “Is there any fact that cannot be said?” As shown in FIG. Using an image including a disapproval entry field, the counselor is made to input a text that expresses the “disapproval” that the consultant thinks.
  • the ground / disprove drawer unit 55 uses a screen that displays a message such as “cannot be said to be“ automatic thinking ”” in the entry column of the disproval, You may be guided so that you can disprove your own automatic thinking.
  • a conjunctive conjunction such as “So”, “So”, “So”, “So”, etc.
  • the grounds / disproval drawer unit 55 may present the above-mentioned rebuttal hint in the rebuttal withdrawal step.
  • the ground information acquired in the ground drawing step can be used as an input.
  • the presentation of the hint of rebuttal in the adaptive thought extraction step may be omitted.
  • the ground / disproval extraction unit 55 stores the information (input sentence, presence / absence of a belief expression with respect to the reason, belief expression, classification result of the belief expression, etc.) obtained in the step processing in the information sharing unit 4 and other steps. You may make it available at
  • the flow control unit 3 and the information extraction unit 5 are realized by an information processing device that operates according to a program such as a CPU (Central Processing Unit).
  • the information sharing unit 4 is realized by a storage device such as a memory or HDD (Hard disk drive), or a database system.
  • the mental health care system is realized by mounting these functional units and storage units on a server device connected to a network or a user terminal such as a personal computer or a portable terminal that is used personally by a user. .
  • FIG. 20 is a flowchart showing an example of the operation of the mental health care system of the present embodiment.
  • the situation extraction unit 51 performs a process of extracting “situation” from the consultant (step S ⁇ b> 11: situation extraction step). This step is performed, for example, when a user access to the top page of the system is detected, the flow control unit 3 that has received the notification instructs the status drawing unit 51 to start processing.
  • the status drawing unit 51 displays a prepared status drawing screen (for example, the screen shown in FIG. 3) via the UI unit 1.
  • the user consultant
  • the text expressing the situation may be divided into text expressing “scene” or “time” and text expressing “event”.
  • the situation drawing unit 51 When the situation drawing unit 51 detects that the entry of the text representing the situation by the user is completed on the situation drawing screen, the situation drawing unit 51 obtains the information input in the entry column and indicates the “situation” obtained from the user. The information is stored in the information sharing unit 4 as information. At this time, the situation drawing unit 51 may generate a sympathy message for the user's situation and output it on the same screen. Note that the status drawing unit 51 may detect the completion of entry by an event notification from the UI unit 1 by screen control.
  • the situation drawing unit 51 detects that the user has input an operation to proceed to the next step after entering the text expressing the situation on the situation drawing screen, the situation drawing unit 51 proceeds to the next step.
  • the flow control unit 3 is notified of the completion.
  • the status drawer 51 stores the information acquired up to this time in the information sharing unit 4.
  • the status drawing unit 51 may detect an input of an operation to proceed to the next step based on an event notification from the UI unit 1 by screen control.
  • the flow control unit 3 When the flow control unit 3 receives the notification of completion of the status extraction step, the flow control unit 3 advances the process to the automatic thought extraction step. Specifically, the flow control unit 3 instructs the automatic thought drawing unit 52 to start processing.
  • the automatic thought drawing unit 52 Upon receiving an instruction to start processing from the flow control unit 3, the automatic thought drawing unit 52 performs a process of drawing “automatic thinking” from the user following the previous step (step S12: automatic thinking drawing step).
  • the automatic thought drawer unit 52 displays, for example, an automatic thought drawer screen (for example, the screen shown in FIG. 6) prepared in advance via the UI unit 1 and is recognized by the user. Enter text that expresses "automatic thinking".
  • the automatic thought extraction unit 52 stores, for example, the situation acquired in step S11 or the feeling acquired in step S14, which will be described later, in the information sharing unit 4 on the automatic thought extraction screen, the automatic thought extraction unit 52 A display message including the estimated feeling or the acquired feeling may be output.
  • the automatic thought drawing unit 52 may output a display message including the general expression of the situation acquired in step S11.
  • the automatic thought drawer 52 may display the automatic thought drawer screen by dividing it into a screen for raising automatic thinking as much as possible and a screen for selecting it. In this case, the automatic thought drawing unit 52 may display a screen that raises automatic thinking as much as possible, and then display a screen for selecting one of the listed automatic thoughts.
  • the automatic thought drawer 52 detects that the user has finished entering the text representing the automatic thought on the automatic thought drawer screen, the automatic thought drawer 52 acquires information input in the entry field. At this time, if an ambiguous expression is included, the automatic thought drawing unit 52 may call attention. Moreover, if there is a contradiction between the automatic thinking and the mood, the automatic thinking drawing unit 52 may point out that and output a question message for reconfirming or deeply digging up the automatic thinking or feeling. Further, the automatic thought drawing unit 52 stores the information related to automatic thinking acquired in this manner in the information sharing unit 4.
  • the automatic thinking drawer screen may be provided with a button for requesting interactive support and a process for checking the number of characters entered for a certain period of time.
  • the automatic thought extraction unit 52 detects that the button is pressed or when the number of characters entered for a certain period of time is within a predetermined number, the automatic thought extraction unit 52 regards that the automatic thought extraction step has failed, You may notify to the control part 3.
  • FIG. The automatic thought drawing unit 52 may output a message recommending flow switching without automatically switching the flow, and may notify the flow control unit 3 after obtaining the consent of the consultant.
  • the flow control unit 3 When the flow control unit 3 receives the notification of the failure of the automatic thought extraction step, the flow control unit 3 performs control to advance the process to the mood extraction step (No in step S13). Specifically, the flow control unit 3 instructs the mood drawing unit 54 to start processing.
  • the mood extraction unit 54 Upon receiving an instruction to start processing from the flow control unit 3, the mood extraction unit 54 performs a process of extracting “mood” from the user following the previous step (step S14: mood extraction step).
  • the mood drawing unit 54 displays, for example, a mood drawing screen (for example, the screen shown in FIG. 15) prepared in advance via the UI unit 1, and the “mood” recognized by the user is displayed to the user. ”Is input.
  • the mood drawing unit 54 may show empathy for the user's situation by including the general expression of the situation acquired in step S11 in the display message on the mood drawing screen.
  • the mood drawing unit 54 acquires the information input in the entry column and stores it in the information sharing unit 4. At this time, the mood extraction unit 54 may generate a sympathy message for the feeling and output it on the same screen.
  • the mood extraction step 54 performs the process of the mood extraction step.
  • the flow control unit 3 is notified of completion.
  • the mood extraction unit 54 stores the information acquired up to this time in the information sharing unit 4.
  • the flow control unit 3 When the flow control unit 3 receives the notification of completion of the mood extraction step, the flow control unit 3 advances the process to the automatic thought extraction step again (returns to step S12). Specifically, the flow control unit 3 may instruct the automatic thought drawing unit 52 to start processing.
  • step S12 when the automatic thought drawer 52 detects that the user has input an operation to proceed to the next step after entering the text expressing the automatic thought on the automatic thought drawer screen, the process moves to the next step. Therefore, the flow control unit 3 is notified of the completion of the automatic thought extraction step. Further, if there is acquired information other than the information entered in the entry column, the automatic thought drawing unit 52 stores the information acquired so far in the information sharing unit 4.
  • the flow control unit 3 When the flow control unit 3 receives the notification of completion of the automatic thought extraction step, the flow control unit 3 advances the process to the adaptive thought extraction step (Yes in step S13, step S15). Specifically, the flow control unit 3 instructs the adaptive thought drawing unit 53 to start processing.
  • the adaptive thought extraction unit 53 performs processing for extracting “adaptive thinking” from the user following the previous step (step S 15: adaptive thought extraction step).
  • the adaptive thought drawer 53 displays, for example, an adaptive thought drawer screen (for example, the screen shown in FIG. 9 or 10) prepared in advance via the UI unit 1, so that the user can Have them input text that expresses their “adaptive thinking”.
  • the adaptive thought extraction unit 53 on the adaptive thought extraction screen, for example, if the grounds and the rebuttal acquired in step S17 described later are stored in the information sharing unit 4, the adaptive thought extraction unit 53 is based on the information. May be generated and displayed in advance in the entry field.
  • the adaptive thought extraction unit 53 verifies whether or not the automatic thinking includes a belief expression based on the information indicating the automatic thinking extracted in step S12, and gives a hint of the rebuttal obtained as a result. It may be presented on an adaptive thought drawer screen.
  • the adaptive thought extraction unit 53 may output a hint of rebuttal on the screen at the start of the step, or may display it when detecting the pressing of a button for seeking a hint.
  • the adaptive thought extraction unit 53 detects that the user has finished entering the text expressing the adaptive thought, the adaptive thought extraction unit 53 acquires the information input in the entry field. At this time, the adaptive thought extraction unit 53 may output a warning message if the information (particularly the rebuttal part) input in the entry field includes a belief expression. The adaptive thought extraction unit 53 stores the information finally acquired in this manner in the information sharing unit 4 as information indicating adaptive thinking.
  • a button for requesting interactive support and a process for checking the number of characters entered for a certain time may be provided for a user who cannot easily write adaptive thoughts.
  • the adaptive thought extraction unit 53 determines that the adaptive thought extraction step has failed when it detects that the button has been pressed or when the number of characters entered for a certain period of time is within a predetermined number. May be notified to the flow control unit 3.
  • the adaptive thought extraction unit 53 may output a message recommending flow switching without automatically switching the flow, and may notify the flow control unit 3 after obtaining the consent of the consultant.
  • the flow control unit 3 When the flow control unit 3 receives the notification of the failure of the adaptive thought extraction step, the flow control unit 3 performs control to advance the process to the ground / disproof extraction step (No in step S16). Specifically, the flow control unit 3 instructs the grounds / disproval drawer unit 55 to start processing.
  • the grounds / disproval drawer unit 55 Upon receiving an instruction to start processing from the flow control unit 3, the grounds / disproval drawer unit 55 performs processing for extracting “foundation” and “disposal” from the user following the previous step (step S 17: grounds / disproof drawer) Step).
  • the grounds / disproval drawer 55 displays, for example, a prepared grounds screen (for example, the screen shown in FIG. 17) via the UI unit 1, and first prompts the user “the grounds” ”Is input.
  • the grounds / disproof drawer unit 55 displays the general expression of the automatic thinking acquired in step S12 following the entry column on the grounds drawer screen by connecting it to the conjunctive conjunction, and the reason for the automatic thinking. You may be guided to make it easier to write
  • the basis / disproof drawer unit 55 acquires the information input in the entry column. At this time, if the information input in the entry field includes a belief expression, the grounds / disproof drawer unit 55 may output a warning message. The grounds / disproval drawer unit 55 stores the information finally acquired in this manner in the information sharing unit 4 as information indicating the grounds.
  • the grounds / disproval drawer 55 performs a process of extracting “disposal” from the user.
  • the grounds / disproval drawer 55 displays, for example, a pre-prepared retaliation drawer screen (for example, the screen shown in FIG. 19) via the UI unit 1, and gives the user a “disposal” that the user thinks. Let the entered text be entered.
  • the grounds / disproof drawer unit 55 on the disapproval drawer screen, displays the conjunctive conjunction following the entry field and the general expression of the automatic thinking acquired in step S12 and naturally / inevitably negation and negative actions. It may be guided so that it is easy to write a rebuttal for automatic thinking by connecting and expressing the expression.
  • the grounds / disposal drawing unit 55 verifies whether or not the automatic thinking includes a belief expression based on the information indicating the automatic thinking extracted in step S12, and refutes the hint of the rebuttal obtained as a result. You may show on a drawer screen.
  • the grounds / disproval drawer 55 may display a hint of rebuttal on the screen at the start of the step, or may display it when it detects that a button for seeking a hint has been pressed.
  • the grounds / disproval drawer unit 55 acquires the information input in the entry field and stores it in the information sharing unit 4 as information indicating the rebuttal To do.
  • the grounds / disposal drawer unit 55 notifies the flow control unit 3 of the completion of the grounds / evidence drawing step.
  • the flow control unit 3 When the flow control unit 3 receives a notification of completion of the grounds / disposal drawing step, the flow control unit 3 advances the process to the adaptive thought drawing step again (returns to step S15). Specifically, the flow control unit 3 may instruct the adaptive thought extraction unit 53 to start processing.
  • step S15 when the adaptive thought extraction unit 53 detects that the user inputs an operation to proceed to the next step after entering the text expressing the adaptive thought on the adaptive thought extraction screen, the process proceeds to the next step.
  • the flow control unit 3 is notified of the completion of the adaptive thought extraction step.
  • the adaptive thought extraction unit 53 stores the information acquired up to this time in the information sharing unit 4.
  • the flow control unit 3 When the flow control unit 3 receives a notification of completion of the adaptive thinking extraction step, the flow control unit 3 ends the mental health care process by the cognitive reconstruction method. In addition, you may transfer to the step which summarizes after this, without complete
  • the flow control unit 3 displays a message such as “Did you change your mood?”, For example, and asks the user to input the current mood or feeling improvement level, confirm the effect, You may be able to confirm how much you have improved your mood and how you have organized and switched your feelings.
  • the flow control unit 3 may input, for example, where the point that led to the improvement for the user who has become lighter. Further, the flow control unit 3 may have the user input future tasks together. By inputting them, it is possible to make the user recognize the points and issues that have led to the improvement, and to be able to review their feelings in their daily life.
  • the flow control unit 3 outputs a message for teaching a hint of what kind of facts should be recognized. May be. For example, a hint of disapproval may be given based on the tendency of automatic thinking, and a message such as “please find such a fact in future daily life” may be displayed.
  • each part of the information extraction unit 5 identifies a word that affects the person from a message or an improvement point that is output when the mood improvement amount, that is, the feeling improvement effect is large, and preferentially selects it at the next access. You may do it. It is also possible to reflect the contents input at the previous access to the dialogue message at the next access. For example, the status drawing unit 51 may ask “What is the problem?” At the next start.
  • each part of the information drawer 5 outputs, for example, a message that notices the user's automatic thinking and the tendency of feelings, such as “I had this kind of feeling before” during the step processing. Also good.
  • FIG. 20 shows an operation example in which a mood extraction step for extracting automatic thinking is performed when it is determined that the automatic thinking extraction has succeeded and is determined to have failed.
  • FIG. 20 shows an operation example in which the grounds / disposal step for extracting adaptive thinking is performed when it is determined that the adaptive thinking has succeeded and it is determined that the attempt has failed.
  • these success / failure determinations may be omitted, and a three-step structure of a situation drawing step, an automatic thinking drawing step, and an adaptive thinking drawing step may be used.
  • the user support is performed by a hint presenting process for the automatic thought pulling step or a hint presenting process for the adaptive thought pulling step.
  • FIG. 21 is an explanatory diagram showing representative examples of the above-described UI-specific ideas for each step and ideas for the dialogue function, but various other ideas can be cited.
  • the automatic thought extraction unit 52 checks the habit of thinking, and according to the pattern, for example, “It seems black and white thinking appears”, “ You may output an indication message such as “I ’m good” or a hint of disproof. Automatic thinking can be divided into several patterns. Therefore, the automatic thought drawing unit 52 may check which pattern the acquired automatic thought belongs to using pattern recognition or the like, and may output a message corresponding to the pattern.
  • the automatic thought drawer 52 may ask a question that can understand the habit of the user in the dialogue.
  • the automatic thought drawer unit 52 may be provided with a screen for asking a questionnaire-type question separately.
  • the information extraction unit 5 may display a message indicating when the system is used, for example, on a start screen or an end screen to a user who has used the information once.
  • the system may be provided with a user authentication system, preferably in cooperation with the user authentication system, so that login information and previous description content can be stored for each user in the authentication system. .
  • the information extraction unit 5 displays a message that indicates when the system is used from the login information of the user that can be referred to together with the logged-in user's identifier and the previous description. May be.
  • the information extraction unit 5 regards the user as an unconditionally unidentified user without performing the user identification process, and uses the system based on past login history and descriptions. You may make it display the message which understands time. For example, the information extraction unit 5 may refer to the last use date from the user's use history of the system, and may use the system after a predetermined period from the last use date. Further, the information extracting unit 5 may calculate the optimum elapsed period from the usage frequency of the user and use the system. In addition, when using this system in the office etc., you may determine whether this system tends to be depressed based on attendance information in cooperation with attendance management system.
  • the guidance of the said system may be notified with respect to the user who thinks that it is better to perform the mental health care service by the said system.
  • the system may notify a user of a predetermined number or more late arrivals or absences.
  • the present system may determine whether or not there is a tendency to depression based on the content of mail transmission in cooperation with the mail function. When it is determined that the mental health care service by the system is better, it is possible to notify the guidance of the system.
  • an input screen may be resident on the terminal used by the user so that the user can easily start inputting when he / she wants to spill complains.
  • the information extraction unit 5 may output a user-specific information such as “when and when” at the start to give a feeling of being remembered. By doing so, you can ease the other person's heart and make it easier to start mental health care services.
  • the information extraction unit 5 may output a message such as “Thank you for the meeting” as user-specific information after the meeting.
  • the information extraction part 5 may estimate a state (for example, appearance age) using a face image. In this case, when it is determined that the user is older than usual, the information extraction unit 5 may output “Is it not in good condition today”? In addition, when it is determined that it is younger than usual, the information extraction unit 5 may output “Looks good today”.
  • the information extraction unit 5 uses a Web service that outputs information such as the weather, and outputs a conversation that causes an ice break such as “It ’s hot today” to make it easier to start a mental health care service. May be.
  • the information extraction unit 5 may specify the place of birth from the user registration information and the input content, and may insert a dialect into the output message. Incorporating dialects can give you a feeling of nostalgia, so you can care for your heart with nostalgia.
  • the information extraction unit 5 may acquire local event information using a web service and output a message such as “There seems to be XX now in XX”, so as to ease the other party's heart. Good.
  • the information extraction unit 5 can extract situations or events that the user feels painful, automatic thinking, feelings, or adaptive thinking from the input information
  • the information extraction unit 5 uses, for example, information up to the point where it has been extracted, and “What happened to ⁇ made you feel ⁇ ” or “You may output a message that asks the user for confirmation, such as “I felt like I was thinking about something”. By doing so, the user can objectively view the situation and the feelings and thoughts that occur at that time, which is effective in reviewing the thoughts.
  • the information extraction unit 5 can improve the trust relationship with the user by extracting a part that becomes the liver of the other party's remarks and returning the parrot, and as a result, a better therapeutic relationship can be fostered.
  • the information extraction unit 5 may change the facial expression and message of the character according to the input contents of the user, for example, in order to share the state of worry and pleasure.
  • the next button may be unified to one color (for example, green).
  • the message output is a balloon.
  • the input content can be confirmed on the screen.
  • the characters in the balloon are relatively enlarged so that the conversation is first noticeable.
  • Such a device on the screen also makes it easier for the user to input information.
  • an indicator showing the overall flow, the required time, and the progress status so far as shown in FIG. 22 is always displayed on the screen, so that users who are concerned about how long counseling will continue will be displayed. , So that you can see the end.
  • the indicator shown in FIG. 22 shows the overall flow by connecting and displaying the white circles 201 associated with each step.
  • time information 203 given to the upper part of each white circle 201 indicates a guideline for the time required for each step.
  • a solid line 204 connecting the white circles 201 indicates that the processing has progressed to the step where the line is connected.
  • a broken line 206 connecting the white circles 201 indicates that the step connecting the lines is unprocessed.
  • a step in which a white circle 201 is painted with a black circle 205 indicates that the step is currently being displayed.
  • a usage indicator for example, in FIG. 22 (a)
  • the processing has progressed to the grounds / disprove withdrawal step, and the screen corresponding to the grounds / disposal withdrawal step is currently displayed. Recognize.
  • the user himself / herself reviews his / her own thoughts, so it is preferable that the user can freely come and go between each entry form. For this reason, in the present embodiment, a function for returning to the front at any time is provided. Specifically, by clicking the white circle 201 of the step that has already been completed on the above-described indicator, a screen corresponding to that step is displayed. For example, as shown in FIG. 22 (b), when the input of the automatic thinking is to be reviewed in the state where the processing has progressed to the grounds / disproof extraction step, the white circle 201 of the automatic thought extraction step is clicked. It may be possible to return to the automatic thought extraction step.
  • the screen corresponding to the automatic thought extraction step (that is, the screen for automatic thought extraction) is displayed, but it is assumed that the text already entered by the user is already displayed in the entry column.
  • the text input by the user may be acquired by referring to information stored in the information sharing unit 4.
  • FIG. 22 (c) shows an example of an indicator when the processing destination is divided into two or more. Note that the function of displaying the entire flow and the function of returning to the previous step are not limited to such an indicator method.
  • the interactive function unit 2 may list the input contents so far and make it a book (in a printable display format) for output.
  • the dialogue function unit 2 may be able to classify and rearrange them according to time series, situations, feelings, and the like. By outputting the past input contents as a list, the user can easily review the contents.
  • the dialogue function unit 2 may include a look-back mode in which a past case can be input again as another usage example of the history. That is, it is possible to select a case to be concerned about in the history and to enter how to think about the same situation now.
  • the dialogue function unit 2 may be able to start from an adaptive thought extraction step or a basis / disproval extraction step in the form of taking over the problem situation entered in the past and automatic thinking, for example.
  • each unit of the information extraction unit 5 may perform the above-described processing after performing text conversion from the input voice.
  • the output format may be audio instead of text.
  • each unit of the information extraction unit 5 may perform speech synthesis processing on the output message. By doing so, it can be used even by visually impaired people.
  • the degree of not being written by the user is determined based on the elapsed time and the number of input characters, and control such as switching to a flow that makes writing easier if not possible is performed. Yes. Therefore, the working time can be reduced for a user who is used to it, and input support can be provided to a user who is not used to it.
  • Embodiment 2 FIG.
  • the features, configurations, and operations of the present invention have been shown by taking as an example a mental health care system for providing mental health care based on cognitive behavioral therapy to users who are depressed.
  • the present invention is not limited to mental health care and can be applied to any system for correcting or notifying a user with cognitive distortion.
  • the present invention can be applied to a system for supporting smokers to quit smoking.
  • the present invention can be applied as a system for correcting or recognizing the distortion of cognition that a smoker tends to have when trying to quit smoking or during smoking cessation.
  • the non-smoking person's automatic thinking may say “I am weak in quitting.
  • the cognition is reconfigured in such a direction that smoking cessation cannot be determined just because a cigarette is smoked.
  • advice and information are drawn out to remind people of the idea that “it was good to quit with just one” or “smoking alone does not mean that smoking has failed”.
  • the dialogue function unit 2 may output a message expressing sympathy such as “You are about to give up because of guilt” in response to a statement such as “Weak”. Further, the dialogue function unit 2 may present a hint such as “Is there really a failure?” In response to a statement such as “failure to quit smoking”, for example. By presenting such sympathy messages and hints, indications such as "It is certainly not a failure to just smoke one. Rather, quitting with one also means that smoking is going well.” It can be expected to bring out creative thinking.
  • the present invention can be applied not only to use for smoking cessation support for smokers but also to uses for reducing negative trends observed in daily life, such as for the treatment of bulimia, anorexia and lifestyle-related diseases.
  • FIG. 23 is a block diagram showing an outline of a cognitive distortion correction support system according to the present invention.
  • the cognitive distortion correction support system according to the present invention includes a message output means 101 (for example, UI unit 1) that outputs an interactive message that is a message for extracting necessary information from the user at each step. ) And message generation means 102 (for example, information extraction unit 5) that generates an interactive message in at least one of the steps by using information input by the user so far. It is characterized by.
  • each step is considered at least now for an automatic thought extraction step including a process of outputting a message for prompting an input of automatic thinking, which is an idea that occurs in a situation where the user's feelings are shaken, and the situation
  • An adaptive thought extraction step including a process of outputting a message prompting input of an adaptive thought that is an idea.
  • the message generation unit 102 receives at least one of a trouble word that is a word expressing the user's trouble and a feeling word that is a word that expresses the feeling of the user specified from information input by the user as an interactive message. It may be used to generate a message including content showing empathy for a user's situation or state (for example, a state where a certain feeling is generated).
  • the message generation unit 102 may generate a message including hints or triggers for causing the user to input target information, which is generated based on information input by the user, as an interactive message. .
  • the message generation means 102 may generate a message including an ambiguous expression, a belief expression included in the information input by the user, or a content indicating a contradiction as an interactive message.
  • the cognitive distortion correction support system of the present invention further includes information representing a situation in which the user's feelings that the user has input are shaken based on information related to the trouble word stored in advance.
  • the trouble word extraction means 103 which extracts the trouble word contained in (for example, the trouble word extraction module contained in the situation extraction part 51 and the adaptive thought extraction part 53) and the trouble word extracted by the trouble word extraction means 103
  • Self-others determination means 104 for example, various determination modules included in the situation extraction unit 51 and the adaptive thought extraction unit 53 that determine whether or not the event has occurred to the user using a predetermined determination method )
  • the determination result by the self-others determination unit 104 the user input information related to the situation where the user's feelings are shaken.
  • Worries language specifying unit 105 for specifying a trouble word representing the events occurred in The (eg, overall judgment module included in the status drawer unit 51 and adaptive thinking lead portion 53) and may comprise.
  • the message generation means 102 generates a message that repeats a summary of the events that occurred to the user as an interactive message using at least one of the trouble words specified by the trouble word specification means 105.
  • the system may further be a cognitive distortion correction support system that executes a situation extraction step including a process of outputting a message that prompts input of information related to a situation in which the user's feeling is shaken.
  • the cognitive distortion correction support system of the present invention further includes information representing a situation in which the user's feelings shaken inputted by the user, based on information about feeling words stored in advance.
  • the feeling word extracted by the feeling word extraction means 106 for example, the feeling word extraction module included in the situation drawing part 51 and the adaptive thought drawing part 53
  • Self-others determination means 107 for example, various determination modules included in the situation extraction unit 51 and the adaptive thought extraction unit 53 that determine whether or not the feelings that have occurred to the user are expressed using a predetermined determination method
  • the determination result by the self-others determination means 107 the information input by the user regarding the situation where the user's feeling is shaken is included.
  • feeling word specifying means 108 for specifying a feeling word representing the feelings caused to the user (e.g., the comprehensive determination module included in the status drawer unit 51 and adaptive thinking lead portion 53) and may comprise.
  • the message generation unit 102 may generate a message that repeats the feelings that occurred to the user as an interactive message using at least one of the feeling words specified by the feeling word specifying unit 108.
  • the system may further be a cognitive distortion correction support system that executes a situation extraction step including a process of outputting a message that prompts input of information related to a situation in which the user's feeling is shaken.
  • the self-others determination means 107 determines whether the subject of the sentence including the extracted worried word or feeling word is the self, whether the concerned word or the feeling word is denied.
  • a negative determination for determining whether or not the concerned word or sentence including the feeling word is a question sentence, an inference for determining whether or not the concerned word or the feeling word is a guess
  • the determination or the condition determination for determining whether or not the concerned word or the feeling word is a conditional term, and the event or user that actually caused the concerned word or the feeling word to the user It may be determined whether it is a representation of the feelings that have occurred.
  • the self-other determination is to determine whether the subject of the sentence is self based on the speaker's personality and the verb state in the sentence including the extracted trouble word or feeling word. May be.
  • the negative determination may determine whether or not the extracted trouble word or feeling word is denied based on the number of negative expressions appearing behind the extracted trouble word or feeling word. Good.
  • the question determination is to determine whether or not the trouble word or the feeling word is a question sentence based on whether or not the question expression appears behind the extracted trouble word or feeling word. There may be.
  • the guess determination is to determine whether the trouble word or the feeling word is a guess based on whether the guess expression appears behind the extracted worry word or the feeling word. Also good.
  • condition determination is based on whether or not there is a word that becomes a conditional clause in the character string after the extracted concerned word or feeling word, and whether or not the concerned word or the feeling word is a conditional term. It may be determined.
  • the self-others determination means 107 is a result of a human determination in advance whether or not the phrase or expression has actually occurred to the user with respect to a sentence including the phrase or expression that can be a troubled word or a feeling word. Using the machine learning device that has learned the above, it may be determined whether or not the extracted trouble word or feeling word represents an event that actually occurred to the user or a feeling that occurred to the user.
  • the cognitive distortion correction support system of the present invention further includes the worries specified by the concerned word specifying means 105 based on the information on the correspondence relationship between the concerned words and feelings stored in advance.
  • a feeling estimation unit 109 for example, a feeling estimation module included in the situation drawing unit 51 for estimating a feeling generated in the user from words may be provided.
  • the message generating unit 102 generates a message representing the user's feeling as an interactive message using at least one feeling word expressing the feeling estimated by the feeling estimating unit 109. Also good.
  • the message generation unit 102 expresses the feelings generated by the user included in the information about the event that the user's feelings were shaken input by the feeling word specifying unit 108.
  • a message expressing the user's feeling may be generated as an interactive message using at least one sentiment word expressing the feeling estimated by the sentiment word estimating means 109. .
  • the cognitive distortion correction support system of the present invention further specifies the feeling intensity specifying the representative feeling and its intensity from the information expressing the user's feeling inputted by the user.
  • Means 110 for example, a negative word extraction module included in the mood extraction unit 54 or an intensity calculation module based on the degree of redundancy and importance of words
  • the message generating unit 102 is a message indicating empathy for the user's feeling as an interactive message based on the representative feeling specified by the feeling intensity specifying unit 110 and its intensity. Messages with different expressions may be generated according to the strength.
  • the system further supports cognitive distortion correction for executing a mood extraction step including a process of outputting a message that prompts the user to input a feeling that occurs in a situation where the user's feeling is shaken. It may be a system.
  • the message generating means 102 is generated as an interactive message that is displayed in front of the message that prompts the input of automatic thinking in the automatic thinking extraction step.
  • a message may be generated to recite or speak for the feelings.
  • the cognitive distortion correction support system of the present invention is further stored in advance according to predetermined categories in which automatic thinking is classified on the basis of an object that is easy for negative automatic thinking.
  • Automatic thinking category determination means 111 for example, automatic thinking
  • An automatic thinking category classification module included in the drawer 52 may be provided.
  • the message generation unit 102 prepares in advance as an interactive message when it is determined that the automatic thinking of the user falls into one of the predetermined categories as a result of the determination by the automatic thinking category determination unit 111. You may generate
  • the cognitive distortion correction support system of the present invention is further easily used for a belief expression stored in advance for each predetermined category in which the belief expression is classified according to the expression content. Based on the information related to the word or its usage, it is determined whether or not the user's automatic thinking expression has a belief expression by extracting the belief expression included in the information expressing the automatic thought input by the user.
  • a belief determination unit 112 (for example, a belief expression extraction module included in the automatic thought extraction unit 52) may be provided. In such a case, when the belief determination unit 112 determines that there is a belief expression, the message generation unit 102 is a hint for allowing the user to input adaptive thinking or counterfeit, and the belief expression is classified. A message indicating a hint corresponding to a predetermined category may be generated.
  • the message generation unit 102 may generate a message indicating the expression of the belief as an interactive message when the belief determination unit 112 determines that there is a belief expression. .
  • the message generation unit 102 uses the basis specified from the information input by the user as the interactive message, or the expression of adaptive thinking as a hint for allowing the user to input adaptive thinking using the basis and disproval.
  • a message indicating the template may be generated.
  • the system recognizes to execute a grounds-of-evidence extraction step including a process of outputting a message that prompts input of grounds for automatic thinking and a process of outputting a message that prompts input of rebuttals to automatic thinking. It may be a distortion correction support system.
  • the cognitive distortion correction support system of the present invention further includes an ambiguous information included in information expressing automatic thinking input by the user based on information about ambiguous expressions stored in advance.
  • An ambiguity determination unit 113 (for example, an ambiguous expression extraction module included in the automatic thought extraction unit 52) that determines whether there is an ambiguous expression in the user's automatic thought expression by extracting the expression is provided. Also good. In such a case, when the ambiguity determination unit 113 determines that there is an ambiguous expression, the message generation unit 102 may generate a message that points out the ambiguous expression as an interactive message.
  • the message generation unit 102 determines that there is an ambiguous expression by the ambiguous expression determination unit 113, the message generation unit 102 further displays an ambiguous expression as an interactive message regarding how to express automatic thinking.
  • a message may be generated that suggests making it a complete form.
  • the cognitive distortion correction support system of the present invention further generates information that represents the user's automatic thinking or an automatic thinking category in which the user's automatic thinking is classified into a predetermined category, and automatic thinking occurs.
  • Inconsistency determination means 114 for example, determining whether or not there is a contradiction between automatic thinking and feeling based on information expressing the user's feeling at the time or feeling category in which the user's feeling is classified into a predetermined category
  • An inconsistency determination module included in the automatic thought drawer 52 may be provided.
  • the message generation unit 102 when the contradiction determination unit 114 determines that there is a contradiction between automatic thinking and feeling, the message generation unit 102 generates a message indicating the contradiction as an interactive message. May be.
  • the message generation unit 102 further generates an automatic thought or feeling as an interactive message when the contradiction determination unit 114 determines that there is a contradiction between the automatic thinking and the feeling.
  • a message may be generated for reconfirmation or for automatic thinking or deepening feelings.
  • the cognitive distortion correction support system of the present invention may combine two or more of the configurations shown in FIGS.
  • FIG. 31 is a block diagram showing another configuration example of the cognitive distortion correction support system according to the present invention.
  • the cognitive distortion correction support system according to the present invention includes a flow control unit 201 (for example, the flow control unit 3) that controls the execution order of each step.
  • the flow control unit 201 determines that the user input in the automatic thinking extraction step or the adaptive thinking extraction step has not progressed based on the basic flow of performing at least the automatic thinking extraction step and the adaptive thinking extraction step in this order. In such a case, the flow is shifted to a predetermined step including a process of outputting a message that prompts the user to input information that becomes a trigger or hint of user input in the interrupted step.
  • the flow control unit 201 determines that the user input in the automatic thought extraction step has not progressed, the flow control unit 201 outputs a message that prompts the user to input a feeling that has occurred in a situation where the user's feeling has shaken. You may perform the flow control which transfers to the mood extraction step which contains.
  • the flow control unit 201 determines that the user input in the adaptive thought extraction step has not progressed, the flow control unit 201 outputs a message that prompts the user to input the basis for the automatic thinking and the message that prompts the user to input the disproof for the automatic thinking.
  • the flow control may be performed to shift to the grounds proof-withdrawing step including the process of outputting.
  • the cognitive distortion correction support system includes a message output unit 101 and a message generation unit 102 shown in FIGS. It is also possible to combine with the structure provided with the flow control means 201 shown.
  • the cognitive distortion correction support system has a screen for extracting information about a situation in which the user's feeling is shaken from the user, and the screen includes an entry field for writing a scene and an event. There may be a separate entry field for writing.
  • the cognitive distortion correction support system has a screen for extracting information about a situation in which the user's feeling is shaken from the user, and the screen is an apparent entry in an entry field that the user can fill in.
  • the possible space may be limited to a size within a predetermined number of characters.
  • the cognitive distortion correction support system has a screen for extracting automatic thinking, which is an idea that has occurred to the user in a situation where the user's feeling is shaken, and the screen is It may include a screen having a plurality of entry fields for entering automatic thinking and a screen having a selection function for selecting one of them when a plurality of automatic thinking is entered.
  • the cognitive distortion correction support system has a screen for extracting adaptive thinking, which is an idea that the user can now think about the situation in which the user's feeling is shaken, from the user. May display an example sentence of adaptive thinking, which is generated from the grounds that are the reasons why the automatic thinking previously acquired from the user has occurred, or from the grounds and the rebuttal to the automatic thinking.
  • the cognitive distortion correction support system has a screen for extracting from the user a basis for automatic thinking, which is an idea that has occurred to the user in a situation where the user's feelings are shaken.
  • a sentence that connects the conjunctive conjunction and the general expression of automatic thinking may be displayed.
  • the present invention is not limited to mental health care based on the cognitive reconstruction method.
  • the present invention can be used to extract the “situation”, “thought”, and “feeling” of the user from the user, Therefore, the present invention can be suitably applied to a purpose of checking the presence or absence of a belief expression or an ambiguous expression.

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Hematology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Anesthesiology (AREA)
  • Acoustics & Sound (AREA)
  • Fuzzy Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)

Abstract

 ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを少なくとも実行するシステムであって、各ステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを出力するメッセージ出力手段101と、各ステップの少なくともいずれか1つのステップにおける対話型メッセージを、ユーザがこれまでに入力した情報を利用して生成するメッセージ生成手段102とを備える。

Description

認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム
 本発明は、認知行動療法に基づいて、ユーザの認知の歪みを直すまたは気付かせるための支援をユーザに提供する認知の歪み修正支援システム、ユーザ意識情報取得方法および認知の歪み修正支援用プログラムに関する。
 悪い方に集中してしまう考え方の癖を、事実や行動に着目することでバランスのとれた考え方に修正するための方法論である認知行動療法の一つに、認知再構成法がある。認知再構成法では、相談者の心が揺れる状況において、そのときに生じた気持ち、考えたこと、そう考えた理由などを順次書き出していくことで、考え方を見直せるようにする。
 認知再構成法によるメンタルヘルスケアがシステム化され、ユーザにサービスとして提供されている(例えば、非特許文献1)。
 また、特許文献1には、対話形式によりユーザのストレス状態を取得、測定して、その測定結果を用いて対話形式によりユーザに対してカウンセリングを行うメンタルヘルスケアシステムが記載されている。
特開2005-334205号公報
ウーマンウエーブ運営、大野 祐監修"うつ・不安ネット"、[online]、[平成24年8月23日検索]、インターネット<URL:http://www.cbtjp.net/>
 しかし、認知行動療法に基づくカウンセリングを全て自動化してシステム化した場合、使い勝手、機能等が十分でないという問題があった。特に、カウンセリングに必要となるユーザの気持ちや考えが、一人では書きづらい、客観的に書けないという問題があった。
 認知行動療法の特徴は相談者の意識を取り扱う点にあり、無意識を取り扱う精神分析とは異なる。そのため、解決に必要な情報や解決策をいかに相談者から引き出すかが治療のポイントとなる。
 相談者から解決に必要な情報や解決策を引き出すためには、相談者とシステムとの間に「話せば何か得られる」、「悩みを解決できる」と期待されるような治療関係を構築することや、相談者の入力で不明確な点を補ってもらうための的確な応答ができることが重要である。
 しかし、特許文献1や非特許文献1に記載されているメンタルヘルスケアシステムでは、固定の質問を用意しておき、それを順次提示して回答させる形式であるため、相談者から解決策となる情報を十分に引き出せるものとは言い難い。カウンセリング効果の向上のためにはユーザに対する記載支援やユーザインタフェースの工夫が必要である。
 そこで、本発明は、認知行動療法に基づいて認知の歪みを直すまたは気付かせるための支援を全て自動化して行う場合であっても、相談者から必要な情報を十分に引き出すことができる認知の歪み修正支援システム、ユーザ意識情報引き出し方法および認知の歪み修正支援システム用プログラムを提供することを目的とする。
 本発明による認知の歪み修正支援システムは、ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムであって、各ステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを出力するメッセージ出力手段と、各ステップの少なくともいずれか1つのステップにおける対話型メッセージを、ユーザがこれまでに入力した情報を利用して生成するメッセージ生成手段とを備えたことを特徴とする。
 また、本発明による認知の歪み修正支援システムは、ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムであって、各ステップの実行順序を制御するフロー制御手段を備え、フロー制御手段は、少なくとも自動思考引き出しステップ、適応的思考引き出しステップをこの順序で行うことを基本フローとして、自動思考引き出しステップまたは適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御を行ってもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況に関する情報を引き出すための画面を有し、該画面は、場面を書くための記入欄と、出来事を書くための記入欄とが分けて設けられていてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況に関する情報を引き出すための画面を有し、該画面は、ユーザが記入できる記入欄の見かけ上の記入可能スペースが所定の文字数以内の大きさに制限されていてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考を引き出すための画面を有し、該画面は、ユーザが自動思考を記入するための記入欄が複数ある画面と、自動思考が複数記入された場合にそのうちの1つを選択する選択機能を有する画面とを含んでいてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況に対して該ユーザが今考えられる考えである適応的思考を引き出すための画面を有し、該画面には、それ以前にユーザから取得した、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考が生じた理由である根拠、または根拠と自動思考に対する反証とから生成される、適応的思考の例文が表示されていてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の根拠を引き出すための画面を有し、該画面には、根拠の記入欄に続く形で、順接の接続詞と自動思考の総括表現とを繋げた文が表示されていてもよい。
 また、本発明によるユーザ意識情報引き出し方法は、ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用されるユーザ意識情報引き出し方法であって、各ステップの少なくともいずれか1つのステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを、ユーザがこれまでに入力した情報を利用して生成し、生成した対話型メッセージを出力することを特徴とする。
 また、本発明によるユーザ意識情報引き出し方法は、ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用されるユーザ意識情報引き出し方法であって、各ステップの実行順序を制御するフロー制御手段が、自動思考引き出しステップ、適応的思考引き出しステップをこの順序で行うことを基本フローとして、自動思考引き出しステップまたは適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御を行ってもよい。
 また、本発明による認知の歪み修正支援用プログラムは、ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用される認知の歪み修正支援用プログラムであって、コンピュータに、各ステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを出力するメッセージ出力処理、および各ステップの少なくともいずれか1つのステップにおける対話型メッセージを、ユーザがこれまでに入力した情報を利用して生成するメッセージ生成処理を実行させることを特徴とする。
 また、本発明による認知の歪み修正支援用プログラムは、ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、該状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用される認知の歪み修正支援用プログラムであって、コンピュータに、自動思考引き出しステップ、適応的思考引き出しステップをこの順序で行うことを基本フローとして、自動思考引き出しステップまたは適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御処理を実行させてもよい。
 本発明によれば、相談者から必要な情報を十分に引き出すことができる。
本発明の第1の実施形態のメンタルヘルスケアシステムの構成例を示すブロック図である。 状況引き出しステップで使用する画面の例を示す説明図である。 状況引き出しステップで使用する画面の例を示す説明図である。 日本語における自他判定処理のフローの一例を示す説明図である。 状況引き出しステップにおける入力文の例と併せて総合判定結果の例を示す説明図である。 自動思考引き出しステップで使用する画面の例を示す説明図である。 自動思考引き出しステップで使用する画面の例を示す説明図である。 気持ち推定に用いる辞書の例を示す説明図である。 適応的思考引き出しステップで使用する画面の例を示す説明図である。 適応的思考引き出しステップで使用する画面の例を示す説明図である。 自動思考のカテゴリ分類に応じたヒント文の例を示す説明図である。 思い込み表現の分類項目ごとの表現例を登録した辞書の例を示す説明図である。 思い込み表現の分類項目ごとのヒント文の例を示す説明図である。 気分引き出しステップで使用する画面の例を示す説明図である。 気分引き出しステップで使用する画面の例を示す説明図である。 根拠・反証引き出しステップの根拠引き出しステップで使用する画面の例を示す説明図である。 根拠・反証引き出しステップの根拠引き出しステップで使用する画面の例を示す説明図である。 根拠・反証引き出しステップの反証引き出しステップで使用する画面の例を示す説明図である。 根拠・反証引き出しステップの反証引き出しステップで使用する画面の例を示す説明図である。 第1の実施形態のメンタルヘルスケアシステムの動作の一例を示すフローチャートである。 ステップ別のUI的工夫や対話機能の工夫のうち代表的なものをまとめて示す説明図である。 インジケータの例を示す説明図である。 本発明の概要を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。 本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。
 まず、言葉の定義を説明する。認知再構成法において、相談者の心が揺れた状況においてその相談者に生じた考えを「自動思考」という。この自動思考において認知の歪みが生じていると偏った考えから事実を間違って認識して気持ちが落ち込みやすくなったり、目的を達成しにくくさせたりすることがある。このような認知の歪みを修正したりまたは歪みがあることをユーザに気付かせて気持ちの改善を図るためには、相談者の気持ちを生じさせた自動思考を特定することが重要である。また、本発明では、ユーザの意識に上った情報であって、状況、自動思考、気分、自動思考を生じた根拠などの解決に必要な情報や、自動思考に対する反証や適応的思考などの解決策となる情報をまとめて「ユーザ意識情報」という。
実施形態1.
 以下、本発明の実施形態を図面を参照して説明する。図1は、本発明の第1の実施形態のメンタルヘルスケアシステムの構成例を示すブロック図である。図1に示すメンタルヘルスケアシステムは、ユーザインタフェース部1(以下、UI部1)と、対話機能部2とを備える。また、対話機能部2は、フロー制御部3と、情報共有部4と、情報引き出し部5とを含む。なお、情報引き出し部5には、状況引き出し部51と、自動思考引き出し部52と、適応的思考引き出し部53と、気分引き出し部54と、根拠・反証引き出し部55とが含まれている。
 UI部1は、本システムのユーザインタフェースとなる画面をユーザに提供する機能部である。また、UI部1は、予め画面情報によって規定されている画面制御を実行する。UI部1は、ディスプレイやマウス、またはLANカードなどのネットワーク通信手段等の入出力手段を有し、一般的な画面制御に用いられるプロトコルやプログラムに準じた処理が可能であれば、特に限定されない。
 画面制御には、例えば、相談者が情報を記入後、対話機能部2で記入内容について共感や内容に関する提案を行えるようにするために、記入内容を対話機能部2(より具体的には、フロー制御部3や各情報引き出し部5)に引き渡す処理が含まれる。「記入後」とは、例えば、記入した画面上にある「次へ」ボタンなどが押下されたときである。また、「記入後」とは、例えば、テキストボックスからフォーカスがはずれたときであってもよい。また、「記入後」とは、例えば、ユーザからの入力キーにおいて「。」(句点)に続いてリターンキーが押下されたときであってもよい。
 また、画面制御には、例えば、相談者が記入する前に、対話機能部2で相談者の記入を促進するような対話を行えるようにするために、画面遷移の情報や画面上の各種イベントを対話機能部2に通知する処理が含まれる。「記入前」とは、例えば、対象とするステップの前のステップに対応づけられた画面において「次へ」といった画面遷移を指示するボタンが押下されたときである。また、「記入前」とは、例えば、対象とするステップに対応づけられた入力画面において情報記入用のテキストボックスなどからフォーカスが外れたときであってもよい。また、「記入前」とは、例えば、予めリターンキーの入力をユーザからの入力の終わりと指定しておいた場合において、対象とするステップの前のステップに対応づけられた画面においてリターンキーが押下されたときであってもよい。
 また、画面制御には、例えば、画面上に相談者が対話的支援を求めるためのボタン等が配置される場合に、そのような制御ボタン等が押下された旨を対話機能部2に通知する処理が含まれる。また、例えば、ユーザに何らかの文字を入力させるステップにおいて、予め定められた所定の時間ごとに文字数を計測した値が増えていないことを条件にフロー切り替えを動作させるために、所定の時間ごとの文字数の計測やその増加チェックが画面制御に含まれてもよい。また、画面制御には、対話機能部2が所定の時間ごとの文字数の計測やその増加チェックができるように、入力文字数の情報を提供する処理が含まれてもよい。なお、上述の所定の時間すなわち計測間隔は、一定であってもよいし、書きはじめは多少時間がかかることを考慮して可変であってもよい。
 なお、これらの画像制御は、いずれも予め画面情報に規定されているものとし、UI部1では、一般的な画面制御に用いられるプロトコルやプログラムに準じた処理を行えばよい。
 フロー制御部3は、全体フローを制御する。具体的には、フロー制御部3は、各ステップに対応する情報引き出し部5に、処理の開始や終了を指示したり、必要に応じてステップ間の情報の受け渡しを行う。
 情報引き出し部5の各処理部(本例では、状況引き出し部51,自動思考引き出し部52,適応的思考引き出し部53,気分引き出し部54,根拠・反証引き出し部55)は、各々割り当てられたステップ処理を実行する。具体的には、情報引き出し部5の各処理部は、認知再構成法に準じたステップに対応して、UI部1を介してユーザに情報を入力させたり、治療関係を醸成させるようなメッセージを出力したりする。なお、情報引き出し部5の各処理部で共通する処理についてはそれを行う処理部を別途設けておき、各処理部が必要に応じてその共通の処理を行う処理部を呼び出す構成であってもよい。
 以下、具体的なステップ処理について説明する。本実施形態のメンタルヘルスケアシステムが実行する処理は、少なくとも自動思考引き出しステップと、適応的思考引き出しステップとを含むものとする。なお、本実施形態のメンタルヘルスケアシステムが実行する処理は、これらの他に、さらに状況引き出しステップを含むことが好ましい。また、本実施形態のメンタルヘルスケアシステムが実行する処理は、さらに気分引き出しステップと、根拠・反証引き出しステップとを含んでいてもよい。これら各ステップは、基本的には次に示す順番で実行される。すなわち、あれば「状況引き出しステップ」→あれば又はあった上で必要に応じて「気分引き出しステップ」→「自動思考引き出しステップ」→あれば又はあった上で必要に応じて「根拠・反証引き出しステップ」→「適応的思考引き出しステップ」。なお、ここでいう「あれば」とは、当該ステップが実装されていればという意味である。また、「あった上で必要に応じて」とは、当該ステップが実装されていることを前提に、前のステップで当該ステップで引き出そうとしていた情報が得られた場合には省略されてもよいことを表している。さらに、「あった上で必要に応じて」とは、一旦当該ステップをとばして次のステップを実行し、その次ステップで必要な情報が引き出せない場合に当該ステップが実行されるといったフロー制御が行われてもよいことも表している。
[状況引き出しステップ]
 まず、状況引き出しステップについて説明する。本実施形態において当該ステップ処理に対応づけられている情報引き出し部5は、状況引き出し部51である。状況引き出し部51は、状況引き出しステップで、相談者から「状況」を引き出すための各種処理を実行する。状況引き出し部51が相談者から引き出す情報は、具体的には、認知に歪みのある自動思考が生じたときの状況に関する情報である。この情報は、たとえば、最近ユーザが嫌だと感じた出来事や、最近ユーザの気持ちが揺れたときの状況などに関する情報であってもよい。状況引き出し部51は、当該ステップで、ユーザの問題状況に関する情報の入力を促すメッセージを出力して、ユーザから情報(ユーザの問題状況に関する情報)の入力を受け付ける。
 図2および図3は、状況引き出しステップで使用する画面の例を示す説明図である。図2に例示する画面は、「どんなことで困っているのか教えてください」といった状況、より具体的にはユーザの問題状況に関する情報の記入を促すメッセージを表示する領域と、状況の記入欄とを含む。状況引き出し部51は、状況引き出しステップにおいて、例えば、図2に示すような画面を用いて、相談者の思う「状況」を表現したテキストを相談者に入力させる。なお、画面は予め作成しておいたものが利用されてもよいし、その都度生成されてもよい。また、画面のパーツとその画面制御を規定した画面情報を予め用意しておき、表示させるメッセージの内容等をリアルタイムに画面に反映させてもよい。この点は他のステップ処理に用いる画面も同様である。
 また、図3に例示する画面は、困った状況について「場面」と「出来事」とを分けて入力させるための2つの記入欄を含む。状況引き出し部51は、例えば図3に示す画面を用いて、相談者から問題状況を引き出すようにしてもよい。なお、この画面は、「場面」の代わりに「時」を入力させるための入力欄を含んでもよい。「場面」や「時」と、「出来事」とを分けて入力させることで、ユーザにSlice of Timeを意識させやすくできる。また、記入欄の行を少なくする(例えば、1行にする)ことでユーザに記入内容が発散しないように絞らせる効果が得られる。また、見かけ上の記入スペースを小さくする、例えば、所定の文字数以内(例えば、100文字以内等)の大きさに制限すれば、ユーザに書く内容を整理しようという気持ちを働かせることができる。なお、あくまで見かけ上の記入スペースの大きさを制限するだけで、実際に入力可能な文字数はこの限りではない。気持ちの改善効果を高めるためには、このようにシーンを明確にして1つの悩みに絞らせることが有効である。
 また、図2および図3に示す例では、いずれも対話感を出すためにメッセージの出力を吹き出し形状にしている。また、会話がまず目に入るように、吹き出しの位置を画面上部に設けるとともに、相対的に字を大きくしている。また、対話感およびユーザの目を引かせるために、メッセージの文字を一文字ずつ遅延させて表示してもよい。
 また、状況引き出し部51は、対話機能として、相手の困った状況や起きた出来事への共感を示すメッセージを生成し、出力してもよい。メッセージの出力先は、当該ステップの画面上であっても、次のステップの画面上であってもよい。入力された内容から相談者を困らせている状況や辛くしている出来事を具体的に特定し、共感するメッセージを出力することで、メンタルヘルスケアにとって重要な治療関係(信頼関係)を相談者とシステムとの間で醸成することができる。
 状況引き出し部51は、具体的には、状況の記入欄に相談者が書いたテキスト情報を入力とし、共感するメッセージを生成して出力すればよい。なお、状況を「場面」や「時」と「出来事」とに分けて書かせる場合には、状況引き出し部51は、「出来事」の情報だけを入力としてもよい。
 共感メッセージは、相手が辛いと感じたことを総括する内容であることが望ましい。「総括」とは、実際に起きたことの要約とその復唱、またはその人の気持ちを代弁もしくは復唱することを意味する。なお、状況引き出し部51は、これら全ての内容を示すメッセージを生成してもよい。
 例えば、「上司から、明日の会議で使う資料を指摘された。今頃言うなんて・・・。同期も少し怒られたようだ。」という入力がなされた場合には、状況引き出し部51は、「資料を指摘されたのですね。」「それは悲しかったですね。」という共感メッセージを生成、出力してもよい。このように、状況引き出し部51は、ユーザにとっての問題状況が記載された文書から、その人が辛いと感じたことを示す箇所すなわち悩み箇所と気持ちとを特定し、それを復唱するメッセージを出力してもよい。このとき、状況引き出し部51は、気持ちが明記されていなくても、その人が感じた気持ちを推定して、共感メッセージに含めるようにしてもよい。
 悩み箇所および気持ちの特定は、例えば、辞書を用いて悩みを表現した語句(以下、悩み語という。)や気持ちを表現した語句(以下、気持ち語という。)を抽出することにより行われてもよい。このとき、抽出されたものが相談者自身のことや気持ちであることが重要である。
 状況引き出し部51は、例えば、辞書を用いて抽出した悩み語や気持ち語の前後の表現を基に、自他判定、否定判定、疑問判定、推量判定、条件判定等の各種個別判定を行ってもよい。そして、状況引き出し部51は、その結果を総合して、抽出された悩み語が相談者に起こったことであるか否かや、抽出された気持ち語が相談者が感じたことであるか否かを判定してもよい。処理手順としては、悩み語や気持ち語の抽出、各種個別判定、総合判定の順に行われればよい。なお、個別判定はこれら全てを必須とするものではなく、どのような認知を扱うか、またどのようなユーザを対象にするか等によって適宜必要と思われるものを取り入れていけばよい。
 以下、より具体的に説明する。悩み語、気持ち語の抽出は、例えば、予め悩み語または気持ち語となりやすい表現について、その単語の原型を辞書に登録しておき、入力文に対して形態素解析等を行って得られた単語の原型と辞書とをマッチングすることによって行われる。
 例えば、悩み語辞書に、「指摘-する-れる」、「怒る-られる」が登録されていたとする。このような場合に、「資料を指摘される」という入力文に対して、形態素解析結果として「資料/を/指摘/する/れる」が得られたとする。この場合には、状況引き出し部51は、上記辞書とのマッチングにより、「指摘/する/れる」に該当する部分である「指摘される」を悩み語として抽出してもよい。
 次に、抽出した悩み語、気持ち語に対する各種判定処理について説明する。まず、自他判定処理について説明する。例えば、「上司から、明日の会議で使う資料を指摘された。同期も少し怒られたようだ」という文章から、「指摘された」と「怒られた」という表現が悩み語として抽出されたとする。ただし、上述の例において「指摘された」は当人の出来事、「怒られた」は同期の出来事である。そこで、主体が当人であるか他人であるかを判定すれば、当人が主体のものを優先することができる。
 図4は、日本語における自他判定処理のフローの一例を示す説明図である。図4に示すように、状況引き出し部51は、入力されたテキスト内における、抽出された悩み語または気持ち語とその前後表現を基に、抽出された悩み語または気持ち語を含む1つの文(気持ち表現文や出来事表現文)の主体が自己であるのか他者であるのかもしくは不明であるかを判定してもよい。図4に示す例では、状況引き出し部51は、話者がどの格で出現したか(属格)を判定し、さらに出現した格と抽出された悩み語または気持ち語を含む文における動詞の態とを組み合わせて主体を判定している。
 次に、否定判定処理について説明する。否定判定処理では、状況引き出し部51は、抽出された悩み語または気持ち語が否定されているか否かを判定する。そして、状況引き出し部51は、「否定」であれば悩み箇所ではないとみなして、当該悩み語または気持ち語が相談者に生じた悩み、気持ちであるかの判定においてその対象から除外するまたはその度合いを下げる処理を行う。例えば「指摘されずにすんだ」という入力文に対して、「指摘され」の部分が悩み語として抽出された場合を考える。このような場合に、状況引き出し部51は、抽出された悩み語や気持ち語の後方に出現する、「ない」、「不可能」等の否定を示す語句や否定を表す際に用いられる表現(以下、まとめて否定表現という。)を数え、奇数個であれば否定されていると判定してもよい。
 次に、疑問判定処理について説明する。疑問判定処理では、状況引き出し部51は、悩み語や気持ち語を含む文が疑問文となっているか否かを判定する。そして、状況引き出し部51は、疑問文となっていれば実際に生じたこと・気持ちではないとみなして、当該悩み語または気持ち語が相談者に生じた悩み、気持ちであるかの判定においてその対象から除外するまたはその度合いを下げる処理を行ってもよい。例えば「指摘されるのだろうか」という表現から「指摘され」の部分が悩み語として抽出された場合を考える。このような場合に、状況引き出し部51は、抽出された悩み語や気持ち語の後方に、「だろうか」、「ではないか」や「?」記号など、疑問を表す際に用いられる記号や表現(以下、まとめて疑問表現という。)があれば、疑問文であると判定してもよい。
 次に、条件判定処理について説明する。条件判定処理では、状況引き出し部51は、悩み語や気持ち語が条件項であるかを判定する。状況引き出し部51は、条件項であれば実際に生じたこと・気持ちではないとみなして対象から除外するまたは優先度を下げる処理を行ってもよい。例えば、「指摘されたら」という表現から「指摘され」の部分が悩み語として抽出された場合を考える。このような場合に、状況引き出し部51は、抽出された悩み語や気持ち語の後方の文字列において、「たら」、「なら」などの条件節となる語があれば、条件項であると判定してもよい。
 次に、推量判定処理について説明する。推量判定処理では、状況引き出し部51は、悩み語や気持ち語が推量であるか否かを判定する。そして、状況引き出し部51は、推量であれば実際に生じたこと・気持ちではないとみなして、当該悩み語または気持ち語が相談者に生じた悩み、気持ちであるかの判定においてその対象から除外するまたはその度合いを下げる処理を行ってもよい。例えば「指摘されるだろう」という表現から「指摘され」の部分が悩み語として抽出された場合を考える。このような場合に、状況引き出し部51は、抽出された悩み語や気持ち語の後方の文字列において、「だろう」、「かもしれない」などの推量を表す語句や推量を表す際に用いられる表現(以下、まとめて推量表現という。)があれば、推量であると判定してもよい。
 次に、総合判定処理について説明する。総合判定処理では、状況引き出し部51は、例えば、上記の各判定処理を利用して検出した悩み語や気持ち語に対して、自他、否定、疑問、条件、推量等を必要に応じて判定し、その結果に基づいてこれらの要素(例えば、自他、否定、疑問、条件、推量の5つの要素)からなるベクトルを生成してもよい。そして、状況引き出し部51は、生成したベクトルと、各要素に対して定めておいた重要度を要素とするベクトルの内積を評価値として、入力文内の全ての悩み語、気持ち語に対して計算してもよい。評価値は、重要度の総和などの値で正規化されてもよい。また、状況引き出し部51は、辞書等に悩み語や気持ち語に対して悩みの大きさ、気持ちの大きさを表す強度を付与しておき、それを掛け合わせるなどして評価値に悩みの深刻さを加味させてもよい。最終的に、状況引き出し部51は、評価値の最も高いものや上位数個を相談者の悩み語、気持ち語と判定する。
 なお、評価値の計算においては、状況引き出し部51は、主体が「自己」であることを必須としたり、「他者」である場合は対象から除外するなど個別の取捨選択を行ってもよい。
 また、これらの方法以外にも、対象となる「悩み語」、「気持ち語」などを含む文(例えば、予め登録しておいた悩み語や気持ち語となりうる語句や表現を含む文)に対して、実際にユーザに起こったことであるか否かを人が判断しておいてもよい。そして、その結果を正例、負例として機械学習器に学習をさせ、状況引き出し部51は、そのように学習された機械学習器を用いて判定を行ってもよい。
 図5に、入力文の例と併せて総合判定結果の例を示す。図5に示す例では、6種類の入力文からそれぞれ抽出された悩み語について、各判定処理の結果と総合判定処理の結果である評価値を示している。なお、図5に示す例では、自他判定処理の結果が「自己」であれば1、「他者」もしくは「不明」であれば0となる要素と、否定判定処理の結果が「肯定文」であれば1、「否定文」であれば0となる要素と、疑問判定処理の結果が「平叙文」であれば1、「疑問文」であれば0となる要素と、条件判定処理の結果が「主節」であれば1、「条件節」であれば0となる要素と、推量判定処理の結果が「断定」であれば1、「推量」であれば0となる要素とを含むベクトルが生成された。その上で、自他判定の重要度(本例では「1」)と、否定判定の重要度(本例では「0.8」)と、疑問判定の重要度(本例では「0.5」)と、条件判定の重要度(本例では「0.5」)と、推量判定の重要度(本例では「0.2」)とを要素とする重みベクトルが生成され、生成された2つのベクトルの内積を計算した結果を評価値としている。
 図5に示す例では、「上司に指摘された。」という入力文から抽出される悩み語「指摘-する-れる」(指摘される)に対する評価値は「1」である。また、「同期が指摘された。」という入力文から抽出される悩み語「指摘-する-れる」に対する評価値は「0.66」である。また、「上司に指摘されなかった。」という入力文から抽出される悩み語「指摘-する-れる」に対する評価値は「0.7」である。また、「上司に指摘される?」という入力文から抽出される悩み語「指摘-する-れる」に対する評価値は「0.83」である。また、「もし、上司に指摘されたら、」という入力文から抽出される悩み語「指摘-する-れる」に対する評価値は「0.83」である。また、「上司に指摘されるだろう」という入力文から抽出される悩み語「指摘-する-れる」に対する評価値は「0.93」である。
 仮に、上記6種類の例文が一人の相談者から書かれた場合、評価値の最も高い「上司に指摘された。」から抽出された悩み語「指摘された」が一番相談者に生じたことらしいと判断できる。なお、総合判定処理では、同じ悩み語に対してのみ行うのではなく、入力文内の全ての悩み語、気持ち語に対して行うことで、悩み語と気持ち語とを1つまたは所定数に絞ることができる。
 このようにして、状況引き出し部51は、問題状況が記載された文書から、その人が辛いと感じたことを示している箇所すなわち悩み箇所と、可能であれば気持ちを特定する。悩み箇所や気持ちが特定されると、状況引き出し部51は、特定した悩み箇所や気持ちを基に共感のメッセージを生成し、出力する。
 例えば「5月10日夕方、退社しようとした時、上司から明日の会議で使う資料を指摘された。なんでぎりぎりで…。同期も少し指摘されていたようだ。」という文が入力されたとする。また、悩み語の特定の処理で、入力文中の「指摘された」と「指摘されていた」の2カ所が抽出され、そのうちの前半箇所が悩み箇所として特定されたとする。
 共感メッセージの生成処理では、状況引き出し部51は、まず、特定された悩み箇所や気持ちの前の文節から「ヲ格」や「ガ格」を取得するなどして、抽出した悩み語や気持ち語を含む語句の整形を行う。本例では、悩み箇所である「指摘された」の前の文節から「資料を」という「ヲ格」を取得して悩み語を示す文字列と合成することで「資料を指摘された」という整形句が得られる。そして、状況引き出し部51は、得られた整形句を用いて共感のメッセージを生成する。本例では、状況引き出し部51は、「資料を指摘されたのですね。それは辛かったですね。」といったメッセージを生成してもよい。このとき、「のですね。それは辛かったですね。」の部分はテンプレートとして用意しておいてもよい。なお、テンプレート文に複数の種類を用意しておき、その中から、所定の順序またはランダムでテンプレート文が選択されるようにしておいてもよい。こうすることで、当該システムを複数回利用するユーザであっても、利用するたびに違うメッセージが提示されるようになるため、システムに飽きることを避けることができる。
 なお、入力文から気持ちが取得できた場合には、状況引き出し部51は、「辛かった」の部分を取得できた気持ち語に置き換えてもよい。また、辞書に悩み語と対応づけて想起されやすい気持ちを予め対応付けておくなどして、気持ち語が入力文に含まれていない場合でも、悩み語から気持ちを推定し、推定された気持ちを表す表現を含む共感メッセージを生成できるようにしてもよい。
 また、状況引き出し部51は、本ステップ処理で得られた情報(入力文、ユーザに起きたことの要約、悩み語、気持ち語など)を情報共有部4に記憶し、他のステップで利用可能にしてもよい。
[自動思考引き出しステップ]
 次に、自動思考引き出しステップについて説明する。本実施形態において当該ステップ処理に対応づけられている情報引き出し部5は、自動思考引き出し部52である。自動思考引き出し部52は、自動思考引き出しステップで、相談者から「自動思考」を引き出すための各種処理を実行する。自動思考引き出し部52が相談者から引き出す情報は、具体的には、状況引き出しステップで聞き出した状況において相談者に生じた考え、特に、辛い気持ちに繋がる考えを示す情報である。自動思考引き出し部52は、当該ステップで、ユーザの気持ちが揺れた状況において生じた自動思考の入力を促すメッセージを出力して、ユーザから情報(自動思考を示す情報)の入力を受け付ける。
 図6および図7は、自動思考引き出しステップで使用する画面の例を示す説明図である。自動思考引き出し部52は、自動思考引き出しステップにおいて、例えば図6に示すような「そのときどんなことを考えたのでしょう」といった自動思考の記入(入力)を促すメッセージを表示する領域と、自動思考の記入欄とを含む画面を用いて、相談者の思う「自動思考」を表現したテキストを相談者に入力させる。
 また、自動思考引き出し部52は、例えば図7に示すように、前ステップまでに取得された相談者の気持ちを含ませた上で自動思考の記入を促すメッセージを含む画面を用いてもよい。このようにすることにより、辛い気持ちに繋がった自動思考を書きやすくさせることができる。
 なお、図6および図7に示す例でも、対話感を出すためにメッセージの出力を吹き出し形状にしている。また、会話がまず目に入るように、吹き出しの位置を画面上部に設けるとともに、相対的に字を大きくしている。
 また、自動思考引き出し部52は、例えば図7に示すように、自動思考をできるだけ多く挙げさせるため複数の記入欄を含む画面を用いて複数の自動思考を書かせるようにしてもよい。その後、記入された自動思考のうち一番辛い気持ちに繋がったものを選択させる画面を用いて、相談者に自動思考を1つに絞らせてもよい。このように、自動思考をできるだけ挙げさせる画面とそれを選択させる画面とを利用すれば、相談者に自分を客観視しやすくさせることができる。なお、自動思考引き出し部52は、複数の自動思考の中から1つの自動思考を選択させる画面においても、「あなたを一番悲しませている考えはどれでしょう」といったように、前ステップまでに取得された相談者の気持ちを含ませた上で自動思考の選択を促すメッセージを出力してもよい。
 なお、状況引き出しステップで気持ちを特定できなかった場合や、気持ちの推定処理を行わない場合、自動思考引き出し部52は、当該ステップで気持ちの推定を行ってもよい。自動思考は相談者が感じている辛い気持ちに対応づくものであることが望ましい。また、相談者の状況を知ることができれば、そのとき相談者が感じたであろう気持ちをある程度推察することは可能である。そこで、自動思考引き出し部52が、状況引き出しステップで得た状況を示す情報に基づいて気持ちを推定してもよい。推定された気持ちを自動思考を聞くメッセージと一緒に出力することで、気持ちに繋がる自動思考を暴露させやすくする。
 また、単に考えを聞くだけで何も誘導もない場合、「そのときどんな考えが思い浮かびましたか」といった自動思考を問う質問に対して、相談者が「悲しかった」など気持ちを書いてしまうことも多い。このような回答を避けるためにも、予め質問メッセージに気持ちを含ませることは有効である。気持ちを含む質問メッセージに対して同じ気持ちを書く相談者は少ないからである。このように、自動思考の記入を促すメッセージにそのときの気持ちを含ませておくことで、自動思考を書くべき記入欄に気持ちが記入されることを防ぐことができる。
 自動思考引き出し部52は、気持ちの推定処理として、例えば、状況引き出しステップで状況の記入欄に相談者が書いたテキスト情報を入力として、入力されたテキストに含まれる語句を基に気持ちを推定し、推定された気持ちを含む自動思考の記入を促すメッセージを出力してもよい。なお、自動思考引き出し部52は、自動思考の記入を促すメッセージの前の前置きメッセージを出力してもよい。
 例えば、「上司から、明日の会議で使う資料を指摘された。今頃言うなんて・・・。同期も少し怒られたようだ。」という入力文に対して、自動思考引き出し部52は、「それは悲しいですね。そのときどんな考えが思い浮かびましたか」といった文を出力してもよい。
 本処理では、自動思考引き出し部52は、問題状況が記載された文書からその人が辛いと感じた気持ちを特定できれば、あとは用意しておいたテンプレートを利用すればよい。出来事に関する情報から気持ちを推定する処理は、状況引き出しステップにおいて説明した方法と同様でよい。なお、状況引き出しステップにおける悩み箇所および気持ちの特定処理でも既に述べたが、気持ちの抽出および推定では、その相談者が実際に感じたことを抽出、推定することが重要である。
 なお、気持ちの推定に際して、悩み語と気持ちとを対応づけた辞書を利用する場合に、気持ちに対して、「悲しい」、「不安」、「怒り」など所定の数のカテゴリ(以下、気持ちカテゴリという。)を設けておき、各悩み語に対して、その語から想起される1つ以上の気持ちカテゴリをその関連度と共に記憶しておいてもよい。
 気持ちの推定に気持ちカテゴリを利用する場合、自動思考引き出し部52は、自身に生じたものとして特定された全ての悩み語に対応づけられた気持ちカテゴリを取得してもよい。そして、自動思考引き出し部52は、取得された気持ちカテゴリごとに、その関連度と、対応づけられていた悩み語の評価値との線形和を確信度として計算してもよい。そして、自動思考引き出し部52は、確信度が最も大きい気持ちカテゴリを相談者の気持ちとして出力する。
 図8は、気持ち推定に用いる辞書の例を示す説明図である。図8に示すように、予め悩み語となりやすい表現について、その単語の原型を、気持ちカテゴリとの関連度とともに辞書に登録しておいてもよい。図8では、例えば「指摘される」等の悩み語の原型「指摘-する-れる」に対応づけて、気持ちカテゴリ「悲しい」との間の関連度「0.8」と、気持ちカテゴリ「怒り」との間の関連度「0.2」とが登録されている。また、例えば「相談相手がいない」等の悩み語の原型「相談-相手-いる-いない」に対応づけて、気持ちカテゴリ「悲しい」との間の関連度「0.4」と、気持ちカテゴリ「不安」との間の関連度「0.5」とが登録されている。また、例えば、「一人で」や「独りで」、「独りぼっちで」等の悩み語の原型として「ひとり-で」に対応づけて、気持ちカテゴリ「悲しい」との間の関連度「0.7」と、気持ちカテゴリ「不安」との間の関連度「0.5」とが登録されている。なお、本例では、「-」で繋がる語句の間に「ぼっち」などの語が含まれていても問わないものとしている。また、「残業」の悩み語の原型「残業」に対応づけて、気持ちカテゴリ「悲しい」との間の関連度「0.5」と、気持ちカテゴリ「怒り」との間の関連度「0.6」とが登録されている。
 ここで、「上司に資料を指摘された。相談相手もいないので、一人で残業して仕上げた。」という文が状況を示すテキスト情報として入力されたとする。また、悩み箇所の特定処理で、入力文に含まれる悩み語として、「指摘された」、「相談相手もいない」、「一人で」、「残業」が特定されたとする。各々の評価値は、「指摘された」=1、「相談相手もいない」=1、「一人で」=0.8、「残業」=0.5であったとする。この場合、自動思考引き出し部52は、特定された各悩み語に対応する気持ちカテゴリを取得し、気持ちカテゴリごとに確信度を、関連度と評価値との積和から以下のように求めてもよい。
 すなわち、気持ちカテゴリ「悲しい」の確信度は、図8に示した辞書と上述の評価値の算出結果から、0.8×1+0.4×1+0.7×0.8+0.5×0.5=2.01となる。また、気持ちカテゴリ「不安」の確信度は、図8に示した辞書と上述の評価値の算出結果から、0.5×1+0.5×0.8=0.9となる。また、気持ちカテゴリ「怒り」の確信度は、図8に示した辞書と上述の評価値の算出結果から、0.2×1+0.6×0.5=0.5となる。以上の結果から、自動思考引き出し部52は、確信度が最も大きい気持ちカテゴリ「悲しい」を推定結果とし、その「悲しい」を含むメッセージを予め用意しておいたテンプレートに当てはめる等して生成してもよい。本例の場合、自動思考引き出し部52は、「それは悲しくなりますね。」といった共感メッセージを生成し、自動思考の記入を促すメッセージの前に付加してもよいし、「悲しい気持ちになったとき、どんなことを考えていたのでしょうか」といった、生じた気持ちを特定しつつそのときの自動思考の記入を促すメッセージを生成し、出力してもよい。
 また、自動思考引き出し部52は、得られた自動思考の表現テキストに含まれる曖昧表現への注意喚起を行う機能を有していてもよい。認知行動療法では、自動思考を意識させることが重要であるが、この方法になれていない相談者は「だったかもしれない」など、自動思考を曖昧な表現にしてしまうことが多い。そこで、自動思考引き出し部52は、自動思考引き出しステップで、入力されたテキストから曖昧な表現を検知し、自動思考を言い切りの形で記載させるための注意喚起を行ってもよい。
 自動思考引き出し部52は、曖昧表現への注意喚起処理として、例えば、自動思考の記入欄に相談者が書いたテキスト情報を入力とし、曖昧な記述を抽出する処理を行い、曖昧な記述があれば自動思考の書き方すなわち表現の仕方に関する指摘を含むメッセージを出力してもよい。
 例えば、「また資料作りに失敗するかもしれない」という入力文に対して、自動思考引き出し部52は、「『また資料作りに失敗する』という考えがあなたを辛くしているのかもしれませんね。言い切ってみるのも良いと思います。」といった文を出力してもよい。
 自動思考引き出し部52は、曖昧表現への注意喚起処理において、例えば疑問と推量の表現を抜き出してもよい。自動思考引き出し部52は、疑問と推量の表現を、悩み箇所や気持ちの特定処理で説明した疑問判定や推量判定を利用して抜き出せばよい。具体的には、自動思考引き出し部52は、入力文に対して、形態素解析と構文解析を行った上で、文の後方から動詞があるまで各語句を走査してもよい。そして、自動思考引き出し部52は、動詞が見つかるまでの間で、該動詞が掛かる先で「だろう」「かもしれない」などの推量表現や、「か」や「?」などの疑問表現がないか否かを判定してもよい。判定の結果、それらの表現があれば、自動思考引き出し部52は、それらの文字を含むひとまとまりの文を入力文から切り取り、言い切りの形になるように文末を修正したものを修正案として出力してもよい。
 また、自動思考引き出し部52は、気持ちと自動思考の矛盾の検知機能を有していてもよい。自動思考引き出し部52は、例えば、相談者の自動思考を表現したテキストまたは相談者の自動思考を所定のカテゴリに分類した自動思考カテゴリと、自動思考が生じた際の相談者の気持ちを表現したテキストまたは相談者の気持ちを所定のカテゴリに分類した気持ちカテゴリとが入力されるとする。このとき、自動思考引き出し部52は、その自動思考を表現したテキストまたは自動思考カテゴリと、気持ちを表現したテキストまたは気持ちカテゴリとに基づいて、自動思考と気持ちとの間の矛盾性の有無を判定してもよい。
 自動思考は、「喪失」、「危険」、「不当」、「獲得」という4つの認知に関わるものと言われている。そのうちネガティブな自動思考は、「喪失」、「危険」、「不当」の3つであり、それらはそれぞれ「うつ」、「不安」、「怒り」の気持ちを想起させると言われている。このように自動思考と気持ちとは、それぞれをカテゴリに分類すると、1対1の関係にあると言われている。すなわち、「喪失」は「うつ」を想起させ、「危険」は「不安」を想起させ、「不当」は「怒り」を想起させると言われている。なお、「獲得」は「喜び」を想起させると言われている。本例では、自動思考を上記の認知の点で分類したものを「自動思考カテゴリ」と呼び、この自動思考カテゴリに対応する気持ちのカテゴリを「気持ちカテゴリ」と呼ぶ。
 自動思考引き出し部52は、例えば、自動思考のテキスト表現または自動思考カテゴリから自動思考に対応する気持ちカテゴリを推定してもよい。そして、自動思考引き出し部52は、推定した自動思考に対応する気持ちカテゴリと、相談者から入力させた気持ちを分類した気持ちカテゴリとが一致するか否かを判定することによって、自動思考と気持ちとの間の矛盾性の有無を判定してもよい。
 自動思考引き出し部52は、例えば、気持ちカテゴリの推定に、文書分類技術として、確率モデルなどの分類器(モデル)を用いてもよい。具体的には、自動思考引き出し部52は、生成モデルや識別モデルなどの文書分類器を用いることができる。なお、自動思考がどの気持ちカテゴリまたはどの自動思考カテゴリに該当するかを特定できるモデルであれば、分類器に特別の制限はない。利用シーンに応じて使い勝手の良いものが選択されればよい。生成モデルの例としては、Naive Bayes(単純ベイズ分類器)やSupport Vector Machine(SVM)などが挙げられる。
 自動思考カテゴリである各認知カテゴリには、それぞれ考え方の特徴的な傾向がある。例えば、「喪失」カテゴリに分類される認知には、例えば「私には明るい未来が待っていない」という表現のように、「自分がだめだ」、「人が自分をだめという」、「将来がだめだ」といった考え方が多い。また、「危機」カテゴリに分類される認知には、例えば「うつ病患者はきっと職場復帰できない」という表現のように、「身に危険が迫る」、「自分には力がない」、「他の人の支援がない」といった考え方が多い。また、「不当」カテゴリに分類される認知には、例えば「会社が私の自由を奪う」という表現のように、「自分では問題ないと思うが、人が自分をだめだという」といった考え方が多い。自動思考引き出し部52は、自動思考のカテゴリ分類に際し、生成器において、このような考え方の傾向の差異を学習すればよい。
 また、単語の特徴だけでは、十分な精度が確保できない場合には、自動思考引き出し部52は、認知の表現ならではの特徴、具体的には、時制、主語と動詞の態、文のタイプを素性に加えて学習してもよい。例えば、「喪失」カテゴリに分類される自動思考表現には、次のような特徴がある。すなわち、この自動思考表現では、過去や現在の時制で語られることが多い。また、この自動思考表現では、自分を主語にして能動態で語られることが多い。また、この自動思考表現では、疑問形式で語られることが多い。例えば、「危険」カテゴリに分類される自動思考表現には、次のような特徴がある。すなわち、この自動思考表現では、現在や未来の時制で語られることが多い。また、この自動思考表現では、他者を主語にして能動態で語られることが多い。また、この自動思考表現では、推量形式で語られることが多い。例えば、「不当」カテゴリに分類される自動思考表現には、次のような特徴がある。すなわち、この自動思考表現では、現在や過去の時制で語られることが多い。また、この自動思考表現では、他者を主語にして能動態で語られる、または自分を主語にして受動態で語られることが多い。
 このように、状況引き出しステップや後述する気持ち引き出しステップにおいて相談者から引き出した(相談者に入力させた)気持ちと、自動思考引き出しステップにおいて相談者から引き出した(相談者に入力させた)自動思考との間に矛盾が生じていたとする。この場合には、自動思考引き出し部52は、「『○○』という考えで『××』という気持ちが生じるのは無理がありませんか」や「『○○』という考えだと、割と悲しくなることが多いと思うのですが、何故怒りを感じるのでしょうか」といった、矛盾があることを知らせるメッセージを出力してもよい。また、この場合には、自動思考引き出し部52は、自動思考や気持ちを再確認または深掘するためのメッセージを出力してもよい。
 例えば、自動思考表現として「いつも資料作りに失敗する」といった文が入力され、かつ気持ちを表すものとして「不安」カテゴリに該当する気持ち語が入力されたとする。「失敗する」という悩み語に最も合致する自動思考カテゴリは「うつ」である。この場合、自動思考引き出し部52は、例えば、「『いつも資料づくりに失敗する』と考えたなら『ゆううつ』になりますね。そのときはどうして『不安』に感じたのでしょうか。そのとき考えたことをもう少し詳しく教えてください」といった自動思考を見直させるメッセージを出力してもよい。なお、自動思考引き出し部52は、自動思考を見直させるメッセージを出力する以外に、気持ちを見直させるメッセージを出力することも可能である。
 また、自動思考引き出し部52は、対話機能の一つとして、最終的に得られた自動思考への共感メッセージを生成し、出力してもよい。例えば、「いつも資料作りに失敗する」という文が自動思考の表現テキストとして得られた場合には、自動思考引き出し部52は、「『いつも資料作りに失敗する』という考えがあなたを辛くしているのですね。」といった文を出力してもよい。また、このとき気持ちが特定されている場合には、自動思考引き出し部52は、「『いつも資料作りに失敗する』という考えがあなたを『ゆううつな』気持ちにさせているのですね。」といった文を出力してもよい。
 また、自動思考引き出し部52は、本ステップ処理で得られた情報(入力文、自動思考の要約、自動思考の分類結果、推定した気持ち、悩み語、悩み語の評価値、自動思考に対する曖昧表現の有無など)を情報共有部4に記憶し、他のステップで利用可能にしてもよい。
[適応的思考引き出しステップ]
 次に、適応的思考引き出しステップについて説明する。本実施形態において当該ステップ処理に対応づけられている情報引き出し部5は、適応的思考引き出し部53である。適応的思考引き出し部53は、適応的思考引き出しステップで、相談者から「適応的思考」を引き出すための各種処理を実行する。適応的思考引き出し部53が相談者から引き出す情報は、具体的には、自動思考が生じたときの状況について今だったらどう考えられるかを示す情報である。適応的思考引き出し部53は、当該ステップで、ユーザの気持ちが揺れた状況についての適応的思考の入力を促すメッセージを出力し、ユーザから情報(適応的思考を示す情報)の入力を受け付ける。
 図9および図10は、適応的思考引き出しステップで使用する画面の例を示す説明図である。適応的思考引き出し部53は、適応的思考引き出しステップにおいて、例えば、図9に示すような「また同じ状況になったら、どう考えますか」といった適応的思考の記入を促すメッセージを表示する領域と、状況の記入欄とを含む画面を用いて、相談者の思う「適応的思考」を表現したテキストを相談者に入力させる。
 また、適応的思考引き出し部53は、例えば図10に示すように、前ステップまでに根拠と反証を取得していた場合には、それらを基に、「『根拠』、『しかし』『反証』」というような根拠と反証を逆接の接続詞で接続した文章を、適応的思考の例文として記入欄に表示して、相談者が適応的思考を入力しやすくしてもよい。なお、根拠や反証が複数記入されていた場合には、適応的思考引き出し部53は、根拠と反証それぞれについて最も文として成立しそうな2つを選んでもよい。また、根拠のみを得ていた場合には、適応的思考引き出し部53は、“「根拠」+しかし”といった逆接で終わる文章を、記入欄に記入しておいてもよい。そうすることで、適応的思考に繋がる反証を書きやすくなる。
 また、適応的思考引き出し部53は、根拠や反証を得ていない場合でも、自動思考として得た情報から反証のヒントを出力する機能を有していてもよい。
 適応的思考引き出しステップでは、今後同じ状況になった場合にどう考えられるようになるかを相談者が検討した結果を入力させる。相談者が適応的思考を得るためには、自分の考えとは違う事実、特に自動思考を打ち消すような事実すなわち反証に着目することが重要となる。しかし、考え方が一つの方向に集中してしまう人にとっては反証を自ら考えだすことは難しい。一方で、その答えとなる情報を提示することは認知行動療法の「相談者自身から引き出す」というコンセプトに反することになる。そこで、相談者が「自らの考えとは違う事実」を気づけるようなヒントを提示することで、相談者が反証に気づき適応的思考として引き出せるようにする。
 適応的思考引き出し部53は、例えば、自動思考の記入欄に相談者が記入したテキスト文書に思い込みの表現が入っていないかを確認し、その結果に基づいてヒントを選択することによって反証のヒントを生成してもよい。その場合、ヒントとなる文章は事前に用意しておいてもよい。適応的思考引き出し部53は、入力された自動思考に対して、予め用意しておいたヒント文のうちどのヒント文が利用できるかを特定すればよい。なお、前ステップで根拠を記入したテキスト文書が取得できた場合、適応的思考引き出し部53は、根拠を記入したテキスト文書も利用してもよい。
 ヒント文の特定は、例えば、自動思考や根拠を分類することによって行われる。
 まず、ヒント文の特定のための自動思考の分類について説明する。否定的な自動思考は「自分」「他者」「世界」のいずれかに向きやすいとされている。その見方を変えることで自動思考を別の視点から捉えられる可能性がある。
 対象が「世界」に分類される自動思考は、世の中や世間に対する否定的認知が多いことが特徴である。このため、表現の例として「世の中」や「世間」といった不特定多数の対象を表現する単語やその用法等を、「世界」カテゴリである旨の情報と対応づけて辞書に保有しておいてもよい。そして、適応的思考引き出し部53は、その辞書とマッチングさせることで、自動思考の対象カテゴリが「世界」か否かを判定してもよい。
 また、対象が「他者」に分類される自動思考は、特定の人に対する不満が多いことが特徴である。このため、表現の例として人を表す単語や彼、彼女など特定の人を表す単語やその用法等を、「他者」カテゴリである旨を示す情報と対応づけて辞書に保有しておいてもよい。そして、適応的思考引き出し部53は、その辞書とマッチングさせることで、自動思考の対象カテゴリが「他者」か否かを判定してもよい。また、受け身の表現であれば、適応的思考引き出し部53は、他者がいるとするなどで判定してもよい。
 また、適応的思考引き出し部53は、「自分」カテゴリが、「世界」カテゴリおよび「他者」カテゴリに該当しないものとしてもよい。
 適応的思考引き出し部53は、このような自動思考のタイプ(対象カテゴリ)に基づいて、ヒントの選択および出力メッセージの生成を行ってもよい。適応的思考引き出し部53は、例えば、図11に示すように、自動思考の対象カテゴリと対応づけてヒント文を記憶しておき、それを参照し、抽出した自動思考の対象カテゴリに対応するヒント文を選択してもよい。
 図11では、例えば、「自分」カテゴリに対応づけて、「『できていない』、『だめだ』と考えると辛いですね。では反対に、あなたができていることは何でしょうか」といったヒント文が登録されている例が示されている。また、「他者」カテゴリに対応づけて、「相手の方はどのような考えがあったと思いますか」といったヒント文が登録されている例が示されている。また、「世界」カテゴリに対応づけて、「世の中思い通りにいかないものだ」というヒント文が登録されている例が示されている。
 また、自動思考に含まれる思い込み表現の分類に応じてヒント文を特定することも可能である。思い込みの表現は、その表現内容に応じて推量表現、可能表現、汎化表現、評価表現、他者心理表現、自己感情表現、限定表現に分けることができる。このような分類ごとに、具体的な表現の例(単語やその用法等)を辞書に登録しておく。図12は、思い込み表現の分類項目ごとの表現例を登録した辞書の例を示す説明図である。
 適応的思考引き出し部53は、例えば、上記の辞書を用いて悩み語の抽出方法と同様の方法により、思い込み表現を取得してもよい。このとき、推量表現、可能表現、汎化表現、評価表現、自己感情表現に分類される語句については、自他判定が「自己」であるものを抽出対象とする。また、他者心理表現に分類される語句については、自他判定が「他者」であるものを抽出対象とする。
 例えば、自動思考の記入欄に「私を憎んでいるようなので、私は彼が嫌いだ。みんな我慢ができないはずだ。」というテキストが入力されたとする。この場合、思い込み表現の候補として、他者心理表現としての「憎む」が、推量表現としての「ようだ」が、自己感情表現としての「嫌い」が、汎化表現としての「みんな」が、可能表現としての「れる」が、推量表現としての「はずだ」がそれぞれ抽出される。
 また、適応的思考引き出し部53は、例えば図13に示すように、思い込み表現の種類と対応づけてヒント文を記憶しておき、それを参照し、抽出した思い込み表現に対応するヒント文を選択してもよい。
 図13では、例えば、自己感情表現に分類される思い込み表現があった場合に、「『抜き出し部分』は、感情的に考えすぎていないか振り返ってみてください。」といったヒント文が登録されている例が示されている。また、推量表現に分類される思い込み表現があった場合に、「『抜き出し部分』はあなたの推測が含まれていないか振り返ってみてください」といったヒント文が登録されている例が示されている。ここで、ヒント文に含まれる『抜き出し部分』とは、思い込み表現として抜き出した語句をあてはめることを意味している。このように、ヒント文のテンプレートを登録することも可能である。テンプレートの内容としては、抽出した表現の特徴を踏まえ、その特徴を指摘するまたはその特徴を否定する事実がないかを考えさせるメッセージを出力できるものであればよい。
 適応的思考引き出し部53は、このような登録データを用いて、例えば、「いつも資料作りに失敗する」といった入力文に対して、「いつも」という汎化表現を抽出し、登録されているヒント文のテンプレートにあてはめることで、「『いつも』は一般化しすぎていませんか」といった出力メッセージを生成できる。
 また、適応的思考引き出し部53は、適応的思考引き出しステップが実行されるまでに後述する根拠・反証引き出しステップを経由している場合には、対話機能として、図10に示したような、根拠または根拠と反証を用いた適応的思考の例文を生成して出力してもよい。
 適応的思考は、通常、悩んでいる人間にとって今の考え方を見直すことは難しいだけでなく、どう書いてよいかもわかりづらいため、特に記入が難しい項目である。考え方を見直すための方法として、いきなり適応的思考を考えるのではなく、根拠と反証というように、ステップを細かく分けて、自分の考えを整理する方法がとられてもよい(後述する根拠・反証ステップを参照)。
 このようにステップを細かく分け、根拠と反証を相談者から引き出した場合、適応的思考引き出し部53は、本ステップで、対話機能として、記載の仕方を相談者に理解させることを目的として、根拠と反証から適応的思考の雛形(例文)を作成して出力してもよい。
 このとき、1つ以上の根拠と1つ以上の反証が得られている場合には、適応的思考引き出し部53は、つながりのよいものを選び、雛形を生成する。具体的には、適応的思考引き出し部53は、全ての組み合わせの中から、適応的思考として文章化する際に、文の意味として破綻しない根拠と反証の組を選択する。適応的思考引き出し部53は、文の意味として破綻しているか否かを、例えば、次のようにして判定すればよい。まず、適応的思考引き出し部53は、逆接の接続詞で連結している文章対とそうでない文章対をネットワーク上から集めておく。適応的思考引き出し部53は、それらの文章対を正例、不例として用いることで、任意の2文の入力に対して、それらが逆接で繋がりやすいか否かを判定できる学習器を構築する。適応的思考引き出し部53は、その学習器に対して、根拠と反論の各組み合わせを入力し、最も逆接の接続詞で繋がりやすいと判定された組み合わせをユーザに提示する。
 例えば、「いつも資料作りに失敗する」という自動思考に対して、根拠として「以前も資料づくりで指摘された」と「昔から物覚えが悪い」という2つの文が得られたとする。また、反証として「この種の資料作成は初めてだ」と「指摘されずに済んだこともある」という2つの文が得られたとする。このような場合に、適応的思考引き出し部53は、最も逆接の接続詞で繋がりやすい「以前も資料作りで指摘された」と「指摘されずに済んだこともある」の組を選択して、「以前も資料作りで指摘された。しかし、指摘されずに済んだこともある」という適応的思考の雛形文を作成してもよい。
 また、適応的思考引き出し部53は、ステップ処理で得られた情報(入力文、自動思考のタイプ、思い込み表現の有無、思い込み表現、思い込み表現の分類結果など)を情報共有部4に記憶し、他のステップで利用可能にしてもよい。
[気分引き出しステップ]
 次に、気分引き出しステップについて説明する。本実施形態において当該ステップ処理に対応づけられている情報引き出し部5は、気分引き出し部54である。気分引き出し部54は、気分引き出しステップで、相談者から自動思考を生じたときの「気分」を引き出すための各種処理を実行する。気分引き出し部54が相談者から引き出す情報は、具体的には、状況引き出しステップで聞き出した状況において感じた気分、特に、最も辛い気持ちを示す情報である。気分引き出し部54は、当該ステップで、ユーザの気持ちが揺れた状況において生じた気持ちの入力を促すメッセージを出力し、ユーザから情報(該気持ちを示す情報)の入力を受け付ける。
 図14および図15は、気分引き出しステップで使用する画面の例を示す説明図である。気分引き出し部54は、気分引き出しステップにおいて、例えば図14に示すような「そのときどんな気持ちになりましたか」といった気持ちの記入を促すメッセージを出力する領域と、気持ちの記入欄とを含む画面を用いて、相談者の思う「気持ち」を表現したテキストを相談者に入力させる。
 また、気分引き出し部54は、例えば図15に示すような「資料を指摘されたのですね。そのときどんな気持ちになりましたか」といったように、ユーザの状況を総括した文章を出力した上で、そのときの気持ちを聞くメッセージを出力してもよい。どのときの気持ちを聞いているかを明確にすることで、相談者が自身を辛くしている気持ちを書きやすくすることができる。問題状況の総括メッセージの生成方法は、状況引き出しステップにおいて共感メッセージを生成する方法と同様でよい。なお、本処理の場合は問題状況の総括メッセージに用いる悩み語や気持ち語を1つに絞ることが好ましい。なお、状況引き出し部51が本処理で生成する問題状況の総括メッセージにも相当するメッセージすなわちユーザの状況に対する共感メッセージを情報共有部4に記憶している場合には、気分引き出し部54は、情報共有部4に記憶されている該共感メッセージを読み出して利用してもよい。
 なお、気持ちの記入欄は、自由記入形式(相談者が自由に語句を記入できる形式)であってもよいし、選択入力形式(予めいくつかの気分を表す語を用意しておき、その中から選択させる形式)であってもよい。また、気持ちの記入欄は、自由記入形式と選択入力形式を組み合わせてもよい。
 また、気分引き出し部54は、対話機能の一つとして、気持ちへの共感メッセージを生成し、出力してもよい。
 相談者を辛くしている状況や出来事を具体的に特定し、それによって生じた気持ちへの共感メッセージを出力することで、メンタルヘルスケアにとって重要な治療関係(信頼関係)を相談者とシステムとの間で醸成できる。相談者との間に信頼関係、例えば相談者の気持ちが的確にくみ取られていて、当該システムを利用すれば効果が得られるといった期待がもてる関係を築くためには、複数の悩みに該当する語があっても的確に共感すべき箇所を特定することが重要である。
 気分引き出し部54は、例えば、気分引き出しステップで相談者に入力させた気持ちを表す情報を入力として、その気持ちに共感するメッセージを生成し、出力してもよい。気分引き出しステップでは、気持ちの強さを数字等で入力できるようにしておき、その値を当該共感メッセージの生成処理の入力に含めてもよい。また、気持ちの強さは、定量的な数字でなくてもよい。画面上に「とても」「ふつう」「すこし」といった気持ちの程度に対応して選択項目を用意しておき、相談者に気持ちの記入または選択とともにその気持ちの程度も選択させ、その選択結果が入力に含まれてもよい。
 気分引き出し部54は、共感メッセージの生成処理で、例えば、気持ちを表現したテキストからネガティブな単語を抽出する処理を行い、抽出した単語とその気持ちの強度に応じて予め用意しておいた共感メッセージのテンプレート文の内容を変化させてもよい。
 ネガティブな単語の抽出は、辞書とのマッチング処理によって行える。すなわち、ネガティブな気持ちを表す単語と、代表される気持ちとを対応づけて予め辞書に登録しておき、入力文中に辞書に登録されている単語があれば、それを抽出する。なお、辞書には、自然なメッセージとなるよう文例を対応付けておいてもよい。その際、複数の気持ちに共感する場合と単一の気持ちに共感する場合とのように複数のパターンの文例を用意しておいてもよい。これにより、気分引き出し部54は、より自然な共感メッセージを生成できる。
 なお、気持ちに強度が付与されている場合には、気分引き出し部54は、値の大きさに応じて、「強く」「かなり」「少し」などの修飾語句を付けてもよい。また、複数の抽出結果が得られた場合に、それぞれを代表的な気持ちに変換した際、重複するものがあれば、気分引き出し部54は、その気持ちを強く感じていると判定してもよい。なお、各単語に重要度を付与しておき、代表的な気持ちカテゴリごとにその和を求めた結果をその気持ちの強度としてもよい。
 例えば、入力文から「悲しい」と「不安」と「泣きたい」という気持ち語が抽出されたとする。また、「悲しい」に対してその強度を60、「不安」に対してその強度を30、「泣きたい」に対してその強度を40とする入力であったとする。
 その場合に、気分引き出し部54は、まずこれらをそれぞれ代表的な気持ちに変換してもよい。本例の場合は、「悲しい」「不安」については代表的な気持ちであるためそのままとされ、「泣きたい」が「悲しい」に変換される。その結果、「悲しい」の強度が100、「不安」の強度が30とする抽出結果が得られる。すると、気分引き出し部54は、予め用意しておいたテンプレート文「『強い強度の修飾語』『気持ち表現』、『弱い強度の修飾語』『気持ち表現』だったのですね。」を利用して、「とても悲しく、不安だったのですね。」という共感メッセージを出力してもよい。なお、本例では、代表的な気持ち「悲しい」に対して、前半の文の場合は「悲しく」、その他の場合は「悲しかった」とする例文が登録されている。また、代表的な気持ち「不安」に対して、前半の文の場合は「不安で」、その他の場合は「不安」とする例文が登録されている。また、強い強度の修飾語として「とても」が登録され、弱い強度の修飾語として「(なし)」が登録されている。
 このように、ユーザの状況や気持ちに対する共感メッセージを出力することで、メンタルヘルスケアにとって重要な治療関係(信頼関係)を相談者とシステムとの間で醸成される効果が期待できる。このような治療関係が醸成されることで、相談者が正直な気持ちを記入しやすくなったり、継続して利用してもらえるようになる。そのため、認知行動療法による効果、具体的には気分の改善、気持ちの整理・切り替えの向上に繋がる。
 また、気分引き出し部54は、ステップ処理で得られた情報(入力文、気持ち語、気持ちの分類結果など)を情報共有部4に記憶し、他のステップで利用可能にしてもよい。
[根拠・反証引き出しステップ]
 次に、根拠・反証引き出しステップについて説明する。本実施形態において当該ステップ処理に対応付けられている情報引き出し部5は、根拠・反証引き出し部55である。根拠・反証引き出し部55は、根拠・反証引き出しステップで、自動思考の「根拠」と「反証」を引き出すための各種処理を実行する。根拠・反証引き出し部55が相談者から引き出す情報は、具体的には、引き出した自動思考について相談者がなぜそう思ったかの根拠である。すなわち、根拠・反証引き出し部55が相談者から引き出す情報は、相談者において自動思考が生じた理由に関する情報と、相談者自身が気づいた自動思考の別の見方であり、例えば、引き出した自動思考のように考えなくても済む事実、引き出した自動思考を打ち消すような逆の事実に関する情報である。なお、本ステップは、根拠引き出しステップと反証引き出しステップの2つに分かれていてもよい。根拠・反証引き出し部55は、根拠・反証引き出しステップで、自動思考の根拠の入力を促すメッセージを出力し、ユーザから情報(該根拠を示す情報)の入力を受け付ける。また、根拠・反証引き出し部55は、自動思考に対する反証の入力を促すメッセージを出力し、ユーザから情報(該反証を示す情報)の入力を受け付ける。
 図16および図17は、根拠・反証引き出しステップの根拠引き出しステップで使用する画面の例を示す説明図である。根拠・反証引き出し部55は、根拠引き出しステップにおいて、例えば図16に示すような「そう考えたのはどんな事実があったからでしょうか」といった自動思考に対する根拠の記入を促すメッセージを表示する領域と、根拠の記入欄とを含む画像を用いて、相談者の思う「根拠」を表現したテキストを相談者に入力させる。
 また、根拠・反証引き出し部55は、例えば図17に示すような、「だから『自動思考』」といったメッセージを根拠の記入欄に続けて表示する画面を用いて、相談者が、自身の自動思考に対する根拠を挙げられるように誘導してもよい。すなわち、根拠・反証引き出し部55は、根拠の記入欄に続けて「だから」「そのため」「それで」「なので」等の順接の接続詞(前の文脈の結果として後ろの文脈を導く働きをする接続詞)と、引き出した自動思考の総括表現とをつなげたメッセージとを出力してもよい。なお、根拠・反証引き出し部55は、例えば「だから『引き出した自動思考の総括表現』と考えた」といったように、メッセージの末尾に「と考えた」等の語句を付加して、『』内の表現が自動思考であることをより明確にしてもよい。
 なお、図17に示す例では、複数の根拠を記入できるようにし、かつ各記入欄に書ける行を少なくする(例えば、1行)にすることでユーザに書く内容を整理させ、また簡潔な表現で書かせる工夫をしている。
 また、根拠引き出しステップにおいても、根拠・反証引き出し部55は、記入された根拠に思い込み発言が含まれていないかどうかをチェックすることが好ましい。自動思考に対する根拠は事実ベースであることが求められるからである。しかし、考え方が一つの方向に集中してしまう人の場合、思い込みを根拠として書いてしまうケースが多い。そこで、根拠・反証引き出し部55は、根拠として入力されたテキストから思い込みの表現を抽出して、根拠に相談者の思い込みが入っていないかどうかを判定するようにしてもよい。思い込みが入っていると判定した場合には、根拠・反証引き出し部55は、その旨または思い込み表現を指摘するメッセージや事実に即した記載を促すメッセージを出力してもよい。
 思い込みの表現の有無は、入力テキストから思い込みの表現を抽出することによって判定できる。なお、思い込みの表現の抽出方法は、上述した自動思考に対する思い込み表現の抽出方法と同様でよい。具体的には、根拠・反証引き出し部55は、推量表現、可能表現、汎化表現、評価表現、他者心理表現、自己感情表現、限定表現といった思い込み表現の分類ごとの具体的な表現例が登録された辞書を用いて、入力テキストから形態素解析、構文解析して得られた語句と辞書に登録された各表現例とを比較して、一致したものを思い込み表現として抽出すればよい。
 次いで、根拠・反証引き出し部55は、抽出した表現に対して自他判定を行えばよい。このとき、根拠・反証引き出し部55は、推量表現、可能表現、汎化表現、評価表現、自己感情表現に分類される語句については、自他判定が「自己」であるものを抽出対象とする。また、根拠・反証引き出し部55は、他者心理表現に分類される語句については、自他判定が「他者」であるものを抽出対象とする。
 そして、根拠・反証引き出し部55は、各種類に対応づけて登録しておいたテンプレートと、発言箇所(抽出した思い込み表現)を用いて、メッセージを構築すればよい。テンプレートの例としては、例えば評価表現に対して「『抽出した部分』のようにあなたなりの捉え方ではなく、他の人にも分かるような表現で書いてみてください。」といったメッセージが考えられる。また、テンプレートの例として、例えば他者心理表現に対して「『抽出した部分』のように相手の気持ちを推測する表現を使わず、具体的にどのような事実を受けてそう思ったかを書いてみてください。」といったメッセージが考えられる。テンプレートの内容としては、抽出した思い込み表現の特徴を説明しつつ、そのような表現ではなく、それと反対の表現となるようにまたは事実を用いて書くことを促すメッセージを出力できる内容であればよい。
 例えば、根拠1として「以前も資料作りで指摘された」、根拠2として「上司はずいぶん怒っていた」といったテキストが入力されたとする。この場合に、根拠・反証引き出し部55は、このような登録データを用いて、根拠2のテキストに含まれる「怒っていた」という思い込み表現(他者心理表現)を抽出してもよい。そして、根拠・反証引き出し部55は、「『怒っていた』のように相手の気持ちを推測する表現を使わずに、具体的にどのような事実を受けてそう思ったかを書いてみてください。」といった指摘メッセージを出力してもよい。また、根拠・反証引き出し部55は、「ずいぶん」という思い込み表現(評価表現)を抽出して、「『ずいぶん』のようにあなたなりの捉え方ではなく、他の人にも分かるような表現で書いてみてください。」といった指摘メッセージを出力してもよい。
 また、図18および図19は、根拠・反証引き出しステップの反証引き出しステップで使用する画面の例を示す説明図である。根拠・反証引き出し部55は、反証引き出しステップにおいて、例えば図18に示すような「そうとは言い切れない事実はないですか?」といった自動思考の反証の記入を促すメッセージを表示する領域と、反証の記入欄とを含む画像を用いて、相談者の思う「反証」を表現したテキストを相談者に入力させる。
 また、根拠・反証引き出し部55は、例えば図19に示すように「だから『自動思考』とは言い切れない」といったメッセージを反証の記入欄に続けて表示する画面を用いて、相談者が、自身の自動思考に対する反証を挙げられるように誘導してもよい。すなわち、反証の記入欄につづく形で「だから」「そのため」「それで」「なので」等の順接の接続詞(前の文脈の結果として後ろの文脈を導く働きをする接続詞)と、引き出した自動思考の総括表現と、「とは言い切れない」「とは限らない」といった当然・必然の否定や否定形による当為を表わす表現をつなげたメッセージを出力してもよい。
 また、根拠・反証引き出し部55は、反証引き出しステップで、上述の反証のヒントの提示を行ってもよい。このとき、根拠引き出しステップで取得した根拠の情報を入力として用いることができる。なお、当該ステップで反証のヒントを提示した場合には、適応的思考引き出しステップでの反証のヒントの提示を省略してもよい。
 また、根拠・反証引き出し部55は、ステップ処理で得られた情報(入力文、根拠に対する思い込み表現の有無、思い込み表現、思い込み表現の分類結果など)を情報共有部4に記憶し、他のステップで利用可能にしてもよい。
 本実施形態において、フロー制御部3、情報引き出し部5は、例えば、CPU(Central Processing Unit )等のプログラムに従って動作する情報処理装置によって実現される。また、情報共有部4はメモリやHDD(Hard disk drive )といった記憶装置やデータベースシステムによって実現される。また、当該メンタルヘルスケアシステムは、これら各機能部や記憶部がネットワークに接続されたサーバ装置やユーザが個人的に使用するパーソナルコンピュータや携帯端末等のユーザ端末に実装されることにより実現される。
 次に、本実施形態の動作を説明する。図20は、本実施形態のメンタルヘルスケアシステムの動作の一例を示すフローチャートである。図20に示す例では、まず状況引き出し部51が、相談者から「状況」を引き出す処理を行う(ステップS11:状況引き出しステップ)。本ステップは、例えば、当該システムのトップページに対するユーザアクセスが検知されると、その通知を受けたフロー制御部3が、状況引き出し部51に処理の開始を指示することにより行われる。
 状況引き出し部51は、フロー制御部3から処理の開始が指示されると、例えば、予め用意しておいた状況引き出し画面(例えば、図3に示す画面)をUI部1を介して当該システムが有するディスプレイまたはユーザ端末のディスプレイに表示して、ユーザ(相談者)に、該ユーザの思う「状況」を表現したテキストを入力させる。なお、状況を表現したテキストは、「場面」や「時」を表現したテキストと「出来事」を表現したテキストとに分かれていてもよい。
 そして、状況引き出し部51は、状況引き出し画面においてユーザによる状況を表現したテキストの記入が終了したことを検知すると、記入欄に入力された情報を取得して、ユーザから取得した「状況」を示す情報として情報共有部4に記憶する。また、このとき、状況引き出し部51は、ユーザの状況への共感メッセージを生成して同画面上に出力してもよい。なお、状況引き出し部51は、記入の終了を、UI部1からの画面制御によるイベント通知によって検知すればよい。
 また、状況引き出し部51は、状況引き出し画面においてユーザが状況を表現したテキストを記入後、次ステップに進む操作を入力したことを検知すると、次ステップに処理を移行させるために、状況引き出しステップの完了を示す旨をフロー制御部3に通知する。また、状況引き出し部51は、記入欄に記入された情報以外にも取得した情報があれば、このときまでに取得した情報を情報共有部4に記憶する。なお、状況引き出し部51は、次ステップに進む操作の入力を、UI部1からの画面制御によるイベント通知によって検知すればよい。
 フロー制御部3は、状況引き出しステップの完了の通知を受けると、処理を自動思考引き出しステップに進める。具体的には、フロー制御部3は、自動思考引き出し部52に処理の開始を指示する。
 自動思考引き出し部52は、フロー制御部3からの処理の開始の指示を受けると、前ステップに続けてユーザから「自動思考」を引き出す処理を行う(ステップS12:自動思考引き出しステップ)。自動思考引き出し部52は、例えば、予め用意しておいた自動思考引き出し画面(例えば、図6に示す画面)をUI部1を介して表示して、ユーザに、該ユーザが認識している「自動思考」を表現したテキストを入力させる。
 このとき、自動思考引き出し部52は、自動思考引き出し画面において、例えばステップS11で取得された状況や後述するステップS14で取得された気持ちが情報共有部4に記憶されていれば、状況から気持ちを推定し、推定した気持ちまたは取得された気持ちを含む表示メッセージを出力してもよい。また、自動思考引き出し部52は、ステップS11で取得された状況の総括表現を含む表示メッセージを出力してもよい。また、自動思考引き出し部52は、自動思考引き出し画面を、自動思考をできるだけ挙げさせる画面とそれを選択させる画面とに分けて表示してもよい。この場合、自動思考引き出し部52は、まず自動思考をできるだけ挙げさせる画面を表示し、その後、挙げた自動思考の中から1つを選択する画面を表示すればよい。
 そして、自動思考引き出し部52は、自動思考引き出し画面においてユーザによる自動思考を表現したテキストの記入が終了したことを検知すると、記入欄に入力された情報を取得する。このとき、曖昧な表現が含まれていれば、自動思考引き出し部52は、注意喚起を行ってもよい。また、自動思考引き出し部52は、自動思考と気分に矛盾があればそれを指摘して、自動思考または気持ちを再確認する、または深掘するための質問メッセージを出力してもよい。また、自動思考引き出し部52は、そのようにして取得した自動思考に関する情報を情報共有部4に記憶する。
 また、自動思考がなかなか書けないユーザのために、自動思考引き出し画面に、対話的支援を求めるボタンや、一定時間の記入文字数をチェックする処理を具備させておいてもよい。このとき、自動思考引き出し部52は、ボタン押下を検出した時または一定時間の記入文字数が所定数以内であることを検知した時には、自動思考の引き出しステップに失敗したとみなして、その旨をフロー制御部3に通知してもよい。なお、自動思考引き出し部52は、自動でフロー切り替えせずに、フロー切り替えを推薦するメッセージを出力し、相談者の承諾を得た後に、フロー制御部3に通知するようにしてもよい。
 フロー制御部3は、自動思考引き出しステップの失敗の通知を受けると、処理を気分引き出しステップに進める制御を行う(ステップS13のNo)。具体的には、フロー制御部3は、気分引き出し部54に処理の開始を指示する。
 気分引き出し部54は、フロー制御部3からの処理の開始の指示を受けると、前ステップに続けてユーザから「気分」を引き出す処理を行う(ステップS14:気分引き出しステップ)。気分引き出し部54は、例えば、予め用意しておいた気分引き出し用画面(例えば、図15に示す画面)をUI部1を介して表示して、ユーザに、該ユーザが認識している「気分」を表現したテキストを入力させる。
 このとき、気分引き出し部54は、気分引き出し画面において、ステップS11で取得された状況の総括表現を表示メッセージに含めることで、ユーザの状況への共感を示してもよい。
 そして、気分引き出し部54は、気分引き出し画面においてユーザによる気分を表現したテキストの記入が終了したことを検知すると、記入欄に入力された情報を取得して、情報共有部4に記憶する。また、気分引き出し部54は、このとき、その気持ちへの共感メッセージを生成して同画面上に出力してもよい。
 また、気分引き出し部54は、気分引き出し画面においてユーザが気分を表現したテキストを記入後、次ステップに進む操作を入力したことを検知すると、次ステップに処理を移行させるために、気分引き出しステップの完了の旨をフロー制御部3に通知する。また、気分引き出し部54は、記入欄に記入された情報以外にも取得した情報があれば、このときまでに取得した情報を情報共有部4に記憶する。
 フロー制御部3は、気分引き出しステップの完了の通知を受けると、処理を再度自動思考引き出しステップに進める(ステップS12に戻る)。具体的には、フロー制御部3は、自動思考引き出し部52に処理の開始を指示すればよい。
 一方、ステップS12で、自動思考引き出し部52は、自動思考引き出し画面においてユーザが自動思考を表現したテキストを記入後、次ステップに進む操作を入力したことを検知すると、次ステップに処理を移動させるために、自動思考引き出しステップの完了の旨をフロー制御部3に通知する。また、自動思考引き出し部52は、記入欄に記入された情報以外にも取得した情報があれば、このときまでに取得した情報を情報共有部4に記憶する。
 フロー制御部3は、自動思考引き出しステップの完了の通知を受けると、処理を適応的思考引き出しステップに進める(ステップS13のYes、ステップS15)。具体的には、フロー制御部3は、適応的思考引き出し部53に処理の開始を指示する。
 適応的思考引き出し部53は、フロー制御部3からの処理の開始の指示を受けて、前ステップに続けてユーザから「適応的思考」を引き出す処理を行う(ステップS15:適応的思考引き出しステップ)。適応的思考引き出し部53は、例えば、予め用意しておいた適応的思考引き出し画面(例えば、図9や図10に示す画面)をUI部1を介して表示して、ユーザに、該ユーザが思う「適応的思考」を表現したテキストを入力させる。
 このとき、適応的思考引き出し部53は、適応的思考引き出し画面において、例えば後述するステップS17で取得された根拠や反証が情報共有部4に記憶されていれば、その情報を基に適応的思考の例文を生成し、記入欄に予め表示しておいてもよい。
 また、適応的思考引き出し部53は、ステップS12で引き出された自動思考を示す情報を基に、自動思考に思い込み表現が含まれているか否かを検証して、その結果得られる反証のヒントを適応的思考引き出し画面に提示してもよい。適応的思考引き出し部53は、反証のヒントを、ステップ開始時に画面上に出力しておいてもよいし、ヒントを求めるボタンの押下を検知したときに表示するようにしてもよい。
 そして、適応的思考引き出し部53は、ユーザによる適応的思考を表現したテキストの記入が終了したことを検知すると、記入欄に入力された情報を取得する。このとき、適応的思考引き出し部53は、記入欄に入力された情報(特に反証部分)に思い込み表現が含まれていれば注意喚起のメッセージを出力してもよい。適応的思考引き出し部53は、そのようにして最終的に取得した情報を、適応的思考を示す情報として情報共有部4に記憶する。
 また、反証のヒントの提示とは別に、適応的思考がなかなか書けないユーザのために、対話的支援を求めるボタンや、一定時間の記入文字数をチェックする処理を具備させておいてもよい。このとき、適応的思考引き出し部53は、ボタン押下を検出した時または一定時間の記入文字数が所定数以内であることを検知した時には、適応的思考の引き出しステップに失敗したとみなして、その旨をフロー制御部3に通知してもよい。なお、適応的思考引き出し部53は、自動でフロー切り替えせずに、フロー切り替えを推薦するメッセージを出力し、相談者の承諾を得た後に、フロー制御部3に通知するようにしてもよい。
 フロー制御部3は、適応的思考引き出しステップの失敗の通知を受けると、処理を根拠・反証引き出しステップに進める制御を行う(ステップS16のNo)。具体的には、フロー制御部3は、根拠・反証引き出し部55に処理の開始を指示する。
 根拠・反証引き出し部55は、フロー制御部3からの処理の開始の指示を受けると、前ステップに続けてユーザから「根拠」と「反証」を引き出す処理を行う(ステップS17:根拠・反証引き出しステップ)。根拠・反証引き出し部55は、例えば、予め用意しておいた根拠引き出し用画面(例えば、図17に示す画面)をUI部1を介して表示して、ユーザに、まず該ユーザが思う「根拠」を表現したテキストを入力させる。
 このとき、根拠・反証引き出し部55は、根拠引き出し画面において、記入欄に続けてステップS12で取得された自動思考の総括表現を順接の接続詞に繋げて表示することで、自動思考の理由となる文を書きやすいように誘導してもよい。
 そして、根拠・反証引き出し部55は、ユーザによる根拠を表現したテキストの記入が終了したことを検知すると、記入欄に入力された情報を取得する。このとき、根拠・反証引き出し部55は、記入欄に入力された情報に思い込み表現が含まれていれば注意喚起のメッセージを出力してもよい。根拠・反証引き出し部55は、そのようにして最終的に取得した情報を、根拠を示す情報として情報共有部4に記憶する。
 次いで、根拠・反証引き出し部55は、ユーザから「反証」を引き出す処理を行う。根拠・反証引き出し部55は、例えば、予め用意しておいた反証引き出し画面(例えば、図19に示す画面)をUI部1を介して表示して、ユーザに、該ユーザが思う「反証」を表現したテキストを入力させる。
 このとき、根拠・反証引き出し部55は、反証引き出し画面において、記入欄に続けて順接の接続詞とステップS12で取得された自動思考の総括表現と当然・必然の否定や否定形による当為を表わす表現とを繋げて表示することで、自動思考に対する反証を書きやすいように誘導してもよい。
 また、根拠・反証引き出し部55は、ステップS12で引き出した自動思考を示す情報を基に、自動思考に思い込み表現が含まれているか否かを検証して、その結果得られる反証のヒントを反証引き出し画面に提示してもよい。根拠・反証引き出し部55は、反証のヒントを、ステップ開始時に画面上に表示するようにしてもよいし、ヒントを求めるボタンの押下を検知したときに表示するようにしてもよい。
 そして、根拠・反証引き出し部55は、ユーザによる反証を表現したテキストの記入が終了したことを検知すると、記入欄に入力された情報を取得して、反証を示す情報として情報共有部4に記憶する。このようにして根拠を示す情報と反証を示す情報とを取得すると、根拠・反証引き出し部55は、根拠・反証引き出しステップの完了の旨をフロー制御部3に通知する。
 フロー制御部3は、根拠・反証引き出しステップの完了の通知を受けると、処理を再度適応的思考引き出しステップに進める(ステップS15に戻る)。具体的には、フロー制御部3は、適応的思考引き出し部53に処理の開始を指示すればよい。
 一方、ステップS15で、適応的思考引き出し部53は、適応的思考引き出し画面においてユーザが適応的思考を表現したテキストを記入後、次ステップに進む操作を入力したことを検知すると、次ステップに処理を移動させるために、適応的思考引き出しステップの完了の旨をフロー制御部3に通知する。また、適応的思考引き出し部53は、記入欄に記入された情報以外にも取得した情報があれば、このときまでに取得した情報を情報共有部4に記憶する。
 フロー制御部3は、適応的思考引き出しステップの完了の通知を受けると、認知再構成法によるメンタルヘルスケアの処理を終了する。なお、メンタルヘルスケアの処理を終了せずに、この後にまとめを行うステップに移行してもよい。
 まとめステップでは、フロー制御部3は、例えば「気分は変わりましたか?」などといったメッセージを表示して、今の気分や気持ちの改善度などをユーザに入力してもらい、効果の確認、具体的には気分の改善、気持ちの整理・切り替えがどれくらい出来たかの確認ができるようにしてもよい。また、フロー制御部3は、例えば、気分が軽くなったユーザに対して改善につながったポイントはどこなのかを入力してもらってもよい。また、フロー制御部3は、併せてユーザに今後の課題を入力してもらってもよい。それらを入力させることで、改善につながったポイントや課題をユーザに認識させることができ、以降の日常生活において自分だけでも気持ちを見直すことができるようにする。また、気分が軽くならなかった場合には、その後の日常生活で事実認識させることが有効であるので、フロー制御部3は、どういう事実認識の仕方がよいかのヒントを教えるためのメッセージを出力してもよい。例えば、自動思考の思い込みの傾向から反証のヒントを挙げ、「そのような事実がないかを今後の日常生活で見つけるようにしてください」といったメッセージを表示してもよい。
 また、気持ちの改善度や改善ポイントといったユーザ評価を、今回の一連の入力内容(各ステップで得られた各種情報)とともに記憶しておくことで、次のアクセス時に活かすことができる。情報引き出し部5の各部は、例えば、気分の変化量すなわち気持ちの改善効果が大きかったときに出力したメッセージや改善ポイントなどからその人に響く言葉を特定し、次のアクセス時に優先的に選択するようにしてもよい。また、前回のアクセス時に入力された内容を、次のアクセス時の対話メッセージに反映することも可能である。状況引き出し部51は、例えば、次回開始時に、「課題はどうなっていますか?」などを聞いてもよい。また、情報引き出し部5の各部は、例えば、ステップ処理中に「前もこんなことがあってそういう気持ちになりましたね」などと、ユーザの自動思考や気持ちの傾向を気づかせるメッセージを出力してもよい。
 また、図20では、自動思考の引き出しの成否を判定して失敗したとみなされた場合に自動思考を引き出すための気分引き出しステップが行われる動作例を示した。また、図20では、適応的思考の引き出しの成否を判定して失敗したとみなされた場合に適応的思考を引き出すための根拠・反証ステップが行われる動作例を示した。ただし、これらの成否判定を省略して、状況引き出しステップと自動思考引き出しステップと適応的思考引き出しステップの3ステップ構造としてもよい。この場合、ユーザ支援は、自動思考引き出しステップのヒント提示処理や適応的思考引き出しステップのヒント提示処理によって行われる。
 また、成否判定せずに初めから気分引き出しステップや根拠・反証ステップを経由する5ステップ構造とすることも可能である。
 また、図21は、上述したステップ別のUI的工夫や対話機能の工夫のうち代表的なものをまとめて示す説明図であるが、これら以外にも、様々な工夫が挙げられる。例えば、自動思考引き出しステップで、自動思考引き出し部52は、考え方のくせをチェックし、そのパターンに応じて、例えば「白黒思考っぽいのがでていますね」、「べき思考っぽいのがでていますね」といった指摘メッセージや反証のヒントを出力してもよい。自動思考はいくつかのパターンに分けることができる。そこで、自動思考引き出し部52は、取得した自動思考がどのパターンに属するかをパターン認識などを用いてチェックして、そのパターンに応じたメッセージを出力してもよい。考え方のくせがわかるとアドバイスしやすくなるため、自動思考引き出し部52は、対話内で、ユーザのくせが分かるような質問を投げかけてもよい。または、自動思考引き出し部52は、別途アンケート方式の質問を行う画面を設けてもよい。
 また、情報引き出し部5は、一度利用したユーザに対して、例えば開始画面や終了画面において、本システムの使い時がわかるメッセージを表示するようにしてもよい。なお、ユーザを同定するために、当該システムがユーザ認証システムを備え、好ましくはユーザ認証システムと連携し、当該認証システムでログイン情報や以前の記載内容をユーザごとに記憶できるようになってもよい。そのような場合、情報引き出し部5は、ログイン後に、ログインしたユーザの識別子とともに参照可能になった該ユーザのログイン情報や以前の記載内容から、本システムの使い時がわかるメッセージを表示するようにしてもよい。また、本システムがユーザ端末に実装される場合には、情報引き出し部5は、ユーザの同定処理を行わずに無条件に同一ユーザとみなして、過去のログイン履歴や記載内容から本システムの使い時がわかるメッセージを表示するようにしてもよい。情報引き出し部5は、例えば、ユーザの本システムの使用履歴から最終使用日を参照し、その最終使用日から予め定めておいた期間経過後を本システムの使い時としてもよい。また、情報引き出し部5は、そのユーザの使用頻度から最適な経過期間を算出して、本システムの使い時としてもよい。なお、社内などで本システムを利用する場合などは、本システムが、勤怠管理システムと連携して勤怠情報を基にうつ傾向があるか否かなどを判定してもよい。そして、当該システムによるメンタルヘルスケアサービスをやった方がよいと思われるユーザに対して、当該システムの案内が通知されるようにしてもよい。本システムは、例えば、遅刻や欠勤が所定数以上のユーザに対して、案内を通知してもよい。また、本システムは、例えば、メール機能と連携して、メールの送信内容を基にうつ傾向があるか否かなどを判定してもよい。そして、当該システムによるメンタルヘルスケアサービスをやった方がよいと判定された場合に、当該システムの案内を通知することも可能である。
 また、ユーザが使用している端末上に入力画面を常駐させ、愚痴をこぼしたい時などに、気軽に入力を開始できるようにしてもよい。
 また、情報引き出し部5は、例えば、開始時に「いついつ振りですね」等のユーザ固有の情報を出力することで、自分のことが覚えられている感を与えられるようにしてもよい。そうすることで、相手の心をほぐし、メンタルヘルスケアサービスを始めやすくできる。例えば、スケジュール管理システムと連携している場合、情報引き出し部5は、会議後であれば、ユーザ固有の情報として、「会議ご苦労様です」といったメッセージを出力してもよい。また、情報引き出し部5は、顔画像を利用して、状態(例えば、見た目年齢)を推定してもよい。この場合、いつもより老けていると判定した場合、情報引き出し部5は、「今日、調子悪くないですか?」と出力してみてもよい。また、いつもより若いと判定した場合、情報引き出し部5は、「今日は調子良さそうですね」と出力してみてもよい。
 また、情報引き出し部5は、天気などの情報を出力するWebサービスを利用して、「今日は暑いですね」といったアイスブレークとなるような会話を出力して、メンタルヘルスケアサービスを始めやすくしてもよい。
 また、情報引き出し部5は、この他にもユーザの登録情報や入力内容から、出身地を特定し、出力メッセージに方言を入れ込んでもよい。方言を入れ込むことで郷愁感を漂わせることができるので、懐かしさによる心のケアも行える。なお、情報引き出し部5は、Webサービスを利用して地元のイベント情報を取得し、「○○では、今度○○があるそうですね」といったメッセージを出力して、相手の心をほぐすようにしてもよい。
 また、全ステップ共有の工夫として、情報引き出し部5は、例えば、入力された情報から、ユーザが辛いと感じる状況や出来事、自動思考、気持ち、適応的思考らしいものを抜き出せたときは、以降のステップでのメッセージで利用するようにしてもよい。情報引き出し部5は、例えば、抽出できたところまでの情報を利用して、「○○なことがあって、○○な気持ちになったのですね」や「○○なことがあって、○○な気持ちになって、○○なことを考えたのですね」というようなユーザに確認を求めるメッセージを出力してもよい。このようにすることで、ユーザは状況やその時生じる気持ちや考えを客観視できるので、思考の見直しに有効となる。
 また、情報引き出し部5は、例えば、相手の発言の肝となる部分を抜き出してオウム返しをすることで、ユーザとの信頼関係を向上でき、その結果より良い治療関係を醸成することができる。
 また、情報引き出し部5は、例えば、心配している様子や喜びを共有するために、ユーザの入力内容に応じて、キャラクターの表情やメッセージを変化させてもよい。
 また、画面共通の工夫として、例えば、次に進むボタンを一色(例えば、緑)に統一してもよい。また、本実施形態では、対話感を出すために、メッセージの出力を吹き出しにしている。また、本実施形態では、入力した内容を画面上で確認できるようにしている。また、本実施形態では、会話がまず目に入るように吹き出し内の字を相対的に大きくしている。このような画面上での工夫によってもユーザが情報を入力しやすくできる。
 また、本実施形態では、画面上に常に図22に示すような全体の流れや必要な時間、これまでの進行状況を示すインジケータが表示されるようにし、カウンセリングがいつまで続くかが気がかりなユーザに、終わりが分かるようにしている。図22に示すインジケータは、各ステップに対応づけた白丸201を繋げて表示することで全体の流れを示している。また、各白丸201の上部に付与した時間情報203は、各ステップの所要時間の目安を示している。また、白丸201を結ぶ実線204は、その線が結んでいるステップまで処理が進んでいることを示している。また、白丸201を結ぶ破線206は、その線が結んでいるステップが未処理であることを示している。また、白丸201が黒丸205で塗られているステップは、現在表示中のステップであることを示している。このような用法のインジケータを設けることにより、例えば、図22(a)では、根拠・反証引き出しステップまで処理が進んでおり、現在その根拠・反証引き出しステップに対応する画面が表示されていることがわかる。
 また、認知再構成法ではユーザ自身が自分の思考を見直す作業を行うため、ユーザが自由に各記入フォームをいったり来たりすることができるのが好ましい。そのため、本実施形態では、いつでも前に戻れる機能を設けている。具体的には、上述したインジケータ上で既に記入が完了しているステップの白丸201をクリックすることにより、そのステップに対応する画面が表示されるようにしている。例えば、図22(b)に示すように、根拠・反証引き出しステップまで処理が進んでいる状態で、自動思考の入力を見直したい場合には、自動思考引き出しステップの白丸201をクリックするなどして、自動思考引き出しステップに戻ることができるようにしてもよい。このとき、自動思考引き出しステップに対応する画面(すなわち、自動思考引き出し用画面)が表示されるが、記入欄には既に一度ユーザが入力したテキストが表示されているものとする。ユーザが入力したテキストの取得は、情報共有部4に記憶されている情報を参照すればよい。
 なお、図22(c)では、処理の進む先が2以上に分かれている場合のインジケータの例を示している。なお、全体の流れを表示する機能や前のステップに戻る機能は、このようなインジケータによる方法に限定されない。
 また、場合によっては本物のカウンセラーに頼るのも有効であるため、その際に過去の入力情報をカウンセラーと共有できることが好ましい。このため、対話機能部2は、これまでの入力内容を一覧にし、ブック化して(印刷可能な表示形式にして)出力できるようにしてもよい。ブック化の際に、対話機能部2は、時系列、シチュエーション、気持ち、等で分類、並べ替えできるようにしてもよい。過去の入力内容を一覧にして出力することで、ユーザ自身による見直しもしやすくなる。
 また、対話機能部2は、履歴の他の利用例として、過去の事例に対して再度入力が行える振り返りモードを具備していてもよい。すなわち、履歴の中で気になる事例を選択し、同じ状況に対して今ならどう考えるだろうかを記入できるようにしてもよい。このような振り返りモードでは、対話機能部2は、例えば、過去に記入した問題状況、自動思考を引き継いだ形で適応的思考引き出しステップまたは根拠・反証引き出しステップから開始できるようにしてもよい。
 なお、上記例ではいずれもテキスト入力することを想定していたが、音声を入力としてもよい。そのような場合、情報引き出し部5の各部は、入力音声からテキスト変換を行った後、上述の処理を行えばよい。また、出力形式もテキストでなく、音声としてもよい。そのような場合、情報引き出し部5の各部は、出力メッセージに対して音声合成処理を行えばよい。そうすることで、目の不自由な人でも利用できるようになる。
 以上のように、本実施形態によれば、例えば、簡潔な入力、共感・総括メッセージの出力、不明確な点を補うための応答といった相談者から解決に必要な情報や解決策を引き出すためのUIの工夫、記載支援、対話機能の充実がなされている。これによって相談者は、考えを見直すのに必要な情報や解決策を自ら書けるようになる。その結果、認知行動療法による効果、具体的には気分の改善、気持ちの整理・切り替えの向上が期待できる。
 また、本実施形態によれば、例えば、経過時間と入力文字数などを基に、ユーザが書けていない度合いを判定して、書けていないようならより書きやすくなるフローに切り替えるなどの制御を行っている。そのため、慣れたユーザに対して作業時間の削減ができるとともに、慣れていないユーザに対しては手厚く入力支援を行うことができる。
実施形態2.
 なお、上記説明では、うつ傾向のあるユーザに対して認知行動療法に基づくメンタルヘルスケアを提供するためのメンタルヘルスケアシステムを例にして本発明の特徴や構成や動作を示した。ただし、本発明は認知の歪みをもつユーザに対してその歪みを修正するまたは気付かせる用途のシステムであれば、メンタルヘルスケアに限らず適用可能である。
 例えば、喫煙者に禁煙を支援するシステムに本発明を適用可能である。具体的には、喫煙者が禁煙を試みる際または禁煙中に持ちやすい認知の歪みを修正したりまたはその歪みを気付かせるためのシステムとしても本発明を適用可能である。
 禁煙中は、途中で1本でも吸ってしまうと「もうだめだ」と諦めてしまう人が多いため、その際に認知面に着目した治療を施すことが有効となる場合がある。
 例えば、客観的事実は「禁煙中にたばこを1本吸った」に過ぎないにもかかわらず、禁煙者の自動思考では「自分は意志が弱い。禁煙失敗だ」となっている場合がある。そのような場合に、たばこを1本吸ったからといって禁煙が失敗したものと決めつけない方向に認知を再構成させる。すなわち、適応的思考として、「むしろ1本でやめることができて良かった」「1本吸っただけでは禁煙が失敗したということにはならない」といった考えを気付かせるようなアドバイスや情報を引き出す。
 具体例としては、自動思考として「自分は意志が弱い。禁煙失敗だ」が入力されたとする。この場合に、対話機能部2は、例えば、「意志が弱い」といった発言に対して、「罪悪感から諦めそうになっているのですね」といった共感を表すメッセージを出力してもよい。また、対話機能部2は、例えば「禁煙失敗」といった発言に対して、「本当にそこで失敗なのですか?」といったヒントを提示してもよい。そのような共感メッセージやヒントを提示することで、「たしかに1本吸っただけでは失敗とは言えない。むしろ1本でやめられたというのは禁煙がうまくいっているということでもある」等の適応的思考を引き出すことが期待できる。
 このように、メンタルヘルスケア以外の用途においても、例えば、抽出した悩み語や気持ち語に対して自他判定等の各種判定処理を行うことで、当人に起こった出来事や気持ちに対して共感を示すメッセージを作成できるようになる。また、例えば、ユーザが入力した情報に含まれる曖昧な表現、思い込みの表現もしくは矛盾を指摘する内容を抽出して、それを指摘するメッセージや、そこから適応的思考に繋がるヒントを含むメッセージを提示できる。
 なお、喫煙者への禁煙支援用途だけでなく、例えば、過食症や拒食症や生活習慣病の治療のためといった生活上に認められる負の傾向を減少させる用途に本発明を適用可能である。なお、各システムでは当該システムがどの用途に用いられるかに応じて、対象者の傾向を加味して悩み語や気持ち語等の辞書登録を行うことがより好ましい。
 次に、本発明の概要を説明する。図23は、本発明による認知の歪み修正支援システムの概要を示すブロック図である。図23に示すように、本発明による認知の歪み修正支援システムは、各ステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを出力するメッセージ出力手段101(例えば、UI部1)と、各ステップの少なくともいずれか1つのステップにおける対話型メッセージを、ユーザがこれまでに入力した情報を利用して生成するメッセージ生成手段102(例えば、情報引き出し部5)とを備えていることを特徴とする。
 ここで、各ステップとは、少なくとも、ユーザの気持ちが揺れた状況において生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、その状況に対して今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとをいう。
 また、メッセージ生成手段102は、対話型メッセージとして、ユーザが入力した情報から特定される該ユーザの、悩みを表現した語句である悩み語、気持ちを表現した語句である気持ち語の少なくとも1つを用いてユーザの状況もしくは状態(例えば、ある気持ちが生じている状態)に対して共感を示す内容を含むメッセージを生成してもよい。
 また、メッセージ生成手段102は、対話型メッセージとして、ユーザが入力した情報を基に生成される、目的の情報をユーザに入力させるためのヒントまたはきっかけとなる内容を含むメッセージを生成してもよい。
 また、メッセージ生成手段102は、対話型メッセージとして、ユーザが入力した情報に含まれる曖昧な表現、思い込みの表現もしくは矛盾を指摘する内容を含むメッセージを生成してもよい。
 また、図24に示すように、本発明の認知の歪み修正支援システムはさらに、予め記憶されている悩み語に関する情報に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況を表現した情報に含まれる悩み語を抽出する悩み語抽出手段103(例えば、状況引き出し部51や適応的思考引き出し部53に含まれる悩み語の抽出モジュール)と、悩み語抽出手段103が抽出した悩み語について、ユーザに起こった出来事を表現したものであるか否かを所定の判定方法を用いて判定する自他等判定手段104(例えば、状況引き出し部51や適応的思考引き出し部53に含まれる各種判定モジュール)と、自他等判定手段104による判定結果に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況に関する情報に含まれる、ユーザに起こった出来事を表現した悩み語を特定する悩み語特定手段105(例えば、状況引き出し部51や適応的思考引き出し部53に含まれる総合判定モジュール)とを備えていてもよい。そのような場合に、メッセージ生成手段102は、悩み語特定手段105によって特定された悩み語を少なくとも1つ用いて、対話型メッセージとして、ユーザに起こった出来事の要約を復唱するメッセージを生成してもよい。そのような場合に、当該システムは、さらに、ユーザの気持ちが揺れた状況に関する情報の入力を促すメッセージを出力する処理を含む状況引き出しステップを実行する認知の歪み修正支援システムであってもよい。
 また、図25に示すように、本発明の認知の歪み修正支援システムはさらに、予め記憶されている気持ち語に関する情報に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況を表現した情報に含まれる気持ち語を抽出する気持ち語抽出手段106(例えば、状況引き出し部51や適応的思考引き出し部53に含まれる気持ち語の抽出モジュール)と、気持ち語抽出手段106が抽出した気持ち語について、ユーザに生じた気持ちを表現したものであるか否かを所定の判定方法を用いて判定する自他等判定手段107(例えば、状況引き出し部51や適応的思考引き出し部53に含まれる各種判定モジュール)と、自他等判定手段107による判定結果に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況に関する情報に含まれる、ユーザに生じた気持ちを表現した気持ち語を特定する気持ち語特定手段108(例えば、状況引き出し部51や適応的思考引き出し部53に含まれる総合判定モジュール)とを備えていてもよい。そのような場合に、メッセージ生成手段102は、気持ち語特定手段108によって特定された気持ち語を少なくとも1つ用いて、対話型メッセージとして、ユーザに生じた気持ちを復唱するメッセージを生成してもよい。そのような場合に、当該システムは、さらに、ユーザの気持ちが揺れた状況に関する情報の入力を促すメッセージを出力する処理を含む状況引き出しステップを実行する認知の歪み修正支援システムであってもよい。
 また、自他等判定手段107は、抽出された悩み語または気持ち語を含む文の主体が自己であるか否かを判定する自他判定、該悩み語または該気持ち語が否定されているか否かを判定する否定判定、該悩み語または該気持ち語を含む文が疑問文となっているか否かを判定する疑問判定、該悩み語または該気持ち語が推量であるか否かを判定する推量判定、該悩み語または該気持ち語が条件項であるか否かを判定する条件判定、の少なくともいずれかの判定を行って、該悩み語または該気持ち語が実際にユーザに起こった出来事またはユーザに生じた気持ちを表現したものであるかを判定してもよい。
 また、自他判定は、話者の属格と抽出された悩み語または気持ち語を含む文における動詞の態とに基づいて、該文の主体が自己であるか否かを判定するものであってもよい。
 また、否定判定は、抽出された悩み語や気持ち語の後方に出現する否定表現の数に基づいて、抽出された悩み語または気持ち語が否定されているか否かを判定するものであってもよい。
 また、疑問判定は、抽出された悩み語または気持ち語の後方に疑問表現が出現するか否かに基づいて、該悩み語または該気持ち語が疑問文となっているか否かを判定するものであってもよい。
 また、推量判定は、抽出された悩み語または気持ち語の後方に推量表現が出現するか否かに基づいて、該悩み語または該気持ち語が推量であるか否かを判定するものであってもよい。
 また、条件判定は、抽出された悩み語または気持ち語の後方の文字列において条件節となる語があるか否かに基づいて、該悩み語または該気持ち語が条件項であるか否かを判定するものであってもよい。
 また、自他等判定手段107は、予め悩み語または気持ち語となりうる語句もしくは表現を含む文に対して該語句もしくは表現が実際にユーザに起こったことであるか否かを人が判定した結果を学習した機械学習器を用いて、抽出された悩み語または気持ち語が実際にユーザに起こった出来事またはユーザに生じた気持ちを表現したものであるか否かを判定してもよい。
 また、図26に示すように、本発明の認知の歪み修正支援システムはさらに、予め記憶されている悩み語と気持ちとの対応関係に関する情報に基づいて、悩み語特定手段105によって特定された悩み語から、ユーザに生じた気持ちを推定する気持ち推定手段109(例えば、状況引き出し部51に含まれる気持ち推定モジュール)を備えていてもよい。そのような場合には、メッセージ生成手段102は、気持ち推定手段109によって推定された気持ちを表現する気持ち語を少なくとも1つ用いて、対話型メッセージとして、ユーザの気持ちを代弁するメッセージを生成してもよい。なお、さらに図25に示す構成と組み合わせて、メッセージ生成手段102は、気持ち語特定手段108によってユーザが入力した該ユーザの気持ちが揺れた出来事に関する情報に含まれる、ユーザに生じた気持ちを表現した気持ち語が特定できなかった場合に、気持ち語推定手段109によって推定された気持ちを表現する気持ち語を少なくとも1つ用いて、対話型メッセージとして、ユーザの気持ちを代弁するメッセージを生成してもよい。
 また、図26に示すように、本発明の認知の歪み修正支援システムが、さらに、ユーザが入力した該ユーザの気持ちを表現した情報から、代表的な気持ちとその強度とを特定する気持ち強度特定手段110(例えば、気分引き出し部54に含まれるネガティブな単語の抽出モジュールや単語の重複度や重要度に基づく強度算出モジュール)を備えていてもよい。そのような場合に、メッセージ生成手段102は、気持ち強度特定手段110によって特定された代表的な気持ちとその強度とに基づいて、対話型メッセージとして、ユーザの気持ちへの共感を示すメッセージであってその強度に応じて表現が異なるメッセージを生成してもよい。なお、そのような場合に、当該システムは、さらに、ユーザの気持ちが揺れた状況において該ユーザに生じた気持ちの入力を促すメッセージを出力する処理を含む気分引き出しステップを実行する認知の歪み修正支援システムであってもよい。
 また、メッセージ生成手段102は、ユーザに生じた気持ちを復唱または代弁するメッセージを生成する場合に、自動思考引き出しステップで自動思考の入力を促すメッセージの前置きに表示する対話型メッセージとして、ユーザに生じた気持ちを復唱または代弁するメッセージを生成してもよい。
 また、図27に示すように、本発明の認知の歪み修正支援システムはさらに、否定的な自動思考が向きやすい対象を基準に自動思考を分類した所定のカテゴリ別に予め記憶されている、否定的な自動思考の表現に用いられやすい単語またはその用法に関する情報に基づいて、ユーザの自動思考が所定のカテゴリのいずれかに該当するか否かを判定する自動思考カテゴリ判定手段111(例えば、自動思考引き出し部52に含まれる自動思考のカテゴリ分類モジュール)を備えていてもよい。そのような場合に、メッセージ生成手段102は、自動思考カテゴリ判定手段111による判定の結果、ユーザの自動思考が所定のカテゴリのいずれかに該当すると判定された場合に、対話型メッセージとして、予め用意しておいた該当するカテゴリに応じた適応的思考または反証をユーザに入力させるためのヒントを示すメッセージを生成してもよい。
 また、図28に示すように、本発明の認知の歪み修正支援システムはさらに、思い込みの表現をその表現内容に応じて分類した所定のカテゴリ別に予め記憶されている、思い込みの表現に用いられやすい単語またはその用法に関する情報に基づいて、ユーザが入力した自動思考を表現した情報に含まれる思い込みの表現を抽出することにより、ユーザの自動思考の表現に思い込みの表現があるか否かを判定する思い込み判定手段112(例えば、自動思考引き出し部52に含まれる思い込み表現の抽出モジュール)を備えていてもよい。そのような場合に、メッセージ生成手段102は、思い込み判定手段112によって思い込みの表現があると判定された場合に、適応的思考または反証をユーザに入力させるためのヒントであって思い込み表現が分類される所定のカテゴリに応じたヒントを示すメッセージを生成してもよい。
 また、図28に示す構成において、メッセージ生成手段102は、思い込み判定手段112によって思い込みの表現があると判定された場合に、対話型メッセージとして、思い込みの表現を指摘するメッセージを生成してもよい。
 また、メッセージ生成手段102は、対話型メッセージとして、ユーザが入力した情報から特定される根拠、または根拠と反証とを用いて、適応的思考をユーザに入力させるためのヒントとして適応的思考の表現の雛形を示すメッセージを生成してもよい。なお、そのような場合に、当該システムは、自動思考の根拠の入力を促すメッセージを出力する処理と自動思考に対する反証の入力を促すメッセージを出力する処理とを含む根拠反証引き出しステップを実行する認知の歪み修正支援システムであってもよい。
 また、図29に示すように、本発明の認知の歪み修正支援システムはさらに、予め記憶されている曖昧な表現に関する情報に基づいて、ユーザが入力した自動思考を表現した情報に含まれる曖昧な表現を抽出することにより、ユーザの自動思考の表現に曖昧な表現があるか否かを判定する曖昧判定手段113(例えば、自動思考引き出し部52に含まれる曖昧表現の抽出モジュール)を備えていてもよい。そのような場合に、メッセージ生成手段102は、曖昧判定手段113によって曖昧な表現があると判定された場合に、対話型メッセージとして、その曖昧な表現を指摘するメッセージを生成してもよい。
 また、図29に示す構成において、メッセージ生成手段102は、曖昧表現判定手段113によって曖昧な表現があると判定された場合に、対話型メッセージとして、さらに自動思考の表現の仕方に関して曖昧な表現を言い切りの形にすることを提案するメッセージを生成してもよい。
 また、図30に示すように、本発明の認知の歪み修正支援システムはさらに、ユーザの自動思考を表現した情報またはユーザの自動思考を所定のカテゴリに分類した自動思考カテゴリと、自動思考が生じた際のユーザの気持ちを表現した情報またはユーザの気持ちを所定のカテゴリに分類した気持ちカテゴリとに基づいて、自動思考と気持ちとの間の矛盾性の有無を判定する矛盾性判定手段114(例えば、自動思考引き出し部52に含まれる矛盾性判定モジュール)を備えていてもよい。そのような場合に、メッセージ生成手段102は、矛盾性判定手段114によって自動思考と気持ちとの間に矛盾があると判定された場合に、対話型メッセージとして、その矛盾を指摘するメッセージを生成してもよい。
 また、図30に示す構成において、メッセージ生成手段102は、矛盾性判定手段114によって自動思考と気持ちとの間に矛盾があると判定された場合に、対話型メッセージとして、さらに自動思考または気持ちを再確認する、または自動思考または気持ちを深掘するためのメッセージを生成してもよい。
 また、本発明の認知の歪み修正支援システムは、図23~図30に示した構成の2以上を組み合わせてもよい。
 また、図31は、本発明による認知の歪み修正支援システムの他の構成例を示すブロック図である。図31に示すように、本発明による認知の歪み修正支援システムは、各ステップの実行順序を制御するフロー制御手段201(例えば、フロー制御部3)を備えていることを特徴とする。フロー制御手段201は、少なくとも自動思考引き出しステップと適応的思考引き出しステップとをこの順序で行うことを基本フローとして、自動思考引き出しステップまたは適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御を行う。
 また、フロー制御手段201は、自動思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、ユーザの気持ちが揺れた状況において該ユーザに生じた気持ちの入力を促すメッセージを出力する処理を含む気分引き出しステップに移行するフロー制御を行ってもよい。
 また、フロー制御手段201は、適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、自動思考の根拠の入力を促すメッセージを出力する処理と自動思考に対する反証の入力を促すメッセージを出力する処理とを含む根拠反証引き出しステップに移行するフロー制御を行ってもよい。
 また、本発明による認知の歪み修正支援システムは、図32に代表して示すように、図23~図30に示したメッセージ出力手段101と、メッセージ生成手段102とを備える構成と、図31に示したフロー制御手段201を備えた構成とを組み合わせることも可能である。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況に関する情報を引き出すための画面を有し、その画面は、場面を書くための記入欄と、出来事を書くための記入欄とが分けて設けられていてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況に関する情報を引き出すための画面を有し、その画面は、ユーザが記入できる記入欄の見かけ上の記入可能スペースが所定の文字数以内の大きさに制限されていてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考を引き出すための画面を有し、その画面は、ユーザが自動思考を記入するための記入欄が複数ある画面と、自動思考が複数記入された場合にそのうちの1つを選択する選択機能を有する画面とを含んでいてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況に対して該ユーザが今考えられる考えである適応的思考を引き出すための画面を有し、その画面には、それ以前にユーザから取得した自動思考が生じた理由である根拠、または根拠と自動思考に対する反証とから生成される、適応的思考の例文が表示されていてもよい。
 また、本発明による認知の歪み修正支援システムは、ユーザから、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の根拠を引き出すための画面を有し、その画面には、根拠の記入欄に続く形で、順接の接続詞と自動思考の総括表現とを繋げた文が表示されていてもよい。
 以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2012年11月21日に出願された日本特許出願2012-255033を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 本発明は、認知再構成法によるメンタルヘルスケアに限らず、相談者の意識を取り扱うシステムにおいて、ユーザからユーザの思うところの「状況」や「考え」や「気持ち」を引き出す用途や、その中から思い込み表現や曖昧表現の有無をチェックする用途に好適に適用可能である。
 1 UI部
 2 対話機能部
 3 フロー制御部
 4 情報共有部
 5 情報引き出し部
 51 状況引き出し部
 52 自動思考引き出し部
 53 適応的思考引き出し部
 54 気分引き出し部
 55 根拠・反証引き出し部
 101 メッセージ出力手段
 102 メッセージ生成手段
 103 悩み語抽出手段
 104 自他等判定手段(悩み語)
 105 悩み語特定手段
 106 気持ち語抽出手段
 107 自他等判定手段(気持ち語)
 108 気持ち語特定手段
 109 気持ち語推定手段
 110 気持ち強度特定手段
 111 自動思考カテゴリ判定手段
 112 思い込み判定手段
 113 曖昧判定手段
 114 矛盾性判定手段
 201 フロー制御手段

Claims (46)

  1.  ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、前記状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムであって、
     前記各ステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを出力するメッセージ出力手段と、
     前記各ステップの少なくともいずれか1つのステップにおける前記対話型メッセージを、前記ユーザがこれまでに入力した情報を利用して生成するメッセージ生成手段とを備えた
     ことを特徴とする認知の歪み修正支援システム。
  2.  メッセージ生成手段は、対話型メッセージとして、ユーザが入力した情報から特定される該ユーザの、悩みを表現した語句である悩み語、気持ちを表現した語句である気持ち語の少なくとも1つを用いてユーザの状況もしくは状態に対して共感を示す内容を含むメッセージを生成する
     請求項1に記載の認知の歪み修正支援システム。
  3.  メッセージ生成手段は、対話型メッセージとして、ユーザが入力した情報を基に生成される、目的の情報をユーザに入力させるためのヒントまたはきっかけとなる内容を含むメッセージを生成する
     請求項1または請求項2に記載の認知の歪み修正支援システム。
  4.  メッセージ生成手段は、対話型メッセージとして、ユーザが入力した情報に含まれる曖昧な表現、思い込みの表現もしくは矛盾を指摘する内容を含むメッセージを生成する
     請求項1から請求項3のうちのいずれか1項に記載の認知の歪み修正支援システム。
  5.  ユーザの気持ちが揺れた状況に関する情報の入力を促すメッセージを出力する処理を含む状況引き出しステップを実行する認知の歪み修正支援システムであって、
     予め記憶されている悩み語に関する情報に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況を表現した情報に含まれる悩み語を抽出する悩み語抽出手段と、
     前記悩み語抽出手段が抽出した悩み語について、ユーザに起こった出来事を表現したものであるか否かを所定の判定方法を用いて判定する自他等判定手段と、
     前記自他等判定手段による判定結果に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況に関する情報に含まれる、ユーザに起こった出来事を表現した悩み語を特定する悩み語特定手段とを備え、
     メッセージ生成手段は、前記悩み語特定手段によって特定された悩み語を少なくとも1つ用いて、対話型メッセージとして、ユーザに起こった出来事の要約を復唱するメッセージを生成する
     請求項1から請求項4のうちのいずれか1項に記載の認知の歪み修正支援システム。
  6.  ユーザの気持ちが揺れた状況に関する情報の入力を促すメッセージを出力する処理を含む状況引き出しステップを実行する認知の歪み修正支援システムであって、
     予め記憶されている気持ち語に関する情報に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況を表現した情報に含まれる気持ち語を抽出する気持ち語抽出手段と、
     前記気持ち語抽出手段が抽出した気持ち語について、ユーザに生じた気持ちを表現したものであるか否かを所定の判定方法を用いて判定する自他等判定手段と、
     前記自他等判定手段による判定結果に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況に関する情報に含まれる、ユーザに生じた気持ちを表現した気持ち語を特定する気持ち語特定手段とを備え、
     メッセージ生成手段は、前記気持ち語特定手段によって特定された気持ち語を少なくとも1つ用いて、対話型メッセージとして、ユーザに生じた気持ちを復唱するメッセージを生成する
     請求項1から請求項5のうちのいずれか1項に記載の認知の歪み修正支援システム。
  7.  予め記憶されている悩み語に関する情報に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況を表現した情報に含まれる悩み語を抽出する悩み語抽出手段と、
     前記悩み語抽出手段が抽出した悩み語について、ユーザに起こった出来事を表現したものであるか否かを所定の判定方法を用いて判定する自他等判定手段と、
     前記自他等判定手段による判定結果に基づいて、ユーザが入力した該ユーザの気持ちが揺れた状況に関する情報に含まれる、ユーザに起こった出来事を表現した悩み語を特定する悩み語特定手段と、
     予め記憶されている悩み語と気持ちとの対応関係に関する情報に基づいて、前記悩み語特定手段によって特定された悩み語から、ユーザに生じた気持ちを推定する気持ち推定手段とを備え、
     メッセージ生成手段は、前記気持ち推定手段によって推定された気持ちを表現する気持ち語を少なくとも1つ用いて、対話型メッセージとして、ユーザの気持ちを代弁するメッセージを生成する
     請求項5または請求項6に記載の認知の歪み修正支援システム。
  8.  ユーザの気持ちが揺れた状況において該ユーザに生じた気持ちの入力を促すメッセージを出力する処理を含む気分引き出しステップを実行する認知の歪み修正支援システムであって、
     ユーザが入力した該ユーザの気持ちを表現した情報から、代表的な気持ちとその強度とを特定する気持ち強度特定手段を備え、
     メッセージ生成手段は、前記気持ち強度特定手段によって特定された代表的な気持ちとその強度とに基づいて、対話型メッセージとして、ユーザの気持ちへの共感を示すメッセージであって前記強度に応じて表現が異なるメッセージを生成する
     請求項1から請求項7のうちのいずれか1項に記載の認知の歪み修正支援システム。
  9.  メッセージ生成手段は、自動思考引き出しステップで自動思考の入力を促すメッセージの前置きに表示する対話型メッセージとして、ユーザに生じた気持ちを復唱または代弁するメッセージを生成する
     請求項6から請求項8のうちのいずれか1項に記載の認知の歪み修正支援システム。
  10.  否定的な自動思考が向きやすい対象を基準に自動思考を分類した所定のカテゴリ別に予め記憶されている、否定的な自動思考の表現に用いられやすい単語またはその用法に関する情報に基づいて、ユーザの自動思考が前記所定のカテゴリのいずれかに該当するか否かを判定する自動思考カテゴリ判定手段を備え、
     メッセージ生成手段は、前記自動思考カテゴリ判定手段による判定の結果、ユーザの自動思考が前記所定のカテゴリのいずれかに該当すると判定された場合に、対話型メッセージとして、予め用意しておいた該当するカテゴリに応じた適応的思考または反証をユーザに入力させるためのヒントを示すメッセージを生成する
     請求項1から請求項9のうちのいずれか1項に記載の認知の歪み修正支援システム。
  11.  思い込みの表現をその表現内容に応じて分類した所定のカテゴリ別に予め記憶されている、思い込みの表現に用いられやすい単語またはその用法に関する情報に基づいて、ユーザが入力した自動思考を表現した情報に含まれる思い込みの表現を抽出することにより、ユーザの自動思考の表現に思い込みの表現があるか否かを判定する思い込み判定手段を備え、
     メッセージ生成手段は、前記思い込み判定手段によって思い込みの表現があると判定された場合に、適応的思考または反証をユーザに入力させるためのヒントであって前記思い込み表現が分類される所定のカテゴリに応じたヒントを示すメッセージを生成する
     請求項1から請求項10のうちのいずれか1項に記載の認知の歪み修正支援システム。
  12.  自動思考の根拠の入力を促すメッセージを出力する処理と自動思考に対する反証の入力を促すメッセージを出力する処理とを含む根拠反証引き出しステップを実行する対話型認知の歪み修正支援システムであって、
     メッセージ生成手段は、対話型メッセージとして、ユーザが入力した情報から特定される根拠、または根拠と反証とを用いて、適応的思考をユーザに入力させるためのヒントとして適応的思考の表現の雛形を示すメッセージを生成する
     請求項1から請求項11のうちのいずれか1項に記載の認知の歪み修正支援システム。
  13.  予め記憶されている曖昧な表現に関する情報に基づいて、ユーザが入力した自動思考を表現した情報に含まれる曖昧な表現を抽出することにより、ユーザの自動思考の表現に曖昧な表現があるか否かを判定する曖昧判定手段を備え、
     メッセージ生成手段は、前記曖昧判定手段によって曖昧な表現があると判定された場合に、対話型メッセージとして、前記曖昧な表現を指摘するメッセージを生成する
     請求項1から請求項12のうちのいずれか1項に記載の認知の歪み修正支援システム。
  14.  メッセージ生成手段は、曖昧表現判定手段によって曖昧な表現があると判定された場合に、対話型メッセージとして、さらに自動思考の表現の仕方に関して前記曖昧な表現を言い切りの形にすることを提案するメッセージを生成する
     請求項13に記載の認知の歪み修正支援システム。
  15.  ユーザの自動思考を表現した情報またはユーザの自動思考を所定のカテゴリに分類した自動思考カテゴリと、前記自動思考が生じた際のユーザの気持ちを表現した情報またはユーザの気持ちを所定のカテゴリに分類した気持ちカテゴリとに基づいて、自動思考と気持ちとの間の矛盾性の有無を判定する矛盾性判定手段を備え、
     メッセージ生成手段は、前記矛盾性判定手段によって自動思考と気持ちとの間に矛盾があると判定された場合に、対話型メッセージとして、前記矛盾を指摘するメッセージを生成する
     請求項1から請求項14のうちのいずれか1項に記載の認知の歪み修正支援システム。
  16.  メッセージ生成手段は、矛盾性判定手段によって自動思考と気持ちとの間に矛盾があると判定された場合に、対話型メッセージとして、さらに自動思考または気持ちを再確認する、または自動思考または気持ちを深掘するためのメッセージを生成する
     請求項15に記載の認知の歪み修正支援システム。
  17.  予め記憶されている思い込みの表現に関する情報に基づいて、ユーザが入力した自動思考を表現した情報に含まれる思い込みの表現を抽出することにより、ユーザの自動思考の表現に思い込みの表現があるか否かを判定する思い込み判定手段を備え、
     メッセージ生成手段は、前記思い込み判定手段によって思い込みの表現があると判定された場合に、対話型メッセージとして、前記思い込みの表現を指摘するメッセージを生成する
     請求項1から請求項16のうちのいずれか1項に記載の認知の歪み修正支援システム。
  18.  自他等判定手段は、抽出された悩み語または気持ち語を含む文の主体が自己であるか否かを判定する自他判定、該悩み語または該気持ち語が否定されているか否かを判定する否定判定、該悩み語または該気持ち語を含む文が疑問文となっているか否かを判定する疑問判定、該悩み語または該気持ち語が推量であるか否かを判定する推量判定、該悩み語または該気持ち語が条件項であるか否かを判定する条件判定、の少なくともいずれかの判定を行って、該悩み語または該気持ち語が実際にユーザに起こった出来事またはユーザに生じた気持ちを表現したものであるかを判定する
     請求項5から請求項7のうちのいずれか1項に記載の認知の歪み修正支援システム。
  19.  自他等判定手段は、予め悩み語または気持ち語となりうる語句もしくは表現を含む文に対して該語句もしくは該表現が実際にユーザに起こったことであるか否かを人が判定した結果を学習した機械学習器を用いて、抽出された悩み語または気持ち語が実際にユーザに起こった出来事またはユーザに生じた気持ちを表現したものであるか否かを判定する
     請求項5から請求項7のうちのいずれか1項に記載の認知の歪み修正支援システム。
  20.  自他等判定手段は、自他判定として、話者の属格と抽出された悩み語または気持ち語を含む文における動詞の態とに基づいて、該文の主体が自己であるか否かを判定する
     請求項18に記載の認知の歪み修正支援システム。
  21.  自他等判定手段は、否定判定として、抽出された悩み語や気持ち語の後方に出現する否定表現の数に基づいて、抽出された悩み語または気持ち語が否定されているか否かを判定する
     請求項18に記載の認知の歪み修正支援システム。
  22.  自他等判定手段は、疑問判定として、抽出された悩み語または気持ち語の後方に疑問表現が出現するか否かに基づいて、該悩み語または該気持ち語が疑問文となっているか否かを判定する
     請求項18に記載の認知の歪み修正支援システム。
  23.  自他等判定手段は、推量判定として、抽出された悩み語または気持ち語の後方に推量表現が出現するか否かに基づいて、該悩み語または該気持ち語が推量であるか否かを判定する
     請求項18に記載の認知の歪み修正支援システム。
  24.  自他等判定手段は、条件判定として、抽出された悩み語または気持ち語の後方の文字列において条件節となる語があるか否かに基づいて、該悩み語または該気持ち語が条件項であるか否かを判定する
     請求項18に記載の認知の歪み修正支援システム。
  25.  ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、前記状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムであって、
     各ステップの実行順序を制御するフロー制御手段を備え、
     前記フロー制御手段は、少なくとも前記自動思考引き出しステップ、前記適応的思考引き出しステップをこの順序で行うことを基本フローとして、前記自動思考引き出しステップまたは前記適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御を行う
     ことを特徴とする認知の歪み修正支援システム。
  26.  ユーザの気持ちが揺れた状況において該ユーザに生じた気持ちの入力を促すメッセージを出力する処理を含む気分引き出しステップを実行する認知の歪み修正支援システムであって、
     フロー制御手段は、自動思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、前記気分引き出しステップに移行するフロー制御を行う
     請求項25に記載の認知の歪み修正支援システム。
  27.  自動思考の根拠の入力を促すメッセージを出力する処理と自動思考に対する反証の入力を促すメッセージを出力する処理とを含む根拠反証引き出しステップを実行する対話型認知の歪み修正支援システムであって、
     フロー制御手段は、適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、前記根拠反証引き出しステップに移行するフロー制御を行う
     請求項25または請求項26に記載の認知の歪み修正支援システム。
  28.  ユーザから、該ユーザの気持ちが揺れた状況に関する情報を引き出すための画面を有し、
     前記画面は、場面を書くための記入欄と、出来事を書くための記入欄とが分けて設けられている
     ことを特徴とする認知の歪み修正支援システム。
  29.  ユーザから、該ユーザの気持ちが揺れた状況に関する情報を引き出すための画面を有し、
     前記画面は、ユーザが記入できる記入欄の見かけ上の記入可能スペースが所定の文字数以内の大きさに制限されている
     ことを特徴とする認知の歪み修正支援システム。
  30.  ユーザから、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考を引き出すための画面を有し、
     前記画面は、ユーザが自動思考を記入するための記入欄が複数ある画面と、自動思考が複数記入された場合にそのうちの1つを選択する選択機能を有する画面とを含む
     ことを特徴とする認知の歪み修正支援システム。
  31.  ユーザから、該ユーザの気持ちが揺れた状況に対して該ユーザが今考えられる考えである適応的思考を引き出すための画面を有し、
     前記画面には、それ以前にユーザから取得した、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考が生じた理由である根拠、または根拠と自動思考に対する反証とから生成される、適応的思考の例文が表示されている
     ことを特徴とする認知の歪み修正支援システム。
  32.  ユーザから、該ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の根拠を引き出すための画面を有し、
     前記画面には、根拠の記入欄に続く形で、順接の接続詞と自動思考の総括表現とを繋げた文が表示されている
     ことを特徴とする認知の歪み修正支援システム。
  33.  ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、前記状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用されるユーザ意識情報引き出し方法であって、
     前記各ステップの少なくともいずれか1つのステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを、前記ユーザがこれまでに入力した情報を利用して生成し、
     生成した前記対話型メッセージを出力する
     ことを特徴とするユーザ意識情報引き出し方法。
  34.  対話型メッセージとして、ユーザが入力した情報から特定されるユーザの悩みを表現した語句である悩み語、気持ちを表現した語句である気持ち語の少なくとも1つを用いてユーザの状況もしくは状態に対して共感を示す内容を含むメッセージを生成する
     請求項33に記載のユーザ意識情報引き出し方法。
  35.  対話型メッセージとして、ユーザが入力した情報に含まれる曖昧な表現、思い込みの表現もしくは矛盾を指摘する内容を含むメッセージを生成する
     請求項33または請求項34に記載のユーザ意識情報引き出し方法。
  36.  対話型メッセージとして、ユーザが入力した情報を基に生成される、目的の情報をユーザに入力させるためのヒントまたはきっかけとなる内容を含むメッセージを生成する
     請求項33から請求項35のうちのいずれか1項に記載のユーザ意識情報引き出し方法。
  37.  ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、前記状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用されるユーザ意識情報引き出し方法であって、
     各ステップの実行順序を制御するフロー制御手段が、前記自動思考引き出しステップ、前記適応的思考引き出しステップをこの順序で行うことを基本フローとして、前記自動思考引き出しステップまたは前記適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御を行う
     ことを特徴とするユーザ意識情報引き出し方法。
  38.  ユーザの気持ちが揺れた状況において該ユーザに生じた気持ちの入力を促すメッセージを出力する処理を含む気分引き出しステップを実行する認知の歪み修正支援システムに適用されるユーザ意識情報引き出し方法であって、
     各ステップの実行順序を制御するフロー制御手段が、自動思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、前記気分引き出しステップに移行するフロー制御を行う
     請求項37に記載のユーザ意識情報引き出し方法。
  39.  自動思考の根拠の入力を促すメッセージを出力する処理と自動思考に対する反証の入力を促すメッセージを出力する処理とを含む根拠反証引き出しステップを実行する対話型認知の歪み修正支援システムに適用されるユーザ意識情報引き出し方法であって、
     各ステップの実行順序を制御するフロー制御手段が、適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、前記根拠反証引き出しステップに移行するフロー制御を行う
     請求項37または請求項38に記載のユーザ意識情報引き出し方法。
  40.  ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、前記状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用される認知の歪み修正支援用プログラムであって、
     コンピュータに、
     前記各ステップにおいて、ユーザから必要な情報を引き出すためのメッセージである対話型メッセージを出力するメッセージ出力処理、および
     前記各ステップの少なくともいずれか1つのステップにおける前記対話型メッセージを、前記ユーザがこれまでに入力した情報を利用して生成するメッセージ生成処理
     を実行させる認知の歪み修正支援用プログラム。
  41.  コンピュータに、
     メッセージ生成処理で、対話型メッセージとして、ユーザが入力した情報から特定されるユーザの悩みを表現した語句である悩み語、気持ちを表現した語句である気持ち語の少なくとも1つを用いてユーザの状況もしくは状態に対して共感を示す内容を含むメッセージを生成させる
     請求項40に記載の認知の歪み修正支援用プログラム。
  42.  コンピュータに、
     メッセージ生成処理で、対話型メッセージとして、ユーザが入力した情報に含まれる曖昧な表現、思い込みの表現もしくは矛盾を指摘する内容を含むメッセージを生成させる
     請求項40または請求項41に記載の認知の歪み修正支援用プログラム。
  43.  コンピュータに、
     メッセージ生成処理で、対話型メッセージとして、ユーザが入力した情報を基に生成される、目的の情報をユーザに入力させるためのヒントまたはきっかけとなる内容を含むメッセージを生成させる
     請求項40から請求項42のうちのいずれか1項に記載の認知の歪み修正支援用プログラム。
  44.  ユーザの気持ちが揺れた状況において該ユーザに生じた考えである自動思考の入力を促すメッセージを出力する処理を含む自動思考引き出しステップと、前記状況に対して該ユーザが今考えられる考えである適応的思考の入力を促すメッセージを出力する処理を含む適応的思考引き出しステップとを実行する対話型認知の歪み修正支援システムに適用される認知の歪み修正支援用プログラムであって、
     コンピュータに、
     前記自動思考引き出しステップ、前記適応的思考引き出しステップをこの順序で行うことを基本フローとして、前記自動思考引き出しステップまたは前記適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、当該ステップを中断して、中断した当該ステップにおけるユーザの入力のきっかけまたはヒントとなる情報の入力を促すメッセージを出力する処理を含む所定のステップに移行するフロー制御処理
     を実行させるための認知の歪み修正支援用プログラム。
  45.  ユーザの気持ちが揺れた状況において該ユーザに生じた気持ちの入力を促すメッセージを出力する処理を含む気分引き出しステップを実行する認知の歪み修正支援システムに適用される認知の歪み修正支援用プログラムであって、
     コンピュータに、
     自動思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、前記気分引き出しステップに移行するフロー制御処理を実行させる
     請求項44に記載の認知の歪み修正支援用プログラム。
  46.  自動思考の根拠の入力を促すメッセージを出力する処理と自動思考に対する反証の入力を促すメッセージを出力する処理とを含む根拠反証引き出しステップを実行する対話型認知の歪み修正支援システムに適用される認知の歪み修正支援用プログラムであって、
     コンピュータに、
     適応的思考引き出しステップでのユーザ入力が進んでいないと判定した場合に、前記根拠反証引き出しステップに移行するフロー制御処理を実行させる
     請求項44または請求項45に記載の認知の歪み修正支援用プログラム。
PCT/JP2013/006566 2012-11-21 2013-11-07 認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム WO2014080585A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US14/646,506 US20160117597A1 (en) 2012-11-21 2013-11-07 System for supporting correction of distorted cognition, method of eliciting user consciousness information and program therefor
EP13856563.5A EP2923643A4 (en) 2012-11-21 2013-11-07 COGNITIVE ERROR CORRECTION SUPPORT SYSTEM, METHOD FOR OBTAINING USER AWARENESS INFORMATION, AND PROGRAM THEREOF
AU2013349184A AU2013349184A1 (en) 2012-11-21 2013-11-07 System for supporting correction of distorted cognition, method of eliciting user consciousness information and program therefor
JP2014548442A JP6034400B2 (ja) 2012-11-21 2013-11-07 認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012255033 2012-11-21
JP2012-255033 2012-11-21

Publications (1)

Publication Number Publication Date
WO2014080585A1 true WO2014080585A1 (ja) 2014-05-30

Family

ID=50775782

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/006566 WO2014080585A1 (ja) 2012-11-21 2013-11-07 認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム

Country Status (5)

Country Link
US (1) US20160117597A1 (ja)
EP (1) EP2923643A4 (ja)
JP (1) JP6034400B2 (ja)
AU (1) AU2013349184A1 (ja)
WO (1) WO2014080585A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017045254A (ja) * 2015-08-26 2017-03-02 株式会社キュア・アップ 肥満患者のためのプログラム、装置、システム及び方法
JPWO2016178276A1 (ja) * 2015-05-01 2017-05-18 株式会社キュア・アップ 禁煙患者のためのプログラム、装置、システム及び方法
WO2018073974A1 (ja) * 2016-10-21 2018-04-26 石川 奈津美 精神疾患の治療用具および治療装置
WO2019220745A1 (ja) * 2018-05-15 2019-11-21 ソニー株式会社 情報処理システム、情報処理方法、および記録媒体
JP2020004432A (ja) * 2019-08-19 2020-01-09 株式会社Cureapp 肥満患者のためのプログラム、装置、システム及び方法
JP2022505676A (ja) * 2018-10-23 2022-01-14 ブラックソーン セラピューティクス インコーポレイテッド 患者のスクリーニング、診断、及び層別化のためのシステム及び方法
JP2022529474A (ja) * 2019-04-17 2022-06-22 ペア セラピューティクス (ユーエス)、インコーポレイテッド デジタル療法を利用する抑鬱症状、抑鬱障害の処置のための電子デバイスおよび方法
JP2022529473A (ja) * 2019-04-17 2022-06-22 ペア セラピューティクス (ユーエス)、インコーポレイテッド 多発性硬化症に関連付けられた抑鬱症状を処置するための電子デバイスおよび方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11418467B2 (en) * 2017-09-12 2022-08-16 Get Together, Inc. Method for delivery of an encoded EMS profile to a user device
US10782865B2 (en) 2018-05-08 2020-09-22 Philip Eli Manfield Parameterized sensory system
US10770069B2 (en) 2018-06-07 2020-09-08 International Business Machines Corporation Speech processing and context-based language prompting
CN112579744B (zh) * 2020-12-28 2024-03-26 北京智能工场科技有限公司 一种在线心理咨询中风险控制的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10340268A (ja) * 1997-06-05 1998-12-22 Masahiro Ogawa コンピュ−タに人間と会話させるプログラムを記録したコンピュ−タ読み取り可能な記録媒体
JP2005334205A (ja) 2004-05-26 2005-12-08 Ryozo Saito メンタルヘルスケアシステム及び方法
JP2008525053A (ja) * 2004-11-03 2008-07-17 ユニリーバー・ナームローゼ・ベンノートシヤープ 意欲高揚のための方法と装置
JP2008293370A (ja) * 2007-05-25 2008-12-04 Cti Engineering Co Ltd カウンセリングシステム、カウンセリング装置、カウンセリング方法、カウンセリング制御プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009193532A (ja) * 2008-02-18 2009-08-27 Oki Electric Ind Co Ltd 対話管理装置、方法及びプログラム、並びに意識抽出システム
EP2109055A1 (en) * 2008-04-11 2009-10-14 Universiteit Maastricht Portable psychological monitoring device
EP2899686A4 (en) * 2012-09-24 2016-11-23 Nec Solution Innovators Ltd DEVICE, METHOD AND PROGRAM FOR SUPPORTING THE CARE OF PSYCHIC HEALTH

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10340268A (ja) * 1997-06-05 1998-12-22 Masahiro Ogawa コンピュ−タに人間と会話させるプログラムを記録したコンピュ−タ読み取り可能な記録媒体
JP2005334205A (ja) 2004-05-26 2005-12-08 Ryozo Saito メンタルヘルスケアシステム及び方法
JP2008525053A (ja) * 2004-11-03 2008-07-17 ユニリーバー・ナームローゼ・ベンノートシヤープ 意欲高揚のための方法と装置
JP2008293370A (ja) * 2007-05-25 2008-12-04 Cti Engineering Co Ltd カウンセリングシステム、カウンセリング装置、カウンセリング方法、カウンセリング制御プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP2923643A4
YUTAKA ONO: "Depression/Anxiety Web", 23 August 2012, WOMAN WAVE CO., LTD.

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016178276A1 (ja) * 2015-05-01 2017-05-18 株式会社キュア・アップ 禁煙患者のためのプログラム、装置、システム及び方法
JP2017045254A (ja) * 2015-08-26 2017-03-02 株式会社キュア・アップ 肥満患者のためのプログラム、装置、システム及び方法
WO2018073974A1 (ja) * 2016-10-21 2018-04-26 石川 奈津美 精神疾患の治療用具および治療装置
JPWO2018073974A1 (ja) * 2016-10-21 2018-10-18 一般社団法人日本認知科学研究所 精神疾患の治療用具および治療装置
JPWO2019220745A1 (ja) * 2018-05-15 2021-05-27 ソニーグループ株式会社 情報処理システム、情報処理方法、および記録媒体
WO2019220745A1 (ja) * 2018-05-15 2019-11-21 ソニー株式会社 情報処理システム、情報処理方法、および記録媒体
JP7347414B2 (ja) 2018-05-15 2023-09-20 ソニーグループ株式会社 情報処理システム、情報処理方法、および記録媒体
US12059256B2 (en) 2018-05-15 2024-08-13 Sony Corporation Information processing system, information processing method, and recording medium
JP2022505676A (ja) * 2018-10-23 2022-01-14 ブラックソーン セラピューティクス インコーポレイテッド 患者のスクリーニング、診断、及び層別化のためのシステム及び方法
JP2022529474A (ja) * 2019-04-17 2022-06-22 ペア セラピューティクス (ユーエス)、インコーポレイテッド デジタル療法を利用する抑鬱症状、抑鬱障害の処置のための電子デバイスおよび方法
JP2022529473A (ja) * 2019-04-17 2022-06-22 ペア セラピューティクス (ユーエス)、インコーポレイテッド 多発性硬化症に関連付けられた抑鬱症状を処置するための電子デバイスおよび方法
JP7408037B2 (ja) 2019-04-17 2024-01-05 ハーヴェスト バイオ リミテッド ライアビリティ カンパニー 多発性硬化症に関連付けられた抑鬱症状を処置するための電子デバイスおよび方法
JP2020004432A (ja) * 2019-08-19 2020-01-09 株式会社Cureapp 肥満患者のためのプログラム、装置、システム及び方法
JP2022132415A (ja) * 2019-08-19 2022-09-08 株式会社Cureapp 肥満患者のためのプログラム、装置、システム及び方法
JP7370630B2 (ja) 2019-08-19 2023-10-30 株式会社Cureapp 肥満患者のためのプログラム、装置、システム及び方法

Also Published As

Publication number Publication date
EP2923643A4 (en) 2016-07-20
AU2013349184A1 (en) 2015-07-02
JPWO2014080585A1 (ja) 2017-01-05
US20160117597A1 (en) 2016-04-28
JP6034400B2 (ja) 2016-11-30
EP2923643A1 (en) 2015-09-30

Similar Documents

Publication Publication Date Title
JP6034400B2 (ja) 認知の歪み修正支援システム、ユーザ意識情報引き出し方法およびそのためのプログラム
Gregersen et al. The motion of emotion: Idiodynamic case studies of learners' foreign language anxiety
Dao et al. Teachers’ perceptions of learner engagement in L2 classroom task-based interaction
US9802125B1 (en) On demand guided virtual companion
CN113035232B (zh) 一种基于语音识别的心理状态预测系统、方法及装置
US20170340256A1 (en) Requesting assistance based on user state
CN115700878A (zh) 通过动态响应打断内容改进会话ai的双工通信
Feuerstein et al. Implementation research: Embracing practitioners' views
US20240272877A1 (en) Automated no-code coding of app-software using a conversational interface and natural language processing
US20240273793A1 (en) Computer graphics processing and selective visual display system
Brinkschulte et al. The EMPATHIC project: building an expressive, advanced virtual coach to improve independent healthy-life-years of the elderly
US11361754B2 (en) Method and system for speech effectiveness evaluation and enhancement
JP6030659B2 (ja) メンタルヘルスケア支援装置、システム、方法およびプログラム
WO2022232323A1 (en) System and method for increasing effective communication through evaluation of multimodal data, auto-correction and behavioral suggestions based on models from evidence-based counseling, motivational interviewing, and empathy
JP7515934B2 (ja) 会話ベースの精神障害選別方法及びその装置
Ayimdji Tekemetieu et al. From speech acts to assistance acts for cognitive assistance in ambient assisted living: how to nudge cognitively impaired people to act independently
KR20240014154A (ko) 음성인식을 활용한 온라인 심리상담 시스템
JP2020154427A (ja) 情報処理装置、情報処理方法、および、プログラム
JP2022153240A (ja) 情報処理システム及び仮想人材
Despotakis et al. Capturing the semantics of individual viewpoints on social signals in interpersonal communication
Scherer Analyzing the user´ s state in HCI: from crisp emotions to conversational dispositions
Harpur et al. Succeeding with interventions for Asperger syndrome adolescents: A guide to communication and socialisation in interaction therapy
JP6611972B1 (ja) アドバイス提示システム
KR102238973B1 (ko) 대화 데이터베이스를 이용한 대화문장 추천 방법 및 그것이 적용된 음성대화장치
US20240233911A9 (en) Method and system for conversational cognitive stimulation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856563

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014548442

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14646506

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013856563

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013349184

Country of ref document: AU

Date of ref document: 20131107

Kind code of ref document: A