WO2015177908A1 - 訓練システム - Google Patents

訓練システム Download PDF

Info

Publication number
WO2015177908A1
WO2015177908A1 PCT/JP2014/063592 JP2014063592W WO2015177908A1 WO 2015177908 A1 WO2015177908 A1 WO 2015177908A1 JP 2014063592 W JP2014063592 W JP 2014063592W WO 2015177908 A1 WO2015177908 A1 WO 2015177908A1
Authority
WO
WIPO (PCT)
Prior art keywords
training
utterance
user
unit
brain activity
Prior art date
Application number
PCT/JP2014/063592
Other languages
English (en)
French (fr)
Inventor
平林 由紀子
北原 義典
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2016520878A priority Critical patent/JP6234563B2/ja
Priority to PCT/JP2014/063592 priority patent/WO2015177908A1/ja
Publication of WO2015177908A1 publication Critical patent/WO2015177908A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H1/00Apparatus for passive exercising; Vibrating apparatus ; Chiropractic devices, e.g. body impacting devices, external devices for briefly extending or aligning unbroken bones
    • A61H1/02Stretching or bending or torsioning apparatus for exercising
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B9/00Simulators for teaching or training purposes

Definitions

  • the present invention relates to a training system.
  • a language learning device has been proposed in the prior art that outputs model speech, calculates (speech) scores based on the degree of coincidence between the model speech data and the learner data, and displays the calculated scores.
  • a karaoke device As described above, there is a karaoke device as a conventional technique for comparing the model voice data with the learner data and displaying the score.
  • the tension level (relaxation level) is measured from the pulse wave of a karaoke singer, the measured tension level is displayed in real time, and the karaoke singer himself grasps mental conditions such as the degree of stress indirectly. Karaoke systems that can do this have been proposed.
  • a speech therapy robot that displays speech evaluation as a bar graph, measures brain waves, and corrects pronunciation has been proposed in the prior art.
  • an apparatus and a method for acquiring biological information (electroencephalogram), calculating a degree of relaxation, and training in a relaxed state have been proposed.
  • a training apparatus that measures a heart rate and controls and displays a training image corresponding to the heart rate has been proposed.
  • Human movements such as speech or movement are controlled by the brain, and remembering movement means that the brain learns how to control movement. Therefore, as the movement becomes more proficient, the activity of the human brain changes and is optimized.
  • the methods for measuring the brain activity there is a method for measuring the amount of blood collected in an active site.
  • the optimal training menu rehabilitates the exercise function of the trainer while measuring the brain activity of the trainer using a device called optical topography (registered trademark, the same applies hereinafter) that measures the increase or decrease in cerebral blood flow.
  • optical topography registered trademark, the same applies hereinafter
  • MRI Magnetic Resonance Imaging
  • a technique for examining the relationship between language function training such as speech and brain activity has been proposed. Specifically, a study has been disclosed in which the brain activity of an aphasic patient after stroke is measured by optical topography, language rehabilitation is performed on the aphasic patient, and the recovery process of the aphasic patient is examined. This study shows that the amount of activity near the language area on the left-hand side increases (normally improves) with the recovery of language function.
  • the conventional utterance training apparatus does not perform training specialized in the utterance function in consideration of the utterance function, brain activity and mental state of the trainee in combination.
  • the object of the present invention is to use mental information and physical information obtained by measuring biological information such as brain waves, heartbeats or hormones during training of aphasic patients, etc., brain activity, and results of training. It is to provide an utterance training system capable of effectively improving ability while confirming the effect of training by a physiological and physiological method.
  • a training system for training a user to speak a teacher output unit that outputs training content serving as a model of the speech to train the user, and the user
  • a voice recognition unit that records speech voice
  • a camera unit that captures the movement of the user's mouth, a cerebral blood flow measurement unit that measures the cerebral blood flow of the user, and a biological signal that measures the user's biological signal
  • a measurement unit a calculation unit that calculates the number of utterances indicating the skill of the utterance based on the training content and the recorded voice and the image of the captured mouth movement, and
  • the calculation unit calculates a brain activity indicating a degree to which the user's brain works based on the measured cerebral blood flow, and receives the user's biological signal by the training based on the measured biological signal Mood showing change
  • To calculate the number, the calculated speech scores generates data for displaying a brain activity and mood index.
  • effective speech training can be performed.
  • FIG. It is a block diagram which shows the speech training system of Example 1.
  • FIG. It is explanatory drawing which shows the training information of Example 1.
  • FIG. It is a flowchart which shows the process of the speech training system of Example 1.
  • It is explanatory drawing which shows the teacher image displayed at the time of the start of training of Example 1.
  • FIG. It is explanatory drawing which shows the teacher image before the trainer speaks after the training of Example 1 starts.
  • FIG. 10 is a flowchart illustrating processing for calculating brain activity according to the second embodiment.
  • 10 is a flowchart illustrating processing for calculating the interest level of a visitor according to the second embodiment.
  • the present invention is based on the results of measuring blood flow of trainees such as aphasic patients or language learners, and mental information and physical information obtained from the results of measuring biological information such as brain waves, heart rate and hormones,
  • the present invention relates to an utterance training system that provides training to a trainee while changing the content provided to the trainee while allowing the trainee to confirm the effect of the training and enjoy the game with a sense of game.
  • FIG. 1 is a block diagram illustrating the speech training system 10 according to the first embodiment.
  • the utterance training system 10 is a system that causes the trainer 110 to train utterances by providing the teacher image 201 and voice to the trainer 110.
  • the speech training system 10 includes a data processing unit 100, a data storage unit 101, a biological signal processing unit 102, a brain activity processing unit 103, a signal line 119, a display 104, a signal line 113, a camera 105, a signal line 114, A speaker 106, a signal line 115, a microphone 107, a headband 108, a heartbeat measuring electrode 109, an optical fiber 116, a signal line 117, and a signal line 118 are included.
  • the trainer 110 is a person who is trained in the speech ability by the speech training system 10 of the first embodiment.
  • a healthy person may train using the speech training system 10 instead of the trainer 110.
  • the data processing unit 100 includes an output unit 130, a training recognition unit 131, and a data calculation unit 132.
  • the data processing unit 100 may be connected to an input unit that receives instructions from the trainee 110 and the like.
  • the output unit 130 provides the trainee 110 with training contents, for example, voice and teacher images 201, which are examples of utterances in training.
  • the training recognition unit 131 recognizes the training status of the trainee 110 by, for example, acquiring sound or images.
  • the data calculation unit 132 analyzes voice, image, biological signal, or brain activity data acquired by training.
  • the data storage unit 101 is a storage device that stores data or programs.
  • the data storage unit 101 includes evaluation information 320 and training information 300.
  • the training information 300 holds data regarding training by many healthy persons, data regarding training by many past trainers 110, and data regarding past training by one trainer 110.
  • Evaluation information 320 indicates an index for evaluating the mood state of the trainee based on the result measured by the measurement unit 133 of the biological signal processing unit 102.
  • the biological signal processing unit 102 includes a measurement unit 133 and a calculation unit 134.
  • the measurement unit 133 measures the biological signal of the trainee 110 using the headband 108 or the heartbeat measurement electrode 109.
  • the computing unit 134 generates data for calculating a mood index, which will be described later, by generating biological data from the biological signal obtained as a result of the measurement.
  • the brain activity processing unit 103 includes a measurement unit 135 and a calculation unit 136.
  • the measurement unit 135 measures the brain activity (increase / decrease in cerebral blood flow) of the trainee 110 using the headband 108.
  • the calculation unit 136 generates cerebral blood flow data from the measurement result, thereby generating data for calculating a brain activity level described later from the measurement result.
  • the data processing unit 100, the biological signal processing unit 102, and the brain activity processing unit 103 shown in FIG. 1 are arithmetic devices each having at least a processor.
  • the utterance training system 10 according to the first embodiment may hold a program corresponding to the function of each processing unit, and the function corresponding to each processing unit may be implemented by the processor executing the program.
  • the data processing unit 100, the data storage unit 101, the biological signal processing unit 102, and the brain activity processing unit 103 are connected to each other by a signal line 119 and transmit / receive data to / from each other.
  • the output unit 130 of the data processing unit 100 communicates with the display 104 via the signal line 112 and communicates with the speaker 106 via the signal line 114. Further, the training recognition unit 131 communicates with the camera 105 via the signal line 113 and communicates with the microphone 107 via the signal line 115.
  • the output unit 130 provides images and sounds to the trainee 110 using the display 104 and the speaker 106.
  • the training recognizing unit 131 uses the camera 105 and the microphone 107 to record a voice (including an utterance) uttered by the trainer 110 or photograph the trainer 110.
  • the measurement unit 133 of the biological signal processing unit 102 communicates with the heartbeat measurement electrode 109 via the signal line 117.
  • the heartbeat measuring electrode 109 measures the heartbeat of the trainee 110.
  • the measurement unit 133 of the biological signal processing unit 102 communicates with an electroencephalogram electrode incorporated in the headband 108 via the signal line 118.
  • the headband 108 is worn on the head of the trainee 110.
  • the measurement unit 133 of the biological signal processing unit 102 may acquire the stress hormone concentration in saliva as a biological signal.
  • the biological signal processing unit 102 is connected to a small analyzer that measures stress hormone concentration in saliva.
  • This small analyzer is a device that accepts a tip of the trainee 110 with saliva and measures the concentration of stress hormone in the saliva on the tip.
  • the trainer 110 holds the chip before the start of utterance and after the end of the utterance, applies saliva to the chip, and inserts the chip into the small analyzer.
  • the small analyzer measures the stress hormone concentration in the saliva applied to the chip.
  • the measurement unit 133 of the biological signal processing unit 102 may measure at least one of heart rate, brain wave, and stress hormone concentration, or may measure all three.
  • the computing unit 134 of the biological signal processing unit 102 converts the biological signal measured by the electroencephalogram electrode provided in the headband 108 or the biological signal measured by the heartbeat measuring electrode 109 into biological data. Then, the calculation unit 134 transmits the biometric data to the data processing unit 100.
  • the calculation unit 134 may store biometric data in the data storage unit 101, and the data calculation unit 132 of the data processing unit 100 may acquire the biometric data in the data storage unit 101.
  • the data calculation unit 132 of the data processing unit 100 calculates a mood index based on the acquired biological data. Then, the data calculation unit 132 stores the calculated mood index in the data storage unit 101.
  • the headband 108 includes a device for measuring cerebral blood flow.
  • An apparatus for measuring cerebral blood flow includes, for example, an optical topography light incident part and a light detection part.
  • the light incident unit and the light detection unit are connected to the measurement unit 135 of the brain activity processing unit 103 via the optical fiber 116.
  • Optical topography is a system that irradiates the scalp with weak near-infrared light and detects reflected light.
  • the measurement unit 135 of the brain activity processing unit 103 in the first embodiment is a control unit in optical topography.
  • the headband 108 may include a device of any technique other than optical topography as long as it is a device that measures the increase or decrease in blood flow in the brain.
  • the trainer 110 views the teacher image 201 displayed on the display 104 by the output unit 130 of the data processing unit 100 and listens to the teacher voice output from the speaker 106 by the output unit 130 before and during the start of the utterance. .
  • the trainer 110 trains the utterance by speaking so as to imitate the movement of the mouth in the case of the utterance as a model and the teacher voice.
  • the teacher image 201 displays the movement of the mouth during utterance, which serves as a language model.
  • the teacher image 201 displays a change (inflection change) in the fundamental frequency of the teacher voice.
  • the teacher image 201 may be an image of a person such as a healthy person who is actually speaking, or may be a computer graphic or animation.
  • the microphone 107 records the voice of the trainee 110 who has spoken, and the camera 105 photographs the mouth movement of the trainee 110 who is speaking.
  • the training recognition unit 131 of the data processing unit 100 collects the recording data acquired by the microphone 107 and the recording data captured by the camera 105. And the data calculating part 132 calculates the utterance score which shows the skill of the trainee 110's utterance based on the collected recording data and recording data. Then, the data calculation unit 132 stores the calculated number of utterance points in the data storage unit 101.
  • the measurement unit 135 of the brain activity processing unit 103 transmits incident light to the headband 108 via the optical fiber 116.
  • the light incident unit provided in the headband 108 irradiates the scalp with the received incident light.
  • the light detection unit provided in the headband 108 detects the reflected light of the incident light that has been irradiated, and transmits the detected reflected light to the measurement unit 135 via the optical fiber 116. Based on the difference between the incident light transmitted to the headband 108 and the reflected light received from the headband 108, the measurement unit 135 calculates cerebral blood flow data indicating increase / decrease in cerebral blood flow.
  • the measurement unit 135 of the brain activity processing unit 103 is a light source of incident light.
  • the measurement unit 135 according to the first embodiment may only instruct the headband 108 to enter and detect light.
  • the headband 108 may include a light source and a light detection unit, and the headband 108 and the measurement unit 135 may be connected by a signal line that transmits and receives electrical signals.
  • the brain activity processing unit 103 sends the calculated cerebral blood flow data to the data processing unit 100.
  • the data calculation unit 132 calculates the brain activity based on the received cerebral blood flow data.
  • the data calculation unit 132 stores the calculated brain activity in the data storage unit 101.
  • FIG. 2 is an explanatory diagram showing training information 300 according to the first embodiment.
  • the training information 300 includes a condition 301, a date 304, an utterance score 305, cerebral blood flow data 306, a brain activity 307, a mood index 308, and a mood evaluation value 309.
  • the training information 300 indicates the result of training by the speech training system 10 according to the first embodiment.
  • the speech training system 10 trains a trainee 110 and a person who can speak as a model (for example, a healthy person). And the speech training system 10 acquires the result of training.
  • Requirement 301 indicates training conditions.
  • the condition 301 includes trainer information 302 and a difficulty level 303.
  • the trainer information 302 includes information uniquely indicating a person who has been trained by the speech training system 10 according to the first embodiment.
  • the trainer information 302 includes, for example, the identifier, gender, age or age of the trainer 110, or the content of the disease.
  • the trainer information 302 may indicate whether the person is a healthy person or the trainer 110.
  • the difficulty level 303 indicates the difficulty level of the training content.
  • the condition 301 may include an identifier indicating the content of training.
  • Date 304 indicates the date on which training was performed.
  • the date 304 may indicate a time.
  • the utterance score 305 indicates a score indicating the skill of utterance.
  • the utterance score includes a score indicating the skill of speaking and a score indicating the skill of pronunciation.
  • Cerebral blood flow data 306 indicates changes in cerebral blood flow due to training.
  • the cerebral blood flow data 306 includes the difference between the cerebral blood flow measured before the start of speech and the cerebral blood flow measured after the end of speech, or the cerebral blood flow before the start of speech and the cerebral blood flow during training. The difference is shown.
  • the brain activity 307 indicates the ratio between the increase in cerebral blood flow calculated from the cerebral blood flow data and the increase in cerebral blood flow in predetermined past data.
  • the mood index 308 indicates the ratio between the mood index calculated from the biological signal and the mood index of predetermined past data.
  • the mood evaluation value 309 is a degree of mood such as relaxation, tension, concentration, and stress calculated based on the biological signal.
  • the mood index 308 may be calculated based on the mood evaluation value 309.
  • FIG. 3 is a flowchart showing processing of the speech training system 10 according to the first embodiment.
  • FIG. 3 shows an utterance evaluation process from when the output unit 130 of the data processing unit 100 displays the teacher image 201 to when the result image 206 indicating the evaluation of training is displayed.
  • FIG. 3 shows an example of a method for calculating the score indicating the skill of speaking and the score indicating the skill of pronunciation. The process of FIG. 8 or FIG. 11 may be executed in parallel with the process shown in FIG.
  • the speech training system 10 After the trainer 110 sits in front of the speech training system 10 where the display 104, the microphone 107, the speaker 106, and the camera 105 are installed, wears the headband 108, and wears the heart rate measurement electrode 109, the speech training system 10 Then, the processing shown in FIG. 3 is started (501).
  • the trainer 110 or the operator inputs training conditions to the data processing unit 100 in step 501.
  • the operator of Example 1 is a person who operates the speech training system 10 and is different from the trainer 110.
  • the trainer 110 or the operator inputs trainer information such as an identifier of the trainer 110 and the difficulty level of training or the contents of training as training conditions.
  • the data calculation unit 132 stores the training condition input to the input unit and the input date in the condition 301 and the date 304 of the training information 300.
  • the entry of the training information 300 in which the training conditions are stored in Step 501 is referred to as an entry indicating the current training.
  • step 501 the output unit 130 of the data processing unit 100 displays video or music that the trainer 110 relaxes or motivates before or during the display of the teacher image 201. It may be provided to the trainer 110.
  • the output unit 130 of the data processing unit 100 displays the teacher image 201 on the display 104 for a predetermined time enough to recognize the words or sentences spoken by the trainee 110.
  • the teacher image 201 for example, an intonation waveform of a teacher voice, a spoken word or sentence, or a phonetic symbol is displayed (502).
  • the output unit 130 of the data processing unit 100 starts outputting the teacher image 201 and the teacher voice, and emphasizes and displays the process of outputting the teacher voice in the teacher image 201 (503).
  • the output unit 130 displays a plurality of teacher images 201 in succession, thereby displaying, on the trainer 110, the movement of the mouth that serves as a model and changes in inflection.
  • the trainer 110 starts utterance in training (504).
  • the trainer 110 speaks by imitating the teacher image 201 and the teacher voice, and speaks according to the process of outputting the teacher voice.
  • the training recognizing unit 131 of the data processing unit 100 may determine that the utterance by the trainer 110 has started when the microphone 107 detects a sound of a predetermined level or higher.
  • the training recognition unit 131 may determine that the utterance by the trainer 110 has started.
  • a method for highlighting the process of outputting the teacher voice for example, a method of enlarging or bolding the text in which the teacher voice is output, or a portion where the teacher voice is output in the inflection waveform is indicated by a cursor.
  • the output unit 130 highlights the utterance process so that the trainer 110 can easily imitate the teacher voice.
  • the training recognition unit 131 records the voice uttered by the trainee 110 with the microphone 107 and photographs the trainer 110 who is speaking with the camera 105. Then, the data calculation unit 132 analyzes the recording data and generates an inflection waveform of the utterance by the trainee 110. Then, the data calculation unit 132 displays the generated inflection waveform on the display 104 via the output unit 130 (505).
  • the output unit 130 may display the generated inflection waveform after the trainee 110 speaks, or may display it immediately after the timing when the trainer 110 speaks.
  • the training recognizing unit 131 may determine that the utterance of the trainee 110 has ended when the microphone 107 does not detect a sound of a predetermined level or more for a predetermined time, or the utterance is ended from the trainer 110 or the operator. May be determined that the utterance by the trainee 110 has ended.
  • the data calculation unit 132 compares the teacher speech inflection waveform (basic frequency (pitch)) with the trainee 110 inflection waveform, so that the teacher speech average pitch and the trainer 110 average pitch are the same.
  • the inflection waveform of the teacher voice and the inflection waveform of the trainer 110 are normalized so as to be approximately the same (within a predetermined range) (507). This is done because the voice level of the teacher voice and the voice level of the trainer 110 are different.
  • the data operation unit 132 calculates the magnitude of the difference between the inflated waveform of the teacher voice after normalization and the inflated waveform of the trainee 110 (510). After step 510, the data calculation unit 132 determines a score indicating the skill level of the trainee 110 according to the calculated difference (513).
  • the data calculation unit 132 determines the score indicating the skill of speaking as a higher number as the difference is smaller. For example, when the magnitude of the difference is 0 or a predetermined size that is sufficiently small, the data calculation unit 132 sets the score indicating the skill of talking to 100, which is the highest score. decide.
  • the data calculation unit 132 calculates the utterance matching rate based on the recorded data by executing Step 508 and Step 511, and executes the step 509 and Step 512 to thereby calculate the utterance matching rate based on the recorded data. Is calculated.
  • the data calculation unit 132 may calculate the utterance match rate using at least one of the recording data and the recording data.
  • the data calculation unit 132 analyzes the voice recording data uttered by the trainee 110 by recognizing it as voice, and converts the content uttered by the trainer 110 into text as a result of the analysis (508). For example, the data operation unit 132 converts the uttered content into text by comparing data held in advance as a general frequency when a character is uttered with an inflection waveform of the trainee 110.
  • the data calculation unit 132 compares the characters included in the text of the teacher voice and the characters included in the text indicating the speech by the trainee 110, and calculates the number of different characters as a result of the comparison. Then, the data operation unit 132 calculates the matching rate between the teacher voice and the utterance by the trainer 110 by dividing the calculated number of different characters by the number of characters included in the text of the teacher voice (511). .
  • the data calculation unit 132 determines a score indicating the skill of pronunciation based on the matching rate calculated in step 511 (514).
  • the data calculation unit 132 may determine the coincidence rate calculated in step 511 as a score indicating the skill of pronunciation.
  • the data calculation unit 132 recognizes the recorded data obtained by recording the mouth movement of the trainee 110 as a plurality of images, and continuously acquires the shape of the mouth of the trainer 110, thereby uttering the speech of the trainer 110. Text is made (509).
  • the data calculation unit 132 holds, for example, a general mouth shape when a vowel is spoken, and a character spoken by the trainer 110 from the mouth shape of the trainer 110 of the recorded data. Vowels may be acquired.
  • the data calculating part 132 may produce
  • the data calculation unit 132 compares the text generated in step 509 with the text of the teacher voice, and calculates the number of different characters. Then, the data calculation unit 132 calculates the coincidence rate between the utterance by the trainee 110 and the teacher voice (512). The method for calculating the matching rate from the number of different characters may be the same as in step 511.
  • the data calculation unit 132 compares the text vowels of the teacher speech and the text of only the vowels uttered by the trainer 110, and calculates the number of different characters.
  • step 512 the data operation unit 132 executes step 514, and determines a score indicating how well the pronunciation is based on the matching rate calculated in step 512 (514).
  • step 511 the data calculation unit 132 may determine the coincidence rate calculated in step 514 as a score indicating the skill of pronunciation.
  • the data calculation unit 132 divides the sum of the utterance match rate calculated in step 511 and the utterance match rate calculated in step 514 by two. You may determine the score which shows the skill of pronunciation. In addition, the data calculation unit 132 assigns weights to each of the coincidence rate based on the recording data and the coincidence rate based on the recording data, and the total value obtained by multiplying the weight and the coincidence rate is used as the score of the pronunciation skill. You may decide.
  • the data calculation unit 132 After step 513 and step 514, the data calculation unit 132 generates screen data that displays the score indicating the skill of the speech determined in step 513 and the score indicating the skill of the pronunciation determined in step 514. Then, the generated screen data is displayed on the output unit 130 and the display 104. This provides the training result to the trainer 110 (515).
  • step 515 the data calculation unit 132 uses the score indicating the skill of the speech determined in step 513 and the score of the skill of pronunciation determined in step 514 as the entry indicating the current training in the data storage unit 101. Stored in utterance score 305.
  • the data calculation unit 132 calculates the difference between the number of utterances in the previous training of the trainee 110 and the number of utterances in the current training, or the transition of the number of utterances in the past multiple trainings, May be displayed on the display 104.
  • the data calculation unit 132 acquires an entry of the training information 300 in the past training based on the trainer information 302 and the date 304.
  • step 515 the data processing unit 100 ends the processing shown in FIG. 3 (516).
  • FIGS. 4A to 4C are explanatory diagrams showing a teacher image 201 displayed during training in the first embodiment.
  • FIG. 4A is an explanatory diagram showing a teacher image 201a displayed at the start of training in the first embodiment.
  • the teacher image 201a shown in FIG. 4A is displayed in step 502 shown in FIG.
  • the teacher image 201 includes a mouth shape 202, a text 203, and an inflection waveform 204.
  • the mouth shape 202 indicates the shape of a human mouth for speaking teacher voice.
  • the trainer 110 recognizes the movement of the mouth of the utterance.
  • the text 203 indicates a text such as a word or a sentence of the teacher voice.
  • An intonation waveform 204 indicates the waveform of the fundamental frequency (pitch) of the teacher voice.
  • FIG. 4B is an explanatory diagram showing the teacher image 201b before the trainee 110 speaks after the training of the first embodiment is started.
  • the teacher image 201b shown in FIG. 4B is displayed in step 503 shown in FIG.
  • the teacher image 201b is an image when the teacher voice starts to be output. Therefore, the mouth shape 202 of the teacher image 201b indicates an open mouth.
  • the text 203 of the teacher image 201b is displayed with a high emphasis on the characters of the teacher voice that has already been output.
  • the inflection waveform 204 of the teacher image 201b emphasizes the output teacher voice by displaying a cursor at the part of the inflection waveform corresponding to the teacher voice immediately after output.
  • FIG. 4C is an explanatory diagram showing a teacher image 201c when the trainee 110 of Example 1 starts speaking.
  • FIG. 4C is displayed in step 505 shown in FIG.
  • the teacher image 201c is an image after the trainer 110 starts speaking. Therefore, the teacher image 201 c includes a trainee intonation waveform 205 in addition to the mouth shape 202, the text 203, and the intonation waveform 204.
  • the trainer intonation waveform 205 displays the intonation waveform generated by the data calculation unit 132 based on the recording data obtained by recording the utterance of the trainee 110. It is assumed that the trainee intonation waveform 205 is displayed almost in real time from the time when the trainee 110 speaks.
  • FIG. 5 is an explanatory diagram showing a result image 206 displayed when the utterance by the trainer 110 of Example 1 is completed.
  • FIG. 5 is displayed in step 515 shown in FIG.
  • the result image 206 includes an evaluation 207, a good talker 208, a good pronunciation 209, a brain activity 210, and a mood index 211.
  • Talking skill 208 is an area for displaying a score indicating the skill of talking determined in step 513 shown in FIG.
  • the prominent pronunciation 209 is an area for displaying a score indicating the proficiency of pronunciation determined in step 514.
  • the brain activity 210 indicates the brain activity calculated based on the measurement result by the measurement unit 135 of the brain activity processing unit 103 in a display format such as a bar graph.
  • the mood index 211 indicates a mood index calculated based on a measurement result by the measurement unit 133 of the biological signal processing unit 102 in a display format such as a bar graph, for example.
  • the evaluation 207 displays an image that can intuitively understand the evaluation of the training result by displaying an image determined according to at least one of the speaking skill 208, the pronunciation proficiency 209, the brain activity 210, and the mood index 211. For example, when the score displayed on the talking hand 208 is larger than a predetermined value, the data calculation unit 132 causes the display 104 to display a smiling human image as the evaluation 207.
  • the data calculation unit 132 displays at least one of the speaking skill 208, the pronunciation skill 209, the brain activity 210, and the mood index 211 (that is, the speech score, brain activity, and mood index). Accordingly, the voice or text to be encouraged or praised is determined, and the output unit 130 may output the determined voice or text. Further, the output unit 130 may change the facial expression of the person of the evaluation 207 displayed in the result image 206 in accordance with the content of the defined voice or text.
  • FIG. 6 is an explanatory diagram illustrating another example of the teacher image 201b according to the first embodiment.
  • the output unit 130 may display a teacher image 201b shown in FIG.
  • the text 203 and the intonation waveform 204 shown in FIG. 6 display a predetermined length of space or a predetermined length of symbol between phrases.
  • the trainer 110 When a sentence to be uttered includes a plurality of phrases, the trainer 110 is better able to speak with the silence “between” between the phrases, and the listener is better at speaking the trainer 110. feel. For this reason, the output unit 130 displays a space or a symbol indicating the position and length of “between” in the text 203 and the inflection waveform 204, so that the timing of “between” in the utterance and the “between” The length can be intuitively recognized by the trainer 110.
  • the utterance training system according to the first embodiment can clearly recognize the movement of the mouth or the inflection in the utterance as an example by providing the trainer 110 with the teacher image 201 illustrated in FIGS. 4A to 4C and 6. . And the effect of training can be improved by this.
  • the trainer 110 can easily recognize the inflection of the trainer 110 himself from the teacher image 201. For this reason, the trainer 110 can perform training while comparing the inflection of the model with his own inflection, and as a result of easily correcting the speech method, the training effect is improved.
  • the speech training system according to the first embodiment can feed back the training result to the trainee 110 by using the result image 206 shown in FIG. 5 so that the trainer 110 can recognize the effect of the training. For this reason, the speech training system of Example 1 can give the trainer 110 motivation for the next training.
  • the brain activity of Example 1 shows the effect of training obtained as a result of analyzing the measurement results by a brain science method, and the mood index of Example 1 is determined by a psychological analysis method and a physiological method. As a result of analysis, the effect of the training obtained is shown.
  • FIG. 7 is a flowchart showing a process of calculating the brain activity of Example 1 and determining the difficulty level of the next training.
  • the process shown in FIG. 7 is a process for determining the difficulty level of the next training based only on the number of utterances and the degree of brain activity.
  • FIG. 8 shows a process for determining the difficulty level of the next training based on the number of utterance points, brain activity, and mood index.
  • step 501 When training is started in step 501 shown in FIG. 3, the process shown in FIG. 7 is started. After step 501, the measurement unit 135 of the brain activity processing unit 103 starts measuring the brain blood flow of the trainee 110 (518).
  • the output unit 130 also provides the trainer 110 with images or music that the trainer 110 relaxes or motivates the trainer 110 while the step 518 is executed. Good.
  • the measurement unit 135 of the brain activity processing unit 103 performs cerebral blood The flow measurement is terminated (520).
  • the measurement unit 135 may end the measurement of cerebral blood flow when notified from the data processing unit 100 that the utterance by the trainee 110 has ended, or when the end instruction is input by the trainer 110 The measurement of cerebral blood flow may be terminated.
  • the calculating part 136 stores the produced
  • the calculation unit 136 transmits the generated cerebral blood flow data to the data processing unit 100.
  • the data calculation unit 132 acquires the cerebral blood flow data in the past training from the cerebral blood flow data 306 of the data storage unit 101 (522). Specifically, the data calculation unit 132 acquires cerebral blood flow data from an entry in which the date 304 indicates a past date.
  • the data calculation unit 132 corresponds to the entry of the condition 301 in which at least one of the sex and the age indicated by the trainer information 302 in the entry indicating the current training and the difficulty indicated by the difficulty 303 is the same. It may be specified as an entry in the condition, and the cerebral blood flow data 306 may be acquired from the specified entry.
  • the data calculation unit 132 performs training including an identifier indicating a healthy person or a language proficient person in the condition 301
  • the entry of the information 300 may be specified, and the cerebral blood flow data 306 may be acquired from the specified entry.
  • the data calculation unit 132 can acquire an ideal amount of change in cerebral blood flow in speech.
  • the data calculation unit 132 can calculate the brain activity more accurately.
  • the data calculation unit 132 calculates the brain activity of the current training based on the cerebral blood flow data 306 acquired from the data storage unit 101 and the cerebral blood flow data in the current training.
  • the data calculation unit 132 extracts, for example, the past maximum value of the increase in cerebral blood flow from the acquired cerebral blood flow data 306. And the data calculating part 132 calculates the result of dividing the variation
  • the data calculation unit 132 generates image data that displays the calculated brain activity (corresponding to the brain activity 210) and the above-mentioned utterance score. Then, the data calculation unit 132 causes the output unit 130 and the display 104 to display the generated image data as a result image 206 (523). Further, the data calculation unit 132 stores the calculated brain activity in the brain activity 307 of the entry indicating the current training in the data storage unit 101.
  • the brain activity 210 in the result image 206 may be displayed by a rough bar graph such as 10 levels or 5 levels.
  • Step 523 corresponds to step 515 shown in FIG.
  • the data calculation unit 132 acquires at least one brain activity level in the past training of the trainer 110 itself from the training information 300 of the data storage unit 101. Further, the data calculation unit 132 uses the number of utterance points calculated in step 513 and step 514 (the number of utterance points in the current training) and the number of utterance points calculated in the past training of the trainee 110 in the training of the data storage unit 101. Obtained from the information 300 (524).
  • step 524 executes step 524 after step 515.
  • the data calculation unit 132 determines whether or not the brain activity level in the current training is higher than the brain activity level in the past training, and the number of utterances in the current training is the past training level. It is determined whether or not the number of utterances has been raised at (525).
  • the data calculation part 132 determines the same difficulty level as this time as the difficulty level of the next training (527).
  • the data calculation part 132 shown in FIG. 7 makes the difficulty level of the next training the same as the difficulty level of this training.
  • the data calculation part 132 shown in FIG. 7 determines the difficulty level of the next training to the difficulty level different from the difficulty level of this training.
  • step 525 when it is determined in step 525 that at least one of the number of utterances and brain activity in the current training is equal to or less than the number of utterances or brain activity in the past training, the data calculation unit 132 The difficulty level of the next training is determined to be a difficulty level different from the current difficulty level (526). Note that the data calculation unit 132 is such that the difference between the number of utterances and brain activity in the current training and the number of utterances or brain activity in the past training is less than or equal to each predetermined amount, and there is almost no difference. If it can be determined in step 525, step 526 may be executed.
  • the data storage unit 101 holds information on the difficulty level determined according to the change from the past utterance score and the brain activity level, and the data calculation unit 132 refers to the information on the difficulty level to determine the difficulty level. You may decide.
  • the data operation unit 132 determines the next training content according to the determined difficulty (528).
  • the data storage unit 101 holds information indicating the correspondence between the difficulty level and the training content
  • the data calculation unit 132 determines the difficulty level with reference to the information indicating the correspondence between the difficulty level and the training content. May be.
  • the output unit 130 may display the determined difficulty level of the next training or the determined next training content on the display 104. If a printer is connected, the training content is described via the printer. The printed paper may be output.
  • the data calculation unit 132 may store the determined difficulty level of the next training or the determined next training content and the trainer information regarding the trainer 110 in the data storage unit 101.
  • the data processing unit 100 acquires the training difficulty level or the training content to be executed based on the input trainer information and the data storage unit 101. Also good.
  • FIG. 8 is a flowchart showing a process of calculating the mood index of Example 1 and determining the difficulty level of the next training.
  • the speech training system 10 executes Steps 518 to 524 shown in FIG. 7 in parallel with Steps 531 to 537 shown in FIG. Then, the data calculation unit 132 executes step 525 shown in FIG. 7 in step 538 shown in FIG.
  • the measurement unit 133 of the biological signal processing unit 102 starts measuring biological signals such as brain waves and heartbeats of the trainee 110 (531).
  • the biological signal processing unit 102 is connected to a small analyzer that measures the stress hormone concentration in saliva, in step 531, the measuring unit 133 determines the stress hormone concentration in the saliva of the trainee 110 via the small analyzer. And accept.
  • the output unit 130 may display an instruction to insert a chip with saliva in the small analyzer on the display 104 in step 531.
  • the output unit 130 may execute Step 502 shown in FIG. 3 after the biological signal of the trainee 110 before the start of utterance is sufficiently measured in Step 531. This is because the output unit 130 causes the biological signal processing unit 102 to measure the biological signal of the trainer 110 in a relaxed state before the start of utterance.
  • the output unit 130 may provide the trainer 110 with images or music that the trainer 110 relaxes or motivates the trainer 110 while the step 531 is executed. Good.
  • the measurement unit 133 of the biological signal processing unit 102 receives the biological signal.
  • the measurement is terminated (533).
  • the measurement unit 133 may end the measurement of the biological signal when notified from the data processing unit 100 that the utterance by the trainee 110 is ended, or when the end instruction is input by the trainer 110, The measurement of the biological signal may be terminated.
  • the calculation unit 134 of the biological signal processing unit 102 performs analysis such as Fourier transform (FFT) on the brain wave or heartbeat included in the measured biological signal, thereby measuring the frequency and intensity of the measured biological signal.
  • Biological data including the measured values is generated (534).
  • the calculating part 134 produces
  • the biometric data includes a measurement value of the biosignal measured during or after the utterance.
  • the biological data includes measurement values necessary for calculating a mood index described later.
  • step 534 the calculation unit 134 transmits the generated biometric data to the data processing unit 100.
  • step 534 based on the biological data transmitted from the biological signal processing unit 102, the data calculation unit 132 calculates a mood index indicating whether or not the trainer 110 is in a mood suitable for training (535).
  • the mood index of the first embodiment is calculated based on the difference between the standard biological signal and the biological signal of the trainee 110, and indicates changes in the biological signal and mood of the trainer 110 that are received by training.
  • the data calculation unit 132 calculates a mood index by comparing the measured value of the standard biological signal with the measured value based on the measurement result after the end of the utterance or during the utterance.
  • the standard measured value of the biological signal is a measured value of the human biological signal in a resting state, and is a value given in advance.
  • an example is shown in which the data calculation unit 132 calculates a mood index using a standard measurement value of a biological signal.
  • the data calculation unit 132 determines the stress, the degree of tension and the relaxation An evaluation value may be calculated for each index, and a mood index may be calculated based on the calculated evaluation value.
  • the data calculation unit 132 compares the measurement value of the standard biological signal with the measurement value based on the measurement result after the end of the utterance, and in the heartbeat, the electroencephalogram, and the saliva after the utterance ends. It is determined whether or not each of the measured values such as the stress hormone concentration has increased as compared with that at rest.
  • the data calculation part 132 calculates each mood evaluation value, such as stress, tension, concentration degree, and relaxation, according to the increase / decrease of each measured value and the evaluation information 320 shown in FIG.
  • FIG. 9 is an explanatory diagram showing the evaluation information 320 of the first embodiment.
  • Evaluation information 320 indicates changes in human mood state and mental state corresponding to changes in biological signals.
  • the evaluation information 320 is information generated in advance by a psychological and physiological method.
  • the data calculation unit 132 can calculate a mood index indicating a change in mood state from the measured value of the biological signal.
  • Evaluation information 320 includes a biological signal type 321, a variation parameter 322, and an index evaluation 323.
  • the biological signal type 321 indicates the type of the biological signal of the measurement value included in the biological data.
  • the fluctuation parameter 322 and the index evaluation 323 indicate the relationship between the increase / decrease in the measured value and the index value included in the biological data.
  • the fluctuation parameter 322 in the evaluation information 320 indicates “pulse increase”
  • the index evaluation 323 indicates “tension increase”
  • the heart rate measured after the end of the utterance is higher than the heart rate at rest. If it has increased, the data operation unit 132 adds +1 to the “tension” index in step 540.
  • the data calculation part 132 can determine whether the trainee 110 feels stress or is relaxed by determining the increase / decrease in the heart rate fluctuation
  • the calculation unit 134 of the biological signal processing unit 102 generates a heartbeat variation by performing an FFT calculation or the like on the waveform of the heartbeat measured as the biological signal in step 534, and the data calculation unit 132 detects the heartbeat in step 535. Determine the increase or decrease in fluctuation.
  • the trainer 110 when an alpha wave having a frequency of 8 to 13 Hz is generated in the brain wave, the trainer 110 is relaxed, and when a beta wave having a frequency of 14 Hz or more is generated in the brain wave, the trainer 110 is concentrated. It is said. For this reason, the data calculation part 132 can determine whether the trainer 110 is relaxed or concentrated by detecting the ratio in which these waves generate
  • the biological signal in Example 1 mainly includes heartbeat, brain waves, and stress hormones in saliva, but the measured biological signal includes other types of biological signals such as the above-described sweating amount or myoelectric potential. May be. And the data operation part 132 calculates
  • the data calculation unit 132 calculates a mood index from the mood evaluation value of each index. For example, when it is determined in advance that the mood evaluation value of relaxation and concentration is higher, the data operation unit 132 multiplies the absolute value of the relaxation evaluation value by 1 plus the absolute value of relaxation and concentration. . In addition, when the mood evaluation value of stress and tension is higher, the data calculation unit 132 multiplies the absolute value of the mood evaluation value of stress and tension by minus 1 when it is determined in advance that the mood is not suitable for training. . Thereafter, the data calculation unit 132 calculates the sum of all mood evaluation values of each index. Then, the data calculation unit 132 acquires the calculated total value as a mood index.
  • the data calculation unit 132 may weight each index in order to emphasize the index to be emphasized. For example, when the trainee 110 holds in advance the characteristic that the training efficiency does not increase unless the trainer 110 is relaxed, the data calculation unit 132 may calculate the total value by setting the relaxation index to twice the concentration index. .
  • the data calculation unit 132 multiplies the stress index by a weight lower than other weights to add a stress evaluation.
  • the total value may be calculated as
  • step 535 the data calculation unit 132 stores the calculated mood index and mood evaluation value in the mood index 308 and mood evaluation value 309 of the entry indicating the current exercise in the data storage unit 101.
  • the index for multiplying the mood evaluation value by plus 1 or the index for multiplying by minus 1 may be arbitrarily changed.
  • the data operation unit 132 acquires a mood index from past entries of the training information 300 including the mood index 308 most suitable for training (536).
  • the mood index most suitable for training is, for example, a positive value and a mood index having the largest absolute value.
  • the data calculation unit 132 can calculate a mood index ratio that can objectively determine whether or not the mood state of the trainer 110 is suitable for training by acquiring the mood index 308 most suitable for training from past entries. .
  • the data calculation unit 132 may acquire biological data based on the biological signal measured before the start of utterance from the calculation unit 134 of the biological signal processing unit 102 and calculate a mood index before the start of utterance. Then, the data calculation unit 132 may acquire the calculated mood index before the start of utterance in Step 536. As a result, the data calculation unit 132 can calculate a mood index ratio indicating whether the exercise results in a positive or negative mood for the exercise.
  • step 536 the data calculation unit 132 obtains the mood index having the largest value, which is a mood index in the training with the same or corresponding condition as the current training condition, from the mood index 308 of the training information 300. May be.
  • the data operation unit 132 calculates the mood index ratio by dividing the mood index 308 of the trainee 110 by the mood index value acquired in step 536. Then, the data calculation unit 132 generates image data for displaying the calculated mood index ratio (corresponding to the mood index 211), the number of utterance points, and the brain activity, and the generated image data is displayed as a result.
  • the image 206 is displayed on the output unit 130 and the display 104 (537).
  • the mood index 211 may be a rough bar graph such as 10 levels or 5 levels.
  • Step 537 corresponds to step 515 shown in FIG.
  • step 537, step 523, and step 515 are completed, the data calculation unit 132 executes steps 524 and 525 shown in FIG. Then, the data calculation unit 132 determines whether or not the brain activity level in the current training is higher than the brain activity level in the past training, and whether or not the number of utterances in the current training is higher than the number of utterances in the past training. Determine (538).
  • Step 539 is the same as step 527.
  • the data calculation unit 132 evaluates the mood index in the current training.
  • the mood state of the trainer 110 is evaluated (540).
  • the data calculation unit 132 calculates the mood index (hereinafter, past mood index) from the mood index 308 of the entry having the utterance score 305 higher than the predetermined threshold and the past date 304 entry. get.
  • the mood index hereinafter, past mood index
  • the data calculation unit 132 determines that the utterance score 305 is higher than the predetermined threshold when each of the plurality of scores is higher than the predetermined threshold. It's okay. Further, the data calculation unit 132 may acquire a past mood index from an entry indicating a condition that is the same as or corresponds to the condition in the current training. When a plurality of past mood indices are acquired, the data calculation unit 132 may acquire the mood index having the largest value.
  • the data calculation unit 132 determines whether they are similar. If the number of utterances in the current exercise is higher than a predetermined threshold (first determination condition), the data calculation unit 132 is similar to the mood index in the current exercise and the acquired past mood index (Second determination condition) is determined (541). If the difference between the mood index calculated in step 540 and the acquired past mood index is within a predetermined range, the data calculation unit 132 determines that they are similar.
  • the current training is likely to be easy for the trainer 110.
  • the trainer 110 of this time is the past trainer 110 having the effect of training. The same degree of mood and mental state, with training effects.
  • the data calculation unit 132 determines that the trainer 110 It is determined that the trainee is sufficiently trained to be able to train easily without applying a load, and the difficulty level of the next training is determined to be a higher difficulty level than this time (544).
  • the data calculation unit 132 performs steps 542 and In step 543, the difficulty level of the next training is determined based on a plurality of indices included in the mood evaluation value.
  • step 542 the data calculation unit 132 determines whether or not the stress mood evaluation value included in the mood evaluation value calculated in the current exercise is higher than a predetermined threshold (542). If the stress index is equal to or less than a predetermined threshold, the trainee 110 is not stressed and may not be able to concentrate on training. For this reason, the data calculation part 132 determines the same difficulty level as this time as the difficulty level of the next training (545).
  • step 542 determines whether or not the index of stress is higher than a predetermined threshold. If it is determined in step 542 that the index of stress is higher than a predetermined threshold, the data calculation unit 132 determines whether or not the index of concentration in the mood evaluation value is higher than a predetermined threshold ( 543). If it is determined that the concentration index is higher than the predetermined threshold and there is concentration, the data calculation unit 132 determines a low level for the difficulty level of the next training (546).
  • the data calculation unit 132 displays, for example, a break instruction on the output unit 130 and the display 104 (547). Further, in step 547, the data calculation unit 132 may cause the output unit 130 to output a video or music that can be relaxed, for example, to change the mood of the trainee 110.
  • step 544, 545, 546 or 539 the data operation unit 132 determines the next training content according to the determined difficulty (548), and ends the processing shown in FIG.
  • the data calculation unit 132 may execute either of steps 542 and 543 first.
  • the data calculation unit 132 may execute only at least one of steps 542 and 543.
  • the index for increasing the mood evaluation value is different.
  • the process executed as a result of the determination in step 542 may be optimized according to the characteristics of the individual. Specifically, if it is determined in step 542 that the stress index is higher than a predetermined threshold, the data calculation unit 132 may determine the same difficulty level as this time as the next training difficulty level in step 545. Good (545).
  • the data calculation unit 132 may assign the importance to each of the utterance score, the brain activity, and the mood index, and perform the determination for determining the difficulty of the next training in the order according to the importance. Good. Specifically, when the highest importance level is assigned to the utterance score, the data calculation unit 132 may first execute a process of determining the difficulty level of the next training using the utterance score. As described above, the process of determining the difficulty level of the next training may be determined according to the nature of the trainer 110.
  • the data calculation unit 132 next time based on whether or not the trainer 110 indicated by the mood index was in a mood suitable for training. Determine the training difficulty and content of training. That is, when the trainer 110 is skilled in training at one difficulty level and the training effect is lost, the data calculation unit 132 determines the difficulty level of the next training according to the mood in the training.
  • the data calculation unit 132 determines the difficulty level of the next training based on the number of utterances, the brain activity level, and the mood index, so that the training effect on the trainer 110 and the mental state affected by the training are determined.
  • the contents of the next training along the line can be determined.
  • the trainer 110 can receive more appropriate training, and the speech training system according to the first embodiment can efficiently improve the speech ability of the trainer 110.
  • FIG. 10 is an explanatory diagram illustrating another example of the result image 206 according to the first embodiment.
  • the output unit 130 may display the calculated mood evaluation value on the result image 206.
  • the result image 206 shown in FIG. 10 includes a mood evaluation value 212 in addition to the evaluation 207, the speaking skill 208, the sounding skill 209, and the brain activity 210.
  • the mood evaluation value 212 displays each index such as relaxation, concentration and stress by a bar graph expressing each index.
  • the data calculation unit 132 may assign a weight indicating importance to each of the indicators of the mood evaluation value, and cause the output unit 130 to display a result obtained by multiplying the weight assigned to the indicator as a mood evaluation value 212. .
  • the difficulty level of the next training is determined by the number of utterances, brain activity and mood evaluation values calculated after the training is completed.
  • the process shown in FIG. 11 determines the difficulty level of the training performed this time before the start of utterance based on the mood evaluation value based on the biological signal measured before the start of utterance and the past mood evaluation value.
  • FIG. 11 is a flowchart showing a process for determining the difficulty level before the start of utterance in the first embodiment.
  • a biological signal is measured before the start of utterance, and a mood evaluation value is calculated. Then, based on the comparison between the calculated mood evaluation value and the past mood evaluation value, the difficulty level of the current exercise state is determined based on the difficulty level of the current mood state and when the training effect is high. Processing to be determined every time is shown.
  • the process shown in FIG. 11 is started.
  • the measurement unit 133 of the biological signal processing unit 102 starts measuring biological signals such as brain waves and heartbeats of the trainee 110 as in Step 531 (551).
  • the output unit 130 does not display the teacher image 201 during steps 551 to 557.
  • step 551 the calculation unit 134 of the biological signal processing unit 102 performs analysis processing such as Fourier transform (FFT) on the biological signal measured before the start of utterance to generate biological data (552).
  • FFT Fourier transform
  • the data calculation unit 132 calculates a mood index based on the measurement value included in the received biological data (553).
  • the mood index calculation method in step 553 is the same as the processing in step 534.
  • the data calculation unit 132 acquires a past mood index stored in the data storage unit 101 (554). In step 554, specifically, the data calculation unit 132 acquires an entry in which the utterance score 305 is equal to or greater than the first threshold value or the brain activity 307 is equal to or greater than the second threshold value. The acquired entry indicates a highly effective training.
  • the data calculation unit 132 selects an entry indicating training that is highly effective from all the trainers 110 including the current trainer 110 and the training information 300 that indicates training by a healthy person (or a language proficient person). You may get it.
  • the data calculation unit 132 determines that the training of the current trainer 110 An entry indicating a highly effective training may be acquired from an entry indicating the past training of the person 110 himself.
  • the data calculation unit 132 can acquire an entry including a mood index when the effect of training is high. Then, by executing the processing after step 555, which will be described later, the trainer 110 is trained in the same training content as that in which the training was performed in a mood state close to the current mood state and the effect was high. Thus, the trainer 110 can be led to a mood state suitable for training.
  • the data calculation unit 132 identifies an entry including the mood index closest to the mood index calculated in step 553 from the acquired entries, and sets the difficulty 303 of the identified entry to the difficulty level of the current training. The degree 303 is determined. And the data calculating part 132 determines the training content of this training according to the determined difficulty 303 (555).
  • the speech training system determines the content of the training based on the mood index calculated by the measurement result before starting the speech, so that the training is performed in a state close to the mood of the trainer 110. Since the content of training with a high effect is determined as this training content, the ability of the trainee 110 can be improved efficiently.
  • step 555 the measurement unit 135 of the brain activity processing unit 103 starts measuring cerebral blood flow (556).
  • steps 502 to 506 are executed (557).
  • step 557 the measurement unit 135 ends the measurement of cerebral blood flow, and the measurement unit 133 of the biological signal processing unit 102 ends the measurement of the biological signal (558).
  • the calculation unit 134 of the biological signal processing unit 102 performs analysis processing such as Fourier transform (FFT) on the biological signal measured before the start of utterance and during or after the utterance to generate biological data (559).
  • analysis processing such as Fourier transform (FFT)
  • FFT Fourier transform
  • the data calculation unit 132 receives the biological data from the biological signal processing unit.
  • the data calculation unit 132 calculates a mood index based on the biological data.
  • the data calculation unit 132 stores the calculated mood index and mood evaluation value in the mood index 308 and the mood evaluation value 309 of the entry indicating the current exercise.
  • the computing unit 136 of the brain activity processing unit 103 generates cerebral blood flow data of the trainer 110 based on the measurement result, and stores the generated cerebral blood flow data in the cerebral blood flow data 306 of the training information 300. (560).
  • step 560 the data calculation unit 132 acquires the cerebral blood flow data 306 and the mood index 308 in the past training from the training information 300 (561).
  • the processing in step 561 corresponds to step 522 shown in FIG. 7 and step 536 shown in FIG.
  • step 561 the data calculation unit 132 determines the ratio of the mood index based on the cerebral blood flow data 306 and the mood index 308 in the past training, and the cerebral blood flow data and the mood index in the current training, and Calculate brain activity. Then, the output unit 130 displays the calculated mood index ratio and brain activity on the result image 206 (562).
  • the processing in step 562 corresponds to step 523 shown in FIG. 7 and step 537 shown in FIG.
  • step 562 the data processing unit 100 ends the process shown in FIG. 11 (563).
  • the difficulty level and the training content of the current training are determined based on the mood index calculated after the end of the previous utterance and the mood index calculated before the start of the current utterance.
  • the data calculation unit 132 may determine the difficulty level and the training content of the current training based on the characteristics of the trainer 110 that are held in advance and the mood index before the start of the current training.
  • the data calculation unit 132 determines in step 555 that It is determined whether the calculated mood evaluation value of stress before the start of the current utterance is equal to or less than a predetermined value. If the stress evaluation value of stress before the start of utterance is equal to or less than a predetermined value, the data calculation unit 132 has a difficulty level that is slightly higher than the highest difficulty level in the training that the trainer 110 has received up to the previous time. May be determined as the difficulty level of the current training, or a difficulty level higher than the difficulty level of the standard training may be determined as the difficulty level of the current training.
  • the data calculation unit 132 may put stress on the trainer 110 and make the trainer 110 feel in a state of high training effect. Then, the speech training system 10 may determine the training difficulty level and the training content so that the trainer 110 changes to a mood state in which the trainer 110 is expected to have the highest training effect.
  • Example 1 can make the trainer 110 perform highly effective training by adjusting the mood state of the trainer 110 by determining the difficulty level of the training in this way.
  • the data calculation unit 132 may change the output method or the output content of the output unit 130 according to the mood index before the start of utterance. For example, when the data calculation unit 132 retains the characteristic of the trainee 110 that the training effect is improved when the trainee 110 is relaxed, the data calculation unit 132 starts the utterance of the current time calculated in step 555. It is determined whether the previous relaxed mood evaluation value is equal to or less than a predetermined value.
  • the data calculation unit 132 slows the display speed of the teacher image 201, outputs a voice or text indicating encouragement, or the like. May be instructed to the output unit 130.
  • the trainer 110 can perform more effective training by changing the content of training according to the mood state of the trainer 110 before the utterance is started.
  • the result image 206 can feed back the result of training to the trainee 110 and allow the trainer 110 to recognize the effect of training.
  • the utterance training system of Example 1 can make the trainee 110 recognize the task of the next training and the like, and can have motivation for the next training, and can enjoy the next training positively and hurt. it can.
  • voices of encouragement or compliment are output according to the number of utterance points, brain activity, and mood index, so that the trainer 110 can continue training horrin.
  • the trainer 110 can receive more appropriate training, and the utterance training system of the first embodiment. Can efficiently improve the ability of the trainee 110 to speak.
  • the utterance training system appropriately follows the mood of the trainer 110 by changing the training content or the training content output method based on the mood index calculated before the start of the utterance. Training can be performed and the effectiveness of training can be improved.
  • Example 2 the utterance training system causes a visitor to observe the state of training and outputs the result of the visit to the trainee 110, thereby increasing the motivation of the trainer 110.
  • FIG. 12 is an explanatory diagram showing the utterance training system 20 according to the second embodiment.
  • the speech training system 20 measures the brain activity and biological signals of a visitor 120 who is a third party other than the trainer 110 and provides the measurement result to the trainer 110.
  • the utterance training system 20 of the second embodiment includes a data processing unit 100, a data storage unit 101, a biological signal processing unit 102, a brain activity processing unit 103, a signal line 119, and a display 104.
  • the headband 108 and the heartbeat measuring electrode 109 of the second embodiment are different from the headband 108 and the heartbeat measuring electrode 109 of the first embodiment in that the visitor 120 wears the headband 108 and the heartbeat measuring electrode 109.
  • the speech training system 20 further includes a headphone 121.
  • the headphone 121 is a device for the visitor 120 to listen to the voice attributed to the trainee 110 such as utterance by the trainee 110.
  • the headphone 121 is connected to the data processing unit 100 through a signal line 122.
  • the data processing unit 100 includes an output unit 130, a training recognition unit 131, and a data calculation unit 132 as in the first embodiment, and further includes a tour output unit 137.
  • the tour output unit 137 is connected to the headphones 121 and outputs the recording data acquired by the training recognition unit 131 using the headphones 121.
  • the data storage unit 101 of the second embodiment has training information 330.
  • the training information 330 has the same items as the training information 300, but the cerebral blood flow data 306, the brain activity 307, the mood index 308, and the mood evaluation value 309 are calculated based on the biological signal and cerebral blood flow data of the visitor 120. Store the value obtained.
  • the visitor 120 listens to the utterance of the trainee 110 or looks at the face of the trainee 110 speaking.
  • the speech training system 20 measures the biological signal and cerebral blood flow of the visitor 120 at this time. This is because the trainer 110 or the operator recognizes the sense or feeling of the visitor 120 with respect to the utterances by the trainer 110, so that the trainer 110 or the operator can learn the training results or tasks of the trainer 110. This is because it can be recognized.
  • the display 104 Before the start of utterance and during the utterance, the display 104 displays the teacher image 201 as in the first embodiment. Further, after the utterance ends, the display 104 displays the result image 206 as in the first embodiment.
  • the result image 206 of Example 2 displays the degree of interest calculated from the biological signal of the visitor 120 and the brain activity calculated from the increase or decrease in the cerebral blood flow of the visitor 120.
  • the trainer 110 can recognize the response of the visitor 120 due to his / her utterance by referring to the result image 206 of the second embodiment.
  • the trainer 110 can recognize the task of the utterance and can receive a high evaluation for the utterance by recognizing the reaction of the visitor 120, and can therefore have the motivation for the next training. .
  • the speech training system according to the second embodiment can provide the trainer 110 with training closer to the state in which the trainer 110 is actually speaking. Can provide some training.
  • the visitor 120 may be close to the trainee 110 to such an extent that the face of the trainee 110 can be seen. In this case, when the utterance by the trainee 110 can be sufficiently heard, the visitor 120 does not have to wear the headphones 121.
  • the visitor 120 may view the recording data or the recording data being trained by the trainer 110 in a room different from the room where the trainer 110 is located.
  • a display for viewing the video recording the training by the trainer 110 may be installed in the room where the visitor 120 is located.
  • FIG. 13 is an explanatory diagram illustrating another configuration of the speech training system 20 according to the second embodiment.
  • the display 123 is connected to the tour output unit 137 of the data processing unit 100 via the network line 124.
  • the tour output unit 137 of the data processing unit 100 transmits the image of the trainee 110 taken by the camera 105 during training to the display 123 and causes the display 123 to display it. Thereby, even if the trainer 110 and the visitor 120 are remote, the trainer 110 can train and the visitor 120 can observe.
  • the speech training system 20 may include a camera (not shown) that photographs the visitor 120, and the data processing unit 100 gives the trainer 110 the facial expression during the training of the visitor 120. It may be displayed.
  • FIG. 14 is a flowchart showing a process of calculating the brain activity according to the second embodiment.
  • the process shown in FIG. 14 shows the process from measuring the cerebral blood flow of the visitor 120 to displaying the brain activity on the result image 206.
  • step 501 the process shown in FIG. 14 is started.
  • step 501 the measurement unit 135 of the brain activity processing unit 103 starts measuring the cerebral blood flow of the visitor 120 (702).
  • steps 502, 503, and 505 shown in FIG. 3 are executed.
  • the trainer 110 speaks in step 504 and the speech by the trainer 110 ends (703)
  • the measurement unit of the brain activity processing unit 103 135 finishes the measurement of the cerebral blood flow of the visitor 120 (704).
  • the measurement unit 135 of the brain activity processing unit 103 may end the measurement of the cerebral blood flow when notified by the data processing unit 100 that the utterance by the trainee 110 has ended, or may be terminated by the trainer 110. When the instruction is input, the measurement of cerebral blood flow may be terminated.
  • the calculation unit 136 of the brain activity processing unit 103 After step 704, the calculation unit 136 of the brain activity processing unit 103 generates cerebral blood flow data based on the measurement result of the visitor 120 as in step 521. Then, the calculation unit 136 stores the generated cerebral blood flow data in the cerebral blood flow data 306 of the entry indicating the current training in the data storage unit 101 (521). In step 521, the brain activity processing unit 103 transmits the generated cerebral blood flow data to the data processing unit 100.
  • Steps 706 and 707 are the same as steps 522 and 523. After step 707, the process shown in FIG.
  • FIG. 15 is a flowchart illustrating a process for calculating the interest level of the visitor 120 according to the second embodiment.
  • the process shown in FIG. 15 shows the process until the interest level is displayed on the result image 206 after the biological signal of the visitor 120 is measured.
  • step 501 the process shown in FIG. 14 is started.
  • the measurement unit 133 of the biological signal processing unit 102 starts measuring the biological signal of the visitor 120 (710).
  • Steps 502, 503, and 505 shown in FIG. 3 are executed.
  • the measurement unit of the biological signal processing unit 102 133 finishes the measurement of the biological signal of the visitor 120 (712).
  • the measurement unit 133 of the biological signal processing unit 102 When the measurement unit 133 of the biological signal processing unit 102 is notified from the data processing unit 100 that the utterance by the trainee 110 has been completed, the measurement unit 133 may end the measurement of the biological signal. When is input, the measurement of the biological signal may be terminated.
  • the calculation unit 134 of the biological signal processing unit 102 After step 712, the calculation unit 134 of the biological signal processing unit 102 generates biological data by performing analysis processing such as Fourier transform (FFT) on the brain wave or heart rate included in the measured biological signal, as in step 534. (713). The calculation unit 134 transmits the generated biological data to the data calculation unit 132.
  • FFT Fourier transform
  • the data calculation unit 132 calculates a mood index and a mood evaluation value based on the transmitted biological data, as in step 535 (714).
  • the method for calculating the mood index and the mood evaluation value is the same as the method shown in step 535 shown in FIG.
  • step 714 the data calculation unit 132 stores the calculated mood index in the mood index 308 and the mood evaluation value 309 of the entry indicating the current training in the data storage unit 101.
  • Steps 715 and 716 are the same as steps 536 and 537 shown in FIG. However, in step 716, the output unit 130 displays the calculated mood index ratio on the result image 206 as an interest level.
  • step 716 the process shown in FIG.
  • the brain blood flow or biological signal of the visitor 120 when the utterance of the trainee 110 is heard is measured, and the response of the visitor 120 to the utterance of the trainer 110 is fed back to the trainer 110.
  • the trainer 110 can be motivated.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • each of the above-described configurations, functions, processing units, processing procedures, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by the processor interpreting and executing a program that realizes each function.
  • Information such as programs, tables, and files for realizing each function can be stored in a recording device such as a memory, a hard disk, or an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or a DVD.
  • control lines or information lines indicate what is considered necessary for the explanation, and not all control lines or information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.

Abstract

 ユーザに発話を訓練させる訓練システムであって、前記ユーザを訓練するため、前記発話の手本となる訓練内容を出力する教師出力部と、前記ユーザによる発話の音声を録音する音声認識部と、前記ユーザの口の動きを撮影するカメラ部と、前記ユーザの脳血流を測定する脳血流測定部と、前記ユーザの生体信号を測定する生体信号測定部と、前記訓練内容と、前記録音された音声及び前記撮影された口の動きの画像とに基づいて、前記発話の上手さを示す発話点数を算出する演算部と、を有し、前記演算部は、前記測定された脳血流に基づいて、前記ユーザの脳が働く程度を示す脳活性度を算出し、前記測定された生体信号に基づいて、前記訓練によって受ける前記ユーザの生体信号の変化を示す気分指数を算出し、前記算出した発話点数、脳活性度及び気分指数を表示するためのデータを生成する。

Description

訓練システム
 本発明は、訓練システムに関する。
 失語症患者の発話訓練、又は、言語学習などでは、模範発話者と訓練発話者との口の動き、又は、音声の周波数など音響的特徴量を比較し、上達度を評価する方法が提案されている。
 従来技術には、訓練者の口の動きを撮影し、撮影された口の動きと手本との差異を定量的に評価し、評価結果と手本映像とを表示し、さらに、評価結果に応じて表示内容を決定する言語訓練装置が提案されている。この従来技術には、模範者と訓練者との音声の特徴量の差異を比較する装置も提案されている。
 また、従来技術には、模範音声を出力し、模範音声データと学習者データとの一致度に基づいて(発話)点数を算出し、算出した点数を表示させる語学学習装置が提案されている。
 このように模範音声データと学習者データとを比較し、点数を表示する従来技術には、カラオケ装置がある。従来、歌の模範音声と訓練者音声とのリズム差分、音高差分、及び、音量差分を算出し、算出した差分に基づいて採点するカラオケ装置が提案されている。
 さらに、訓練する際には、適度にリラックスした良い精神状態で訓練することが重要である。このため、従来、カラオケ歌唱者の脈波から緊張度(リラックス度)を測定し、測定した緊張度を実時間で表示し、カラオケ歌唱者自身がストレスの程度などのメンタル状態を間接的に把握することができるカラオケシステムが提案されている。
 さらに、従来技術には、発話評価をバーグラフで表示し、脳波を測定し、発音を補正する言語療法ロボットが提案されている。また、生体情報(脳波)を取得してリラックス度を算出し、リラックス状態で訓練する装置及び方法が提案されている。さらに、心拍を測定し、心拍数に対応するトレーニング用画像を制御表示するトレーニング装置が提案されている。
 発話又は運動などの人間の動きは、脳によってコントロールされており、動きを覚えるということは、脳が動きをコントロールする方法を覚えるということである。従って、動きが熟練するに従って、人間の脳の活動が変化し最適化されていく。ここで、脳の活動を測定する方法の一つには、活動している部位に集まる血液の量を測定する方法がある。
 そして、光トポグラフィ(登録商標、以下同じ)という光によって脳血流の増減を測定する装置を用いて訓練者の脳の活動を測定しながら、訓練者の運動機能をリハビリし、最適なトレーニングメニューを提示する訓練支援装置が提案されている(例えば、特許文献1参照)。また、MRI(Magnetic Resonance Imaging)装置を使って訓練者の脳の活動をモニタしながら、訓練者にトレーニングをさせ、脳活動に応じてトレーニングメニューを提示するシステムが提案されている。
 発話など言語機能の訓練と脳活動との関係を調べる技術が提案されている。具体的には、脳卒中後の失語症患者の脳活動を光トポグラフィによって測定しながら、失語症患者に言語リハビリを行い、失語症患者の回復過程を調べた研究が開示されている。この研究により、言語機能の回復に伴い、左側頭にある言語野付近の活動量が上がる(正常に改善する)ことが分かっている。
 別の研究において、英語の課題に取り組む学習者の、言語野の脳血流増加量を、光トポグラフィを使って調べたところ、英語初級者から中級者になるにつれ脳血流増加量が増加し、中級者から上級者になると脳血流増加量が減少することが得られている。これは、初級から中級にかけて機能向上に伴い血流が増加するが、上級者は無意識、かつ、自動的に課題を解決できるようになるため、かえって脳の活動は下がるためと考えられる。
特開2004-294593号公報
 従来の発話訓練装置は、訓練者の発話の機能、脳活動及び精神状態を複合的に考慮して、発話の機能に特化した訓練を行うものではない。
 本発明の目的は、失語症患者などの訓練中の脳波、心拍又はホルモンなど生体情報測定により得られたメンタル情報及びフィジカル情報、脳活動、及び訓練の結果を用い、脳科学的、並びに、心理学的及び生理学的方法によって訓練の効果を確認しながら、能力を効果的に向上できる発話訓練システムを提供することである。
 本発明の代表的な一形態によると、ユーザに発話を訓練させる訓練システムであって、前記ユーザを訓練するため、前記発話の手本となる訓練内容を出力する教師出力部と、前記ユーザによる発話の音声を録音する音声認識部と、前記ユーザの口の動きを撮影するカメラ部と、前記ユーザの脳血流を測定する脳血流測定部と、前記ユーザの生体信号を測定する生体信号測定部と、前記訓練内容と、前記録音された音声及び前記撮影された口の動きの画像とに基づいて、前記発話の上手さを示す発話点数を算出する演算部と、を有し、前記演算部は、前記測定された脳血流に基づいて、前記ユーザの脳が働く程度を示す脳活性度を算出し、前記測定された生体信号に基づいて、前記訓練によって受ける前記ユーザの生体信号の変化を示す気分指数を算出し、前記算出した発話点数、脳活性度及び気分指数を表示するためのデータを生成する。
 本発明の一実施形態によると、効果的な発話訓練を行うことが可能になる。
 上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
実施例1の発話訓練システムを示すブロック図である。 実施例1の訓練情報を示す説明図である。 実施例1の発話訓練システムの処理を示すフローチャートである。 実施例1の訓練の開始時に表示される教師画像を示す説明図である。 実施例1の訓練が開始した後、訓練者が発話する前における教師画像を示す説明図である。 実施例1の訓練者が発話を始めた時の教師画像を示す説明図である。 実施例1の訓練者による発話が終了した際に表示される結果画像を示す説明図である。 実施例1の教師画像の他の例を示す説明図である。 実施例1の脳活性度を算出し、次回の訓練の難易度を決定する処理を示すフローチャートである。 実施例1の気分指数を算出し、次回の訓練の難易度を決定する処理を示すフローチャートである。 実施例1の評価情報を示す説明図である。 実施例1の結果画像の他の例を示す説明図である。 実施例1の発話開始前に難易度を決定する処理を示すフローチャートである。 実施例2の発話訓練システムを示す説明図である。 実施例2の発話訓練システムの他の構成を示す説明図である。 実施例2の脳活性度を算出する処理を示すフローチャートである。 実施例2の見学者の興味度を算出する処理を示すフローチャートである。
 発明の実施の形態について図面を参照しながら以下に説明する。
 本発明は、失語症患者又は言語学習者等の訓練者の血流を測定した結果、並びに、脳波、心拍及びホルモンなどの生体情報を測定した結果により得られたメンタル情報及びフィジカル情報に基づいて、訓練者に提供するコンテンツを変化させることによって、訓練者が、訓練の効果を確認しながら、効果的かつゲーム感覚で楽しみながら行える訓練を、訓練者に提供する発話訓練システムに関する。
 図1は、実施例1の発話訓練システム10を示すブロック図である。
 実施例1の発話訓練システム10は、教師画像201及び音声を訓練者110に提供することによって、訓練者110に発話を訓練させるシステムである。実施例1の発話訓練システム10は、データ処理部100、データ記憶部101、生体信号処理部102、脳活動処理部103、信号線119、ディスプレイ104、信号線113、カメラ105、信号線114、スピーカ106、信号線115、マイク107、ヘッドバンド108、心拍測定用電極109、光ファイバ116、信号線117、及び、信号線118を含む。
 訓練者110は、実施例1の発話訓練システム10により、発話能力を訓練される者である。なお、訓練者110の代わりに健常者が、発話訓練システム10を用いて、訓練してもよい。
 データ処理部100は、出力部130、訓練認識部131及びデータ演算部132を有する。また、データ処理部100は、訓練者110等の指示を受け付ける入力部と接続されてもよい。出力部130は、訓練における発話の手本となる訓練内容、例えば、音声及び教師画像201を訓練者110に提供する。
 訓練認識部131は、訓練者110の訓練の状況を、例えば音声又は画像等を取得することにより認識する。データ演算部132は、訓練によって取得された音声、画像、生体信号又は脳活動のデータを解析する。
 データ記憶部101は、データ又はプログラムを格納する記憶装置である。データ記憶部101は、評価情報320及び訓練情報300を有する。
 訓練情報300は、多数の健常者による訓練に関するデータ、及び、多数の過去の訓練者110による訓練に関するデータ、並びに、一人の訓練者110による過去の訓練に関するデータを保持する。
 評価情報320は、生体信号処理部102の測定部133によって測定された結果に基づいて訓練者の気分状態を評価するための、指標を示す。
 生体信号処理部102は、測定部133及び演算部134を有する。測定部133は、訓練者110の生体信号を、ヘッドバンド108又は心拍測定用電極109を用いて測定する。演算部134は、測定の結果得られた生体信号から生体データを生成することにより、後述する気分指数を算出するためのデータを生成する。
 脳活動処理部103は、測定部135及び演算部136を有する。測定部135は、訓練者110の脳活動(脳血流の増減)を、ヘッドバンド108を用いて測定する。演算部136は、測定された結果から脳血流データを生成することにより、測定結果から後述する脳活性度を算出するためのデータを生成する。
 図1に示すデータ処理部100、生体信号処理部102及び脳活動処理部103は、各々がプロセッサを少なくとも有する演算装置である。しかし、実施例1の発話訓練システム10は、各々の処理部の機能に相当するプログラムを保持し、プロセッサがプログラムを実行することによって、各処理部に相当する機能を実装してもよい。
 データ処理部100、データ記憶部101、生体信号処理部102、及び、脳活動処理部103は、信号線119によって相互に接続され、データを相互に送受信する。
 データ処理部100の出力部130は、信号線112を介してディスプレイ104と通信し、信号線114を介してスピーカ106と通信する。また、訓練認識部131は、信号線113を介してカメラ105と通信し、信号線115を介してマイク107と通信する。
 出力部130は、ディスプレイ104及びスピーカ106を用いて、画像及び音声を訓練者110に提供する。そして、訓練認識部131は、カメラ105及びマイク107を用いて、訓練者110が発する音声(発話を含む)を録音したり、訓練者110を撮影したりする。
 生体信号処理部102の測定部133は、信号線117を介して心拍測定用電極109と通信する。心拍測定用電極109は、訓練者110の心拍を測定する。また、生体信号処理部102の測定部133は、ヘッドバンド108に組み込まれる脳波電極と、信号線118を介して通信する。ヘッドバンド108は、訓練者110の頭部に装着される。
 また、生体信号処理部102の測定部133は、唾液中のストレスホルモン濃度を、生体信号として取得してもよい。この場合、生体信号処理部102は、唾液中のストレスホルモン濃度を測定する小型分析装置と接続する。この小型分析装置は、訓練者110の唾液が塗られたチップを受け付け、チップに塗られた唾液中のストレスホルモン濃度を測定する装置である。
 訓練者110は、発話開始前及び発話終了後にチップを咥え、唾液をチップに塗り、小型分析装置にチップを挿入する。小型分析装置は、チップが挿入された場合、チップに塗られた唾液中のストレスホルモン濃度を測定する。
 なお、生体信号処理部102の測定部133は、心拍、脳波及びストレスホルモン濃度の少なくとも一つを測定してもよく、三つすべてを測定してもよい。
 生体信号処理部102の演算部134は、ヘッドバンド108に備わる脳波電極によって測定された生体信号、又は、心拍測定用電極109によって測定された生体信号を生体データに変換する。そして、演算部134は、生体データをデータ処理部100に送信する。なお、演算部134は、生体データをデータ記憶部101に格納し、データ処理部100のデータ演算部132は、データ記憶部101の生体データを取得してもよい。
 データ処理部100のデータ演算部132は、取得した生体データに基づいて気分指数を算出する。そして、データ演算部132は、算出した気分指数を、データ記憶部101に格納する。
 ヘッドバンド108は、脳血流を測定するための装置を備える。脳血流を測定するための装置には、例えば、光トポグラフィの光入射部及び光検出部がある。光入射部及び光検出部は、光ファイバ116を介して脳活動処理部103の測定部135と接続される。
 光トポグラフィは、微弱な近赤外光を頭皮に照射し、反射光を検出するシステムである。脳が活動して血流が増えた場合、光が吸収されて反射光が減るため、光トポグラフィは、光の入射及び検出によって、脳の血流の増減を測定する。実施例1における脳活動処理部103の測定部135は、光トポグラフィにおける制御部である。
 なお、ヘッドバンド108は、脳の血流の増減を測定する装置であれば、光トポグラフィ以外のいかなる技術の装置を備えてもよい。
 訓練者110は、発話開始前、及び発話中に、データ処理部100の出力部130によってディスプレイ104に表示される教師画像201を見て、出力部130によってスピーカ106から出力される教師音声を聞く。そして、訓練者110は、手本となる発話の際の口の動きと、教師音声とを真似するように発話することによって、発話を訓練する。
 教師画像201は、言語の手本となる発話の際の口の動きを表示する。また、教師画像201は、教師音声の基本周波数の変化(抑揚変化)を表示する。
 教師画像201は、実際に発話している健常者などの人間を、撮影した画像でもよいし、コンピュータグラフィック又はアニメーションでもよい。マイク107は、発話した訓練者110の音声を録音し、カメラ105は、発話中の訓練者110の口の動きを撮影する。
 データ処理部100の訓練認識部131は、マイク107によって取得された録音データ及びカメラ105によって撮影された録画データを収集する。そして、データ演算部132は、収集した録音データ及び録画データに基づいて、訓練者110の発話の上手さを示す発話点数を算出する。そして、データ演算部132は、算出した発話点数をデータ記憶部101に格納する。
 脳活動処理部103の測定部135は、光ファイバ116を介してヘッドバンド108に、入射光を送信する。そして、ヘッドバンド108に備わる光入射部は、受信した入射光を頭皮に照射する。
 そして、ヘッドバンド108に備わる光検出部は、照射された入射光の反射光を検出し、光ファイバ116を経由して測定部135に、検出した反射光を送信する。測定部135は、ヘッドバンド108に送信した入射光と、ヘッドバンド108から受信した反射光との差に基づいて、脳の血流の増減を示す脳血流データを算出する。
 前述において、脳活動処理部103の測定部135が入射光の光源である。しかし、実施例1の測定部135は、ヘッドバンド108に光の入射及び検出を指示するのみでもよい。この場合、ヘッドバンド108が光源と光検出部とを備え、ヘッドバンド108と測定部135とが電気的な信号を送受信する信号線によって接続されてもよい。
 脳活動処理部103は、算出した脳血流データを、データ処理部100に送る。データ演算部132は、受信した脳血流データに基づいて、脳活性度を算出する。そして、データ演算部132は、算出した脳活性度をデータ記憶部101に格納する。
 図2は、実施例1の訓練情報300を示す説明図である。
 訓練情報300は、条件301、日付304、発話点数305、脳血流データ306、脳活性度307、気分指数308、及び、気分評価値309を含む。訓練情報300は、実施例1の発話訓練システム10による訓練の結果を示す。発話訓練システム10は、訓練者110、及び、手本となる発話が可能な人間(例えば、健常者)に、訓練を行う。そして、発話訓練システム10は、訓練の結果を取得する。
 条件301は、訓練の条件を示す。条件301は、訓練者情報302、及び、難易度303を含む。
 訓練者情報302は、実施例1の発話訓練システム10により訓練を受けた者を一意に示す情報を含む。訓練者情報302は、例えば、訓練者110の識別子、性別、年齢又は年代、若しくは、疾病の内容等を含む。また、訓練を受けた者に健常者が含まれる場合、訓練者情報302は、健常者であるか訓練者110であるかを示してもよい。
 難易度303は、訓練の内容の難易度を示す。条件301は、訓練の内容を示す識別子を含んでもよい。
 日付304は、訓練が行われた日を示す。日付304は、時刻を示してもよい。
 発話点数305は、発話の上手さを示す点数を示す。以下に示す実施例において、発話点数は、話しの上手さを示す点数及び発音の上手さを示す点数を含む。
 脳血流データ306は、訓練による脳血流の変化を示す。例えば、脳血流データ306は、発話開始前において測定された脳血流と発話終了後において測定された脳血流との差、又は、発話開始前の脳血流と訓練中の脳血流との差を示す。
 脳活性度307は、脳血流データから算出された脳血流の増加量と、過去の所定のデータの脳血流の増加量との比率を示す。
 気分指数308は、生体信号から算出された気分指数と、過去の所定のデータの気分指数との比率を示す。
 気分評価値309は、生体信号に基づいて算出された、リラックス、緊張、集中度、及び、ストレス等の気分の程度である。気分指数308は、気分評価値309に基づいて算出されてもよい。
 図3は、実施例1の発話訓練システム10の処理を示すフローチャートである。
 図3は、データ処理部100の出力部130が教師画像201を表示してから、訓練の評価を示す結果画像206を表示するまでの発話評価処理を示す。また、図3は、話しの上手さを示す点数、及び、発音の上手さを示す点数の算出方法の例を示す。図3に示す処理と並行して、図8又は図11の処理が実行されてもよい。
 訓練者110がディスプレイ104、マイク107、スピーカ106及びカメラ105が設置される発話訓練システム10の前に座り、ヘッドバンド108を装着し、心拍測定用電極109を装着した後、発話訓練システム10は、図3に示す処理を開始する(501)。
 訓練者110又はオペレータは、ステップ501において、訓練の条件をデータ処理部100に入力する。なお、実施例1のオペレータは、発話訓練システム10を操作する者であり、訓練者110と異なる。
 訓練者110又はオペレータは、訓練の条件として、訓練者110の識別子等の訓練者情報、及び、訓練の難易度又は訓練の内容を入力する。データ演算部132は、入力部に入力された訓練の条件と、入力された日付とを、訓練情報300の条件301及び日付304に格納する。以下において、ステップ501において訓練の条件が格納された訓練情報300のエントリを、今回の訓練を示すエントリと記載する。
 ステップ501において、データ処理部100の出力部130は、教師画像201を表示する前、又は表示している間、訓練者110がリラックスするような、又は、モチベーションが上がるような映像又は音楽を、訓練者110に提供してもよい。
 ステップ501の後、データ処理部100の出力部130は、訓練者110が発話する単語又は文章を十分に認識できる程度の所定の時間、ディスプレイ104に教師画像201を表示する。教師画像201には、例えば、教師音声の抑揚の波形、発話する単語もしくは文章、又は、発音記号が表示される(502)。
 ステップ502の後、データ処理部100の出力部130は、教師画像201及び教師音声の出力を開始し、教師音声の出力の過程を教師画像201において強調して表示する(503)。出力部130は、ステップ503以降、複数の教師画像201を連続して表示することによって、訓練者110に、手本となる口の動き、及び、抑揚の変化を表示する。
 ステップ503の後、訓練者110は、訓練における発話を開始する(504)。訓練者110は、教師画像201及び教師音声を真似て発話し、教師音声の出力の過程に従って発話する。
 データ処理部100の訓練認識部131は、所定の大きさ以上の音声をマイク107が検出した場合、訓練者110による発話が開始したと判定してもよい。また、訓練者110又はオペレータが発話の開始の指示を、入力部に入力した場合、訓練認識部131は、訓練者110による発話が開始したと判定してよい。
 教師音声の出力の過程を強調表示する方法には、例えば、教師音声が出力された文字を大きくしたり、太字にしたりする方法、又は、抑揚波形において教師音声が出力された部分をカーソルで示したりする方法がある。出力部130は、発話の過程を強調表示することによって、訓練者110が教師音声を真似しやすくする。
 訓練認識部131は、訓練者110が発話した音声をマイク107によって録音し、発話中の訓練者110をカメラ105によって撮影する。そして、データ演算部132は、録音データを解析し、訓練者110による発話の抑揚波形を生成する。そして、データ演算部132は、生成した抑揚波形を、出力部130を介してディスプレイ104に表示する(505)。
 ここで、出力部130は、生成された抑揚波形を、訓練者110が発話した後に表示してもよいし、訓練者110が発話したタイミングの直後に表示してもよい。
 訓練者110による発話が終了した後(506)、データ演算部132は、ステップ507、ステップ508及びステップ509を実行する。訓練認識部131は、所定の時間マイク107が所定の大きさ以上の音声を検出しない場合、訓練者110の発話が終了したと判定してもよいし、訓練者110又はオペレータから、発話の終了の指示を入力された場合、訓練者110による発話が終了したと判定してもよい。
 ステップ506の後、データ演算部132は、教師音声の抑揚波形(基本周波数(ピッチ))と訓練者110の抑揚波形とを比較するため、教師音声の平均ピッチと訓練者110の平均ピッチとが同程度(所定の範囲内)になるように、教師音声の抑揚波形と訓練者110の抑揚波形とを規格化する(507)。これは、教師音声の声の高さと訓練者110の声の高さとが異なるために行われる。
 ステップ507の後、データ演算部132は、規格化後の教師音声の抑揚波形と訓練者110の抑揚波形との差の大きさを算出する(510)。ステップ510の後、データ演算部132は、算出した差の大きさに従って、訓練者110の話しの上手さを示す点数を決定する(513)。
 ここで、データ演算部132は、話しの上手さを示す点数を、差の大きさが小さいほど高い数字に決定する。例えば、データ演算部132は、差の大きさが0であるか、又は、十分に小さいとあらかじめ定められた大きさである場合、話しの上手さを示す点数を、最高点である100点に決定する。
 さらに、データ演算部132は、ステップ508及びステップ511を実行することによって、録音データに基づく発話の一致率を算出し、ステップ509及びステップ512を実行することによって、録画データに基づく発話の一致率を算出する。データ演算部132は、録音データ及び録画データの少なくとも一つを用いて発話の一致率を算出してもよい。
 データ演算部132は、訓練者110が発話した音声の録音データを、音声として認識することによって解析し、解析の結果、訓練者110によって発話された内容をテキスト化する(508)。これは、例えば、文字を発話した時の一般的な周波数としてあらかじめ保持するデータと、訓練者110の抑揚波形とを比較することによって、データ演算部132は、発話された内容をテキスト化する。
 ステップ508の後、データ演算部132は、教師音声のテキストに含まれる文字と、訓練者110による発話を示すテキストに含まれる文字とを比較し、比較の結果、異なる文字の数を算出する。そして、データ演算部132は、算出した異なる文字の数を、教師音声のテキストに含まれる文字の数によって除算することによって、教師音声と訓練者110による発話との一致率を算出する(511)。
 ステップ511の後、データ演算部132は、ステップ511において算出した一致率に基づいて、発音の上手さを示す点数を決定する(514)。後述するステップ512が実行されない場合、データ演算部132は、ステップ511において算出した一致率を、発音の上手さを示す点数に決定してもよい。
 また、データ演算部132は、訓練者110の口の動きを録画した録画データを複数の画像として認識し、訓練者110の口の形を連続して取得することによって、訓練者110の発話をテキスト化する(509)。ここで、データ演算部132は、例えば、母音を発話している際の一般的な口の形を保持し、録画データの訓練者110の口の形から、訓練者110が発話している文字の母音を取得してもよい。そして、データ演算部132は、訓練者110による発話の母音のみのテキストを生成してもよい。
 ステップ509の後、データ演算部132は、ステップ509において生成されたテキストと教師音声のテキストとを比較し、異なる文字数を算出する。そして、データ演算部132は、訓練者110による発話と教師音声との一致率を算出する(512)。異なる文字数から一致率を算出する方法は、ステップ511と同じでもよい。
 訓練者110による発話の母音のみのテキストを生成した場合、データ演算部132は、教師音声のテキストの母音と、訓練者110による発話の母音のみのテキストを比較し、異なる文字数を算出する。
 ステップ512の後、データ演算部132は、ステップ514を実行し、ステップ512において算出した一致率に基づいて、発音の上手さを示す点数を決定する(514)。ステップ511が実行されない場合、データ演算部132は、ステップ514において算出した一致率を、発音の上手さを示す点数に決定してもよい。
 ステップ511において発話の一致率が算出される場合、データ演算部132は、ステップ511において算出された発話の一致率と、ステップ514において算出した発話の一致率の合計を2で割った結果を、発音の上手さを示す点数に決定してもよい。また、データ演算部132は、録音データに基づく一致率及び録画データに基づく一致率の各々に、重みを割り当て、重みと一致率とを乗算した結果の合計値を、発音の上手さの点数に決定してもよい。
 ステップ513及びステップ514の後、データ演算部132は、ステップ513において決定された話しの上手さを示す点数と、ステップ514において決定された発音の上手さを示す点数とを表示する画面データを生成し、出力部130及びディスプレイ104に、生成した画面データを表示させる。これによって、訓練の結果が訓練者110に提供される(515)。
 ステップ515において、データ演算部132は、ステップ513において決定した話しの上手さを示す点数と、ステップ514において決定した発音の上手さの点数とを、データ記憶部101の今回の訓練を示すエントリの発話点数305に格納する。
 ここで、データ演算部132は、訓練者110の前回の訓練における発話点数と今回の訓練における発話点数との差、又は、過去の複数回の訓練における発話点数の推移を算出し、算出した結果を、ディスプレイ104に表示させてもよい。過去の訓練における発話点数に基づいて発話点数を表示する場合、データ演算部132は、訓練者情報302と、日付304とに基づいて、過去の訓練における訓練情報300のエントリを取得する。
 ステップ515の後、データ処理部100は、図3に示す処理を終了する(516)。
 図4A~図4Cは、実施例1の訓練中に表示される教師画像201を示す説明図である。
 図4Aは、実施例1の訓練の開始時に表示される教師画像201aを示す説明図である。図4Aに示す教師画像201aは、図3に示すステップ502において表示される。
 教師画像201は、口の形202、テキスト203及び抑揚波形204を含む。口の形202は、教師音声を発話するための人間の口の形を示す。複数の教師画像201が連続して表示されることによって、訓練者110は、発話の口の動きを認識する。
 テキスト203は、教師音声の単語又は文章等のテキストを示す。抑揚波形204は、教師音声の基本周波数(ピッチ)の波形を示す。
 図4Bは、実施例1の訓練が開始した後、訓練者110が発話する前における教師画像201bを示す説明図である。図4Bに示す教師画像201bは、図3に示すステップ503において表示される。
 教師画像201bは、教師音声が出力され始めたときの画像である。このため、教師画像201bの口の形202は開いた口を示す。教師画像201bのテキスト203は、出力済みの教師音声の文字を大きく強調して表示する。教師画像201bの抑揚波形204は、出力直後の教師音声に対応する抑揚波形の部分にカーソルを表示することによって、出力された教師音声を強調する。
 図4Cは、実施例1の訓練者110が発話を始めた時の教師画像201cを示す説明図である。図4Cは、図3に示すステップ505において表示される。
 教師画像201cは、訓練者110が発話を開始した後の画像である。このため、教師画像201cは、口の形202、テキスト203及び抑揚波形204の他に、訓練者抑揚波形205を含む。
 訓練者抑揚波形205は、訓練者110の発話を録音した録音データに基づいて、データ演算部132が生成した抑揚波形を表示する。訓練者抑揚波形205は、訓練者110による発話した時点から、ほぼリアルタイムに表示されることが想定される。
 図5は、実施例1の訓練者110による発話が終了した際に表示される結果画像206を示す説明図である。
 図5は、図3に示すステップ515において表示される。結果画像206は、評価207、お話し上手208、発音上手209、脳活性度210及び気分指数211を含む。
 お話し上手208は、図3に示すステップ513において決定された話しの上手さを示す点数を表示する領域である。発音上手209は、ステップ514において決定された発音の上手さを示す点数を表示する領域である。
 脳活性度210は、脳活動処理部103の測定部135による測定結果に基づいて算出された脳活性度を、例えば、バーグラフなどの表示形式によって示す。気分指数211は、生体信号処理部102の測定部133による測定結果に基づいて算出された気分指数を、例えば、バーグラフなどの表示形式によって示す。
 評価207は、お話し上手208、発音上手209、脳活性度210及び気分指数211の少なくとも一つに従って定められた画像を表示することによって、訓練結果の評価を直感的に理解できる画像を表示する。例えば、お話し上手208に表示される点数が所定の値より大きい場合、データ演算部132は、評価207として笑顔の人間の画像を、ディスプレイ104に表示させる。
 なお、データ演算部132は、結果画像206を表示する際に、お話し上手208、発音上手209、脳活性度210及び気分指数211(すなわち、発話点数、脳活性度及び気分指数)の少なくとも一つに従って、励まし又は褒める音声又はテキストを定め、出力部130は、定められた音声又はテキストを出力してもよい。また、出力部130は、結果画像206に表示される評価207の人物の表情を、定められた音声又はテキストの内容に合わせて変化させてもよい。
 図6は、実施例1の教師画像201bの他の例を示す説明図である。
 教師音声が複数のフレーズを含む文章を発話した音声である場合、出力部130は、ステップ503において図6に示す教師画像201bを表示してもよい。図6に示すテキスト203及び抑揚波形204は、フレーズとフレーズとの間に、所定の長さの空白又は所定の長さの記号を表示する。
 発話する文章の中に複数のフレーズが含まれる場合、訓練者110がフレーズとフレーズとの間に無音の「間」を適切に入れて発話したほうが、聞き手は、訓練者110の発話が上手いと感じる。このため、出力部130は、テキスト203及び抑揚波形204に、「間」の位置及び長さを示す空白又は記号を表示することによって、発話において「間」を入れるタイミング、及び、「間」の長さを訓練者110に直感的に認識させることができる。
 実施例1の発話訓練システムは、図4A~図4C及び図6に示す教師画像201を訓練者110に提供することによって、手本となる発話における口の動き、又は、抑揚を明確に認識できる。そして、これによって訓練の効果をあげることができる。
 さらに、訓練者110は、教師画像201から、訓練者110自らの抑揚を容易に認識できる。このため、訓練者110は、手本の抑揚と自分の抑揚とを比較しながら訓練でき、発話方法を容易に修正できる結果、訓練の効果が上がる。
 また、実施例1の発話訓練システムは、図5に示す結果画像206によって、訓練の結果を訓練者110にフィードバックし、訓練者110に訓練による効果を認識させることができる。このため、実施例1の発話訓練システムは、訓練者110に次の訓練へのモチベーションを持たせることができる。
 実施例1の脳活性度は、脳科学的な方法により測定結果を解析した結果、得られた訓練の効果を示し、実施例1の気分指数は、心理的な解析方法及び生理学的な方法により解析した結果、得られた訓練の効果を示す。
 図7は、実施例1の脳活性度を算出し、次回の訓練の難易度を決定する処理を示すフローチャートである。
 図7に示す処理は、発話点数及び脳活性度のみに基づいて、次回の訓練の難易度を決定する処理を示す。発話点数、脳活性度及び気分指数に基づいて、次回の訓練の難易度を決定する処理は、図8に示す。
 図3に示すステップ501において訓練が開始した場合、図7に示す処理が開始される。ステップ501の後、脳活動処理部103の測定部135は、訓練者110の脳血流の測定を開始する(518)。
 ここで、出力部130は、ステップ518において、脳血流が十分に測定される所定の時間が経過した後に、図3に示すステップ502を実行してもよい。これは、出力部130が、脳活動処理部103の測定部135に、発話開始前のリラックスした状態における訓練者110の脳血流を測定させるためである。
 また、ここで出力部130は、ステップ518が実行される間、訓練者110がリラックスするような、又は、訓練者110のモチベーションが上がるような映像又は音楽を、訓練者110に提供してもよい。
 図3に示すステップ502、503及び505が実行され、ステップ504において訓練者110が発話し、訓練者110による発話が終了した場合(519)、脳活動処理部103の測定部135は、脳血流の測定を終了する(520)。測定部135は、訓練者110による発話が終了したことをデータ処理部100から通知された場合、脳血流の測定を終了してもよいし、訓練者110によって終了の指示が入力された場合、脳血流の測定を終了してもよい。
 ステップ520の後、脳活動処理部103の演算部136は、測定結果に基づいて脳血流データを生成する。演算部136は、例えば、発話開始から発話終了までの脳血流の増加量又は減少量(以下、変化量)を算出し、算出した変化量を示す脳血流データ(今回の訓練の脳血流データ)を生成する。
 そして、演算部136は、データ記憶部101の訓練情報300の、今回の訓練を示すエントリの脳血流データ306に、生成した脳血流データを格納する(521)。また、ステップ521において、演算部136は、生成した脳血流データをデータ処理部100に送信する。
 ステップ521の後、データ演算部132は、過去の訓練における脳血流データを、データ記憶部101の脳血流データ306から取得する(522)。具体的には、データ演算部132は、日付304が過去の日付を示すエントリから脳血流データを取得する。
 ここで、例えば、データ演算部132は、今回の訓練を示すエントリにおける訓練者情報302が示す性別及び年代、並びに、難易度303が示す難易度と少なくとも一つが同じ条件301のエントリを、対応する条件におけるエントリとして特定し、特定したエントリから脳血流データ306を取得してもよい。
 これにより、データ演算部132は、今回の訓練と同じような条件の過去の訓練における脳血流データに基づいて脳活性度を算出でき、訓練者110の条件において求められる理想的な脳血流の変化量と、訓練者110の脳血流の変化量とに基づいて、脳活性度を算出することができる。そして、訓練者110の条件に従った脳活性度を算出できる。
 また、条件301に健常者若しくは言語熟達者、又は、患者若しくは言語未熟者等を示す識別子が含まれる場合、データ演算部132は、条件301に健常者又は言語熟達者を示す識別子が含まれる訓練情報300のエントリを特定し、特定したエントリから脳血流データ306を取得してもよい。
 健常者による訓練における脳血流データを取得することによって、データ演算部132は、発話において理想的な脳血流の変化量を取得できる。そして、データ演算部132は、より正確に脳活性度を算出することができる。
 ステップ522の後、データ演算部132は、データ記憶部101から取得した脳血流データ306と、今回の訓練における脳血流データとに基づいて、今回の訓練の脳活性度を算出する。
 データ演算部132は、例えば、取得した脳血流データ306から、脳血流の増加量の過去の最大値を抽出する。そして、データ演算部132は、抽出した過去の最大値によって、今回の訓練における脳血流データが示す脳血流の変化量を除算した結果を、脳活性度として算出する。
 そして、データ演算部132は、算出された脳活性度(脳活性度210に相当)と、前述の発話点数とを表示する画像データを生成する。そして、データ演算部132は、出力部130及びディスプレイ104に、生成した画像データを結果画像206として表示させる(523)。また、データ演算部132は、算出した脳活性度を、データ記憶部101の今回の訓練を示すエントリの脳活性度307に格納する。結果画像206における脳活性度210は、10段階又は5段階などの、大まかなバーグラフによって表示されてもよい。
 ステップ523は、図3に示すステップ515に対応する。
 ステップ523の後、データ演算部132は、訓練者110自身の過去の訓練における少なくとも一つの脳活性度を、データ記憶部101の訓練情報300から取得する。また、データ演算部132は、ステップ513及びステップ514において算出した発話点数(今回の訓練における発話点数)、並びに、訓練者110の過去の訓練において算出された発話点数を、データ記憶部101の訓練情報300から取得する(524)。
 なお、データ演算部132は、ステップ515の後に、ステップ524を実行する。
 ステップ524において取得されたデータに基づいて、データ演算部132は、今回の訓練における脳活性度が過去の訓練における脳活性度より上がったか否か、及び、今回の訓練における発話点数が過去の訓練における発話点数より上がったか否かを判定する(525)。
 今回の訓練における発話点数及び脳活性度の両方が、過去の訓練における発話点数及び脳活性度より上がっている場合、訓練者にとって、今回までの訓練が効果を上げている。このため、データ演算部132は、次回の訓練の難易度に、今回と同じ難易度を決定する(527)。
 一般的に、同じ訓練を続けていった場合、脳の活動量(脳活性度)が増加していくことが知られている。そして、このように、訓練の繰り返しに従って脳活性度が上がっていく場合、その訓練は効果が上がっていることが知られている。このため、図7に示すデータ演算部132は、次回の訓練の難易度を今回の訓練の難易度と同じにする。
 しかし、訓練をさらに繰り返した後、脳活性度が変化しない、又は、低下する場合、訓練者110が訓練に慣れてしまい、訓練の効果がなくなっていることが知られている。このため、図7に示すデータ演算部132は、次回の訓練の難易度を今回の訓練の難易度と異なる難易度に決定する。
 具体的には、ステップ525において、今回の訓練における発話点数及び脳活性度のうち少なくとも一つが、過去の訓練における発話点数又は脳活性度以下であると判定された場合、データ演算部132は、次回の訓練の難易度を今回の難易度とは異なる難易度に決定する(526)。なお、データ演算部132は、今回の訓練における発話点数及び脳活性度と、過去の訓練における発話点数又は脳活性度との差が、各々の所定の量以下であり、ほとんど差がないと、ステップ525において判定できる場合、ステップ526を実行してもよい。
 ここで、データ記憶部101は、過去の発話点数及び脳活性度からの変化に従って決定される難易度に関する情報を保持し、データ演算部132は、この難易度に関する情報を参照して難易度を決定してもよい。
 ステップ528又はステップ526の後、データ演算部132は、決定された難易度にしたがって、次回の訓練内容を決定する(528)。ここで、データ記憶部101は、難易度と訓練内容との対応を示す情報を保持し、データ演算部132は、難易度と訓練内容との対応を示す情報を参照して難易度を決定してもよい。
 ステップ528の後、データ演算部132は、図7に示す処理を終了する(529)。出力部130は、決定した次回の訓練の難易度、又は、決定した次回の訓練内容を、ディスプレイ104に表示してもよいし、プリンタが接続されている場合、プリンタを介して訓練内容が記載された紙を出力してもよい。
 また、データ演算部132は、決定した次回の訓練の難易度、又は、決定した次回の訓練内容と、訓練者110に関する訓練者情報とを、データ記憶部101に格納してもよい。そして、データ処理部100は、ステップ501において訓練者情報が入力された場合、入力された訓練者情報とデータ記憶部101とに基づいて、実行すべき訓練の難易度又は訓練内容を取得してもよい。
 図8は、実施例1の気分指数を算出し、次回の訓練の難易度を決定する処理を示すフローチャートである。
 図8に示す処理が実行される場合、発話訓練システム10は、図8に示すステップ531~ステップ537と並行して、図7に示すステップ518からステップ524までを実行する。そして、データ演算部132は、図7に示すステップ525を図8に示すステップ538において実行する。
 図3に示すステップ501において訓練が開始した後、生体信号処理部102の測定部133は、訓練者110の脳波及び心拍など生体信号の測定を開始する(531)。生体信号処理部102が唾液中のストレスホルモン濃度を測定する小型分析装置と接続される場合、ステップ531において、測定部133は、訓練者110の唾液中のストレスホルモン濃度を、小型分析装置を介して受け付ける。
 また、唾液中のストレスホルモン濃度を測定する場合、出力部130は、ステップ531において、唾液がついたチップを小型分析装置に挿入するような指示を、ディスプレイ104に表示してもよい。
 さらに、出力部130は、ステップ531において、発話開始前における訓練者110の生体信号が十分に測定された後に、図3に示すステップ502を実行してもよい。これは、出力部130が、生体信号処理部102に、発話開始前のリラックスした状態における訓練者110の生体信号を測定させるためである。
 また、ここで出力部130は、ステップ531が実行される間、訓練者110がリラックスするような、又は、訓練者110のモチベーションが上がるような画像又は音楽を、訓練者110に提供してもよい。
 図3に示すステップ502、503及び505が実行され、ステップ504において訓練者110が発話し、訓練者110による発話が終了した場合(532)、生体信号処理部102の測定部133は、生体信号の測定を終了する(533)。測定部133は、訓練者110による発話が終了したことをデータ処理部100から通知された場合、生体信号の測定を終了してもよいし、訓練者110によって終了の指示が入力された場合、生体信号の測定を終了してもよい。
 ステップ533の後、生体信号処理部102の演算部134は、測定された生体信号に含まれる脳波又は心拍にフーリエ変換(FFT)等の解析を行うことによって、測定した生体信号の周波数及び強度等の測定値を含む生体データを生成する(534)。また、演算部134は、唾液中のストレスホルモン濃度の測定値を含む生体データを生成する。
 ここで、生体データは、発話中又は発話終了後に測定された生体信号の測定値を含む。また、生体データは、後述する気分指数を算出するために必要な測定値を含む。
 ステップ534において、演算部134は、生成した生体データをデータ処理部100に送信する。
 ステップ534の後、データ演算部132は、生体信号処理部102から送信された生体データに基づいて、訓練者110が訓練に適する気分であるか否かを示す気分指数を算出する(535)。
 実施例1の気分指数とは、ストレス、緊張、又は、リラックス等の気分及び精神状態の指標の程度を定量的に評価し、評価結果に基づいて算出される指数である。そして、実施例1の気分指数は、各々の気分の指標が訓練に対してポジティブであるか、ネガティブであるかに基づいて算出される。
 また、実施例1の気分指数は、標準的な生体信号と訓練者110の生体信号との差に基づいて算出され、訓練によって受ける訓練者110の生体信号の変化及び気分の変化を示す。
 データ演算部132は、標準的な生体信号の測定値と、発話終了後又は発話中の測定結果に基づく測定値とを比較することによって、気分指数を算出する。標準的な生体信号の測定値とは、安静状態における人の生体信号の測定値であり、あらかじめ与えられる値である。以下において、データ演算部132が、標準的な生体信号の測定値を用いて、気分指数を算出する例を示す。
 データ演算部132は、標準的な生体信号の測定値と、発話終了後又は発話中の測定結果に基づく測定値との差、及び、評価情報320に基づいて、ストレス、緊張度及びリラックス等の各々の指標について評価値を算出し、算出した評価値に基づいて気分指数を算出してもよい。
 例えば、ステップ535において、データ演算部132は、標準的な生体信号の測定値と、発話終了後の測定結果に基づく測定値とを比較し、発話終了後における心拍、脳波、及び、唾液中のストレスホルモン濃度等の測定値の各々が安静時と比較して増えたか否かを各々判定する。
 そして、データ演算部132は、各々の測定値の増減と図9に示す評価情報320とに従って、ストレス、緊張、集中度及びリラックス等の各々の気分評価値を算出する。
 図9は、実施例1の評価情報320を示す説明図である。
 評価情報320は、生体信号の変化に対応する人間の気分状態及び精神状態の変化を示す。評価情報320は、心理学的及び生理学的な方法によりあらかじめ生成された情報である。評価情報320を用いることによって、データ演算部132は、生体信号の測定値から気分状態の変化を示す気分指数を算出できる。
 評価情報320は、生体信号種類321、変動パラメータ322及び指標評価323を含む。生体信号種類321は、生体データに含まれる測定値の生体信号の種類を示す。変動パラメータ322及び指標評価323は、生体データに含まれる測定値の増減と指標の値の増減との関係を示す。
 例えば、評価情報320における変動パラメータ322が「脈拍増」を示し、かつ、指標評価323が「緊張増」を示しており、さらに、安静時における心拍数よりも発話終了後に測定された心拍数が増加している場合、データ演算部132は、ステップ540において「緊張」の指標にプラス1を加算する。
 また、一般的に、心拍の波形から得られる心拍変動の低周波成分が増えた場合、訓練者110はストレスを感じており、心拍変動の高周波成分が増えた場合、訓練者110はリラックスしていると言われる。このため、データ演算部132は、高周波成分及び低周波成分の心拍変動の増減を判定することによって、訓練者110がストレスを感じているかリラックスしているかを判定できる。
 なお、生体信号処理部102の演算部134が、ステップ534において、生体信号として測定された心拍の波形にFFT演算等を行うことによって、心拍変動を生成し、データ演算部132がステップ535において心拍変動の増減を判定する。
 また、一般的に、周波数8~13Hzのアルファ波が脳波に発生した場合、訓練者110はリラックスしており、周波数14Hz以上のベータ波が脳波に発生した場合、訓練者110は集中していると言われる。このため、データ演算部132は、脳波においてこれらの波が発生する割合を検出することによって、訓練者110がリラックスしているか集中しているかを判定できる。
 また、一般的に、唾液に含まれるホルモンのうち、アミラーゼ又はコルチゾール等のストレスホルモンが増加した場合、訓練者110はストレスを感じていると言われる。また、訓練者110の発汗量が増えた場合、訓練者110は緊張しており、訓練者110の筋電位が増加した場合、訓練者110は緊張していることが一般的に言われる。このように、生体信号と気分状態とは深く関係する。
 実施例1における生体信号は、主に、心拍、脳波及び唾液中ストレスホルモンを含むが、測定された生体信号には、前述の発汗量又は筋電位等の、他の種類の生体信号が含まれてもよい。そして、データ演算部132は、これらの生体信号の測定値を用いて、気分評価値を求める。
 そして、データ演算部132は、各指標の気分評価値から気分指数を算出する。例えば、リラックスと集中との気分評価値が高いほど、訓練に適した気分であるとあらかじめ定められる場合、データ演算部132は、リラックスと集中との気分評価値の絶対値にプラス1を乗算する。また、ストレスと緊張との気分評価値が高いほど、訓練に適さない気分であるとあらかじめ定められる場合、データ演算部132は、ストレスと緊張との気分評価値の絶対値にマイナス1を乗算する。この後、データ演算部132は、各指標のすべての気分評価値の合計を算出する。そして、データ演算部132は、算出した合計値を、気分指数として取得する。
 この場合、データ演算部132は、重視する指標を強調するため、指標の各々に重みづけしてもよい。例えば、訓練者110がリラックスしないと訓練の効率が上がらないという特性をあらかじめ保持する場合、データ演算部132は、リラックスの指標を集中の指標の2倍にして、合計値を算出してもよい。
 また、訓練者110がストレスを感じた状態において訓練の効率をあげられるという特性をあらかじめ保持する場合、データ演算部132は、ストレスの指標に他の重みより低い重みを乗じ、ストレスの評価をプラスとして合計値を算出してもよい。
 そして、データ演算部132は、ステップ535において、算出した気分指数及び気分評価値を、データ記憶部101の今回の訓練を示すエントリの気分指数308及び気分評価値309に格納する。なお、前述のように、気分評価値にプラス1を乗算する指標又はマイナス1を乗算する指標は、任意に変更されてよい。
 ステップ535の後、データ演算部132は、最も訓練に適した気分指数308を含む訓練情報300の過去のエントリから、気分指数を取得する(536)。ここで、最も訓練に適した気分指数とは、例えば、プラスの値であり、かつ、絶対値が最も大きい気分指数である。データ演算部132は、もっとも訓練に適した気分指数308を過去のエントリから取得することによって、訓練者110の気分状態が訓練に適するか否かを、客観的に判定できる気分指数割合を算出できる。
 なお、データ演算部132は、発話開始前に測定した生体信号に基づく生体データを生体信号処理部102の演算部134から取得し、発話開始前の気分指数を算出してもよい。そして、データ演算部132は、算出した発話開始前の気分指数を、ステップ536において取得してもよい。これによって、データ演算部132は、訓練の結果訓練にたいしてポジティブな気分になったか、ネガティブな気分になったかを示す気分指数割合を算出することができる。
 また、データ演算部132は、ステップ536において、今回の訓練の条件と同じ又は対応する条件の訓練における気分指数であり、かつ、最も大きい値の気分指数を、訓練情報300の気分指数308から取得してもよい。
 ステップ536の後、データ演算部132は、ステップ536において取得した気分指数の値によって訓練者110の気分指数308を除算することによって、気分指数の割合を算出する。そして、データ演算部132は、算出した気分指数の割合(気分指数211に相当)と、前述の発話点数及び脳活性度とを表示するための画像データを生成し、生成した画像データを、結果画像206として、出力部130及びディスプレイ104に表示させる(537)。気分指数211は、10段階又は5段階などの、大まかなバーグラフでもよい。
 ステップ537は、図3に示すステップ515に対応する。
 ステップ537、ステップ523及びステップ515が終了した後、データ演算部132は、図7に示すステップ524及び525を実行する。そして、データ演算部132は、今回の訓練における脳活性度が過去の訓練における脳活性度より上がったか否か、及び、今回の訓練における発話点数が過去の訓練における発話点数より上がったか否かを判定する(538)。
 今回の訓練における発話点数及び脳活性度の両方が、過去の訓練における発話点数及び脳活性度より上がっている場合、データ演算部132は、次回の訓練の難易度に、今回と同じ難易度を決定する(539)。ステップ539は、ステップ527と同じである。
 今回の訓練における発話点数及び脳活性度のうち少なくとも一つが、過去の訓練における発話点数又は脳活性度以下であると判定された場合、データ演算部132は、今回の訓練における気分指数を評価し、訓練者110の気分状態を評価する(540)。
 ステップ540の後、データ演算部132は、発話点数305が所定の閾値よりも高いエントリであり、かつ、過去の日付304のエントリの気分指数308から、気分指数(以下、過去の気分指数)を取得する。
 なお、実施例1において、発話点数305に複数の点数が含まれる場合、データ演算部132は、複数の点数の各々が所定の閾値より高い場合、発話点数305が所定の閾値より高いと判定してよい。また、データ演算部132は、今回の訓練における条件と同じ又は対応する条件を示すエントリから、過去の気分指数を取得してもよい。また、過去の気分指数が複数取得される場合、データ演算部132は、最も値が大きい気分指数を取得してもよい。
 データ演算部132は、今回の訓練における発話点数が所定の閾値よりも高いか(第1の判定条件)、及び、今回の訓練における気分指数と、取得された過去の気分指数とが類似しているか(第2の判定条件)を判定する(541)。データ演算部132は、ステップ540において算出した気分指数と、取得された過去の気分指数との差が所定の範囲である場合、類似すると判定する。
 第1の判定条件において、今回の訓練における発話点数が所定の閾値よりも高いと判定された場合、今回の訓練は、訓練者110にとって簡単である可能性が高い。また、第2の判定条件において、ステップ540において算出した気分指数と、取得された過去の気分指数とが類似する場合、今回の訓練者110は、訓練の効果があった過去の訓練者110と同じ程度の気分状態及び精神状態であり、訓練の効果がある状態である。
 このため、今回の訓練における発話点数が所定の閾値よりも高く、かつ、今回の訓練における気分指数と、取得された過去の気分指数とが類似する場合、データ演算部132は、訓練者110が、十分に訓練に熟練したため、負荷がかからずに楽に訓練できるようになったと判定し、次回の訓練の難易度を今回よりも高い難易度に決定する(544)。
 今回の訓練における発話点数が所定の閾値以下であり、今回の訓練における気分指数と、取得された過去の気分指数との差が所定の範囲内ではない場合、データ演算部132は、ステップ542及びステップ543において、気分評価値に含まれる複数の指標に基づいて、次回の訓練の難易度を決定する。
 ステップ542において、データ演算部132は、今回の訓練において算出された気分評価値に含まれるストレスの気分評価値が、所定の閾値よりも高いか否かを判定する(542)。ストレスの指標が、所定の閾値以下である場合、訓練者110にはストレスがかかっておらず、訓練に集中できていない可能性がある。このため、データ演算部132は、次回の訓練の難易度に今回と同じ難易度を決定する(545)。
 ステップ542において、ストレスの指標が、所定の閾値より高いと判定された場合、データ演算部132は、気分評価値の中の集中度の指標が、所定の閾値より高いか否かを判定する(543)。集中度の指標が所定の閾値より高く、集中力があると判定される場合、データ演算部132は、次回の訓練の難易度に低いレベルを決定する(546)。
 集中度の指標が所定の閾値以下であり、集中力がないと判定される場合、データ演算部132は、例えば休憩の指示を、出力部130及びディスプレイ104に表示させる(547)。また、データ演算部132は、ステップ547において、例えばリラックスできるような映像又は音楽などを、出力部130に出力させ、訓練者110の気分を変えさせてもよい。
 ステップ544、545、546又は539の後、データ演算部132は、決定した難易度にしたがって、次回の訓練内容を決定し(548)、図8に示す処理を終了する。
 なお、データ演算部132は、ステップ542及び543のいずれを先に実行してもよい。また、データ演算部132は、ステップ542及び543の少なくとも一方のみを実行してもよい。
 また、訓練者110の性質によって、訓練に適する気分である時に、気分評価値が高まる指標は異なる。例えば、訓練者110が、ストレスが強い(ストレスの気分評価値が高い)ほうが訓練の効率が上がる場合、個人の性質に合わせて、ステップ542における判定の結果実行する処理を最適化してもよい。具体的には、ストレスの指標が所定の閾値より高いとステップ542において判定された場合、データ演算部132は、ステップ545において、次回の訓練の難易度に今回と同じ難易度を決定してもよい(545)。
 また、発話点数、脳活性度及び気分指数の各々に重要度を割り当て、次回の訓練の難易度を決定するための判定を、データ演算部132は、重要度に従った順番によって実行してもよい。具体的には、発話点数に最も高い重要度が割り当てられる場合、データ演算部132は、発話点数を用いて次回の訓練の難易度を決定する処理を、最初に実行してもよい。このように、次回の訓練の難易度を決定する処理は、訓練者110の性質に合わせて、定められてもよい。
 図8に示す処理において、データ演算部132は、訓練者110の脳活性度が変化しない又は低下する場合において、気分指数が示す訓練者110が訓練に適する気分であったか否かに基づいて、次回の訓練の難易度及び訓練内容を決定する。すなわち、訓練者110が一つの難易度における訓練に熟練しており、訓練の効果がなくなった場合、データ演算部132は、訓練における気分に従って次回の訓練の難易度等を決定する。
 これによって、データ演算部132は、発話点数、脳活性度及び気分指数に基づいて、次回の訓練の難易度等を決定することにより、訓練者110に対する訓練の効果及び訓練により影響された精神状態に沿った次回の訓練の内容を決定できる。この結果、訓練者110は、より適切な訓練を受けることができ、実施例1の発話訓練システムは、訓練者110の発話の能力を効率的に向上させることができる。
 図10は、実施例1の結果画像206の他の例を示す説明図である。
 出力部130は、算出された気分評価値を、結果画像206に表示してもよい。図10に示す結果画像206は、評価207、お話し上手208、発音上手209及び脳活性度210の他、気分評価値212を含む。気分評価値212は、リラックス、集中及びストレスなどの各指標を、各々を表現するバーグラフによって表示する。
 なお、データ演算部132は、気分評価値の指標の各々に、重要度を示す重みを割り当て、指標に割り当てた重みを乗じた結果を、気分評価値212として出力部130に表示させてもよい。
 さらに、図3、図7及び図8の処理は、訓練終了後に算出した発話点数、脳活性度及び気分評価値によって、次回の訓練の難易度を決定する。図11に示す処理は、発話開始前に測定した生体信号に基づく気分評価値と過去の気分評価値とに基づいて、発話開始前に今回実行する訓練の難易度を決定する。
 図11は、実施例1の発話開始前に難易度を決定する処理を示すフローチャートである。
 図11に示す処理において、発話開始前に生体信号を測定し、気分評価値を算出する。そして、算出した気分評価値と過去の気分評価値との比較に基づいて、今回の気分状態と同じ気分状態であり、かつ、訓練の効果が高かった時の難易度を、今回の訓練の難易度に決定する処理を示す。
 図3に示すステップ501において訓練が開始した場合、図11に示す処理が開始される。生体信号処理部102の測定部133は、ステップ531と同じく、訓練者110の脳波及び心拍など生体信号の測定を開始する(551)。なお、図11に示す処理が実行された場合、ステップ551~557の間、出力部130は、教師画像201を表示しない。
 ステップ551の後、生体信号処理部102の演算部134は、発話開始前に測定した生体信号にフーリエ変換(FFT)などの解析処理を行い、生体データを生成する(552)。
 データ演算部132は、生体信号処理部102から生体データを受信した場合、受信した生体データに含まれる測定値に基づいて、気分指数を算出する(553)。ステップ553における気分指数の算出方法は、ステップ534の処理と同じである。
 データ演算部132は、データ記憶部101に格納される過去の気分指数を取得する(554)。ステップ554において、データ演算部132は、具体的には、発話点数305が第1の閾値以上であるか、又は、脳活性度307が第2の閾値以上であるエントリを取得する。取得したエントリは、効果が高い訓練を示す。
 さらに、データ演算部132は、今回の訓練者110を含むすべての訓練者110、及び、健常者(又は言語熟達者)による訓練を示す訓練情報300のエントリから、効果が高い訓練を示すエントリを取得してもよい。
 また、今回の訓練者110は、ストレスが低い時のほうが訓練の効果が高いなどの、訓練者110の固有の特性を有することがあらかじめ判明している場合、データ演算部132は、今回の訓練者110自身の過去の訓練を示すエントリから、効果が高い訓練を示すエントリを取得してもよい。
 これによって、データ演算部132は、訓練の効果が高い時の気分指数を含むエントリを取得できる。そして、後述するステップ555以降の処理を実行することによって、今回の気分状態に近い気分状態に行った訓練であり、かつ、効果が高かった訓練と同じ訓練の内容を、訓練者110に訓練させることによって、訓練者110を訓練に適する気分状態に導くことができる。
 ステップ554の後、データ演算部132は、取得したエントリから、ステップ553において算出された気分指数に最も近い気分指数を含むエントリを特定し、特定したエントリの難易度303を、今回の訓練の難易度303に決定する。そして、データ演算部132は、決定した難易度303に従って、今回の訓練の訓練内容を決定する(555)。
 ステップ555までの処理において、発話訓練システムは、発話を開始する前の測定結果によって算出された気分指数に基づいて訓練の内容を決定するため、訓練者110の気分と近い気分の状態において、訓練の効果が高い訓練の内容を今回の訓練内容に決定するため、訓練者110の能力を効率的に向上させることができる。
 ステップ555の後、脳活動処理部103の測定部135は、脳血流の測定を開始する(556)。ステップ556の後、ステップ502~ステップ506が実行される(557)。ステップ557の後、測定部135は、脳血流の測定を終了し、生体信号処理部102の測定部133は、生体信号の測定を終了する(558)。
 ステップ558の後、生体信号処理部102の演算部134は、発話開始前及び発話中又は発話終了後に測定した生体信号にフーリエ変換(FFT)などの解析処理を行い生体データを生成する(559)。データ演算部132は、ステップ559において、生体データを生体信号処理部102から受信する。
 ステップ559の後、データ演算部132は、生体データに基づいて、気分指数を算出する。データ演算部132は、算出した気分指数及び気分評価値を、今回の訓練を示すエントリの気分指数308及び気分評価値309に格納する。また、脳活動処理部103の演算部136は、測定結果に基づいて、訓練者110の脳血流データを生成し、生成した脳血流データを訓練情報300の脳血流データ306に格納する(560)。
 ステップ560の後、データ演算部132は、過去の訓練における脳血流データ306及び気分指数308を、訓練情報300から取得する(561)。ステップ561の処理は、図7に示すステップ522及び図8に示すステップ536に相当する。
 ステップ561の後、データ演算部132は、過去の訓練における脳血流データ306及び気分指数308と、今回の訓練における脳血流データ及び気分指数とに基づいて、気分指数の割合い、及び、脳活性度を算出する。そして、出力部130は、算出された気分指数の割合い、及び、脳活性度を結果画像206に表示する(562)。ステップ562の処理は、図7に示すステップ523及び図8に示すステップ537に相当する。
 ステップ562の後、データ処理部100は、図11に示す処理を終了する(563)。
 図11における前述の処理は、過去の発話終了後に算出された気分指数と今回の発話開始前に算出された気分指数とに基づいて、今回の訓練の難易度及び訓練内容を決定した。しかし、データ演算部132は、あらかじめ保持する訓練者110の特性と、今回の訓練開始前の気分指数とに基づいて、今回の訓練の難易度及び訓練内容を決定してもよい。
 具体的には、例えば、データ演算部132が、訓練者110はストレスがかかっていたほうが訓練の効果が上がるという、訓練者110の特性を保持する場合、データ演算部132は、ステップ555において、算出した今回の発話開始前のストレスの気分評価値が所定の値以下であるか否かを判定する。そして、発話開始前のストレスの気分評価値が所定の値以下である場合、データ演算部132は、訓練者110自身が前回まで受けていた訓練の中の最高の難易度よりもやや高い難易度を、今回の訓練の難易度に決定したり、標準的な訓練の難易度よりも高い難易度を、今回の訓練の難易度に決定したりしてもよい。
 このように難易度を決定することによって、データ演算部132は、訓練者110にストレスをかけ、訓練者110を訓練の効果が高い気分状態にさせてもよい。そして、発話訓練システム10は、訓練者110にとって最も訓練の効果が高いと見込まれる気分状態に、訓練者110が変化するように、訓練の難易度及び訓練内容を決定してもよい。
 そして、実施例1の発明訓練システムは、このように訓練の難易度の決定によって訓練者110の気分状態を調整することによって、訓練者110により効果の高い訓練を行わせることができる。
 また、データ演算部132は、発話開始前の気分指数に従って、出力部130の出力方法又は出力内容を変更してもよい。例えば、データ演算部132が、訓練者110はリラックスしているほうが訓練の効果が上がるという、訓練者110の特性を保持する場合、データ演算部132は、ステップ555において、算出した今回の発話開始前のリラックスの気分評価値が所定の値以下であるか否かを判定する。
 そして、発話開始前のリラックスの気分評価値が所定の値以下である場合、データ演算部132は、教師画像201の表示のスピードを遅くしたり、励ましを示す音声又はテキストを出力したりするなどを出力部130に指示してもよい。これによって、データ演算部132が、訓練者110の発話開始前の気分状態に応じて訓練の内容を変更することにより、訓練者110はより効果の高い訓練を行うことができる。
 実施例1によれば、結果画像206によって、訓練の結果を訓練者110にフィードバックし、訓練者110に訓練による効果を認識させることができる。このため、実施例1の発話訓練システムは、訓練者110に次の訓練の課題等を認識させ、次の訓練へのモチベーションを持たせることができ、次の訓練を前向きに楽しく受けさせることができる。
 また、結果画像206が出力される際に、発話点数、脳活性度及び気分指数に従って、励まし又はほめる音声等が出力されるため、訓練者110は、楽しく訓練を続けることができる。
 さらに、発話点数、脳活性度及び気分指数に基づいて、次回の訓練の難易度等を決定することにより、訓練者110は、より適切な訓練を受けることができ、実施例1の発話訓練システムは、訓練者110の発話の能力を効率的に向上させることができる。
 また、発話開始前に算出された気分指数に基づいて、訓練の内容又は訓練の内容の出力方法等を変更することによって、実施例1の発話訓練システムは、訓練者110の気分に適切に従った訓練を行うことができ、訓練の効果を上げることができる。
 実施例2において、発話訓練システムは、見学者に訓練の状況を見学させ、見学の結果を訓練者110に出力することによって、訓練者110のモチベーションを上げさせる。
 図12は、実施例2の発話訓練システム20を示す説明図である。
 実施例2の発話訓練システム20は、訓練者110以外の第三者である見学者120の脳活動及び生体信号を測定し、測定結果を訓練者110に提供する。
 実施例2の発話訓練システム20は、実施例1の発話訓練システム10と同様に、データ処理部100、データ記憶部101、生体信号処理部102、脳活動処理部103、信号線119、ディスプレイ104、信号線113、カメラ105、信号線114、スピーカ106、信号線115、マイク107、ヘッドバンド108、心拍測定用電極109、光ファイバ116、信号線117、及び、信号線118を含む。
 しかし、実施例2のヘッドバンド108及び心拍測定用電極109が、見学者120によって装着される点において、実施例1のヘッドバンド108及び心拍測定用電極109と相違する。また、発話訓練システム20は、ヘッドフォン121をさらに有する。
 ヘッドフォン121は、訓練者110による発話等の訓練者110に起因する音声を、見学者120が聞くための装置である。ヘッドフォン121は、信号線122によってデータ処理部100と接続される。
 実施例2のデータ処理部100は、実施例1と同じく、出力部130、訓練認識部131及びデータ演算部132を有し、さらに、見学用出力部137を有する。見学用出力部137は、ヘッドフォン121と接続し、訓練認識部131により取得された録音データを、ヘッドフォン121を用いて出力する。
 実施例2のデータ記憶部101は、訓練情報300と異なり、訓練情報330を有する。訓練情報330は、訓練情報300と同様の項目を有するが、脳血流データ306、脳活性度307、気分指数308及び気分評価値309は、見学者120の生体信号及び脳血流データによって算出された値を格納する。
 見学者120は、訓練者110の発話を聞き、又は、発話している訓練者110の顔を見る。発話訓練システム20は、このときの見学者120の生体信号及び脳血流を測定する。これは、訓練者110による発話に対して見学者120が持つ感覚又は感情を、訓練者110又はオペレータに認識させることによって、訓練者110又はオペレータは、訓練者110の訓練の成果又は課題等を認識することができるためである。
 発話開始前及び発話中、ディスプレイ104は、実施例1と同じく教師画像201を表示する。また、発話終了後、ディスプレイ104は、実施例1と同様に結果画像206を表示する。
 しかし、実施例2の結果画像206は、見学者120の生体信号から算出された興味度、及び、見学者120の脳血流の増減から算出された脳活性度を表示する。訓練者110は、実施例2の結果画像206を参照することによって、自分の発話による見学者120の反応を認識することができる。
 そして、訓練者110は、見学者120の反応を認識することによって、発話の課題を認識したり、発話に対する高い評価を受けたりすることができるため、次の訓練へのモチベーションを持つことができる。また、見学者120は人間であるため、実施例2の発話訓練システムは、訓練者110が実際に会話している状態により近い訓練を訓練者110に提供することが可能であり、臨場感のある訓練を提供できる。
 見学者120は、訓練者110の顔が見える程度に、訓練者110の近くにいてもよい。この場合、訓練者110による発話が十分に聞き取れる場合、見学者120は、ヘッドフォン121を装着しなくてもよい。
 また、見学者120は、訓練者110がいる部屋とは異なる部屋で、訓練者110による訓練中の録音データ又は録画データを視聴してもよい。この場合、訓練者110による訓練を録画した映像を視聴するためのディスプレイが、見学者120がいる部屋に設置されてもよい。
 図13は、実施例2の発話訓練システム20の他の構成を示す説明図である。
 図13に示す発話訓練システム20は、図12に示す発話訓練システム20と同様であるが、図13に示す発話訓練システム20がディスプレイ123を有する点において相違する。ディスプレイ123は、ネットワーク回線124を介してデータ処理部100の見学用出力部137に接続される。
 データ処理部100の見学用出力部137は、訓練中にカメラ105が撮影した訓練者110の映像をディスプレイ123に送信し、ディスプレイ123に表示させる。これによって、訓練者110と見学者120とが遠隔にいても、訓練者110は訓練でき、見学者120は見学できる。
 なお、実施例2の発話訓練システム20は、見学者120を撮影するカメラ(不図示)を有してもよく、データ処理部100は、見学者120の訓練中の表情を、訓練者110に表示してもよい。
 図14は、実施例2の脳活性度を算出する処理を示すフローチャートである。
 図14に示す処理は、見学者120の脳血流を測定してから、結果画像206に脳活性度を表示するまでの処理を示す。
 図3に示すステップ501において訓練が開始した場合、図14に示す処理が開始される。ステップ501の後、脳活動処理部103の測定部135は、見学者120の脳血流の測定を開始する(702)。
 ステップ702の後、図3に示すステップ502、503及び505が実行され、ステップ504において訓練者110が発話し、訓練者110による発話が終了した場合(703)、脳活動処理部103の測定部135は、見学者120の脳血流の測定を終了する(704)。
 脳活動処理部103の測定部135は、訓練者110による発話が終了したことをデータ処理部100から通知された場合、脳血流の測定を終了してもよいし、訓練者110によって終了の指示が入力された場合、脳血流の測定を終了してもよい。
 ステップ704の後、脳活動処理部103の演算部136は、ステップ521と同様に、見学者120の測定結果に基づいて脳血流データを生成する。そして、演算部136は、データ記憶部101の、今回の訓練を示すエントリの脳血流データ306に、生成した脳血流データを格納する(521)。また、ステップ521において、脳活動処理部103は、生成した脳血流データをデータ処理部100に送信する。
 ステップ706及び707は、ステップ522及び523と同じである。ステップ707の後、図14に示す処理は終了する。
 図15は、実施例2の見学者120の興味度を算出する処理を示すフローチャートである。
 図15に示す処理は、見学者120の生体信号を測定した後、結果画像206に興味度を表示するまでの処理を示す。
 図3に示すステップ501において訓練が開始した場合、図14に示す処理が開始される。ステップ501の後、生体信号処理部102の測定部133は、見学者120の生体信号の測定を開始する(710)。
 ステップ709の後、図3に示すステップ502、503及び505が実行され、ステップ504において訓練者110が発話し、訓練者110による発話が終了した場合(711)、生体信号処理部102の測定部133は、見学者120の生体信号の測定を終了する(712)。
 生体信号処理部102の測定部133は、訓練者110による発話が終了したことをデータ処理部100から通知された場合、生体信号の測定を終了してもよいし、訓練者110によって終了の指示が入力された場合、生体信号の測定を終了してもよい。
 ステップ712の後、生体信号処理部102の演算部134は、ステップ534と同じく、測定した生体信号に含まれる脳波又は心拍にフーリエ変換(FFT)等の解析処理を行うことによって、生体データを生成する(713)。演算部134は、生成した生体データをデータ演算部132に送信する。
 ステップ713の後、データ演算部132は、ステップ535と同じく、送信された生体データに基づいて、気分指数及び気分評価値を算出する(714)。気分指数及び気分評価値を算出する方法は、図8に示すステップ535に示す方法と同じである。
 そして、データ演算部132は、ステップ714において、算出した気分指数を、データ記憶部101の今回の訓練を示すエントリの気分指数308及び気分評価値309に格納する。
 ステップ715及び716は、図8に示す536及び537と同様である。しかし、ステップ716において、出力部130は、算出された気分指数の割合を興味度として、結果画像206に表示する。
 ステップ716の後、図15に示す処理は終了する。
 実施例2によれば、訓練者110の発話を聞いた時の見学者120の脳血流又は生体信号を測定し、訓練者110の発話に対する見学者120の反応を訓練者110にフィードバックすることによって、訓練者110にモチベーションを持たせることができる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
 また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除又は置換をすることが可能である。
 また、上記の各構成、機能、処理部及び処理手順等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク若しくはSSD(Solid State Drive)等の記録装置、又は、ICカード、SDカード若しくはDVD等の記録媒体に置くことができる。
 また、制御線又は情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線又は情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えてもよい。
 発話訓練又は言語学習のためのシステムに利用できる。

Claims (10)

  1.  ユーザに発話を訓練させる訓練システムであって、
     前記ユーザを訓練するため、前記発話の手本となる訓練内容を出力する教師出力部と、
     前記ユーザによる発話の音声を録音する音声認識部と、
     前記ユーザの口の動きを撮影するカメラ部と、
     前記ユーザの脳血流を測定する脳血流測定部と、
     前記ユーザの生体信号を測定する生体信号測定部と、
     前記訓練内容と、前記録音された音声及び前記撮影された口の動きの画像とに基づいて、前記発話の上手さを示す発話点数を算出する演算部と、を有し、
     前記演算部は、
     前記測定された脳血流に基づいて、前記ユーザの脳が働く程度を示す脳活性度を算出し、
     前記測定された生体信号に基づいて、前記訓練によって受ける前記ユーザの生体信号の変化を示す気分指数を算出し、
     前記算出した発話点数、脳活性度及び気分指数を表示するためのデータを生成することを特徴とする訓練システム。
  2.  請求項1に記載の訓練システムであって、
     前記教師出力部は、難易度に従った訓練内容を出力し、
     前記訓練システムは、
     メモリを有し、
     前記発話点数、脳活性度及び気分指数を含む訓練情報を、前記メモリに保持し、
     前記演算部は、
     前記訓練システムによる過去の訓練において算出された発話点数、脳活性度及び気分指数を、前記訓練情報から取得し、
     前記取得した過去の訓練における発話点数、脳活性度及び気分指数と、前記算出した発話点数、脳活性度及び気分指数とに基づいて、前記ユーザによる次回の訓練の難易度を決定することを特徴とする訓練システム。
  3.  請求項1に記載の訓練システムであって、
     前記教師出力部は、難易度に従った訓練内容を出力し、
     前記訓練システムは、
     メモリを有し、
     前記発話点数、脳活性度及び気分指数並びに前記難易度を含む訓練情報を、前記メモリに保持し、
     前記生体信号測定部は、前記ユーザが発話する前に、前記ユーザの生体信号を測定し、
     前記演算部は、
     前記発話する前に測定された生体信号に基づいて、前記ユーザが発話する前に前記気分指数を算出し、
     前記訓練システムによる過去の訓練において算出された発話点数又は脳活性度及び気分指数並びに難易度を、前記訓練情報から取得し、
     前記取得した発話点数又は脳活性度及び気分指数と、前記発話する前に算出した気分指数とに基づいて、前記取得した発話点数が第1の閾値以上であるか、又は、前記取得した脳活性度が第2の閾値以上であり、かつ、前記取得した気分指数が前記発話する前に算出した気分指数に最も近い前記過去の訓練の難易度を、前記訓練の難易度に決定することを特徴とする訓練システム。
  4.  請求項3に記載の訓練システムであって、
     前記訓練情報は、前記発話する前の前記ユーザによる前記過去の訓練において算出された発話点数又は脳活性度及び気分指数並びに難易度を保持し、
     前記演算部は、前記発話する前のユーザによる過去の訓練において算出された発話点数又は脳活性度及び気分指数並びに難易度を、前記訓練情報から取得することを特徴とする訓練システム。
  5.  請求項1に記載の訓練システムであって、
     スピーカ及びディスプレイを有し、
     前記教師出力部は、前記訓練内容として、前記発話の手本となる教師音声及び前記発話の手本となる口の動きの画像を、前記スピーカ及びディスプレイを用いて出力することを特徴とする訓練システム。
  6.  請求項1に記載の訓練システムであって、
     前記生体信号測定部は、前記ユーザの脳波、心拍、又は、ストレスホルモンを示す生体信号を測定し、
     前記演算部は、前記ユーザの脳波、心拍、又は、ストレスホルモンを用いて、前記ユーザがリラックスしているか、緊張しているかを示す前記気分指数を算出することを特徴とする訓練システム。
  7.  請求項1に記載の訓練システムであって、
     前記演算部は、前記算出した発話点数、脳活性度及び気分指数に従って音声又は画像を定め、
     前記教師出力部は、前記定められた音声又は画像を出力することを特徴とする訓練システム。
  8.  ユーザに発話を訓練させる訓練システムであって、
     前記ユーザを訓練するため、前記発話の手本となる訓練内容を出力する教師出力部と、
     前記ユーザによる発話の音声を録音する音声認識部と、
     前記ユーザの口の動きを撮影するカメラ部と、
     前記ユーザの訓練を見学する見学者の脳血流を測定する脳血流測定部と、
     前記見学者の生体信号を測定する生体信号測定部と、
     前記訓練内容と、前記録音された音声及び前記撮影された口の動きの画像とに基づいて、前記発話の上手さを示す発話点数を算出する演算部と、を有し、
     前記演算部は、
     前記測定された脳血流に基づいて、前記見学者の脳が働く程度を示す脳活性度を算出し、
     前記測定された生体信号に基づいて、前記訓練によって受ける前記見学者の生体信号の変化を示す気分指数を算出し、
     前記算出した発話点数、脳活性度及び気分指数を表示するためのデータを生成することを特徴とする訓練システム。
  9.  請求項8に記載の訓練システムであって、
     前記ユーザに訓練の結果を表示するディスプレイを有し、
     前記教師出力部は、前記ユーザによる発話が終了した後、前記生成したデータを用いて、前記算出した発話点数、脳活性度及び気分指数を、前記ディスプレイに表示することを特徴とする訓練システム。
  10.  請求項8に記載の訓練システムであって、
     ネットワークを介して見学用ディスプレイと接続する見学用出力部を有し、
     前記見学用出力部は、前記撮影された口の動きの画像を、前記見学用ディスプレイに出力させることを特徴とする訓練システム。
PCT/JP2014/063592 2014-05-22 2014-05-22 訓練システム WO2015177908A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016520878A JP6234563B2 (ja) 2014-05-22 2014-05-22 訓練システム
PCT/JP2014/063592 WO2015177908A1 (ja) 2014-05-22 2014-05-22 訓練システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/063592 WO2015177908A1 (ja) 2014-05-22 2014-05-22 訓練システム

Publications (1)

Publication Number Publication Date
WO2015177908A1 true WO2015177908A1 (ja) 2015-11-26

Family

ID=54553602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/063592 WO2015177908A1 (ja) 2014-05-22 2014-05-22 訓練システム

Country Status (2)

Country Link
JP (1) JP6234563B2 (ja)
WO (1) WO2015177908A1 (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106205247A (zh) * 2016-08-31 2016-12-07 陈龙胜 一种具备提醒功能的智能教具
JP2018010261A (ja) * 2016-07-15 2018-01-18 株式会社日立ハイテクノロジーズ 情報処理装置、情報処理方法および情報処理プログラム
CN107657852A (zh) * 2017-11-14 2018-02-02 翟奕雲 基于人脸识别的幼儿教学机器人、教学系统、存储介质
JP2018118041A (ja) * 2017-01-23 2018-08-02 ジェ ジョン,ボン 脈拍分析アプリケーションを用いた脈拍変化表出システム
CN108447318A (zh) * 2018-03-30 2018-08-24 潍坊科技学院 一种用于日语教学的口型训练装置
CN109844797A (zh) * 2016-09-28 2019-06-04 株式会社NeU 选择系统、选择方法以及选择程序
KR20190067774A (ko) * 2016-08-26 2019-06-17 아킬리 인터랙티브 랩스 인크. 생리학적 컴포넌트와 커플링된 인지 플랫폼
KR20190077305A (ko) * 2016-07-19 2019-07-03 아킬리 인터랙티브 랩스 인크. 적응적 응답 기한 절차들에서의 신호 검출 메트릭들을 구현하기 위한 플랫폼들
JP2019107235A (ja) * 2017-12-18 2019-07-04 キヤノンメディカルシステムズ株式会社 リハビリテーション支援装置及びリハビリテーション支援プログラム
CN110236574A (zh) * 2019-07-15 2019-09-17 万东百胜(苏州)医疗科技有限公司 一种超声医师情绪量化方法与装置
CN110545735A (zh) * 2017-06-23 2019-12-06 松下知识产权经营株式会社 信息处理方法、信息处理装置以及信息处理系统
JPWO2018207519A1 (ja) * 2017-05-12 2019-12-12 パナソニックIpマネジメント株式会社 行動目標達成支援システム、情報処理方法及びプログラム
JP2020016880A (ja) * 2018-07-24 2020-01-30 艾爾科技股▲ふん▼有限公司 ダイナミックストーリー指向のデジタル言語教育方法及びシステム
JP2021101377A (ja) * 2020-07-06 2021-07-08 株式会社元気広場 機能改善支援システムおよび機能改善支援装置

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102041774B1 (ko) * 2018-09-07 2019-11-11 대한민국 언어재활을 위한 콘텐츠 제공 방법
KR102484006B1 (ko) * 2021-01-14 2022-12-30 가톨릭대학교 산학협력단 음성 장애 환자를 위한 음성 자가 훈련 방법 및 사용자 단말 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199988A (ja) * 1993-12-22 1995-08-04 At & T Corp 音声認識システムのトレーニング方法
JP2003186379A (ja) * 2001-12-13 2003-07-04 Animo:Kk 音声可視化処理のためのプログラム、音声可視化図形表示と音声及び動画像の再生処理のためのプログラム、及び訓練結果表示のためのプログラム、並びに発声発話訓練装置及びコンピュータ・システム
JP2004294593A (ja) * 2003-03-26 2004-10-21 Hitachi Ltd 訓練支援装置
JP2006525829A (ja) * 2002-12-20 2006-11-16 ヒューマン バイオニクス エルエルシー インテリジェント欺瞞検証システム
JP2011048096A (ja) * 2009-08-26 2011-03-10 Canon Inc 動作訓練装置、動作訓練システム、動作訓練装置の制御方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199988A (ja) * 1993-12-22 1995-08-04 At & T Corp 音声認識システムのトレーニング方法
JP2003186379A (ja) * 2001-12-13 2003-07-04 Animo:Kk 音声可視化処理のためのプログラム、音声可視化図形表示と音声及び動画像の再生処理のためのプログラム、及び訓練結果表示のためのプログラム、並びに発声発話訓練装置及びコンピュータ・システム
JP2006525829A (ja) * 2002-12-20 2006-11-16 ヒューマン バイオニクス エルエルシー インテリジェント欺瞞検証システム
JP2004294593A (ja) * 2003-03-26 2004-10-21 Hitachi Ltd 訓練支援装置
JP2011048096A (ja) * 2009-08-26 2011-03-10 Canon Inc 動作訓練装置、動作訓練システム、動作訓練装置の制御方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
HIROKAZU ATSUMORI ET AL.: "Measurement of Brain Activation during Speech Recognition Using Optical Topography", IEICE TECHNICAL REPORT, TECHNICAL REPORT OF IEICE, vol. 112, no. 81, 7 June 2012 (2012-06-07), pages 65 - 68 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018010261A (ja) * 2016-07-15 2018-01-18 株式会社日立ハイテクノロジーズ 情報処理装置、情報処理方法および情報処理プログラム
CN107622802A (zh) * 2016-07-15 2018-01-23 株式会社日立高新技术 信息处理装置、信息处理方法及计算机可读记录介质
KR102449377B1 (ko) * 2016-07-19 2022-09-30 아킬리 인터랙티브 랩스 인크. 적응적 응답 기한 절차들에서의 신호 검출 메트릭들을 구현하기 위한 플랫폼들
KR20190077305A (ko) * 2016-07-19 2019-07-03 아킬리 인터랙티브 랩스 인크. 적응적 응답 기한 절차들에서의 신호 검출 메트릭들을 구현하기 위한 플랫폼들
JP2019534061A (ja) * 2016-08-26 2019-11-28 アキリ・インタラクティヴ・ラブズ・インコーポレイテッド 生理学的コンポーネントに接続された認知プラットフォーム
JP2022117988A (ja) * 2016-08-26 2022-08-12 アキリ・インタラクティヴ・ラブズ・インコーポレイテッド 生理学的コンポーネントに接続された認知プラットフォーム
KR102426385B1 (ko) * 2016-08-26 2022-07-28 아킬리 인터랙티브 랩스 인크. 생리학적 컴포넌트와 커플링된 인지 플랫폼
KR20190067774A (ko) * 2016-08-26 2019-06-17 아킬리 인터랙티브 랩스 인크. 생리학적 컴포넌트와 커플링된 인지 플랫폼
JP7077303B2 (ja) 2016-08-26 2022-05-30 アキリ・インタラクティヴ・ラブズ・インコーポレイテッド 生理学的コンポーネントに接続された認知プラットフォーム
US11304657B2 (en) 2016-08-26 2022-04-19 Akili Interactive Labs, Inc. Cognitive platform coupled with a physiological component
CN106205247A (zh) * 2016-08-31 2016-12-07 陈龙胜 一种具备提醒功能的智能教具
CN109844797A (zh) * 2016-09-28 2019-06-04 株式会社NeU 选择系统、选择方法以及选择程序
CN109844797B (zh) * 2016-09-28 2023-03-28 株式会社NeU 选择系统、选择方法以及选择程序
EP3522099A4 (en) * 2016-09-28 2020-04-01 NeU Corporation SELECTION SYSTEM, SELECTION METHOD AND SELECTION PROGRAM
US11457864B2 (en) 2016-09-28 2022-10-04 NeU Corporation System, method, and non-transitory computer readable medium for calculating a brain activity value of a user and changing a level of brain training content being performed by the user
JP2018118041A (ja) * 2017-01-23 2018-08-02 ジェ ジョン,ボン 脈拍分析アプリケーションを用いた脈拍変化表出システム
JP7158148B2 (ja) 2017-01-23 2022-10-21 ジェ ジョン,ボン 脈拍分析アプリケーションを用いた脈拍変化表出システム
JPWO2018207519A1 (ja) * 2017-05-12 2019-12-12 パナソニックIpマネジメント株式会社 行動目標達成支援システム、情報処理方法及びプログラム
CN110545735A (zh) * 2017-06-23 2019-12-06 松下知识产权经营株式会社 信息处理方法、信息处理装置以及信息处理系统
CN107657852A (zh) * 2017-11-14 2018-02-02 翟奕雲 基于人脸识别的幼儿教学机器人、教学系统、存储介质
CN107657852B (zh) * 2017-11-14 2023-09-22 翟奕雲 基于人脸识别的幼儿教学机器人、教学系统、存储介质
JP2019107235A (ja) * 2017-12-18 2019-07-04 キヤノンメディカルシステムズ株式会社 リハビリテーション支援装置及びリハビリテーション支援プログラム
CN108447318A (zh) * 2018-03-30 2018-08-24 潍坊科技学院 一种用于日语教学的口型训练装置
JP2020016880A (ja) * 2018-07-24 2020-01-30 艾爾科技股▲ふん▼有限公司 ダイナミックストーリー指向のデジタル言語教育方法及びシステム
CN110236574A (zh) * 2019-07-15 2019-09-17 万东百胜(苏州)医疗科技有限公司 一种超声医师情绪量化方法与装置
JP2021101377A (ja) * 2020-07-06 2021-07-08 株式会社元気広場 機能改善支援システムおよび機能改善支援装置

Also Published As

Publication number Publication date
JPWO2015177908A1 (ja) 2017-04-20
JP6234563B2 (ja) 2017-11-22

Similar Documents

Publication Publication Date Title
JP6234563B2 (ja) 訓練システム
US11517254B2 (en) Method and device for detecting speech patterns and errors when practicing fluency shaping techniques
EP3701529A1 (en) System and method for assessing physiological state
Cosentino et al. Quantitative laughter detection, measurement, and classification—A critical survey
WO2019024247A1 (zh) 一种基于数据交换网络的在线教学考评系统及方法
McKenna et al. The relationship between relative fundamental frequency and a kinematic estimate of laryngeal stiffness in healthy adults
Gillespie et al. Immediate effect of stimulability assessment on acoustic, aerodynamic, and patient-perceptual measures of voice
Guzman et al. The impact of double source of vibration semioccluded voice exercises on objective and subjective outcomes in subjects with voice complaints
TWI589274B (zh) 心理臨床應用的虛擬實境系統
US11417045B2 (en) Dialog-based testing using avatar virtual assistant
Dromey et al. The effects of emotional expression on vibrato
Dromey et al. Speech adaptation to kinematic recording sensors: Perceptual and acoustic findings
Freitas et al. An introduction to silent speech interfaces
Scherer et al. Can automatic speaker verification be improved by training the algorithms on emotional speech?
CN116807476B (zh) 基于界面式情感交互的多模态心理健康评估系统及方法
Smith et al. Infant-directed visual prosody: Mothers’ head movements and speech acoustics
Stemple Voice research: so what? A clearer view of voice production, 25 years of progress; the speaking voice
Palo et al. Effect of phonetic onset on acoustic and articulatory speech reaction times studied with tongue ultrasound
TWI626037B (zh) Virtual reality system for psychological clinical application
Mautner A cross-system instrumental voice profile of the aging voice: With considerations of jaw posture effects
CN111210838A (zh) 一种言语认知能力的评价方法
Davidow et al. Systematic studies of modified vocalization: Effects of speech rate and instatement style during metronome stimulation
Abakarova et al. Developmental Changes in Coarticulation Degree Relate to Differences in Articulatory Patterns: An Empirically Grounded Modeling Approach
Ott et al. Processing of self-initiated speech-sounds is different in musicians
Yamada et al. Assistive speech technology for persons with speech impairments

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14892805

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016520878

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14892805

Country of ref document: EP

Kind code of ref document: A1