WO2014162356A1 - 言語リハビリテーション支援システム - Google Patents

言語リハビリテーション支援システム Download PDF

Info

Publication number
WO2014162356A1
WO2014162356A1 PCT/JP2013/002347 JP2013002347W WO2014162356A1 WO 2014162356 A1 WO2014162356 A1 WO 2014162356A1 JP 2013002347 W JP2013002347 W JP 2013002347W WO 2014162356 A1 WO2014162356 A1 WO 2014162356A1
Authority
WO
WIPO (PCT)
Prior art keywords
language
patient
client
server
data
Prior art date
Application number
PCT/JP2013/002347
Other languages
English (en)
French (fr)
Inventor
美雪 小山
鮫島 正
俊英 田中
Original Assignee
テルモ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テルモ株式会社 filed Critical テルモ株式会社
Priority to JP2015509599A priority Critical patent/JP6130492B2/ja
Priority to PCT/JP2013/002347 priority patent/WO2014162356A1/ja
Publication of WO2014162356A1 publication Critical patent/WO2014162356A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking

Definitions

  • the present invention relates to a technique for supporting rehabilitation of spoken language dysfunction.
  • a speech-language auditor selects and presents words or sentences from elementary school language materials to the patient. . Specifically, it reads out a word or sentence selected by the speech auditor and causes the patient to recite or write it down.
  • the word or sentence provided by the teaching material used by the speech hearing person who uses the device is determined, and the word or sentence suitable for various symptoms of the patient cannot be provided.
  • a general object of the present invention is to realize a language rehabilitation support device capable of providing words or sentences suitable for patient symptoms.
  • a language rehabilitation support system that supports rehabilitation of spoken language dysfunction
  • a server for storing language expression data for presentation to a patient in a database
  • a client for presenting rehabilitation characters or voices to the patient based on the language expression data provided from the server
  • the server in response to a registration request from the client, registration means for registering the language expression data received from the client and metadata attached to the language expression data in a database as a data entry, and from the client
  • search means for extracting a data entry of linguistic expression data associated with metadata matching the search key received from the client from the database and transmitting it to the client as a search result.
  • the client by the search A language rehabilitation support system, comprising: presentation means for presenting the language expression data provided to a patient; and transmission means for transmitting patient history data including information on the presentation and a response of the patient to the presentation to the server.
  • a language rehabilitation support device capable of providing words or sentences suitable for patient symptoms is realized.
  • the accompanying drawings are included in the specification, constitute a part thereof, show an embodiment of the present invention, and are used to explain the principle of the present invention together with the description.
  • the block diagram which shows the structure of the robot in embodiment.
  • the block diagram which shows the structure of the server in embodiment.
  • the figure which shows the modification of DB search screen of FIG. The sequence chart between the robot and server which concerns on the search processing of the language expression data in embodiment.
  • FIG. 1 is a diagram illustrating a configuration of a language rehabilitation support system according to the embodiment.
  • the language rehabilitation support system in this embodiment includes a robot 1 and a server 2 as shown in the figure.
  • the robot 1 interacts with a patient and presents language expressions for rehabilitation (hereinafter abbreviated as “rehabilitation”) to the patient.
  • rehabilitation includes sound generation from a speaker and / or display by a display device.
  • a wireless access point 3 is connected to the server 2 via a LAN (Local Area Network) 4.
  • the LAN 4 is an aspect of the communication network and may be another communication network.
  • the wireless access point 3 operates as a communication hub for the robot 1 to access the server 2 via the LAN 4.
  • the wireless access point 3 can wirelessly communicate with the robot 1 using, for example, an IEEE802.11n-based communication protocol, and from a few meters from the position of the wireless access point 3 depending on the setting. It can have a communication range of several tens of meters.
  • the wireless access point 3 thus constitutes a wireless LAN, and relays communication between the robot 1 and the server 2 when the robot 1 is within the communication range.
  • the robot 1 functions as a client terminal for the server 2.
  • the robot 1 may have a general computer appearance. However, as described above, the robot 1 performs rehabilitation while interacting with the patient, so that the patient can relax and become familiar. It would be nice to have
  • the robot 1 has an antenna 111 for performing wireless communication with the wireless access point 3. Further, the robot 1 is provided with a microphone 114 and a speaker 112 at a position corresponding to a person's temporal region and a position corresponding to a mouth, respectively. Furthermore, the robot 1 is provided with a plurality of touch sensor buttons 120 for detecting that a person has touched each position corresponding to a person's head, chest, flank, abdomen, and the like.
  • the robot 1 can connect a tablet terminal 150 that is a touch panel type display / input device for use by a speech hearing person or patient via a cable 151. It is assumed that the touch panel of the tablet terminal 150 can detect a tap or a tracing operation with a user's finger. However, such a function of the tablet terminal 150 may be configured in advance in the robot 1 itself. Although three robots 1 are depicted in FIG. 1, the number is merely an example. 1 is based on wireless LAN communication, it may be based on wired communication.
  • FIG. 2 is a block diagram showing the configuration of the robot 1.
  • the robot 1 includes the following configuration, including a CPU 101 that controls the entire apparatus, a RAM 102 that functions as a main storage device, and a ROM 103 that stores control programs and fixed data.
  • the wireless communication controller 105 controls wireless communication performed via the antenna 111.
  • the HDD 106 is a hard disk device, which stores an operating system (OS) 107 and a rehabilitation client program 108 as well as various data (not shown).
  • An interface (I / F) 109 connects the tablet terminal 150 via a cable 151.
  • the sound controller 110 includes an A / D converter, a D / A converter, a band limiting filter, and the like (not shown), and performs sound output using the speaker 112 and sound input from the microphone 114. Further, as described above, the robot 1 also includes a plurality of touch sensor buttons 120.
  • FIG. 3 shows an example of the module configuration of the rehabilitation client program 108.
  • the DB registration module 121 is a function module related to registration processing in a database, which will be described later.
  • the DB search module 122 is a function module related to database search processing.
  • the rehabilitation support module 123 is responsible for executing rehabilitation by the robot 1.
  • the speech synthesis module 124 performs speech synthesis when performing speech output as an aspect of presentation of language expressions in rehabilitation by the robot 1.
  • the speech recognition module 125 performs speech recognition with a linguistic expression that can be presented to the patient as a recognition target. This speech recognition has not only a word recognition function but also a continuous speech recognition function capable of recognizing sentences.
  • FIG. 4 is a block diagram showing the configuration of the server 2.
  • the CPU 201 is a central processing unit that controls the entire apparatus.
  • the RAM 202 is a memory that functions as a main storage device.
  • the ROM 203 is a memory that stores control programs and fixed data.
  • the communication I / F 204 is an interface for connecting to the LAN 4.
  • the HDD 205 is a hard disk device, and can store an operating system (OS) 206, a rehabilitation server program 207, a rehabilitation database (DB) 208, and patient history data 209.
  • the rehabilitation DB 208 accumulates language data used in rehabilitation, and is characterized by the fact that it is accumulated in the server 2 in an integrated manner instead of being accumulated in each client.
  • the rehabilitation server program 207 is activated when the power is turned on, is loaded into the RAM 202, is executed by the CPU 201, and is waiting for a request signal from the robot 1 as a client.
  • FIG. 5 shows an example of the home screen of the rehabilitation support function displayed on the tablet terminal 150.
  • this home screen is an initial screen displayed on the tablet terminal 150 when the rehabilitation client program 108 is loaded into the RAM 102 and executed by the CPU 101 when the robot 1 is activated.
  • the home screen includes a DB registration button 501, a DB search button 502, a rehabilitation start button 503, a patient registration button 504, and a patient selection button 505.
  • a user for example, a language auditor
  • taps any button the corresponding screen can be displayed.
  • FIG. 6 shows an example of a DB registration screen displayed on the tablet terminal 150 when the DB registration button 501 in FIG. 5 is tapped.
  • the language auditor who is a user can newly register desired language expression data from here.
  • the user taps the reading input unit 601
  • the user can input the pronounciation of the language expression to be registered there, for example, in alphabets.
  • the notation input unit 602 the notation of the language expression to be registered can be input there with hiragana.
  • Hiragana refers to a type of syllable characters used in Japanese notation.
  • type type of the language expression to be registered can be input there.
  • type type candidates are displayed in the candidate window 603a, and it is possible to select from among them by tapping.
  • a word, a sentence, and a work instruction sentence are assumed as type types, and values 1, 2, and 3 are assigned thereto, respectively.
  • the syllable number or word number of the language expression to be registered can be input there.
  • the type of language expression to be registered is a word
  • the number of syllables is input
  • the type of language expression to be registered is a sentence
  • the number of words is input.
  • the number of syllables is used as a unit for specifying the word length, but the number of mora may be used instead.
  • the genre input unit 605 When the user taps the genre input unit 605, the genre of the language expression to be registered can be input there. It is assumed that a plurality of genres can be input as well as a single genre.
  • genre candidates are displayed in the candidate window 605a, and can be selected by tapping.
  • a new creation button 605b is also displayed in the candidate window 605a, and it is possible to create a new genre by tapping this.
  • the frequency information of the language expression to be registered can be input there.
  • frequency information is assumed in which the high frequency is 1 and the low frequency is 2.
  • the frequency refers to, for example, the degree of occurrence of the word in a person's general language life.
  • the CPU 101 organizes these input data into a predetermined format as data entries and temporarily stores them in the RAM 102.
  • the data entry is registered by a sequence as shown in FIG. Specifically, the robot 1 issues a DB registration request to the server 2 in response to the completion button 609 being tapped in a state where all the input parts of the registration screen have been input ( 701). Upon receiving this DB registration request, the server 2 returns an acknowledgment (ACK) to the robot 1 (702).
  • ACK acknowledgment
  • the robot 1 When the robot 1 receives ACK within a predetermined time after issuing the DB registration request, the robot 1 transmits the data entry stored in the RAM 102 to the server 2 (703). The server 2 additionally registers the received data entry in the rehabilitation DB 208 (704). When the registration is completed, the server 2 issues a registration completion notification to the robot 1 (705). The robot 1 confirms that registration has been completed successfully by receiving this registration completion notification. After this confirmation, the screen returns to the home screen of FIG.
  • FIG. 8 shows an example of the structure of data held in the rehabilitation DB 208 of the server 2.
  • a DB with a type type of word is shown.
  • each data entry is given a unique ID, and readings and notations are described as language expressions.
  • Each data entry is accompanied by metadata including information on the number of syllables, genre, and frequency.
  • FIG. 9 shows an example of a DB search screen displayed on the tablet terminal 150 when the DB search button 502 in FIG. 5 is tapped.
  • the language auditor who is a user can search for desired language expression data from here.
  • the type input unit 901 the type type of the language expression to be searched can be input there.
  • type type candidates are displayed in the candidate window 901a, and it is possible to select from among them by tapping.
  • the number of syllables or words of the language expression to be searched can be input there. If the type of language expression to be searched is a word, the number of syllables is input. If the type of language expression to be searched is a sentence, the number of words is input.
  • the syllable number / word number input section 902 is tapped, candidates for the number of syllables or the number of words are displayed in the candidate window 902a, and it is possible to select from among them by tapping.
  • the genre input unit 903 When the user taps the genre input unit 903, the genre of the language expression to be searched can be input there. It is assumed that a plurality of genres can be input as well as a single genre.
  • genre candidates are displayed in the candidate window 903a, and can be selected by tapping.
  • the frequency information of the language expression to be searched can be input there.
  • the frequency input unit 904 is tapped, frequency candidates are displayed in the candidate window 904a, and can be selected by tapping.
  • the user can describe the sound (for example, “ka”, “ta”, etc.) that he / she wants to focus on as the attention sound by tapping the attention sound input section 905. Further, when the user taps the position input unit 906, the position in the word of the noted sound described can be specified there. When the position input unit 906 is tapped, position candidates are displayed in the candidate window 906a, and can be selected by tapping. For example, as the position in the word, any one of the beginning, the middle, and the ending can be designated.
  • the cancel button 907 When the cancel button 907 is tapped, the input content on this screen is discarded and the screen returns to the home screen in FIG.
  • the search button 908 when the search button 908 is tapped in a state where input to at least one of the input portions of the search screen has been completed, the CPU 101 organizes these input data into a predetermined format as search keys and temporarily stores them in the RAM 102. The stored key can be stored and transmitted to the server 2.
  • FIG. 11 shows a sequence chart between the robot 1 and the server 2 related to the search processing of language expression data.
  • the robot 1 issues a DB search request to the server 2 in response to the search button 908 being tapped with input to at least one of the input sections of the search screen (1101).
  • the server 2 Upon receiving this DB search request, the server 2 returns an acknowledgment (ACK) to the robot 1 (1102).
  • ACK acknowledgment
  • the robot 1 receives ACK within a predetermined time after issuing the DB search request
  • the robot 1 transmits the search key stored in the RAM 102 to the server 2 (1103).
  • the server 2 extracts the data entry of the language expression data associated with the metadata matching the received search key from the rehabilitation DB 208 (1104), and transmits it to the robot 1 as a search result (search data) (1105). If no data entry matching the search key is extracted, data indicating a search failure is transmitted.
  • the robot 1 can display a DB search result screen as shown in FIG.
  • the example of FIG. 12 shows a search result when the target sound is described as “ki” as the search key and the position of the target sound is designated as “end of word”.
  • search key content 1201 is displayed at the top of the screen, and searched data information 1202 is displayed at the center of the screen.
  • the “return” button 1210 is tapped here, the screen returns to the home screen of FIG.
  • the language auditor who is a user can extract language expression data that matches a desired condition.
  • a patient to be rehabilitated can be selected on a patient selection screen (not shown).
  • a patient selection screen (not shown).
  • the history information of the selected patient is read from the patient history data 209 held in the server 2 and displayed on the tablet terminal 150, for example, when performing rehabilitation. Can be helpful.
  • a patient registration button 504 in FIG. 5 is tapped, a new patient can be registered on a patient registration screen (not shown).
  • the data entry relating to the new registration of the patient is transmitted to the server 2 in the same sequence as that shown in FIG. 7, and the server 2 additionally registers the data entry in the patient history data 209.
  • a table in which the patient ID and general personal information such as the patient's name are associated with each other may be held by each robot instead of being included in the patient history data 209 of the server 2.
  • FIG. 13 is a flowchart of rehabilitation support processing in the present embodiment.
  • a program corresponding to this flowchart is included in the rehabilitation client program 108 of the robot 1, loaded into the RAM 102, and executed by the CPU 101.
  • the rehabilitation support module 123 shown in FIG. 3 is called, and this flow control is started.
  • the candidate language expression data to be presented as shown in FIG. 12 is displayed on the tablet terminal 150, from which the language auditor can select the data to be presented to the patient by tapping. Yes (S2).
  • the CPU 101 presents the selected language expression data (S4).
  • the CPU 101 can display the notation of the selected language expression data on the tablet terminal 150.
  • the robot 1 may associate and store an image corresponding to the language expression data (for example, a photo or picture of ⁇ if “ ⁇ ”), and display the image instead of character notation. .
  • the CPU 101 calls the speech synthesizer module 124 to synthesize the speech of the selected language expression data and sounds related to the language expression data, for example, if the language expression data is an animal, and output from the speaker 112. You can also In this case, the patient hears the sound and asks the person to recite the sound, word, sentence, or word recalled from the sound, or to write it on paper.
  • the language hearing person can input correct / incorrect information on the patient's answer via the tablet terminal 150 or other input device (S6).
  • the CPU 101 may call the voice recognition module 125 to recognize voice of the patient's utterance input via the microphone 114 and automatically determine the correct / incorrect answer.
  • the process can return to S2 to repeat the rehabilitation. Of course, the same data can be selected and repeated.
  • the presentation of data is finished (NO in S8), the process proceeds to S10.
  • S ⁇ b> 10 a patient history data entry is formed by associating the patient ID, the ID of each presented data, the number of questions of the data, and correct / incorrect information, and transmits this to the server 2.
  • FIG. 14 shows a structural example of the patient history data 209.
  • a patient ID and a language expression ID are associated with each data entry.
  • Each data entry is further assigned the number of questions, the number of correct answers, and the update date and time.
  • the server 2 adds the received patient history data entry to the patient history data 209 as described above. Specifically, for the language expression data relating to the received entry, the value of the number of questions received this time is added to the value of the number of questions, and similarly, the value of the number of correct answers received this time is added to the value of the number of correct answers. To do. Furthermore, the value of the update date is rewritten with the current time.
  • the correct answer rate can also be calculated by the ratio of the correct answer count to the number of questions. According to this patient history data, it is easy to make a future rehabilitation plan because it is possible to know for each patient which language expression was asked how many times in the past and how many times the correct answer was obtained.
  • FIG. 10 shows a modification of FIG.
  • the syllable number / word number input unit 902 and the frequency input unit 904 in FIG. 9 are eliminated, and a difficulty level input unit 910 is provided instead.
  • the difficulty level to be searched can be specified there.
  • the difficulty level input unit 910 is tapped, the difficulty level candidates are displayed in the candidate window 910a, and can be selected by tapping.
  • the degree of difficulty of a word used in language rehabilitation for a spoken language dysfunction generally increases as the number of syllables of the word increases although it depends on the arrangement of syllables.
  • nine levels of difficulty 1 to 9 are displayed in order of ease, but these may basically be regarded as corresponding to the number of syllables.
  • the difficulty level is higher when the frequency is high and when the frequency is low.
  • the server 2 may calculate the difficulty level for each word in the rehabilitation DB 208 as shown in FIG. 8 by the above formula and hold the value.
  • the accuracy rate of the patient can be reflected in the difficulty level.
  • the server 2 refers to the patient history data 209 as shown in FIG. 14 and calculates the correct answer rate for each language expression ID associated with the patient ID 0001. To do. If the correct answer rate is low, the degree of difficulty for the patient is high, and conversely, if the correct answer rate is high, the difficulty level is low. Therefore, in the present embodiment, the weighting coefficient ⁇ depending on the accuracy rate is set to 1 when the accuracy rate is 0.5 (50%), 0.5 when the accuracy rate is 1 (100%), and 1 when the accuracy rate is 0. Set the function to be 5. When the correct answer rate is CR, such a function is expressed by the following equation.
  • D ⁇ ⁇ ⁇ N
  • D ROUND ( ⁇ ⁇ ⁇ ⁇ N) It is represented by
  • nine levels from level 1 to 9 are displayed in order of the difficulty level candidates.
  • One of these levels can be specified, and a range of a plurality of levels can be specified. You may be able to do it.
  • the robot 1 can perform rehabilitation by a work instruction using a plurality of touch sensor buttons 120.
  • the robot 1 according to the present embodiment is provided with a plurality of touch sensor type buttons 120 that detect that a person has touched each position corresponding to a person's head, chest, flank, abdomen, and the like. It has been.
  • the robot 1 outputs a work instruction sentence by voice synthesis, and the patient touches a button corresponding to the work instruction.
  • a unique touch sensor ID is assigned to each of the plurality of touch sensor type buttons 120.
  • the robot 1 holds a work instruction table as shown in FIG.
  • Such a work instruction table may be held by the server 2 instead of the robot 1 and read or downloaded by the robot 1.
  • the ID of the work instruction sentence, the contents of the work instruction sentence, and the order of touch sensors to be touched according to the work instruction sentence are described for each entry.
  • the language hearing person selects a desired work instruction and reads out the work instruction by speech synthesis.
  • the robot 1 reads out the work instructions such as “Please touch the stomach after touching the right head” and “Press the middle button before touching the right side”. .
  • the patient who hears this touches the buttons in the order in which the instructions are followed.
  • the correct / incorrect determination of this work may be performed by a speech therapist and the determination result may be input via a predetermined input device, or the robot 1 may determine automatically. Then, the history of this determination result is transferred to the server 2 as in the above example.

Abstract

音声言語機能障害のリハビリテーションを支援する言語リハビリテーション支援システムは、患者に対して提示するための言語データをデータベースに記憶するサーバと、サーバから提供される言語データに基づいて、患者に対してリハビリテーション用の文字又は音声を提示するクライアントとを含む。サーバは、クライアントからの登録要求に応答して、クライアントから受信した言語データと該言語データに付随するメタデータとをデータエントリとしてデータベースに登録することができる。サーバは更に、クライアントからの検索要求に応答して、クライアントから受信した検索キーにマッチするメタデータに関連付けられた言語データを検索結果としてクライアントに送信することができる。クライアントは、検索によって得られた言語表現データを患者に提示し、該提示に対する患者の応答の情報を含む患者履歴データをサーバに送信することができる。

Description

言語リハビリテーション支援システム
 本発明は、音声言語機能障害のリハビリテーションを支援するための技術に関する。
 失語症や構音障害を含む音声言語機能障害のリハビリテーションにおいては、例えば、言語聴覚士(ST: Speech-Language-Hearing Therapist)が、小学生用の国語教材等から単語又は文を選択して患者に提示する。具体的には、言語聴覚士が選択した単語又は文を読み上げ、患者にそれを復唱させたり、書き取らせたりする。
 しかしながら、患者の症状に合わせて言語聴覚士が単語又は文を準備するのは非常に煩雑である。
 そこで、このようなリハビリテーションを支援するための装置の開発も進んでいる(例えば、特許文献1参照。)。
特開2007-292979号公報
 しかし、従来の技術では、その装置を使用する言語聴覚士が使用する教材等によって提供される単語又は文が決まってしまい、患者の多様な症状に適した単語又は文を提供することができない。
 本発明の一般的な目的は、患者の症状に適した単語又は文を提供することが可能な言語リハビリテーション支援装置を実現することである。
 その他の目的および利点については、以下の説明によって明らかになろう。
 本発明の一側面によれば、音声言語機能障害のリハビリテーションを支援する言語リハビリテーション支援システムであって、
 患者に対して提示するための言語表現データをデータベースに記憶するサーバと、前記サーバから提供される言語表現データに基づいて、患者に対してリハビリテーション用の文字又は音声を提示するクライアントとを含み、前記サーバは、前記クライアントからの登録要求に応答して、前記クライアントから受信した言語表現データと該言語表現データに付随するメタデータとをデータエントリとしてデータベースに登録する登録手段と、前記クライアントからの検索要求に応答して、前記クライアントから受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリを前記データベースから抽出し、検索結果として前記クライアントに送信する検索手段とを有し、前記クライアントは、前記検索によって得られた言語表現データを患者に提示する提示手段と、前記提示及び該提示に対する患者の応答の情報を含む患者履歴データを前記サーバに送信する送信手段とを有することを特徴とする言語リハビリテーション支援システムが提供される。
 本発明によれば、患者の症状に適した単語又は文を提供することが可能な言語リハビリテーション支援装置が実現される。
 本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
 添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
実施形態における言語リハビリテーション支援システムの構成を示す図。 実施形態におけるロボットの構成を示すブロック図。 実施形態におけるリハビリ用クライアントプログラムのモジュール構成の例を示す図。 実施形態におけるサーバの構成を示すブロック図。 実施形態におけるリハビリ支援機能のホーム画面の例を示す図。 実施形態におけるDB登録画面の例を示す図。 実施形態における言語表現データの新規登録処理に係るロボットとサーバとの間のシーケンスチャート。 実施形態におけるリハビリ用DBに保持されるデータの構造例を示す図。 実施形態におけるDB検索画面の例を示す図。 図9のDB検索画面の変形例を示す図。 実施形態における言語表現データの検索処理に係るロボットとサーバとの間のシーケンスチャート。 実施形態におけるDB検索結果画面の例を示す図。 実施形態におけるリハビリ支援処理のフローチャート。 実施形態における患者履歴データの構造例を示す図。 実施形態における作業指示テーブルの例を示す図。
 以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。
 図1は、実施形態における言語リハビリテーション支援システムの構成を示す図である。本実施形態における言語リハビリテーション支援システムは、図示の如く、ロボット1とサーバ2とを含む。ロボット1は、患者とインタラクションをとるものであり、患者に対しリハビリテーション(以下「リハビリ」と略記する。)用の言語表現を提示する。なお本明細書において、「提示」とは、スピーカからの発音及び/又は表示デバイスによる表示の態様を含むものとする。
 サーバ2には、LAN(Local Area Network)4を介して無線アクセスポイント3が接続されている。LAN4は通信ネットワークの一態様であってその他の通信ネットワークであってもよい。無線アクセスポイント3は、ロボット1がLAN4を介してサーバ2にアクセスするための通信ハブとして動作する。具体的には、無線アクセスポイント3は、例えばIEEE802.11nベースの通信プロトコルを使用してロボット1と無線通信することができ、設定に依存して、その無線アクセスポイント3の位置から数メートルから数十メートルの通信範囲を有することができる。無線アクセスポイント3は、こうして無線LANを構成し、ロボット1が通信範囲内に存在している場合に、ロボット1とサーバ2との通信を中継する。
 このシステムにおいて、ロボット1はサーバ2に対するクライアント端末として機能する。ロボット1は、一般的なコンピュータの外観を持つものであってもよいが、上記したとおり、患者とインタラクションをとりながらリハビリを行うものであるから、患者がリラックスして親しみが湧くような外観構成を有するとよいであろう。ロボット1は、無線アクセスポイント3と無線通信を行うためのアンテナ111を有する。また、ロボット1には、人の側頭部に対応する位置、及び口に対応する位置にそれぞれ、マイクロホン114及びスピーカ112が設けられている。更に、ロボット1には、人の頭部、胸部、脇腹、腹部等に対応する各位置に、人が触れたことを検出する複数のタッチセンサ式のボタン120が設けられている。また、ロボット1は、言語聴覚士や患者が使用するためのタッチパネル式の表示・入力デバイスであるタブレット端末150を、ケーブル151を介して接続可能である。タブレット端末150のタッチパネルは、ユーザの指によるタップやなぞり動作を検出可能であるものとする。もっとも、このようなタブレット端末150の機能はロボット1自体が予め備えている構成としてもよい。なお、図1にはロボット1が3つ描かれているが、その個数は例示にすぎない。また、図1の構成は無線LAN通信を前提としたが、有線通信によるものであってもよい。
 図2は、ロボット1の構成を示すブロック図である。ロボット1は、装置全体の制御を司るCPU101、主記憶装置として機能するRAM102、制御プログラムや固定的なデータを記憶しているROM103をはじめ、以下の構成を備える。
 無線通信コントローラ105は、アンテナ111を介して行う無線通信を制御する。HDD106はハードディスク装置であり、オペレーティグシステム(OS)107やリハビリ用クライアントプログラム108を格納する他、不図示の各種データを記憶することができる。インタフェース(I/F)109は、タブレット端末150をケーブル151を介して接続する。音声コントローラ110は、不図示のA/Dコンバータ、D/Aコンバータ、帯域制限フィルタ等を含み、スピーカ112を用いた音声出力及びマイクロホン114からの音声入力を行う。また、上述したように、ロボット1は複数のタッチセンサ式のボタン120も有する。
 図3は、リハビリ用クライアントプログラム108のモジュール構成の例を示している。DB登録モジュール121は、後述するデータベースへの登録処理に係るファンクションモジュールである。DB検索モジュール122は、データベースの検索処理に係るファンクションモジュールである。リハビリ支援モジュール123は、ロボット1によるリハビリの実行を担う。音声合成モジュール124は、ロボット1によるリハビリにおける言語表現の提示の一態様として音声出力を行う際に音声合成を実行する。音声認識モジュール125は、患者に対して提示されうる言語表現を認識対象とする音声認識を実行する。この音声認識は、単語認識機能のみならず、文を認識可能な連続音声認識の機能を備える。
 図4は、サーバ2の構成を示すブロック図である。CPU201は、装置全体の制御を司る中央処理装置である。RAM202は、主記憶装置として機能するメモリである。ROM203は、制御プログラムや固定的なデータを記憶しているメモリである。通信I/F204は、LAN4と接続するためのインタフェースである。HDD205はハードディスク装置であって、オペレーティング・システム(OS)206、リハビリ用サーバプログラム207、リハビリ用データベース(DB)208、患者履歴データ209を格納することができる。リハビリ用DB208は、リハビリで使用する言語データを蓄積するものであり、各クライアントで蓄積するかわりに、サーバ2で一元的に蓄積している点が、本実施形態の特徴的な構成である。なおここでは、リハビリ用サーバプログラム207は、電源ON時に起動されてRAM202にロードされ、CPU201によって実行されており、クライアントであるロボット1からの要求信号を待機している状態であるとする。
 図5は、タブレット端末150に表示されるリハビリ支援機能のホーム画面の例を示している。なお、このホーム画面は例えば、ロボット1の起動時にリハビリ用クライアントプログラム108がRAM102にロードされ、CPU101によって実行されたことにより、タブレット端末150に表示される初期画面である。図示のように、ホーム画面は、DB登録ボタン501、DB検索ボタン502、リハビリ開始ボタン503、患者登録ボタン504、患者選択ボタン505を含む。ユーザ(例えば言語聴覚士)がいずれかのボタンをタップすると、対応する画面に遷移することができる。
 図6は、図5のDB登録ボタン501がタップされたことによりタブレット端末150に表示されるDB登録画面の例を示している。ユーザである言語聴覚士は、ここから所望する言語表現データの新規登録を行うことができる。ユーザは、読み入力部601をタップすると、そこに、登録する言語表現の読み(pronunciation)を、例えばアルファベットで入力することができる。次にユーザは、表記入力部602をタップすると、そこに、登録する言語表現の表記(notation)を、ひらがなで入力することができる。なお、「ひらがな」とは、日本語の表記に用いられる音節文字の一種をいう。
 次にユーザは、タイプ入力部603をタップすると、そこに、登録する言語表現のタイプ種別を入力することができる。タイプ入力部603がタップされると、候補ウィンドウ603aにタイプ種別の候補が表示されるので、その中からタップによって選択することも可能である。本実施形態では、タイプ種別として、単語、文、及び作業指示文が想定され、それぞれ、値1、2、3が付与されている。
 ユーザは、音節数/単語数入力部604をタップすると、そこに、登録する言語表現の音節数又は単語数を入力することができる。登録する言語表現のタイプが単語である場合は音節数を入力し、登録する言語表現のタイプが文である場合は単語数を入力することになる。なお、本実施形態では単語の長さを特定する単位として音節数を使用するが、このかわりにモーラ数を用いてもよい。音節数/単語数入力部604がタップされると、候補ウィンドウ604aに音節数又は単語数の候補が表示されるので、その中からタップによって選択することも可能である。
 ユーザは、ジャンル入力部605をタップすると、そこに、登録する言語表現のジャンルを入力することができる。ジャンルは単数だけでなく複数入力可能であるものとする。ジャンル入力部605がタップされると、候補ウィンドウ605aにジャンルの候補が表示されるので、その中からタップによって選択することも可能である。また、候補ウィンドウ605aには新規作成ボタン605bも表示され、これをタップすることでジャンルを新規に作成することも可能である。
 ユーザは、頻度入力部606をタップすると、そこに、登録する言語表現の頻度情報を入力することができる。本実施形態では、高頻度を1、低頻度を2とする頻度情報が想定されている。本実施形態において、頻度とは、例えば、人の一般的な言語生活の中でその単語が発生する度合いをいう。頻度入力部606がタップされると、候補ウィンドウ606aに頻度の候補が表示されるので、その中からタップによって選択することも可能である。
 キャンセルボタン608がタップされると、この画面の入力内容を破棄して図5のホーム画面に戻る。一方、この登録画面の全ての入力部への入力が済んだ状態で完了ボタン609がタップされると、CPU101は、これらの入力データをデータエントリとして所定のフォーマットに組織化してRAM102にいったん格納し、図7に示すようなシーケンスによって、そのデータエントリを登録する。具体的には、ロボット1は、この登録画面の全ての入力部への入力が済んだ状態で完了ボタン609がタップされたことに応答して、DB登録要求をサーバ2に対して発行する(701)。サーバ2は、このDB登録要求を受信すると確認応答(ACK)をロボット1に返す(702)。ロボット1は、DB登録要求を発行後所定時間内にACKを受信すると、RAM102に格納しておいたデータエントリをサーバ2に送信する(703)。サーバ2は、受信したデータエントリを、リハビリ用DB208に追加登録する(704)。登録を終えると、サーバ2は、登録完了通知をロボット1に対して発行する(705)。ロボット1は、この登録完了通知を受信することで登録が首尾よく完了したことを確認する。この確認後、画面は図5のホーム画面に戻る。
 以上のようにして、ユーザである言語聴覚士は、ここから所望する言語表現データの新規登録を行うことができる。図8に、サーバ2のリハビリ用DB208に保持されるデータの構造の例を示す。ここではタイプ種別が単語であるものについてのDBの例を示す。図示するように、各データエントリには固有のIDが付与され、読み及び表記が言語表現として記述されている。そして、各データエントリは、音節数、ジャンル、頻度の情報を含むメタデータが付随する。
 図9は、図5のDB検索ボタン502がタップされたことによりタブレット端末150に表示されるDB検索画面の例を示している。ユーザである言語聴覚士は、ここから所望する言語表現データの検索を行うことができる。ユーザは、タイプ入力部901をタップすると、そこに、検索する言語表現のタイプ種別を入力することができる。タイプ入力部901がタップされると、候補ウィンドウ901aにタイプ種別の候補が表示されるので、その中からタップによって選択することも可能である。
 ユーザは、音節数/単語数入力部902をタップすると、そこに、検索する言語表現の音節数又は単語数を入力することができる。検索する言語表現のタイプが単語である場合は音節数を入力し、検索する言語表現のタイプが文である場合は単語数を入力することになる。音節数/単語数入力部902がタップされると、候補ウィンドウ902aに音節数又は単語数の候補が表示されるので、その中からタップによって選択することも可能である。
 ユーザは、ジャンル入力部903をタップすると、そこに、検索する言語表現のジャンルを入力することができる。ジャンルは単数だけでなく複数入力可能であるものとする。ジャンル入力部903がタップされると、候補ウィンドウ903aにジャンルの候補が表示されるので、その中からタップによって選択することも可能である。
 ユーザは、頻度入力部904をタップすると、そこに、検索する言語表現の頻度情報を入力することができる。頻度入力部904がタップされると、候補ウィンドウ904aに頻度の候補が表示されるので、その中からタップによって選択することも可能である。
 ユーザは、注目音入力部905をタップすることで、そこに、重点的に訓練したい音(例えば、「か」、「た」等。)を、注目音として記述することができる。ユーザは更に、位置入力部906をタップすると、そこに、記述した注目音の単語中の位置を指定することができる。位置入力部906がタップされると、候補ウィンドウ906aに位置の候補が表示されるので、その中からタップによって選択することができる。例えば、単語中の位置として、語頭、語中、語尾のいずれかを指定可能である。
 キャンセルボタン907がタップされると、この画面の入力内容を破棄して図5のホーム画面に戻る。一方、この検索画面の少なくともいずれかの入力部への入力が済んだ状態で検索ボタン908がタップされると、CPU101は、これらの入力データを検索キーとして所定のフォーマットに組織化してRAM102にいったん格納し、その検索キーをサーバ2に送信することができる。
 図11に、言語表現データの検索処理に係るロボット1とサーバ2との間のシーケンスチャートを示す。ロボット1は、検索画面の少なくともいずれかの入力部への入力が済んだ状態で検索ボタン908がタップされたことに応答して、DB検索要求をサーバ2に対して発行する(1101)。サーバ2は、このDB検索要求を受信すると確認応答(ACK)をロボット1に返す(1102)。ロボット1は、DB検索要求を発行後所定時間内にACKを受信すると、RAM102に格納しておいた検索キーをサーバ2に送信する(1103)。サーバ2は、受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリをリハビリ用DB208から抽出し(1104)、検索結果(検索データ)としてロボット1に送信する(1105)。なお、検索キーにマッチするデータエントリが抽出されなかった場合は、検索失敗を表すデータを送信する。
 ロボット1は、検索データを受信すると、図12に示されるようなDB検索結果画面を表示することができる。図12の例は、検索キーとして、注目音を「き」と記述し、注目音の位置を「語尾」に指定した場合の検索結果を示している。まず、画面上部に検索キーの内容1201が表示され、画面中央に検索されたデータの情報1202が表示される。ここで「戻る」ボタン1210がタップされると、画面は図5のホーム画面に戻る。
 以上のようにして、ユーザである言語聴覚士は、所望の条件に合致する言語表現データを抽出することができる。
 図5の患者選択ボタン505をタップすると、不図示の患者選択画面にて、これからリハビリを行う患者を選択することができる。ここで患者が選択された場合には、その後実行されるリハビリの履歴情報を記憶することが可能である。また、患者が選択された場合には、サーバ2に保持されている患者履歴データ209から、選択された患者の履歴情報を読み出し、タブレット端末150に表示するなどして、リハビリを実行する際の参考にすることができる。さらに、図5の患者登録ボタン504をタップすると、不図示の患者登録画面にて、患者の新規登録を行うこともできる。患者の新規登録に係るデータエントリは、図7に示したものと同様のシーケンスでサーバ2に送信され、サーバ2はそのデータエントリを患者履歴データ209に追加登録する。なお、患者IDと患者の氏名等の一般的な個人情報とを関連付けたテーブルは、サーバ2の患者履歴データ209に含めるのではなく、各ロボットが保持するようにしてもよい。
 図13は、本実施形態におけるリハビリ支援処理のフローチャートである。このフローチャートに対応するプログラムは、ロボット1のリハビリ用クライアントプログラム108に含まれ、RAM102にロードされてCPU101によって実行される。
 図5のホーム画面において、リハビリ開始ボタン503がタップされると、図3に示したリハビリ支援モジュール123がコールされて、このフロー制御が開始される。開始されるとまず、図12で示したような提示する言語表現データの候補がタブレット端末150に表示され、言語聴覚士は、そこから患者に対して提示するデータをタップして選択することができる(S2)。CPU101は、選択された言語表現データを提示する(S4)。例えば、CPU101は、選択された言語表現データの表記をタブレット端末150に表示することができる。患者には、それを見て口頭で読み上げてもらう。そのかわりに、ロボット1は、言語表現データに対応する画像(例えば「柿」であれば柿の写真又は絵)を関連付けて記憶しておき、文字表記のかわりにその画像を表示してもよい。あるいは、CPU101は音声合成モジュール124をコールして、選択された言語表現データの読みや言語表現データに関する音、例えば、言語表現データが動物であれば、その鳴き声、を音声合成しスピーカ112から出力することもできる。この場合、患者には、その音を聞いてその音、単語、文章や、音から想起する単語を復唱してもらったり、紙に書いてもらったりする。
 言語聴覚士は、患者の回答につき正解/不正解の情報を、タブレット端末150又はその他の入力デバイスを介して入力することができる(S6)。あるいは、CPU101は音声認識モジュール125をコールして、マイクロホン114を介して入力した患者の発声を音声認識し、正解/不正解を自動判定してもよい。その後、出題するデータが他にある場合には(S8でYES)、S2に戻って処理をリハビリを繰り返すことができる。もちろん、同じデータを選択し繰り返し出題することも可能である。データの提示をこれで終了する場合は(S8でNO)、処理はS10に進む。S10では、患者ID、提示した各データのID、当該データの出題回数、正解/不正解の情報を関連付けて患者履歴データエントリを形成し、これをサーバ2に送信する。
 以上が、本実施形態におけるリハビリ支援処理の概要である。
 図14に、患者履歴データ209の構造例を示す。図示するように、各データエントリにおいて、患者IDと言語表現IDとが関連付けられている。各データエントリには更に、出題回数、正解回数、及び更新日時が付与されている。サーバ2は、受信した患者履歴データエントリを上記のような患者履歴データ209に追記する。具体的には、受信したエントリに係る言語表現データについて、出題回数の値に、今回受信した出題回数の値を加算し、同様に、正解回数の値に、今回受信した正解回数の値を加算する。更に、更新日時の値を、現在時刻でもって書き換える。なお、出題回数に対する正解回数の比によって正解率も算出できる。この患者履歴データによれば、患者ごとに、どの言語表現が過去に何回出題され、そのうち何回正解が得られたかが分かるので、言語聴覚士は、将来のリハビリ計画を立てやすいであろう。
 次に、図10に図9の変形例を示す。図10の例では、図9における音節数/単語数入力部902及び頻度入力部904をなくし、かわりに、難易度入力部910が設けられている。ユーザは、難易度入力部910をタップすると、そこに、検索する難易度を指定することができる。難易度入力部910がタップされると、候補ウィンドウ910aに難易度の候補が表示されるので、その中からタップによって選択することも可能である。
 ここで、本実施形態における難易度について説明する。音声言語機能障害に対する言語リハビリで用いる単語の難易度は、音節の並び等にも依存するものの、概ね、その単語の音節数が多くなるにつれて上昇する。図10の例において、難易度は、易しい順にレベル1から9までの9レベルが表示されているが、これらは基本的には音節数に対応しているものとみてよい。しかし、同じ音節数であっても、使用頻度の高いものと低いものとでは、低いものの方が難易度は高くなる傾向にある。そこで本実施形態では、個々の単語の難易度を、その単語の音節数に応じた値を、頻度に依存する値で重み付けした値に設定する。すなわち、単語の音節数をN、重み付け係数をαとすると、その単語の難易度Dは、
   D=α・N
で表される。だだし、重み付け係数αは、頻度に依存する値であり、例えば、頻度が高頻度であるときはα=1、低頻度であるときはα=1.2とすることができる。なお、Dの値は、α・Nの値を整数値に丸めた値にしてもよい。この場合、整数値に丸める関数をROUND()で表すと、
   D=ROUND(α・N)
で表される。
 サーバ2は、図8に示したようなリハビリ用DB208において、単語ごとに、上記した式により難易度を計算し、その値を保持しておくとよい。
 更に、DB検索を行う際に前もって患者選択が済んでいる場合には、その患者の正解率を難易度に反映させることもできる。例えば、患者ID=0001の患者が選択された場合、サーバ2は、図14に示したような患者履歴データ209を参照し、患者ID0001に関連付けられた言語表現IDのそれぞれについて、正解率を算出する。正解率が低ければその患者にとっては難易度は高く、逆に正解率が高ければ難易度は低いとみることができる。そこで、本実施形態では、正解率に依存する重み付け係数βとして、正解率0.5(50%)のとき1、正解率1(100%)のとき0.5、正解率0のとき1.5となるような関数を設定する。正解率をCRとすると、そのような関数は次式で表される。
   β=(1-CR)+0.5
 そしてこの場合、当該単語の難易度Dは、
   D=α・β・N
で表される。なお、上述したように、Dの値は、α・β・Nの値を整数値に丸めた値にしてもよい。すなわち、
   D=ROUND(α・β・N)
で表される。
 このようにして、患者の正解率を、難易度に反映させることが可能である。ただし、出題回数が規定回数(例えば5回)に満たない場合は、正解率が信頼に足る値でないと判断して、βの重み付けを適用しないことにしてもよい。
 ところで、図10の候補ウィンドウ910aにおいて難易度の候補が易しい順にレベル1から9までの9レベルが表示されているが、このうち1つのレベルを指定することもできるし、複数レベルの範囲を指定できるようにしてもよい。
 次に、図9又は図10のDB検索において言語表現のタイプとして「作業指示」が選択された場合に実行される言語リハビリについて説明する。
 音声言語機能障害の患者には、前後や上下といった物の位置関係を理解できない症状が多い。また、言われたことが分からなくても分かったふりをして「はい」とだけ答える患者もいる。そこで、音声言語機能障害のリハビリにおいては、さまざまな作業を音声で患者に指示し、その指示に従うことができるかどうかを調べ、これにより聴理解力を確認したり、訓練したりする。
 従来、言語聴覚士が、机の上に形や色の異なるおはじきやカードを並べて、その移動を口頭で指示する、といったことが行われている。しかし、訓練時間中におはじきやカードを準備するのは煩雑である。また、その実施結果の記録もないことも多く、過去の訓練結果と比較できないこともあった。
 そこで本実施形態では、ロボット1は、複数のタッチセンサ式のボタン120を利用した作業指示によるリハビリを行うことができる。上述したように、本実施形態におけるロボット1には、人の頭部、胸部、脇腹、腹部等に対応する各位置に、人が触れたことを検出する複数のタッチセンサ式のボタン120が設けられている。ロボット1は、音声合成により作業指示文を出力し、患者はその作業指示に応じたボタンに触れる、というものである。
 ここで、複数のタッチセンサ式のボタン120の各々には固有のタッチセンサIDが割り当てられている。また、ロボット1は、図15に示されるような、作業指示テーブルを保持している。このような作業指示テーブルは、ロボット1のかわりにサーバ2が保持しており、ロボット1がこれを読み出す、又はダウンロードする構成であってもよい。作業指示テーブルには、そのエントリごとに、作業指示文のID、作業指示文の内容、及び、その作業指示文に従って触れるべきタッチセンサの順序が記述されている。
 単語のリハビリについて図13を用いて説明したのと同様に、言語聴覚士は所望する作業指示文を選択して、音声合成によりその作業指示文を読み上げる。具体的には、ロボット1は、「右の頭を触ってから、お腹を触ってください。」、「右の脇を触る前に、真ん中のボタンを押してください。」との作業指示文を読み上げる。これを聞いた患者は、指示に従う順にボタンに触れていく。この作業の正解/不正解の判定は言語聴覚士が行いその判定結果を所定の入力デバイスを介して入力してもよいし、ロボット1が自動的に判定してもよい。そして、この判定結果の履歴が、上述の例と同様に、サーバ2に転送される。
 これにより、作業指示文による言語リハビリを行う際に従来必要であった言語聴覚士の労力を大幅に削減することができる。また、リハビリの履歴ももれなく記録されるので、過去の訓練結果と比較することも容易になる。
 本発明は上記実施の形態に制限されるものではなく、本発明の主旨及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。

Claims (8)

  1.  音声言語機能障害のリハビリテーションを支援する言語リハビリテーション支援システムであって、
     患者に対して提示するための言語表現データをデータベースに記憶するサーバと、前記サーバから提供される言語表現データに基づいて、患者に対してリハビリテーション用の文字又は音声を提示するクライアントとを含み、
     前記サーバは、
       前記クライアントからの登録要求に応答して、前記クライアントから受信した言語表現データと該言語表現データに付随するメタデータとをデータエントリとしてデータベースに登録する登録手段と、
       前記クライアントからの検索要求に応答して、前記クライアントから受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリを前記データベースから抽出し、検索結果として前記クライアントに送信する検索手段と、
     を有し、
     前記クライアントは、
       前記検索によって得られた言語表現データを患者に提示する提示手段と、
       前記提示及び該提示に対する患者の応答の情報を含む患者履歴データを前記サーバに送信する送信手段と、
     を有することを特徴とする言語リハビリテーション支援システム。
  2.  前記メタデータは、音節数、ジャンル、頻度の情報を含むことを特徴とする請求項1に記載の言語リハビリテーション支援システム。
  3.  前記患者履歴データは、前記提示手段により当該患者に対して当該言語表現データを提示した回数を表す出題回数、前記提示に対する当該患者の応答の正解/不正解の情報を含むことを特徴とする請求項1又は2に記載の言語リハビリテーション支援システム。
  4.  前記サーバは、前記言語表現データの各々について、当該言語表現データの難易度を保持し、前記検索手段は、前記難易度に関する値を検索キーとする検索を行うことを特徴とする請求項2に記載の言語リハビリテーション支援システム。
  5.  前記難易度をD、音節数をN、頻度に依存する重み付け係数をαとすると、前記難易度は、
       D=α・N
     で表されることを特徴とする請求項4に記載の言語リハビリテーション支援システム。
  6.  前記難易度をD、音節数をN、頻度に依存する重み付け係数をα、患者の正解率に依存する重み付け係数をβとすると、前記難易度は、
       D=α・β・N
     で表されることを特徴とする請求項4に記載の言語リハビリテーション支援システム。
  7.  前記出題回数が規定回数に満たない場合は、βの重み付けを適用しないことを特徴とする請求項6に記載の言語リハビリテーション支援システム。
  8.  前記クライアントは、複数のタッチセンサを有し、
     前記言語表現データは、前記複数のタッチセンサの少なくともいずれかを触れるよう指示する作業指示文のデータを含む
     ことを特徴とする請求項1乃至7のいずれか1項に記載の言語リハビリテーション支援システム。
PCT/JP2013/002347 2013-04-04 2013-04-04 言語リハビリテーション支援システム WO2014162356A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015509599A JP6130492B2 (ja) 2013-04-04 2013-04-04 言語リハビリテーション支援システム
PCT/JP2013/002347 WO2014162356A1 (ja) 2013-04-04 2013-04-04 言語リハビリテーション支援システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/002347 WO2014162356A1 (ja) 2013-04-04 2013-04-04 言語リハビリテーション支援システム

Publications (1)

Publication Number Publication Date
WO2014162356A1 true WO2014162356A1 (ja) 2014-10-09

Family

ID=51657691

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/002347 WO2014162356A1 (ja) 2013-04-04 2013-04-04 言語リハビリテーション支援システム

Country Status (2)

Country Link
JP (1) JP6130492B2 (ja)
WO (1) WO2014162356A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019086742A (ja) * 2017-11-10 2019-06-06 株式会社レイトロン 言語機能訓練システム、装置、およびプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255825A (ja) * 2002-02-27 2003-09-10 Shizuoka Prefecture 携帯情報端末(pda)を使用したコミュニケーション支援システム
JP3987568B1 (ja) * 2006-04-25 2007-10-10 株式会社シマダ製作所 主機と副機を有する失語症練習支援装置
JP4048226B1 (ja) * 2007-05-30 2008-02-20 株式会社シマダ製作所 失語症練習支援装置
JP4067561B1 (ja) * 2007-10-09 2008-03-26 株式会社シマダ製作所 失語症練習支援装置の自動訓練システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255825A (ja) * 2002-02-27 2003-09-10 Shizuoka Prefecture 携帯情報端末(pda)を使用したコミュニケーション支援システム
JP3987568B1 (ja) * 2006-04-25 2007-10-10 株式会社シマダ製作所 主機と副機を有する失語症練習支援装置
JP4048226B1 (ja) * 2007-05-30 2008-02-20 株式会社シマダ製作所 失語症練習支援装置
JP4067561B1 (ja) * 2007-10-09 2008-03-26 株式会社シマダ製作所 失語症練習支援装置の自動訓練システム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AKIFUMI TAKAGI ET AL.: "A Development and Estimation of the Support System for Rehabilitation of Aphasia at Home", TRANSACTIONS OF THE VIRTUAL REALITY SOCIETY OF JAPAN, vol. 6, no. 3, 30 September 2001 (2001-09-30), pages 211 - 214 *
TAKAO TANUMA ET AL.: "Internet Kankyo o Riyo shita Shitsugosho Kanjayo Gengo Kunren System no Kaihatsu", IEICE TECHNICAL REPORT, vol. 102, no. 594, 17 January 2003 (2003-01-17), pages 35 - 40 *
YUICHI UEDA ET AL.: "Development of Phonation and Utterance Learning Tools Using a Real-Time Speech Feature Vector", IEICE TECHNICAL REPORT, vol. 108, no. 406, 17 January 2009 (2009-01-17), pages 25 - 30 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019086742A (ja) * 2017-11-10 2019-06-06 株式会社レイトロン 言語機能訓練システム、装置、およびプログラム

Also Published As

Publication number Publication date
JP6130492B2 (ja) 2017-05-17
JPWO2014162356A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
JP6570651B2 (ja) 音声対話装置および音声対話方法
US6321196B1 (en) Phonetic spelling for speech recognition
US9858924B2 (en) Voice processing apparatus and voice processing method
Alliano et al. A review of 21 iPad applications for augmentative and alternative communication purposes
JP2006234907A (ja) 音声認識方法
CN108520650A (zh) 一种智能语言训练系统和方法
Fager et al. Evaluation of a speech recognition prototype for speakers with moderate and severe dysarthria: A preliminary report
JP2016045420A (ja) 発音学習支援装置およびプログラム
KR20220128976A (ko) 말 장애 평가 장치, 방법 및 프로그램
KR20220037819A (ko) 복수의 기동어를 인식하는 인공 지능 장치 및 그 방법
WO2016045468A1 (zh) 一种语音输入控制的方法、装置及终端
JP6166831B1 (ja) 単語学習支援装置、単語学習支援プログラム、単語学習支援方法
JP6832503B2 (ja) 情報提示方法、情報提示プログラム及び情報提示システム
JP7376071B2 (ja) コンピュータプログラム、発音学習支援方法及び発音学習支援装置
JP6130492B2 (ja) 言語リハビリテーション支援システム
JP2020101822A (ja) 音声認識機能を用いた情報提供方法および機器の制御方法
JP2011232521A (ja) 音声認識装置
JP2017021245A (ja) 語学学習支援装置、語学学習支援方法および語学学習支援プログラム
JP6155102B2 (ja) 学習支援装置
KR20130128172A (ko) 장애인을 위한 이동통신 단말기 및 문자생성방법
JP6217003B2 (ja) 端末装置、睡眠言動記録方法及び睡眠言動記録プログラム
JP7013702B2 (ja) 学習支援装置、学習支援方法、及び、プログラム
WO2019142447A1 (ja) 情報処理装置および情報処理方法
WO2018147435A1 (ja) 学習支援システム及び方法、並びにコンピュータプログラム
KR20140073768A (ko) 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13880760

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015509599

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13880760

Country of ref document: EP

Kind code of ref document: A1