JP6122849B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP6122849B2
JP6122849B2 JP2014522377A JP2014522377A JP6122849B2 JP 6122849 B2 JP6122849 B2 JP 6122849B2 JP 2014522377 A JP2014522377 A JP 2014522377A JP 2014522377 A JP2014522377 A JP 2014522377A JP 6122849 B2 JP6122849 B2 JP 6122849B2
Authority
JP
Japan
Prior art keywords
word
question sentence
subject
information processing
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014522377A
Other languages
English (en)
Other versions
JPWO2014002349A1 (ja
Inventor
俊英 田中
俊英 田中
鮫島 正
正 鮫島
美雪 小山
美雪 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TRUMO KABUSHIKI KAISHA
Original Assignee
TRUMO KABUSHIKI KAISHA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TRUMO KABUSHIKI KAISHA filed Critical TRUMO KABUSHIKI KAISHA
Publication of JPWO2014002349A1 publication Critical patent/JPWO2014002349A1/ja
Application granted granted Critical
Publication of JP6122849B2 publication Critical patent/JP6122849B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/04Electrically-operated educational appliances with audible presentation of the material to be studied

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Rehabilitation Tools (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、情報処理装置及び情報処理方法に関するものである。
脳出血や脳梗塞などの脳血管障害によって言語野が損傷されることで、言語機能が低下した失語症患者、構音障害患者等の言語障害患者に対しては、従来より、言語聴覚士の指導/監視のもとで、リハビリが行われてきた。
一般に言語機能の障害には、滑らかな発話ができない状態や、他者の話し言葉を理解できない状態、聞いた話を復唱できない状態、あるいは、物品の呼称がわからない状態等、様々な症状があり、言語聴覚士は、各言語障害患者の症状にあわせたメニューを選択し、リハビリを行っている。
一方で、失語症患者のリハビリを補助するための装置として、従来より、種々の装置が提案されてきた。例えば、下記特許文献1では、絵や写真、文字などで表示されたカードを見て失語症患者が発声した音声を記録し、正しい音声と比較することで、正しく発声できているか否かを判定する装置が提案されている。
特開2011−209471号公報
しかしながら、従来の装置の場合、視覚的な入力に対する発声を判定するものであるため、言語障害患者が正しく発声できなかった場合に、表示されている物品自体が何であるのかを理解できていないのか、表示されている物品は理解できているが、言葉が想起できていないのかを区別することができない。また、従来の装置の場合、そもそも視覚的な入力を前提としているため、聴覚からの入力に対する理解度を把握することができない。このため、言語障害患者のそれぞれの状態に応じたリハビリを行うことができないという問題があった。
このようなことから、言語障害患者のリハビリを補助する装置においては、言語障害患者の状態を的確に把握し、かつ、把握した言語障害患者の状態に応じたメニューを提供できる構成であることが望ましい。
本発明は上記課題に鑑みてなされたものであり、言語障害患者の状態に応じたリハビリを実現可能な装置を提供することを目的とする。
上記の目的を達成するために、本発明に係る情報処理装置は以下のような構成を備える。即ち、
被検者の言語機能の回復を補助する情報処理装置であって、
所定の単語と該単語の意味を表す情報とを対応付けて、評価用データとして記憶する記憶手段と、
前記記憶手段に記憶された、前記単語の意味を表す情報に基づいて、前記単語を正解とする質問文を音声出力する音声出力手段と、
前記音声出力された質問文に対する、前記被検者の発声に基づく音声の正否を判定し、正解でないと判定した場合に、前記単語を正解とする質問文をテキストにより表示する表示手段と、
前記表示された質問文に対する、前記被検者の回答を取得する取得手段とを備える。
本発明によれば、言語障害患者の状態に応じたリハビリを実現可能な装置を提供することが可能となる。
本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
図1は、本発明の一実施形態にかかる情報処理装置を備えるリハビリ用ロボットの外観構成を示す図である。 図2は、リハビリ用ロボットの機能構成を示す図である。 図3は、リハビリ動作制御処理の流れを示すフローチャートである。 図4は、評価用データの一例を示す図である。 図5は、リハビリ処理1の流れを示すフローチャートである。 図6Aは、リハビリ処理2の流れを示すフローチャートである。 図6Bは、リハビリ処理2の流れを示すフローチャートである。 図7は、患者状態判定処理の流れを示すフローチャートである。 図8は、患者状態判定処理において生成された言語障害患者のリハビリ結果データの集計結果表示の一例を示す図である。
以下、本発明の各実施形態について添付図面を参照しながら詳細に説明する。なお、以下に述べる実施の形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの態様に限られるものではない。
[第1の実施形態]
<1.リハビリ用ロボットの外観構成>
図1は、本実施形態に係る情報処理装置を備えるリハビリ用ロボット100の外観構成を示す図である。図1に示すように、被検者(言語障害患者)の言語機能の回復を補助するリハビリ用ロボット100は、頭部110と胴体部120と脚部(左脚部131、右脚部132)とを備える。
頭部110は、リハビリ用ロボット100に対して、言語障害患者が種々の指示を与えるための押圧スイッチ111と、外部環境を撮像し、言語障害患者の位置や顔の向き等を把握するための撮像カメラ部113と、言語障害患者の発声を取得するマイク部112とを備える。また、押圧スイッチ111による指示や、マイク部112に入力された音声等に応じて点灯するランプ114を備える。
また、胴体部120は、言語障害患者のリハビリに必要なデータを表示したり、タッチ操作により、言語障害患者の指示を入力するためのタッチパネル部121と、言語障害患者に向けて音声を出力するためのスピーカ部122とを備える。なお、タッチパネル部121、スピーカ部122は、胴体部120に内蔵されている必要はなく、外部出力により接続される構成であってもよい。
なお、胴体部120には、左脚部131と右脚部132が接続されており、リハビリ用ロボット100全体を任意の方向に移動させることができる。また、頭部110は胴体部120に対して、矢印141方向に回動するよう(つまり、首振り動作するよう)構成されている。このため、リハビリ用ロボット100は、胴体部120全体を言語障害患者の方向に向けることも、頭部110のみを向けることもできる。
<2.リハビリ用ロボットの機能構成>
次に、リハビリ用ロボット100の機能構成について説明する。図2は、リハビリ用ロボット100の機能構成を示す図である。
図2に示すように、リハビリ用ロボット100は、制御部(コンピュータ)201と、メモリ部202と、記憶部(記憶手段)203と(これらは情報処理装置を形成する)、タッチパネル部204と、ランプ部205と、操作部206と、音声入力部207と、音声出力部208と、撮像部209と、通信部210と、モータ駆動制御部211と、を備え、各部はバス212を介して接続されている。
記憶部203には、制御部201により実行されることにより、リハビリ動作制御部221及び患者状態判定部222として機能するプログラムが格納されている。当該プログラムは、制御部201による制御のもと、ワークエリアとして機能するメモリ部202に適宜読み込まれ、制御部201によって実行されることで、当該各機能を実現する。なお、当該プログラムが実行されることにより実現されるリハビリ動作制御部221には、後述する音声出力手段、表示手段(第1の表示手段、第2の表示手段)、取得手段(第2の取得手段、第2の取得手段)等の機能が含まれる。また、当該プログラムが実行されることにより実現される患者状態判定部222には、後述する集計結果表示手段、第1の表示手段、第2の表示手段等の機能が含まれる。
また、記憶部203には、リハビリ動作制御部221として機能するプログラムが制御部201において実行される際に用いられる、“評価用データ223”が格納されている。また、リハビリ動作制御部221として機能するプログラムが実行されることにより取得され、患者状態判定部222として機能するプログラムが実行される際に用いられる、“リハビリ結果データ224”が格納されている。
なお、記憶部203には、リハビリ用ロボット100が有するその他の機能を実現するための各種プログラム及びデータが格納されているものとするが、ここでは、説明を省略する。
タッチパネル部204は、図1の121に対応しており、リハビリ動作制御部221によるリハビリ動作制御処理(詳細は後述)において、評価用データ223に基づいて生成された表示データを、言語障害患者に対して表示したり、言語障害患者からのタッチ操作による入力を受け付けたりする。
ランプ部205は、図1のランプ114を含むリハビリ用ロボット100の各種発光装置を含み、リハビリ用ロボット100の内部状態に応じて発光する。操作部206は、図1の押圧スイッチ111を含むリハビリ用ロボット100の各種操作スイッチを表しており、言語障害患者が操作することにより、リハビリ動作制御部221では、所定の指示が入力されたと認識する。
音声入力部207は、図1のマイク部112を含み、言語障害患者が発声した音声を電気信号に変換し、制御部201に入力する。音声出力部208は、図1のスピーカ部122を含み、リハビリ動作制御処理において、評価用データ223に基づいて生成された音声データを、言語障害患者に向けて出力する。
撮像部209は、図1の撮像カメラ部113を含み、撮像により得られた画像データを処理することにより、周囲の状態(言語障害患者の位置、顔の向き、周辺の障害物の有無等)を認識する。
通信部210は、外部装置(他の情報処理装置や、他のリハビリ用ロボット等)と無線により通信を行う。これにより、リハビリ用ロボット100では、リハビリ動作制御処理において取得されたリハビリ結果データ224を外部装置に送信したり、リハビリ動作制御処理において用いられる評価用データ223を、外部装置からの指示に基づいて、最新の評価データに更新したりすることができる。
モータ駆動制御部211は、左脚部131、右脚部132に配された車輪を駆動するためのモータを制御したり、頭部110に配され、頭部110を首振り動作させるためのモータを制御したりする。
<3.リハビリ動作制御処理の流れ>
次に、リハビリ動作制御部221によるリハビリ動作制御処理の流れについて説明する。図3は、リハビリ動作制御部221によるリハビリ動作制御処理の流れを示すフローチャートである。
言語聴覚士または言語障害患者からの開始指示(例えば、操作部206に対する操作、あるいは、タッチパネル部204に対するタッチ操作)により、リハビリ動作制御処理が開始されると、ステップS301では、評価用データ223を読み出す。
図4は、ステップS301において読み出される評価用データ223の一例を示す図である。図4に示すように、評価用データ223は、言語障害患者に発声させるべき単語(例えば、“冷蔵庫”、“時計”、“いす”・・・等)が所定の順序で格納されている。また、各単語の意味と、各単語を示す画像を含む3枚の画像セットと、がそれぞれの単語と対応付けて格納されている。更に、言語障害患者に発声させるべき単語と類似する類似単語が格納されている。なお、類似単語は、言語障害患者が発声した場合に、正解と判断すべき単語であり、対応する単語の他の言い方(方言、慣用的な言い方等)を含む。
図3に戻る。ステップS302では、カウント値Nを“1”に設定し、ステップS303では、評価用データN(ここでは、“評価用データ1”)について、リハビリ処理1を実行する(つまり、ステップS301において読み出された評価用データのうち、単語“冷蔵庫”について、リハビリ処理1を実行する)。
ステップS304では、評価用データN(ここでは、“評価用データ1”)について、リハビリ処理1とは異なるリハビリ処理2を実行する(つまり、ステップS301において読み出された評価用データのうち、単語“冷蔵庫”について、リハビリ処理2を実行する)。なお、リハビリ処理1及びリハビリ処理2の詳細については後述する。
ステップS305では、ステップS303におけるリハビリ処理1及び/またはステップS304におけるリハビリ処理2の結果に基づいて、リハビリ結果データ224を生成(または更新)する。
ステップS306では、カウント値Nをインクリメントした後、ステップS307に進み、リハビリ動作制御処理を終了するか否か判定する。ステップS307では、言語聴覚士または言語障害患者からの終了指示(例えば、操作部206に対する操作、あるいは、タッチパネル部204に対するタッチ操作)が入力された場合、あるいは、カウント値N=n(nは、評価用データ223に含まれる単語の数)となった場合に、終了すると判定し、リハビリ動作制御処理を終了する。
一方、ステップS307において、終了しないと判定した場合には、ステップS303に戻り、評価用データN(例えば、“評価用データ2”)について、リハビリ処理1及びリハビリ処理2を実行する。
<4.リハビリ処理1の流れ>
次に、リハビリ処理1(ステップS303)の詳細について説明する。図5は、リハビリ処理1の流れを示すフローチャートである。
ステップS501では、音声出力手段が、評価用データNの単語を、言語障害患者に発声させるために、評価用データNの単語の意味に基づいて、言語障害患者に対する質問用の音声データを生成する。
例えば、カウント値N=1の場合、単語“冷蔵庫”の意味は、“食べ物を冷やす機械”であることから、当該意味に基づいて、“食べ物を冷やす機械は何ですか”という質問文を作成し、対応する音声データを生成する。
ステップS502では、音声出力手段が、ステップS501において生成された音声データを、音声出力部208を介して、言語障害患者に向かって出力する(図5の右側最上段参照)。
続いて、ステップS503では、ステップS502における音声データの出力に伴って、音声入力部207を介して、言語障害患者の発声(応答)による音声を取得すべく、所定時間動作する。更に、取得した音声を認識する(図5の右側中段参照)。
ステップS504では、言語障害患者による発声が完了したと判定されるまで待つ。具体的には、言語障害患者が音声による質問文を理解し、かつ、質問文に対応する単語を想起し発声した場合には、言語障害患者による発声が完了したと判定する。あるいは、言語障害患者が音声による質問文を理解できず、または、質問文に対する単語を想起できず、所定時間発声がなかった場合も、言語障害患者による発声が完了したと判定する。
ステップS504において、発声が完了したと判定された場合には、ステップS505に進み、ステップS503において取得され、認識された音声が、言語障害患者に発声させるべき単語であったか否か(つまり、正解であったか否か)の正否を判定する。ステップS505において、正解であると判定された場合には、ステップS506に進み、言語障害患者に対して、今回の質問の答えが正解であることを報知する(図5の右側最下段参照)。この場合、リハビリ処理2を飛ばして、ステップS305に進む。
一方、ステップS505において、正解でないと判定された場合には、ステップS304に進み、リハビリ処理2を実行する。
<5.リハビリ処理2の流れ>
次に、リハビリ処理2(ステップS304)の詳細について説明する。図6A、図6Bは、リハビリ処理2の流れを示すフローチャートである。
ステップS601では、第1の表示手段が、評価用データNの単語を、言語障害患者に発声させるために、評価用データNの単語の意味に基づいて、言語障害患者に対する質問用のテキストデータを生成する。
例えば、カウント値N=1の場合、単語“冷蔵庫”の意味は、“食べ物を冷やす機械”であることから、当該意味に基づいて、“食べ物を冷やす機械は何ですか”という質問文のテキストデータを生成する。
ステップS602では、第1の表示手段が、ステップS601において生成されたテキストデータを、タッチパネル部204上に表示する(図6Aの右側上段参照)。
続いて、ステップS603では、ステップS602におけるテキストデータの表示に伴って、第1の取得手段が、音声入力部207を介して、言語障害患者の発声(応答)による音声を取得すべく、所定時間動作する。更に、取得した音声を認識する。
ステップS604では、言語障害患者による発声が完了したと判定されるまで待つ。具体的には、言語障害患者が表示された質問文を理解し、かつ、質問文に対する単語を想起し発声した場合には、言語障害患者による発声が完了したと判定する。あるいは、言語障害患者が表示された質問文を理解できず、または、質問文に対する単語を想起できず、所定時間発声がなかった場合も、言語障害患者による発声が完了したと判定する。
ステップS604において、発声が完了したと判定した場合には、ステップS605に進み、ステップS603において取得され、認識された音声が、言語障害患者に発声させるべき単語であったか否か(つまり、正解であったか否か)の正否を判定する。ステップS605において、正解であると判定された場合には、ステップS606に進み、言語障害患者に対して、今回の質問の答えが正解であることを報知する。その後、ステップS305へと進む。
一方、ステップS605において、正解でないと判定された場合には、ステップS607に進み、評価用データNの単語を、言語障害患者に想起させるために、第2の表示手段が、評価用データNの単語の意味に基づいて質問用のテキストデータを生成するとともに、評価用データNの画像セットを取得する。
例えば、カウント値N=1の場合、単語“冷蔵庫”の意味は、“食べ物を冷やす機械”であることから、当該意味に基づいて、“食べ物を冷やす機械はどれですか”という質問文のテキストデータを生成し、当該テキストデータと対応する画像セットをタッチパネル部204上に表示する(図6Aの右側下段参照)。
続いて、ステップS610では、ステップS608における第2の表示手段によるテキストデータ及び画像セットの表示に伴って、第2の取得手段が、タッチパネル部204を介して、言語障害患者の選択操作を、所定時間、受け付ける。
ステップS610では、第2の取得手段が、言語障害患者による選択操作が完了したと判定されるまで待つ。具体的には、言語障害患者が表示された質問文を理解し、かつ、質問文に対応する画像がどれであるかを判断することで、選択操作を行った場合には、言語障害患者による選択操作が完了したと判定する。あるいは、言語障害患者が表示された質問文を理解できず、または、質問文に対応する画像がいずれであるかを判断できなかったことで、所定時間内に選択操作を行わなかった場合も、言語障害患者による選択操作が完了したと判定する。
ステップS610において、選択操作が完了したと判定した場合には、ステップS611に進み、ステップS609において選択された画像が、言語障害患者が選択すべき画像であったか否か(つまり、正解であったか否か)の正否を判定する。ステップS611において、正解であると判定された場合には、ステップS612に進み、言語障害患者に対して、今回の質問の答えが正解であることを報知する。その後、ステップS305へと進む。
一方、ステップS611において、正解でないと判定された場合には、ステップS613に進み、正解の単語を音声で報知する。
例えば、カウント値N=1の場合、正解の単語は“冷蔵庫”であることから、音声出力部208を介して“答えは冷蔵庫です”と報知する(図6Bの右側参照)。なお、このとき、タッチパネル部204に表示された画像セットのうち、正解の単語“冷蔵庫”に対応する画像を強調表示するようにしてもよい。
ステップS613における処理が終了すると、ステップS305へと進み、リハビリ処理2を終了する。
このように、本実施形態に係るリハビリ用ロボット100では、言語障害患者が、他者の発声した音声を理解できない状態にあるのか否かを判断できるよう、はじめに、音声による質問を行う。そして、音声による質問に答えられなかった場合には、次に、テキストデータによる質問を行う。このとき、テキストデータによる質問に答えられた場合には、当該言語障害患者は、聴覚からの語想起はできないが、視覚からの語想起はできる状態にあると判断することができる。
一方、テキストデータによる質問にも答えられなかった場合には、次に、テキストデータによる質問を行うとともに、答えの画像を含む画像セットを表示し、言語障害患者に正解の画像を選択させる。このとき、正しく画像を選択できた場合には、当該言語障害患者は、視覚からの語想起はできないが、物品が何であるかは理解できる状態にあると判断することができる。反対に、正しく画像を選択できなかった場合には、物品が何であるかを理解できない状態にあると判断することができる。
つまり、本実施形態に係るリハビリ用ロボット100では、言語障害患者の状態を把握できるよう、言語障害患者の状態に応じたメニューを提供することができる。
<6.患者状態判定処理>
次に、患者状態判定部222による患者状態判定処理の流れについて説明する。図7は、患者状態判定部222による患者状態判定処理の流れを示すフローチャートである。
リハビリ用ロボット100を用いて言語障害患者によるリハビリが行われることで、リハビリ用ロボット100に言語障害患者のリハビリ結果データ224が蓄積されると、言語聴覚士は、当該蓄積されたリハビリ結果データ224に基づいて、当該言語障害患者の現在の状態を把握すべく、患者状態判定処理を実行させる。
言語聴覚士からの開始指示(例えば、操作部206に対する操作、あるいは、タッチパネル部204に対するタッチ操作)により、患者状態判定処理が開始されると、ステップS701では、集計結果表示手段が、記憶部203に格納されたリハビリ結果データ224を読み出す。
更に、ステップS702では、集計結果表示手段が、読み出されたリハビリ結果データ224を、レベルごとに集計し、表示する。具体的には、音声データによる質問(図5のステップS502)に対して正解できた場合と、テキストデータによる質問(図6AのステップS602)に対して正解できた場合と、画像データによる質問(図6AのステップS608)に対して正解できた場合と、いずれの質問にも不正解であった場合とに分けてそれぞれの個数を集計し、表示する。
図8は、ステップS702における集計により得られた集計結果表示の一例を示す図である。図8に示すように、各レベルごとに正解した数が表示されるため、言語聴覚士は、当該言語障害患者の現在の状態を定量的に把握することができる。
図7に戻る。ステップS703では、ステップS702において表示された集計結果に応じて、言語聴覚士が変更指示を入力したか否かを判定する。
ステップS703において、言語聴覚士が、リハビリ動作制御処理の処理手順の変更指示を入力した場合には、ステップS704に進み、第1の変更手段が、リハビリ動作制御フローを変更する。
例えば、当該言語障害患者の音声による質問に対する正解の個数が著しく少なく、聴覚からの語想起ができていないことが明らかである場合には、図3に示すように、リハビリ処理1及びリハビリ処理2の両方を実行することは有効とはいえない。そこで、当該言語障害患者に対しては、リハビリ処理1を停止させ、リハビリ処理1を省略したリハビリ動作制御処理に変更するようにする。
あるいは、当該言語障害患者の音声による質問に対する正解の個数、及び、テキストデータによる質問に対する正解の個数が著しく少ない場合にあっては、リハビリ処理1を省略するとともに、リハビリ処理2のステップS601からステップS605を省略したリハビリ動作制御処理に変更するようにする。
一方、ステップS703において、言語聴覚士が、評価用データの変更指示を入力した場合には、ステップS705に進み、第2の変更手段が、評価用データ223を変更する。
例えば、評価用データ223の並び順序を変更する場合にあっては、不正解の単語を上位に、画像データによる質問で正解となった単語を次に配列するといったように、リハビリ結果データに応じた並び順序に変更する。
あるいは、評価用データ223の内容を変更する場合にあっては、音声による質問で正解となった単語を、評価用データ223から削除したり、新たに単語を追加したりといったように、評価用データ223そのものを更新する。
一方、ステップS703において、言語聴覚士が、いずれの変更も指示しなかった場合には、患者状態判定処理を終了する。
以上の説明から明らかなように、本実施形態に係るリハビリ用ロボット100によれば、リハビリに際して、言語障害患者の状態に応じたメニューを提供できるとともに、リハビリ結果に基づいて、言語障害患者の状態を定量的に把握することができるようになる。
[第2の実施形態]
上記第1の実施形態では、音声データ、テキストデータ、または画像データによる質問を行った後に、所定時間、言語障害患者の発声に基づく音声データの取得、またはタッチ操作による選択指示の受け付けを行う構成としたが、本発明はこれに限定されない。例えば、音声データ、テキストデータ、画像データを利用したリハビリ処理の順番を任意に変更できるように構成してもよい。また、言語障害患者自身が、応答完了の指示を別途入力する構成としてもよい。
また、上記第1の実施形態では、ステップS608において画像セットを表示する構成としたが、本発明はこれに限定されない。例えば、画像セットを構成する各画像が示す物品の呼称を、単語セットとしてテキストデータを表示し、当該表示した単語セットの中から、質問に対する回答を選択させる構成としてもよい。
[第3の実施形態]
上記第1及び第2の実施形態では、リハビリ用ロボット100を用いて、リハビリ動作制御部221及び患者状態判定部222を実現する構成としたが、本発明はこれに限定されず、他の情報処理装置(例えば、パーソナルコンピュータ、携帯情報端末等)上においてこれらの機能を実現する構成としてもよい。
[その他の実施形態]
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。
本願は、2012年6月29日提出の日本国特許出願特願2012−147547を基礎として優先権を主張するものであり、その記載内容の全てを、ここに援用する。

Claims (8)

  1. 被検者の言語機能の回復を補助する情報処理装置であって、
    所定の単語と該単語の意味を表す情報とを対応付けて、評価用データとして記憶する記憶手段と、
    前記記憶手段に記憶された、前記単語の意味を表す情報に基づいて、前記単語を正解とする質問文を音声出力する音声出力手段と、
    前記音声出力された質問文に対する、前記被検者の発声に基づく音声の正否を判定し、正解でないと判定した場合に、前記単語を正解とする質問文をテキストにより表示する表示手段と、
    前記表示された質問文に対する、前記被検者の回答を取得する取得手段と
    を備えることを特徴とする情報処理装置。
  2. 前記表示手段は、
    前記単語の意味を表す情報に基づいて、前記単語を正解とする質問文をテキストにより表示する第1の表示手段と、
    前記第1の表示手段により表示された質問文に対する、前記被検者の発声に基づく音声の正否を判定し、正解でないと判定した場合に、前記単語に対応する画像を含む画像セットを表示するとともに、前記単語の意味を表す情報に基づいて、前記単語に対応する画像を選択させるための質問文をテキストにより表示する第2の表示手段と
    を更に備えることを特徴とする請求項1に記載の情報処理装置。
  3. 前記取得手段は、
    前記第1の表示手段により表示された質問文に対する、前記被検者の発声に基づく音声を、前記被検者の回答として取得する第1の取得手段と、
    前記第2の表示手段により表示された質問文に対する、前記被検者の画像の選択操作を、前記被検者の回答として取得する第2の取得手段と
    を更に備えることを特徴とする請求項2に記載の情報処理装置。
  4. 前記音声出力手段により音声出力された質問文に対する、前記被検者の発声に基づく音声の正否と、
    前記第1の表示手段により表示された質問文に対する、前記被検者の発声に基づく音声の正否と、
    前記第2の表示手段により表示された質問文に対する、前記被検者の画像の選択操作の正否とに分けて集計し、表示する集計結果表示手段を更に備えることを特徴とする請求項3に記載の情報処理装置。
  5. 前記音声出力手段と、前記第1の表示手段と、前記第2の表示手段のうちのいずれかの動作を停止させることで、処理手順を変更する第1の変更手段と、
    前記記憶手段に記憶された前記評価用データを変更する第2の変更手段と
    を備えることを特徴とする請求項3に記載の情報処理装置。
  6. 前記表示手段は、
    前記単語の意味を表す情報に基づいて、前記単語を正解とする質問文をテキストにより表示する第1の表示手段と、
    前記第1の表示手段により表示された質問文に対する、前記被検者の発声に基づく音声の正否を判定し、正解でないと判定した場合に、前記単語を含む単語セットを表示するとともに、前記単語の意味を表す情報に基づいて、前記単語を選択させるための質問文をテキストにより表示する第2の表示手段と
    を更に備えることを特徴とする請求項1に記載の情報処理装置。
  7. 被検者の言語機能の回復を補助する情報処理装置における情報処理方法であって、
    所定の単語と該単語の意味を表す情報とを対応付けて、評価用データとして記憶手段に記憶する記憶工程と、
    前記記憶手段に記憶された、前記単語の意味を表す情報に基づいて、前記単語を正解とする質問文を音声出力する音声出力工程と、
    前記音声出力された質問文に対する、前記被検者の発声に基づく音声の正否を判定し、正解でないと判定した場合に、前記単語を正解とする質問文をテキストにより表示する表示工程と、
    前記表示された質問文に対する、前記被検者の回答を取得する取得工程と
    を備えることを特徴とする情報処理装置における情報処理方法。
  8. 請求項7に記載の情報処理方法の各工程をコンピュータに実行させるためのプログラム。
JP2014522377A 2012-06-29 2013-04-18 情報処理装置及び情報処理方法 Active JP6122849B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012147547 2012-06-29
JP2012147547 2012-06-29
PCT/JP2013/002633 WO2014002349A1 (ja) 2012-06-29 2013-04-18 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2014002349A1 JPWO2014002349A1 (ja) 2016-05-30
JP6122849B2 true JP6122849B2 (ja) 2017-04-26

Family

ID=49782555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014522377A Active JP6122849B2 (ja) 2012-06-29 2013-04-18 情報処理装置及び情報処理方法

Country Status (2)

Country Link
JP (1) JP6122849B2 (ja)
WO (1) WO2014002349A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10910105B2 (en) * 2017-05-31 2021-02-02 International Business Machines Corporation Monitoring the use of language of a patient for identifying potential speech and related neurological disorders
JP6967777B2 (ja) * 2017-11-10 2021-11-17 株式会社レイトロン 言語機能訓練システムおよび装置
IT201800009607A1 (it) * 2018-10-19 2020-04-19 Andrea Previato Sistema e metodo di ausilio ad utenti con disabilità comunicativa
CN111241238B (zh) * 2020-01-06 2023-11-21 北京小米松果电子有限公司 用户测评方法、装置、电子设备及存储介质
JP2021137375A (ja) * 2020-03-06 2021-09-16 株式会社ジェイテクト 複合トレーニング用歩行支援システム
CN116096301A (zh) * 2020-09-08 2023-05-09 泰尔茂株式会社 程序、信息处理装置以及信息处理方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007129392A1 (ja) * 2006-04-25 2007-11-15 Shimada Managedevelopment Co., Ltd. 主機と副機を有する失語症練習支援装置

Also Published As

Publication number Publication date
WO2014002349A1 (ja) 2014-01-03
JPWO2014002349A1 (ja) 2016-05-30

Similar Documents

Publication Publication Date Title
JP6122849B2 (ja) 情報処理装置及び情報処理方法
JP4565220B2 (ja) 医療用実習装置
Tamagawa et al. The effects of synthesized voice accents on user perceptions of robots
US20180078184A1 (en) Dual-task performing ability evaluation method and dual-task performing ability evaluation system
Alliano et al. A review of 21 iPad applications for augmentative and alternative communication purposes
JP6158179B2 (ja) 情報処理装置および情報処理方法
JP2018015139A (ja) 認知症検査システム
JP2017112545A (ja) 会議支援システム
Do et al. Clinical screening interview using a social robot for geriatric care
JP2012073299A (ja) 言語訓練装置
US20090170057A1 (en) Body interactively learning method and apparatus
US10643636B2 (en) Information processing apparatus, information processing method, and program
WO2014087571A1 (ja) 情報処理装置および情報処理方法
JP7010544B2 (ja) 対話支援装置、対話支援方法、およびプログラム
KR102116517B1 (ko) 초음파 진단기와 스마트 기기를 연동한 원격지원시스템
US20200075015A1 (en) Information processing device, information processing method, and information processing system
KR101413598B1 (ko) 진동 스피커가 부착된 의자를 이용한 발음 교정 장치 및 방법
Morón et al. A mobile memory game for patients with Acquired Brain Damage: a preliminary usability study
JP2005173419A (ja) 手話解釈装置
Zhu et al. An investigation into the effectiveness of using acoustic touch to assist people who are blind
KR102572362B1 (ko) 난청환자 재활교육용 챗봇 제공 방법 및 그 시스템
Sansen et al. vAssist: building the personal assistant for dependent people: Helping dependent people to cope with technology through speech interaction
JP6359967B2 (ja) 情報処理装置、情報処理方法
JP6130492B2 (ja) 言語リハビリテーション支援システム
KR20180061824A (ko) 난독증 진단 및 학습 서비스 제공 방법 및 이를 수행하는 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170403

R150 Certificate of patent or registration of utility model

Ref document number: 6122849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250