JP6130492B2 - 言語リハビリテーション支援システム - Google Patents

言語リハビリテーション支援システム Download PDF

Info

Publication number
JP6130492B2
JP6130492B2 JP2015509599A JP2015509599A JP6130492B2 JP 6130492 B2 JP6130492 B2 JP 6130492B2 JP 2015509599 A JP2015509599 A JP 2015509599A JP 2015509599 A JP2015509599 A JP 2015509599A JP 6130492 B2 JP6130492 B2 JP 6130492B2
Authority
JP
Japan
Prior art keywords
language
patient
client
search
expression data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015509599A
Other languages
English (en)
Other versions
JPWO2014162356A1 (ja
Inventor
美雪 小山
美雪 小山
鮫島 正
正 鮫島
俊英 田中
俊英 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TRUMO KABUSHIKI KAISHA
Original Assignee
TRUMO KABUSHIKI KAISHA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TRUMO KABUSHIKI KAISHA filed Critical TRUMO KABUSHIKI KAISHA
Publication of JPWO2014162356A1 publication Critical patent/JPWO2014162356A1/ja
Application granted granted Critical
Publication of JP6130492B2 publication Critical patent/JP6130492B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Rehabilitation Tools (AREA)

Description

本発明は、音声言語機能障害のリハビリテーションを支援するための技術に関する。
失語症や構音障害を含む音声言語機能障害のリハビリテーションにおいては、例えば、言語聴覚士(ST: Speech-Language-Hearing Therapist)が、小学生用の国語教材等から単語又は文を選択して患者に提示する。具体的には、言語聴覚士が選択した単語又は文を読み上げ、患者にそれを復唱させたり、書き取らせたりする。
しかしながら、患者の症状に合わせて言語聴覚士が単語又は文を準備するのは非常に煩雑である。
そこで、このようなリハビリテーションを支援するための装置の開発も進んでいる(例えば、特許文献1参照。)。
特開2007−292979号公報
しかし、従来の技術では、その装置を使用する言語聴覚士が使用する教材等によって提供される単語又は文が決まってしまい、患者の多様な症状に適した単語又は文を提供することができない。
本発明の一般的な目的は、患者の症状に適した単語又は文を提供することが可能な言語リハビリテーション支援装置を実現することである。
その他の目的および利点については、以下の説明によって明らかになろう。
本発明の一側面によれば、音声言語機能障害のリハビリテーションを支援する言語リハビリテーション支援システムであって、患者に対して提示するための言語表現データをデータベースに記憶するサーバと、前記サーバから提供される言語表現データに基づいて、患者に対してリハビリテーション用の文字又は音声を提示するクライアントとを含み、前記サーバは、前記クライアントからの登録要求に応答して、前記クライアントから受信した言語表現データと該言語表現データに付随するメタデータとをデータエントリとしてデータベースに登録する登録手段と、前記クライアントからの検索要求に応答して、前記クライアントから受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリを前記データベースから抽出する検索を行い、検索結果として前記クライアントに送信する検索手段とを有し、前記クライアントは、前記検索によって得られた言語表現データを患者に提示する提示手段と、前記提示及び該提示に対する患者の応答の情報を含む患者履歴データを前記サーバに送信する送信手段とを有し、前記クライアントは、前記リハビリテーションの重点対象である注目音と、該注目音の単語中の位置を指定する指定手段を更に有し、前記指定された注目音と該注目音の前記位置の情報を前記検索キーに含めることを特徴とする言語リハビリテーション支援システムが提供される。
本発明によれば、患者の症状に適した単語又は文を提供することが可能な言語リハビリテーション支援装置が実現される。
本発明のその他の特徴及び利点は、添付図面を参照とした以下の説明により明らかになるであろう。なお、添付図面においては、同じ若しくは同様の構成には、同じ参照番号を付す。
添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
実施形態における言語リハビリテーション支援システムの構成を示す図。 実施形態におけるロボットの構成を示すブロック図。 実施形態におけるリハビリ用クライアントプログラムのモジュール構成の例を示す図。 実施形態におけるサーバの構成を示すブロック図。 実施形態におけるリハビリ支援機能のホーム画面の例を示す図。 実施形態におけるDB登録画面の例を示す図。 実施形態における言語表現データの新規登録処理に係るロボットとサーバとの間のシーケンスチャート。 実施形態におけるリハビリ用DBに保持されるデータの構造例を示す図。 実施形態におけるDB検索画面の例を示す図。 図9のDB検索画面の変形例を示す図。 実施形態における言語表現データの検索処理に係るロボットとサーバとの間のシーケンスチャート。 実施形態におけるDB検索結果画面の例を示す図。 実施形態におけるリハビリ支援処理のフローチャート。 実施形態における患者履歴データの構造例を示す図。 実施形態における作業指示テーブルの例を示す図。
以下、図面を参照して本発明の好適な実施形態について詳細に説明する。なお、本発明は以下の実施形態に限定されるものではなく、本発明の実施に有利な具体例を示すにすぎない。また、以下の実施形態の中で説明されている特徴の組み合わせの全てが本発明の課題解決のために必須のものであるとは限らない。
図1は、実施形態における言語リハビリテーション支援システムの構成を示す図である。本実施形態における言語リハビリテーション支援システムは、図示の如く、ロボット1とサーバ2とを含む。ロボット1は、患者とインタラクションをとるものであり、患者に対しリハビリテーション(以下「リハビリ」と略記する。)用の言語表現を提示する。なお本明細書において、「提示」とは、スピーカからの発音及び/又は表示デバイスによる表示の態様を含むものとする。
サーバ2には、LAN(Local Area Network)4を介して無線アクセスポイント3が接続されている。LAN4は通信ネットワークの一態様であってその他の通信ネットワークであってもよい。無線アクセスポイント3は、ロボット1がLAN4を介してサーバ2にアクセスするための通信ハブとして動作する。具体的には、無線アクセスポイント3は、例えばIEEE802.11nベースの通信プロトコルを使用してロボット1と無線通信することができ、設定に依存して、その無線アクセスポイント3の位置から数メートルから数十メートルの通信範囲を有することができる。無線アクセスポイント3は、こうして無線LANを構成し、ロボット1が通信範囲内に存在している場合に、ロボット1とサーバ2との通信を中継する。
このシステムにおいて、ロボット1はサーバ2に対するクライアント端末として機能する。ロボット1は、一般的なコンピュータの外観を持つものであってもよいが、上記したとおり、患者とインタラクションをとりながらリハビリを行うものであるから、患者がリラックスして親しみが湧くような外観構成を有するとよいであろう。ロボット1は、無線アクセスポイント3と無線通信を行うためのアンテナ111を有する。また、ロボット1には、人の側頭部に対応する位置、及び口に対応する位置にそれぞれ、マイクロホン114及びスピーカ112が設けられている。更に、ロボット1には、人の頭部、胸部、脇腹、腹部等に対応する各位置に、人が触れたことを検出する複数のタッチセンサ式のボタン120が設けられている。また、ロボット1は、言語聴覚士や患者が使用するためのタッチパネル式の表示・入力デバイスであるタブレット端末150を、ケーブル151を介して接続可能である。タブレット端末150のタッチパネルは、ユーザの指によるタップやなぞり動作を検出可能であるものとする。もっとも、このようなタブレット端末150の機能はロボット1自体が予め備えている構成としてもよい。なお、図1にはロボット1が3つ描かれているが、その個数は例示にすぎない。また、図1の構成は無線LAN通信を前提としたが、有線通信によるものであってもよい。
図2は、ロボット1の構成を示すブロック図である。ロボット1は、装置全体の制御を司るCPU101、主記憶装置として機能するRAM102、制御プログラムや固定的なデータを記憶しているROM103をはじめ、以下の構成を備える。
無線通信コントローラ105は、アンテナ111を介して行う無線通信を制御する。HDD106はハードディスク装置であり、オペレーティグシステム(OS)107やリハビリ用クライアントプログラム108を格納する他、不図示の各種データを記憶することができる。インタフェース(I/F)109は、タブレット端末150をケーブル151を介して接続する。音声コントローラ110は、不図示のA/Dコンバータ、D/Aコンバータ、帯域制限フィルタ等を含み、スピーカ112を用いた音声出力及びマイクロホン114からの音声入力を行う。また、上述したように、ロボット1は複数のタッチセンサ式のボタン120も有する。
図3は、リハビリ用クライアントプログラム108のモジュール構成の例を示している。DB登録モジュール121は、後述するデータベースへの登録処理に係るファンクションモジュールである。DB検索モジュール122は、データベースの検索処理に係るファンクションモジュールである。リハビリ支援モジュール123は、ロボット1によるリハビリの実行を担う。音声合成モジュール124は、ロボット1によるリハビリにおける言語表現の提示の一態様として音声出力を行う際に音声合成を実行する。音声認識モジュール125は、患者に対して提示されうる言語表現を認識対象とする音声認識を実行する。この音声認識は、単語認識機能のみならず、文を認識可能な連続音声認識の機能を備える。
図4は、サーバ2の構成を示すブロック図である。CPU201は、装置全体の制御を司る中央処理装置である。RAM202は、主記憶装置として機能するメモリである。ROM203は、制御プログラムや固定的なデータを記憶しているメモリである。通信I/F204は、LAN4と接続するためのインタフェースである。HDD205はハードディスク装置であって、オペレーティング・システム(OS)206、リハビリ用サーバプログラム207、リハビリ用データベース(DB)208、患者履歴データ209を格納することができる。リハビリ用DB208は、リハビリで使用する言語データを蓄積するものであり、各クライアントで蓄積するかわりに、サーバ2で一元的に蓄積している点が、本実施形態の特徴的な構成である。なおここでは、リハビリ用サーバプログラム207は、電源ON時に起動されてRAM202にロードされ、CPU201によって実行されており、クライアントであるロボット1からの要求信号を待機している状態であるとする。
図5は、タブレット端末150に表示されるリハビリ支援機能のホーム画面の例を示している。なお、このホーム画面は例えば、ロボット1の起動時にリハビリ用クライアントプログラム108がRAM102にロードされ、CPU101によって実行されたことにより、タブレット端末150に表示される初期画面である。図示のように、ホーム画面は、DB登録ボタン501、DB検索ボタン502、リハビリ開始ボタン503、患者登録ボタン504、患者選択ボタン505を含む。ユーザ(例えば言語聴覚士)がいずれかのボタンをタップすると、対応する画面に遷移することができる。
図6は、図5のDB登録ボタン501がタップされたことによりタブレット端末150に表示されるDB登録画面の例を示している。ユーザである言語聴覚士は、ここから所望する言語表現データの新規登録を行うことができる。ユーザは、読み入力部601をタップすると、そこに、登録する言語表現の読み(pronunciation)を、例えばアルファベットで入力することができる。次にユーザは、表記入力部602をタップすると、そこに、登録する言語表現の表記(notation)を、ひらがなで入力することができる。なお、「ひらがな」とは、日本語の表記に用いられる音節文字の一種をいう。
次にユーザは、タイプ入力部603をタップすると、そこに、登録する言語表現のタイプ種別を入力することができる。タイプ入力部603がタップされると、候補ウィンドウ603aにタイプ種別の候補が表示されるので、その中からタップによって選択することも可能である。本実施形態では、タイプ種別として、単語、文、及び作業指示文が想定され、それぞれ、値1、2、3が付与されている。
ユーザは、音節数/単語数入力部604をタップすると、そこに、登録する言語表現の音節数又は単語数を入力することができる。登録する言語表現のタイプが単語である場合は音節数を入力し、登録する言語表現のタイプが文である場合は単語数を入力することになる。なお、本実施形態では単語の長さを特定する単位として音節数を使用するが、このかわりにモーラ数を用いてもよい。音節数/単語数入力部604がタップされると、候補ウィンドウ604aに音節数又は単語数の候補が表示されるので、その中からタップによって選択することも可能である。
ユーザは、ジャンル入力部605をタップすると、そこに、登録する言語表現のジャンルを入力することができる。ジャンルは単数だけでなく複数入力可能であるものとする。ジャンル入力部605がタップされると、候補ウィンドウ605aにジャンルの候補が表示されるので、その中からタップによって選択することも可能である。また、候補ウィンドウ605aには新規作成ボタン605bも表示され、これをタップすることでジャンルを新規に作成することも可能である。
ユーザは、頻度入力部606をタップすると、そこに、登録する言語表現の頻度情報を入力することができる。本実施形態では、高頻度を1、低頻度を2とする頻度情報が想定されている。本実施形態において、頻度とは、例えば、人の一般的な言語生活の中でその単語が発生する度合いをいう。頻度入力部606がタップされると、候補ウィンドウ606aに頻度の候補が表示されるので、その中からタップによって選択することも可能である。
キャンセルボタン608がタップされると、この画面の入力内容を破棄して図5のホーム画面に戻る。一方、この登録画面の全ての入力部への入力が済んだ状態で完了ボタン609がタップされると、CPU101は、これらの入力データをデータエントリとして所定のフォーマットに組織化してRAM102にいったん格納し、図7に示すようなシーケンスによって、そのデータエントリを登録する。具体的には、ロボット1は、この登録画面の全ての入力部への入力が済んだ状態で完了ボタン609がタップされたことに応答して、DB登録要求をサーバ2に対して発行する(701)。サーバ2は、このDB登録要求を受信すると確認応答(ACK)をロボット1に返す(702)。ロボット1は、DB登録要求を発行後所定時間内にACKを受信すると、RAM102に格納しておいたデータエントリをサーバ2に送信する(703)。サーバ2は、受信したデータエントリを、リハビリ用DB208に追加登録する(704)。登録を終えると、サーバ2は、登録完了通知をロボット1に対して発行する(705)。ロボット1は、この登録完了通知を受信することで登録が首尾よく完了したことを確認する。この確認後、画面は図5のホーム画面に戻る。
以上のようにして、ユーザである言語聴覚士は、ここから所望する言語表現データの新規登録を行うことができる。図8に、サーバ2のリハビリ用DB208に保持されるデータの構造の例を示す。ここではタイプ種別が単語であるものについてのDBの例を示す。図示するように、各データエントリには固有のIDが付与され、読み及び表記が言語表現として記述されている。そして、各データエントリは、音節数、ジャンル、頻度の情報を含むメタデータが付随する。
図9は、図5のDB検索ボタン502がタップされたことによりタブレット端末150に表示されるDB検索画面の例を示している。ユーザである言語聴覚士は、ここから所望する言語表現データの検索を行うことができる。ユーザは、タイプ入力部901をタップすると、そこに、検索する言語表現のタイプ種別を入力することができる。タイプ入力部901がタップされると、候補ウィンドウ901aにタイプ種別の候補が表示されるので、その中からタップによって選択することも可能である。
ユーザは、音節数/単語数入力部902をタップすると、そこに、検索する言語表現の音節数又は単語数を入力することができる。検索する言語表現のタイプが単語である場合は音節数を入力し、検索する言語表現のタイプが文である場合は単語数を入力することになる。音節数/単語数入力部902がタップされると、候補ウィンドウ902aに音節数又は単語数の候補が表示されるので、その中からタップによって選択することも可能である。
ユーザは、ジャンル入力部903をタップすると、そこに、検索する言語表現のジャンルを入力することができる。ジャンルは単数だけでなく複数入力可能であるものとする。ジャンル入力部903がタップされると、候補ウィンドウ903aにジャンルの候補が表示されるので、その中からタップによって選択することも可能である。
ユーザは、頻度入力部904をタップすると、そこに、検索する言語表現の頻度情報を入力することができる。頻度入力部904がタップされると、候補ウィンドウ904aに頻度の候補が表示されるので、その中からタップによって選択することも可能である。
ユーザは、注目音入力部905をタップすることで、そこに、重点的に訓練したい音(例えば、「か」、「た」等。)を、注目音として記述することができる。ユーザは更に、位置入力部906をタップすると、そこに、記述した注目音の単語中の位置を指定することができる。位置入力部906がタップされると、候補ウィンドウ906aに位置の候補が表示されるので、その中からタップによって選択することができる。例えば、単語中の位置として、語頭、語中、語尾のいずれかを指定可能である。
キャンセルボタン907がタップされると、この画面の入力内容を破棄して図5のホーム画面に戻る。一方、この検索画面の少なくともいずれかの入力部への入力が済んだ状態で検索ボタン908がタップされると、CPU101は、これらの入力データを検索キーとして所定のフォーマットに組織化してRAM102にいったん格納し、その検索キーをサーバ2に送信することができる。
図11に、言語表現データの検索処理に係るロボット1とサーバ2との間のシーケンスチャートを示す。ロボット1は、検索画面の少なくともいずれかの入力部への入力が済んだ状態で検索ボタン908がタップされたことに応答して、DB検索要求をサーバ2に対して発行する(1101)。サーバ2は、このDB検索要求を受信すると確認応答(ACK)をロボット1に返す(1102)。ロボット1は、DB検索要求を発行後所定時間内にACKを受信すると、RAM102に格納しておいた検索キーをサーバ2に送信する(1103)。サーバ2は、受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリをリハビリ用DB208から抽出し(1104)、検索結果(検索データ)としてロボット1に送信する(1105)。なお、検索キーにマッチするデータエントリが抽出されなかった場合は、検索失敗を表すデータを送信する。
ロボット1は、検索データを受信すると、図12に示されるようなDB検索結果画面を表示することができる。図12の例は、検索キーとして、注目音を「き」と記述し、注目音の位置を「語尾」に指定した場合の検索結果を示している。まず、画面上部に検索キーの内容1201が表示され、画面中央に検索されたデータの情報1202が表示される。ここで「戻る」ボタン1210がタップされると、画面は図5のホーム画面に戻る。
以上のようにして、ユーザである言語聴覚士は、所望の条件に合致する言語表現データを抽出することができる。
図5の患者選択ボタン505をタップすると、不図示の患者選択画面にて、これからリハビリを行う患者を選択することができる。ここで患者が選択された場合には、その後実行されるリハビリの履歴情報を記憶することが可能である。また、患者が選択された場合には、サーバ2に保持されている患者履歴データ209から、選択された患者の履歴情報を読み出し、タブレット端末150に表示するなどして、リハビリを実行する際の参考にすることができる。さらに、図5の患者登録ボタン504をタップすると、不図示の患者登録画面にて、患者の新規登録を行うこともできる。患者の新規登録に係るデータエントリは、図7に示したものと同様のシーケンスでサーバ2に送信され、サーバ2はそのデータエントリを患者履歴データ209に追加登録する。なお、患者IDと患者の氏名等の一般的な個人情報とを関連付けたテーブルは、サーバ2の患者履歴データ209に含めるのではなく、各ロボットが保持するようにしてもよい。
図13は、本実施形態におけるリハビリ支援処理のフローチャートである。このフローチャートに対応するプログラムは、ロボット1のリハビリ用クライアントプログラム108に含まれ、RAM102にロードされてCPU101によって実行される。
図5のホーム画面において、リハビリ開始ボタン503がタップされると、図3に示したリハビリ支援モジュール123がコールされて、このフロー制御が開始される。開始されるとまず、図12で示したような提示する言語表現データの候補がタブレット端末150に表示され、言語聴覚士は、そこから患者に対して提示するデータをタップして選択することができる(S2)。CPU101は、選択された言語表現データを提示する(S4)。例えば、CPU101は、選択された言語表現データの表記をタブレット端末150に表示することができる。患者には、それを見て口頭で読み上げてもらう。そのかわりに、ロボット1は、言語表現データに対応する画像(例えば「柿」であれば柿の写真又は絵)を関連付けて記憶しておき、文字表記のかわりにその画像を表示してもよい。あるいは、CPU101は音声合成モジュール124をコールして、選択された言語表現データの読みや言語表現データに関する音、例えば、言語表現データが動物であれば、その鳴き声、を音声合成しスピーカ112から出力することもできる。この場合、患者には、その音を聞いてその音、単語、文章や、音から想起する単語を復唱してもらったり、紙に書いてもらったりする。
言語聴覚士は、患者の回答につき正解/不正解の情報を、タブレット端末150又はその他の入力デバイスを介して入力することができる(S6)。あるいは、CPU101は音声認識モジュール125をコールして、マイクロホン114を介して入力した患者の発声を音声認識し、正解/不正解を自動判定してもよい。その後、出題するデータが他にある場合には(S8でYES)、S2に戻って処理をリハビリを繰り返すことができる。もちろん、同じデータを選択し繰り返し出題することも可能である。データの提示をこれで終了する場合は(S8でNO)、処理はS10に進む。S10では、患者ID、提示した各データのID、当該データの出題回数、正解/不正解の情報を関連付けて患者履歴データエントリを形成し、これをサーバ2に送信する。
以上が、本実施形態におけるリハビリ支援処理の概要である。
図14に、患者履歴データ209の構造例を示す。図示するように、各データエントリにおいて、患者IDと言語表現IDとが関連付けられている。各データエントリには更に、出題回数、正解回数、及び更新日時が付与されている。サーバ2は、受信した患者履歴データエントリを上記のような患者履歴データ209に追記する。具体的には、受信したエントリに係る言語表現データについて、出題回数の値に、今回受信した出題回数の値を加算し、同様に、正解回数の値に、今回受信した正解回数の値を加算する。更に、更新日時の値を、現在時刻でもって書き換える。なお、出題回数に対する正解回数の比によって正解率も算出できる。この患者履歴データによれば、患者ごとに、どの言語表現が過去に何回出題され、そのうち何回正解が得られたかが分かるので、言語聴覚士は、将来のリハビリ計画を立てやすいであろう。
次に、図10に図9の変形例を示す。図10の例では、図9における音節数/単語数入力部902及び頻度入力部904をなくし、かわりに、難易度入力部910が設けられている。ユーザは、難易度入力部910をタップすると、そこに、検索する難易度を指定することができる。難易度入力部910がタップされると、候補ウィンドウ910aに難易度の候補が表示されるので、その中からタップによって選択することも可能である。
ここで、本実施形態における難易度について説明する。音声言語機能障害に対する言語リハビリで用いる単語の難易度は、音節の並び等にも依存するものの、概ね、その単語の音節数が多くなるにつれて上昇する。図10の例において、難易度は、易しい順にレベル1から9までの9レベルが表示されているが、これらは基本的には音節数に対応しているものとみてよい。しかし、同じ音節数であっても、使用頻度の高いものと低いものとでは、低いものの方が難易度は高くなる傾向にある。そこで本実施形態では、個々の単語の難易度を、その単語の音節数に応じた値を、頻度に依存する値で重み付けした値に設定する。すなわち、単語の音節数をN、重み付け係数をαとすると、その単語の難易度Dは、
D=α・N
で表される。だだし、重み付け係数αは、頻度に依存する値であり、例えば、頻度が高頻度であるときはα=1、低頻度であるときはα=1.2とすることができる。なお、Dの値は、α・Nの値を整数値に丸めた値にしてもよい。この場合、整数値に丸める関数をROUND()で表すと、
D=ROUND(α・N)
で表される。
サーバ2は、図8に示したようなリハビリ用DB208において、単語ごとに、上記した式により難易度を計算し、その値を保持しておくとよい。
更に、DB検索を行う際に前もって患者選択が済んでいる場合には、その患者の正解率を難易度に反映させることもできる。例えば、患者ID=0001の患者が選択された場合、サーバ2は、図14に示したような患者履歴データ209を参照し、患者ID0001に関連付けられた言語表現IDのそれぞれについて、正解率を算出する。正解率が低ければその患者にとっては難易度は高く、逆に正解率が高ければ難易度は低いとみることができる。そこで、本実施形態では、正解率に依存する重み付け係数βとして、正解率0.5(50%)のとき1、正解率1(100%)のとき0.5、正解率0のとき1.5となるような関数を設定する。正解率をCRとすると、そのような関数は次式で表される。
β=(1−CR)+0.5
そしてこの場合、当該単語の難易度Dは、
D=α・β・N
で表される。なお、上述したように、Dの値は、α・β・Nの値を整数値に丸めた値にしてもよい。すなわち、
D=ROUND(α・β・N)
で表される。
このようにして、患者の正解率を、難易度に反映させることが可能である。ただし、出題回数が規定回数(例えば5回)に満たない場合は、正解率が信頼に足る値でないと判断して、βの重み付けを適用しないことにしてもよい。
ところで、図10の候補ウィンドウ910aにおいて難易度の候補が易しい順にレベル1から9までの9レベルが表示されているが、このうち1つのレベルを指定することもできるし、複数レベルの範囲を指定できるようにしてもよい。
次に、図9又は図10のDB検索において言語表現のタイプとして「作業指示」が選択された場合に実行される言語リハビリについて説明する。
音声言語機能障害の患者には、前後や上下といった物の位置関係を理解できない症状が多い。また、言われたことが分からなくても分かったふりをして「はい」とだけ答える患者もいる。そこで、音声言語機能障害のリハビリにおいては、さまざまな作業を音声で患者に指示し、その指示に従うことができるかどうかを調べ、これにより聴理解力を確認したり、訓練したりする。
従来、言語聴覚士が、机の上に形や色の異なるおはじきやカードを並べて、その移動を口頭で指示する、といったことが行われている。しかし、訓練時間中におはじきやカードを準備するのは煩雑である。また、その実施結果の記録もないことも多く、過去の訓練結果と比較できないこともあった。
そこで本実施形態では、ロボット1は、複数のタッチセンサ式のボタン120を利用した作業指示によるリハビリを行うことができる。上述したように、本実施形態におけるロボット1には、人の頭部、胸部、脇腹、腹部等に対応する各位置に、人が触れたことを検出する複数のタッチセンサ式のボタン120が設けられている。ロボット1は、音声合成により作業指示文を出力し、患者はその作業指示に応じたボタンに触れる、というものである。
ここで、複数のタッチセンサ式のボタン120の各々には固有のタッチセンサIDが割り当てられている。また、ロボット1は、図15に示されるような、作業指示テーブルを保持している。このような作業指示テーブルは、ロボット1のかわりにサーバ2が保持しており、ロボット1がこれを読み出す、又はダウンロードする構成であってもよい。作業指示テーブルには、そのエントリごとに、作業指示文のID、作業指示文の内容、及び、その作業指示文に従って触れるべきタッチセンサの順序が記述されている。
単語のリハビリについて図13を用いて説明したのと同様に、言語聴覚士は所望する作業指示文を選択して、音声合成によりその作業指示文を読み上げる。具体的には、ロボット1は、「右の頭を触ってから、お腹を触ってください。」、「右の脇を触る前に、真ん中のボタンを押してください。」との作業指示文を読み上げる。これを聞いた患者は、指示に従う順にボタンに触れていく。この作業の正解/不正解の判定は言語聴覚士が行いその判定結果を所定の入力デバイスを介して入力してもよいし、ロボット1が自動的に判定してもよい。そして、この判定結果の履歴が、上述の例と同様に、サーバ2に転送される。
これにより、作業指示文による言語リハビリを行う際に従来必要であった言語聴覚士の労力を大幅に削減することができる。また、リハビリの履歴ももれなく記録されるので、過去の訓練結果と比較することも容易になる。
本発明は上記実施の形態に制限されるものではなく、本発明の主旨及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために、以下の請求項を添付する。

Claims (6)

  1. 音声言語機能障害のリハビリテーションを支援する言語リハビリテーション支援システムであって、
    患者に対して提示するための言語表現データをデータベースに記憶するサーバと、前記サーバから提供される言語表現データに基づいて、患者に対してリハビリテーション用の文字又は音声を提示するクライアントとを含み、
    前記サーバは、
    前記クライアントからの登録要求に応答して、前記クライアントから受信した言語表現データと該言語表現データに付随するメタデータとをデータエントリとしてデータベースに登録する登録手段と、
    前記クライアントからの検索要求に応答して、前記クライアントから受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリを前記データベースから抽出する検索を行い、検索結果として前記クライアントに送信する検索手段と、
    を有し、
    前記クライアントは、
    前記検索によって得られた言語表現データを患者に提示する提示手段と、
    前記提示及び該提示に対する患者の応答の情報を含む患者履歴データを前記サーバに送信する送信手段と、
    を有し、
    前記クライアントは、前記リハビリテーションの重点対象である注目音と、該注目音の単語中の位置を指定する指定手段を更に有し、前記指定された注目音と該注目音の前記位置の情報を前記検索キーに含める
    ことを特徴とする言語リハビリテーション支援システム。
  2. 音声言語機能障害のリハビリテーションを支援する言語リハビリテーション支援システムであって、
    患者に対して提示するための言語表現データをデータベースに記憶するサーバと、前記サーバから提供される言語表現データに基づいて、患者に対してリハビリテーション用の文字又は音声を提示するクライアントとを含み、
    前記サーバは、
    前記クライアントからの登録要求に応答して、前記クライアントから受信した言語表現データと該言語表現データに付随するメタデータとをデータエントリとしてデータベースに登録する登録手段と、
    前記クライアントからの検索要求に応答して、前記クライアントから受信した検索キーにマッチするメタデータに関連付けられた言語表現データのデータエントリを前記データベースから抽出する検索を行い、検索結果として前記クライアントに送信する検索手段と、
    を有し、
    前記クライアントは、
    前記検索によって得られた言語表現データを患者に提示する提示手段と、
    前記提示及び該提示に対する患者の応答の情報を含む患者履歴データを前記サーバに送信する送信手段と、
    を有し、
    前記メタデータは、音節数、ジャンル、頻度の情報を含み、
    前記サーバは、前記言語表現データの各々について、当該言語表現データの難易度を保持しており、前記検索手段は、前記難易度を検索キーとする検索を行い、
    前記難易度は、当該言語表現データに係る単語の音節数Nに、頻度に依存する重み付け係数αを乗じた値とする
    ことを特徴とする言語リハビリテーション支援システム。
  3. 前記患者履歴データは、前記提示手段により当該患者に対して当該言語表現データを提示した回数を表す出題回数、前記提示に対する当該患者の応答の正解/不正解の情報を含むことを特徴とする請求項に記載の言語リハビリテーション支援システム。
  4. 前記難易度は、当該言語表現データに係る単語の音節数Nに、頻度に依存する重み付け係数αと患者の正解率に依存する重み付け係数βとを乗じた値とすることを特徴とする請求項3に記載の言語リハビリテーション支援システム。
  5. 前記出題回数が規定回数に満たない場合は、βの重み付けを適用しないことを特徴とする請求項に記載の言語リハビリテーション支援システム。
  6. 前記クライアントは、複数のタッチセンサを有し、
    前記言語表現データは、前記複数のタッチセンサの少なくともいずれかを触れるよう指示する作業指示文のデータを含む
    ことを特徴とする請求項1乃至のいずれか1項に記載の言語リハビリテーション支援システム。
JP2015509599A 2013-04-04 2013-04-04 言語リハビリテーション支援システム Active JP6130492B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/002347 WO2014162356A1 (ja) 2013-04-04 2013-04-04 言語リハビリテーション支援システム

Publications (2)

Publication Number Publication Date
JPWO2014162356A1 JPWO2014162356A1 (ja) 2017-02-16
JP6130492B2 true JP6130492B2 (ja) 2017-05-17

Family

ID=51657691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015509599A Active JP6130492B2 (ja) 2013-04-04 2013-04-04 言語リハビリテーション支援システム

Country Status (2)

Country Link
JP (1) JP6130492B2 (ja)
WO (1) WO2014162356A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6967777B2 (ja) * 2017-11-10 2021-11-17 株式会社レイトロン 言語機能訓練システムおよび装置
US11106874B2 (en) * 2019-05-08 2021-08-31 Sap Se Automated chatbot linguistic expression generation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4081744B2 (ja) * 2002-02-27 2008-04-30 静岡県 情報端末機
WO2007129392A1 (ja) * 2006-04-25 2007-11-15 Shimada Managedevelopment Co., Ltd. 主機と副機を有する失語症練習支援装置
JP4048226B1 (ja) * 2007-05-30 2008-02-20 株式会社シマダ製作所 失語症練習支援装置
JP4067561B1 (ja) * 2007-10-09 2008-03-26 株式会社シマダ製作所 失語症練習支援装置の自動訓練システム

Also Published As

Publication number Publication date
WO2014162356A1 (ja) 2014-10-09
JPWO2014162356A1 (ja) 2017-02-16

Similar Documents

Publication Publication Date Title
US6321196B1 (en) Phonetic spelling for speech recognition
US9858924B2 (en) Voice processing apparatus and voice processing method
US20150331665A1 (en) Information provision method using voice recognition function and control method for device
CN109313898A (zh) 提供低声语音的数字助理
JP2006234907A (ja) 音声認識方法
CN108520650A (zh) 一种智能语言训练系统和方法
JP2016045420A (ja) 発音学習支援装置およびプログラム
JP2010094243A (ja) 自動問診システム
KR20220037819A (ko) 복수의 기동어를 인식하는 인공 지능 장치 및 그 방법
GB2527242A (en) System and method for dynamic response to user interaction
JP6130492B2 (ja) 言語リハビリテーション支援システム
WO2016045468A1 (zh) 一种语音输入控制的方法、装置及终端
JP6166831B1 (ja) 単語学習支援装置、単語学習支援プログラム、単語学習支援方法
JPWO2017159207A1 (ja) 処理実行装置、処理実行装置の制御方法、および制御プログラム
JP2020038371A (ja) コンピュータプログラム、発音学習支援方法及び発音学習支援装置
JP2018097250A (ja) 言語学習装置
JP6641680B2 (ja) 音声出力装置、音声出力プログラムおよび音声出力方法
JP4749437B2 (ja) 音声文字変換装置、音声文字変換方法及び音声文字変換プログラム
KR102449962B1 (ko) 스마트폰 케이스 기반 점자 키보드 시스템
KR20130128172A (ko) 장애인을 위한 이동통신 단말기 및 문자생성방법
JP6155102B2 (ja) 学習支援装置
JP6217003B2 (ja) 端末装置、睡眠言動記録方法及び睡眠言動記録プログラム
JP7013702B2 (ja) 学習支援装置、学習支援方法、及び、プログラム
JPWO2018147435A1 (ja) 学習支援システム及び方法、並びにコンピュータプログラム
KR20140073768A (ko) 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170321

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170413

R150 Certificate of patent or registration of utility model

Ref document number: 6130492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250