JP7459505B2 - 訓練システム、訓練方法及び訓練プログラム - Google Patents

訓練システム、訓練方法及び訓練プログラム Download PDF

Info

Publication number
JP7459505B2
JP7459505B2 JP2019232466A JP2019232466A JP7459505B2 JP 7459505 B2 JP7459505 B2 JP 7459505B2 JP 2019232466 A JP2019232466 A JP 2019232466A JP 2019232466 A JP2019232466 A JP 2019232466A JP 7459505 B2 JP7459505 B2 JP 7459505B2
Authority
JP
Japan
Prior art keywords
answer
correct
paraphasia
question
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019232466A
Other languages
English (en)
Other versions
JP2021101202A (ja
Inventor
敬祐 君野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2019232466A priority Critical patent/JP7459505B2/ja
Publication of JP2021101202A publication Critical patent/JP2021101202A/ja
Application granted granted Critical
Publication of JP7459505B2 publication Critical patent/JP7459505B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Rehabilitation Tools (AREA)

Description

本開示は、訓練システム、訓練方法及び訓練プログラムに関する。
近年、失語症患者のリハビリや言語の習得などのために、訓練システムが用いられることがある。このような訓練システムは、例えば、特許文献1に開示されているように、訓練画像に問題を表示して訓練者に回答を促し、回答と正答とを比較して正誤を判定し、正誤結果を表示する構成とされている。
特開2007-292979号公報
特許文献1に開示された訓練システムは、回答と正答とを比較して正誤を判定することができる構成とされているが、回答が誤答の場合、誤答が音韻性錯語又は意味性錯語に属しているか否かを判定することはできない。
本明細書に開示される実施形態が達成しようとする目的の1つは、当該課題の解決に寄与する訓練システム、訓練方法及び訓練プログラムを提供することである。なお、この目的は、本明細書に開示される複数の実施形態が達成しようとする複数の目的の1つに過ぎないことに留意されるべきである。その他の目的又は課題と新規な特徴は、本明細書の記述又は添付図面から明らかにされる。
第1の態様の訓練システムは、
物体と当該物体の名称とを紐付けた問題を出力する第1の出力部と、
前記問題に対する回答が入力される入力部と、
前記回答の正誤を判定する正誤判定部と、
前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する錯語判定部と、
を備える。
第2の態様の訓練方法は、
物体と当該物体の名称とを紐付けた問題を出力する工程と、
前記問題に対する回答の正誤を判定する工程と、
前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する工程と、
を備える。
第3の態様の訓練プログラムは、
物体と当該物体の名称とを紐付けた問題を出力する処理と、
前記問題に対する回答の正誤を判定する処理と、
前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する処理と、
をコンピュータに実行させる。
上述の態様によれば、問題に対する回答が誤答の場合、当該誤答が音韻性錯語又は意味性錯語に属しているか否かを判定することが可能な訓練システム、訓練方法及び訓練プログラムを実現できる。
実施の形態1の訓練システムの構成を示すブロック図である。 実施の形態1の訓練方法の流れを示すフローチャート図である。 実施の形態2の訓練システムの構成を示すブロック図である。 実施の形態2の訓練システムの訓練装置の構成を示すブロック図である。 実施の形態2の訓練システムの分析サーバの構成を示すブロック図である。 実施の形態2の訓練システムを用いて訓練を実施する流れを示すフローチャート図である。 訓練者が撮影した、問題対象となる画像を示す図である。 訓練者が訓練内容を選択する際の画像を示す図である。 訓練者が「聞く」を選択した際の出題形態を示す図である。 訓練者が「話す」を選択した際の出題形態を示す図である。 訓練者が「読む」を選択した際の出題形態を示す図である。 訓練者が「書く」を選択した際の出題形態を示す図である。 正解した際の画像を示す図である。 誤答した際の画像を示す図である。 総合的な正解率を示す画像の図である。 物体毎の各々の訓練内容の正解率を示す画像の図である。 回答内容、回答回数及び錯語種別を示す画像の図である。 回答内容及び回答回数の一覧を示す画像の図である。 誤答の回数及びその際の正答を示す画像の図である。 訓練システムに含まれるハードウェア構成の一例を示す図である。
以下、本開示を実施するための最良の形態について、添付図面を参照しながら説明する。但し、本開示が以下の実施の形態に限定される訳ではない。また、説明を明確にするため、以下の記載及び図面は、適宜、簡略化されている。
<実施の形態1>
先ず、本実施の形態の訓練システムの構成を説明する。図1は、本実施の形態の訓練システムの構成を示すブロック図である。図1に示すように、訓練システム1は、出力部2、入力部3、正誤判定部4及び錯語判定部5を備えている。
出力部2は、物体と当該物体の名称とが紐付けられた問題を出力する手段であり、例えば、表示装置やスピーカー及びそれらの組み合わせなどである。ここで、物体は、物に限らず、人物などであってもよい。また、名称は、物の物品名に限らず、人の名前などであってもよい。
入力部3は、問題に対する回答が入力される手段であり、タッチパネルやマイク及びそれらの組み合わせなどである。正誤判定部4は、回答と問題の正答とを比較し、回答の正誤を判定する。錯語判定部5は、回答が誤答であると判定された場合、当該回答が問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する。
次に、本実施の形態の訓練方法を説明する。図2は、本実施の形態の訓練方法の流れを示すフローチャート図である。先ず、例えば、出力部2は、予め設定されている問題を出力する(S1)。次に、訓練者が入力部3を介して回答を入力すると、正誤判定部4は、回答と問題の正答とを比較し、回答が正解か否かを判定する(S2)。
回答が正解の場合(S2のYES)、訓練を終了する。一方、回答が正解でない場合(S2のNO)、錯語判定部5は、回答が問題の正答に対する音韻性錯語か否かを判定する(S3)。誤答が音韻性錯語である場合(S3のYES)、誤答が音韻性錯語に属すると判定して訓練を終了する。一方、誤答が音韻性錯語でない場合(S3のNO)、錯語判定部5は、回答が問題の正答に対する意味性錯語か否かを判定する(S4)。
回答が問題の正答に対する意味性錯語の場合(S4のYES)、錯語判定部5は、誤答が意味性錯語に属すると判定して訓練を終了する。一方、回答が問題の正答に対する意味性錯語でない場合(S4のNO)、錯語判定部5は、誤答が音韻性錯語及び意味性錯語の何れにも属さないと判定して訓練を終了する。
このように本実施の形態の訓練システム1及び訓練方法は、問題に対する回答が誤答の場合、当該誤答が音韻性錯語又は意味性錯語の何れに属するかを判定する。そのため、問題に対する回答が誤答の場合、当該誤答が音韻性錯語又は意味性錯語の何れに属するかを判定することができる。
なお、本実施の形態では、誤答が音韻性錯語に属するか否かを判定した後に、誤答が意味性錯語に属するか否かを判定しているが、誤答が意味性錯語に属するか否かを判定した後に、誤答が音韻性錯語に属するか否かを判定してもよい。
<実施の形態2>
図3は、本実施の形態の訓練システムの構成を示すブロック図である。本実施の形態の訓練システムは、例えば、失語症患者のリハビリ訓練を行う際に好適である。図3に示すように、訓練システム11は、訓練装置12、分析サーバ13及び物体情報DB(データベース)14を備えている。これらの訓練装置12と分析サーバ13、及び分析サーバ13と物体情報DB14とは、ネットワークを介して接続されている。
図4は、本実施の形態の訓練システムの訓練装置の構成を示すブロック図である。図4に示すように、訓練装置12は、訓練者が操作するタブレット端末などの電子機器で構成されている。訓練装置12は、出力部12a、入力部12b、撮像部12c、制御部12d及び通信部12eを備えている。
出力部12aは、実施の形態1の訓練システム1の出力部2に対応し、例えば、電子機器の表示装置やスピーカー及びそれらの組み合わせなどである。ここで、出力部12aは、詳細は後述するが、撮像部12cを介して撮影された画像や訓練内容などを表示する表示部として機能させることができる。
入力部12bは、実施の形態1の訓練システム1の入力部3に対応し、例えば、電子機器のタッチパネルやマイク及びそれらの組み合わせなどである。ここで、入力部12bは、詳細は後述するが、撮像部12cを介して撮影された複数の画像から問題対象となる画像を選択したり、「聞く」、「話す」、「読む」、「書く」などの訓練内容を選択したり、フィードバック結果の表示を選択したり、する選択部として機能させることができる。
撮像部12cは、例えば、電子機器の撮像装置である。制御部12dは、入力部12bを介して入力された回答を示す情報や撮像部12cを介して撮影された画像を示す情報などを通信部12eに出力する。通信部12eは、入力された回答を示す情報や画像を示す情報などを分析サーバ13に出力する。
図5は、本実施の形態の訓練システムの分析サーバの構成を示すブロック図である。図5に示すように、分析サーバ13は、制御部13a、結果記憶部13b及び通信部13cを備えている。制御部13aは、作成部13d、正誤判定部13e、錯語判定部13f及び結果集計部13gを備えている。
作成部13dは、詳細は後述するが、入力された画像を示す情報に基づいて、当該画像に写された物体を認識し、認識した物体の名称を物体情報DB14から取得して紐付ける処理を実行する。そして、作成部13dは、認識した物体及び当該物体の名称に基づいて、問題を作成すると共に当該問題の正答を作成する。なお、画像に写された物体の認識は、一般的な画像処理によって認識すればよい。
正誤判定部13eは、実施の形態1の訓練システム1の正誤判定部4に対応する。錯語判定部13fは、実施の形態1の訓練システム1の錯語判定部5に対応する。結果集計部13gは、物体毎の各々の訓練内容に対する回答の正誤回数や正解率などを算出する。
結果記憶部13bは、問題、正答、回答、正誤結果、錯語種別及び物品毎の各々の訓練内容に対する回答の正誤回数や正解率などを示す情報を格納する。通信部13cは、訓練装置12及び物体情報DB14と情報を送受信する。
物体情報DB14は、物体と当該物体の名称とが紐付けられた情報が格納される。当該情報は、物体情報DB14に予め格納されていても、外部サービスから取得してもよい。また、物体情報DB14は、物体と当該物体の名称との紐付けを機械学習によって取得してもよい。
次に、本実施の形態の訓練システム11を用いて訓練を実施する流れを説明する。図6は、本実施の形態の訓練システムを用いて訓練を実施する流れを示すフローチャート図である。図7は、訓練者が撮影した、問題対象となる画像を示す図である。図8は、訓練者が訓練内容を選択する際の画像を示す図である。図9は、訓練者が「聞く」を選択した際の出題形態を示す図である。図10は、訓練者が「話す」を選択した際の出題形態を示す図である。図11は、訓練者が「読む」を選択した際の出題形態を示す図である。図12は、訓練者が「書く」を選択した際の出題形態を示す図である。図13は、正解した際の画像を示す図である。図14は、誤答した際の画像を示す図である。
先ず、訓練装置12の出力部12aは、例えば、訓練対象の画像の選択を訓練者に促すために、図7に示すような画像を複数表示する(S11)。ここで、図7に示す画像は、過去に訓練者によって撮影された画像から物体を抽出し、当該物体を並べた画像である。但し、訓練装置12の出力部12aに表示する画像は、訓練者が過去に撮影した画像や今回、訓練するために撮影した画像などであってもよい。
次に、訓練者が訓練装置12の入力部12bを介して複数の画像から問題対象の画像を選択すると、図8に示すように、訓練装置12の出力部12aが訓練内容を表示し、訓練者に訓練内容の選択を促す(S12)。訓練者が訓練装置12の入力部12bを介して訓練内容を選択すると、訓練装置12の通信部12eは、選択された画像を示す情報及び訓練内容を示す情報を分析サーバ13に出力する。
次に、分析サーバ13の通信部13cを介して訓練装置12から選択された画像を示す情報及び訓練内容を示す情報が入力されると、分析サーバ13の作成部13dは、入力された情報が示す画像に写された物体を認識し、認識した物体の名称を物体情報DB14から取得して紐付ける(S13)。
次に、分析サーバ13の作成部13dは、認識した物体及び当該物体の名称に基づいて、問題を作成すると共に当該問題の正答を作成する(S14)。詳細には、訓練者が訓練内容として「聞く」を選択した場合、分析サーバ13の作成部13dは、S11で表示した画像から正答の物体を訓練者が訓練装置12の入力部12bを介して選択するように、音声によって出題する聞き取り問題を作成する。このとき、作成部13dは、正答の物体を任意に選択すればよい。
作成された聞き取り問題を示す情報は、分析サーバ13の通信部13cを介して訓練装置12に出力され、訓練装置12の出力部12aは、S11で表示した画像を表示すると共に、音声によって聞き取り問題を出題する。例えば、正答の物体が「歯ブラシ」であって、且つ訓練内容として「聞く」を選択している場合、訓練装置12の出力部12aは、図9に示すように、S11で表示した画像を表示すると共に、「歯ブラシを押してください」との音声を出力する。
また、訓練内容として「話す」を選択した場合、分析サーバ13の作成部13dは、正答の物体の名称を訓練者が訓練装置12の入力部12bを介して音声によって回答するように、音声によって出題する発声問題を作成する。
訓練装置12の出力部12aは、S11で表示した画像を表示すると共に、当該画像内で正答の物体を指し示し、音声によって発声問題を出題する。例えば、正答の物体が「川田さん」であって、且つ訓練内容として「話す」を選択している場合、訓練装置12の出力部12aは、図10に示すように、S11で表示した画像を表示すると共に、当該画像の「川田さん」の部分を指し示し、「この人は誰ですか?」との音声を出力する。
また、訓練内容として「読む」を選択した場合、分析サーバ13の作成部13dは、正答の物体を訓練者が訓練装置12の入力部12bを介して選択して回答するように、文章によって出題する読み取り問題を作成する。
訓練装置12の出力部12aは、S11で表示した画像を表示すると共に、文章によって読み取り問題を出題する。例えば、正答の物体が「川田さん」であって、且つ訓練内容として「読む」を選択している場合、訓練装置12の出力部12aは、図11に示すように、S11で表示した画像を表示すると共に、「「川田さん」を押してください」との文章を出力する。
また、訓練内容として「書く」を選択した場合、分析サーバ13の作成部13dは、正答の物体の名称を訓練者が訓練装置12の入力部12bを介して記載して回答するように、音声によって出題する書き込み問題を作成する。
訓練装置12の出力部12aは、S11で表示した画像を表示すると共に、当該画像内で正答の物体を指し示し、音声によって書き込み問題を出題する。例えば、正答の物体が「川田さん」であって、且つ訓練内容として「書く」を選択している場合、訓練装置12の出力部12aは、図12に示すように、S11で表示した画像を表示すると共に、当該画像の「川田さん」の部分を指し示し、「この人は誰ですか?」との音声を出力する。このとき、訓練装置12は、書き込み問題を出題し、所定の時間経過後に、出力部12aの画像を入力用の画像に切り替える。
次に、訓練者が訓練装置12の入力部12bを介して回答を入力すると、訓練装置12の通信部12eが回答を示す情報を分析サーバ13に出力する。ここで、例えば、正答の物体が「歯ブラシ」であって、訓練内容として「聞く」を選択している場合、訓練者は聞き取り問題を聞き取ると共に、訓練装置12の出力部12aに表示されている画像を確認し、訓練装置12の入力部12bを介して出力部12aに表示されている画像から「歯ブラシ」の部分を選択して回答する。
また、例えば、正答の物体が「川田さん」であって、且つ訓練内容として「話す」を選択している場合、訓練者は発声問題を聞き取ると共に、訓練装置12の出力部12aに表示されている画像を確認し、訓練装置12の入力部12bを介して「川田さん」と発声して回答する。
また、例えば、正答の物体が「川田さん」であって、且つ訓練内容として「読む」を選択している場合、訓練者は訓練装置12の出力部12aに表示されている読み取り問題を読解すると共に、当該出力部12aに表示されている画像を確認し、訓練装置12の入力部12bを介して出力部12aに表示されている画像から「川田さん」の部分を選択して回答する。
また、例えば、正答の物体が「川田さん」であって、且つ訓練内容として「書く」を選択している場合、訓練者は書き込み問題を聞き取ると共に、訓練装置12の出力部12aに表示されている画像を確認し、訓練装置12の入力部12bを介して「川田さん」と記載して回答する。
次に、分析サーバ13の通信部13cを介して回答を示す情報が入力されると、分析サーバ13の正誤判定部13eは、当該情報が示す回答と結果記憶部13bから読み出した正答とを比較し、回答が正解か否かを判定する(S15)。そして、回答が正解の場合(S15のYES)、分析サーバ13の結果記憶部13bは、回答及び正誤結果を示す情報を格納する(S16)。
そして、分析サーバ13の通信部13cは、回答、正答及び正誤結果を示す情報を訓練装置12に出力する。訓練装置12の通信部12eを介して回答、正答及び正誤結果を示す情報が入力されると、訓練装置12の出力部12aは、回答、正答及び正誤結果を表示する(S17)。ここで、図13では、回答が「歯ブラシ」であり、回答が正解の場合の表示例を示している。このとき、訓練装置12の出力部12aは、正答を音声によって出力するとよい。
一方、回答が正解でない場合(S15のNO)、分析サーバ13の錯語判定部13fは、誤答が正答に対する音韻性錯語か否かを判定する(S18)。分析サーバ13の錯語判定部13fは、例えば、回答に含まれる文字が正答に含まれる文字に対して予め設定された割合以上(例えば、5割以上)等しい場合、音韻性錯語であると判定する。
詳細には、正答が「りんご」である場合、「りつご」の回答であれば3文字中2文字が正答に含まれており、「ごりん」の回答であれば3文字中3文字が正解に含まれているため、音韻性錯語であると判定する。一方、「りまら」や「りか」、「ばなな」などの回答は、正答に含まれる文字が2文字より少ないため、音韻性錯語でないと判定する。
誤答が音韻性錯語である場合(S18のYES)、分析サーバ13の結果記憶部13bは、回答、正誤結果、及び誤答が音韻性錯語に属する旨(即ち、錯語種別)を示す情報を格納する(S16)。そして、分析サーバ13の通信部13cは、回答、正答及び正誤結果を訓練装置12に出力する。訓練装置12の通信部12eを介して回答、正答及び正誤結果を示す情報が入力されると、訓練装置12の出力部12aは、回答、正答及び正誤結果を表示する(S17)。
一方、誤答が音韻性錯語でない場合(S18のNO)、分析サーバ13の錯語判定部13fは、誤答が意味性錯語か否かを判定する(S19)。分析サーバ13の錯語判定部13fは、回答と正答とが共通の概念(即ち、カテゴリー)に属する場合、意味性錯語であると判定する。
詳細には、正答が「きりん」であり、回答が「どうぶつ」の場合、「どうぶつ」は「きりん」の上位概念に該当し、回答と正答とは、共通する概念である「どうぶつ」に属するため、意味性錯語であると判定する、また、回答が「ぞう」の場合、正答である「きりん」は共通する概念である「どうぶつ」に属するため、意味性錯語であると判定する。
一方、回答が「りんご」や「きらん」の場合、正答の「きりん」と共通する概念である「どうぶつ」に属さないため、意味性錯語でないと判定する。なお、物体の名称の概念は、物体情報DB14に予め登録しておけばよい。
誤答が意味性錯語である場合(S19のYES)、分析サーバ13の結果記憶部13bは、回答、正誤結果、及び誤答が意味性錯語に属する旨を示す情報を格納する(S16)。そして、分析サーバ13の通信部13cは、回答、正答及び正誤結果を訓練装置12に出力する。
訓練装置12の通信部12eを介して回答、正答及び正誤結果を示す情報が入力されると、訓練装置12の出力部12aは、回答、正答及び正誤結果を表示する(S17)。ここで、図14では、正答が「川田さん」である場合に「社長」と誤答した場合の表示例を示している。このとき、訓練装置12の出力部12aは、正答を音声によって出力するとよい。
一方、誤答が意味性錯語でない場合(S19のNO)、分析サーバ13の結果記憶部13bは、回答、正誤結果、及び誤答が音韻性錯語及び意味性錯語の何れにも属さない旨を示す情報を格納する(S16)。そして、分析サーバ13の通信部13cは、回答、正答及び正誤結果を訓練装置12に出力する。訓練装置12の通信部12eを介して回答、正答及び正誤結果を示す情報が入力されると、訓練装置12の出力部12aは、回答、正答及び正誤結果を表示する(S17)。
その後、介護者などが訓練装置12の入力部12bを介してフィードバック結果の表示を選択すると、分析サーバ13の結果記憶部13bは、分析サーバ13の通信部13cを介して物体毎の各々の訓練内容に対する正誤回数、正解率及び錯語種別などを示す情報を訓練装置12に出力する。
そして、訓練装置12の通信部12eを介して物体毎の各々の訓練内容に対する正誤回数、正解率及び錯語種別などを示す情報が入力されると、訓練装置12の出力部12aは、当該情報が示す物体毎の各々の訓練内容に対する正誤回数、正解率及び錯語種別などを表示する(S20)。つまり、訓練結果が訓練装置12にフィードバック結果として表示される。
ここで、図15は、総合的な正解率を示す画像の図である。図16は、物体毎の各々の訓練内容の正解率を示す画像の図である。図17は、回答内容、回答回数及び錯語種別を示す画像の図である。図18は、回答内容及び回答回数の一覧を示す画像の図である。図19は、誤答の回数及びその際の正答を示す画像の図である。
なお、図16の画像の「回答を表示」を選択すると、図17の画像が表示される。また、図18の回答回数を選択すると、図19の画像が表示される。これらの図15乃至図19を訓練装置12の出力部12aに表示することで、訓練結果を詳細にフィードバックすることができる。
このように本実施の形態の訓練システム11及び訓練方法は、訓練結果を詳細にフィードバックすることができる。そのため、介護者は、訓練結果に基づいて、正解率の高いコミュニケーション手法(即ち、「聞く」「話す」、「読む」、「書く」)を用いてコミュニケーションすることができ、コミュニケーション促進に役立てることができる。また、正解率の低いコミュニケーション手法を積極的に訓練することができる。
<他の実施の形態>
上述した実施の形態1及び2では、本発明をハードウェアの構成として説明したが、本発明はこれに限定されるものではない。本発明は、各構成要素の処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
例えば、上記実施の形態の訓練システムは、次のようなハードウェア構成を備えることができる。図20は、訓練システムに含まれるハードウェア構成の一例を示す図である。
図20に示す装置21は、インターフェイス22と共に、プロセッサ23及びメモリ24を備える。上記実施の形態で説明した訓練システムは、プロセッサ23がメモリ24に記憶されたプログラムを読み込んで実行することにより実現される。つまり、このプログラムは、プロセッサ23を上記実施の形態の訓練システムとして機能させるためのプログラムである。
上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータ(情報通知装置を含むコンピュータ)に供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、この例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、この例は、半導体メモリ(例えば、マスクROM、PROM、EPROM、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
上記実施の形態は本件発明者により得られた技術思想の適用に関する例に過ぎない。すなわち、当該技術思想は、上述した実施の形態のみに限定されるものではなく、種々の変更が可能であることは勿論である。
例えば、実施の形態2の訓練システム11においては、訓練装置12の撮像部12cを介して撮影した画像に基づいて分析サーバ13の作成部13dが問題を作成しているが、例えば、分析サーバ13の結果記憶部13bに過去に作成された問題が格納されている場合は、撮像部12cを介して画像を撮影することなく、過去に作成された問題を訓練装置12の出力部12aに出力してもよい。
例えば、介護者が訓練装置12の撮像部12cを介して物体の画像を撮影し、物体の画像及び当該物体の名称を示す情報を分析サーバ13の結果記憶部13bに登録してもよい。例えば、物体が人の場合、名称(例えば、役職や血族関係)などを複数持っているため、介護者が登録できることで、正誤判定の精度を向上させることができる。
例えば、実施の形態2の訓練システム11は、失語症患者のリハビリ訓練を実施するために用いられているが、例えば、外国語などの言語を習得するために用いることもできる。
例えば、実施の形態2の訓練システム11は、訓練結果を訓練装置12にフィードバックしているが、訓練装置12とは別に介護者が所有する端末に訓練結果をフィードバックしてもよい。また、訓練結果をフィードバックしない構成でもよい。
上記実施の形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
物体と当該物体の名称とを紐付けた問題を出力する第1の出力部と、
前記問題に対する回答が入力される入力部と、
前記回答の正誤を判定する正誤判定部と、
前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する錯語判定部と、
を備える、訓練システム。
(付記2)
撮像部と、
前記撮像部によって撮影された画像に写る物体に基づいて、前記問題及び当該問題の正答を作成する作成部と、
を備える、付記1に記載の訓練システム。
(付記3)
前記画像を表示する表示部と、
訓練者が前記表示部に表示された物体を選択する選択部と、
を備え、
前記作成部は、選択された前記物体に基づいて、前記問題及び当該問題の正答を作成する、付記2に記載の訓練システム。
(付記4)
前記第1の出力部は、前記問題に対する回答の正誤を出力する、付記1乃至3のいずれか1項に記載の訓練システム。
(付記5)
前記問題は、訓練者が前記入力部に発声して回答する発声問題、訓練者が前記入力部に記載して回答する書き込み問題、訓練者が前記第1の出力部から読み上げられる問題を聞き取って前記入力部を介して回答する聞き取り問題、又は訓練者が前記第1の出力部に表示される問題を読み取って前記入力部を介して回答する読み取り問題である、付記1乃至4のいずれか1項に記載の訓練システム。
(付記6)
前記物体毎の各々の前記発声問題、前記書き込み問題、前記聞き取り問題、前記読み取り問題に対する回答の正誤回数又は正解率を算出する結果集計部と、
前記物体毎の各々の前記発声問題、前記書き込み問題、前記聞き取り問題、前記読み取り問題に対する回答の正誤回数又は正解率を表示する第2の出力部と、
を備える、付記5に記載の訓練システム。
(付記7)
前記第2の出力部は、前記回答の錯語種別を出力する、付記6に記載の訓練システム。
(付記8)
前記錯語判定部は、前記入力部を介して入力された回答が誤答であって、且つ前記回答に含まれる文字が前記正答に含まれる文字に対して予め設定された割合以上等しい場合、前記音韻性錯語であると判定する、付記1乃至7のいずれか1項に記載の訓練システム。
(付記9)
前記錯語判定部は、前記入力部を介して入力された回答が誤答であって、且つ前記回答と前記正答とが等しい概念の場合、前記意味性錯語であると判定する、付記1乃至8のいずれか1項に記載の訓練システム。
(付記10)
物体と当該物体の名称とを紐付けた問題を出力する工程と、
前記問題に対する回答の正誤を判定する工程と、
前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する工程と、
を備える、訓練方法。
(付記11)
物体と当該物体の名称とを紐付けた問題を出力する処理と、
前記問題に対する回答の正誤を判定する処理と、
前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する処理と、
をコンピュータに実行させる、訓練プログラム。
1 訓練システム
2 出力部
3 入力部
4 正誤判定部
5 錯語判定部
11 訓練システム
12 訓練装置、12a 出力部、12b 入力部、12c 撮像部、12d 制御部、12e 通信部
13 分析サーバ、13a 制御部、13b 結果記憶部、13c 通信部、13d 作成部、13e 正誤判定部、13f 錯語判定部、13g 結果集計部
14 物体情報DB
21 装置
22 インターフェイス
23 プロセッサ
24 メモリ

Claims (8)

  1. 物体と当該物体の名称とを紐付けた問題を出力する第1の出力部と、
    前記問題に対する回答が入力されるタッチパネルを有する入力部と、
    前記回答の正誤を判定する正誤判定部と、
    前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する錯語判定部と、
    を備え、
    前記問題は、訓練者が前記入力部に記載して回答する書き込み問題であり、
    前記錯語判定部は、前記回答に含まれる文字が前記問題の正答に含まれる文字に対して予め設定された割合以上等しい場合、前記誤答が前記音韻性錯語であると判定し、前記誤答が前記音韻性錯語でない場合、前記回答と前記問題の正答とが共通の概念に属するか否かを判定し、前記回答と前記問題の正答とが共通の概念に属する場合、前記誤答が前記意味性錯語であると判定する、訓練システム。
  2. 撮像部と、
    前記撮像部によって撮影された画像に写る物体に基づいて、前記問題及び当該問題の正答を作成する作成部と、
    を備える、請求項1に記載の訓練システム。
  3. 前記画像を表示する表示部と、
    訓練者が前記表示部に表示された物体を選択する選択部と、
    を備え、
    前記作成部は、選択された前記物体に基づいて、前記問題及び当該問題の正答を作成する、請求項2に記載の訓練システム。
  4. 前記第1の出力部は、前記問題に対する回答の正誤を出力する、請求項1乃至3のいずれか1項に記載の訓練システム。
  5. 前記物体毎の前記問題に対する回答の正誤回数又は正解率を算出する結果集計部と、
    前記物体毎の前記問題に対する回答の正誤回数又は正解率を表示する第2の出力部と、
    を備える、請求項1乃至4のいずれか1項に記載の訓練システム。
  6. 前記第2の出力部は、前記回答の錯語種別を出力する、請求項5に記載の訓練システム。
  7. コンピュータが、
    物体と当該物体の名称とを紐付けた問題を出力する工程と、
    前記問題に対する回答の正誤を判定する工程と、
    前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する工程と、
    を実行し、
    前記問題は、訓練者がタッチパネルを有する入力部に記載して回答する書き込み問題であり、
    前記回答に含まれる文字が前記問題の正答に含まれる文字に対して予め設定された割合以上等しい場合、前記誤答が前記音韻性錯語であると判定し、前記誤答が前記音韻性錯語でない場合、前記回答と前記問題の正答とが共通の概念に属するか否かを判定し、前記回答と前記問題の正答とが共通の概念に属する場合、前記誤答が前記意味性錯語であると判定する、訓練方法。
  8. 物体と当該物体の名称とを紐付けた問題を出力する処理と、
    前記問題に対する回答の正誤を判定する処理と、
    前記回答が誤答であると判定した場合、前記回答が前記問題の正答に対する音韻性錯語又は意味性錯語か否かを判定する処理と、
    をコンピュータに実行させ、
    前記問題は、訓練者がタッチパネルを有する入力部に記載して回答する書き込み問題であり、
    前記回答に含まれる文字が前記問題の正答に含まれる文字に対して予め設定された割合以上等しい場合、前記誤答が前記音韻性錯語であると判定し、前記誤答が前記音韻性錯語でない場合、前記回答と前記問題の正答とが共通の概念に属するか否かを判定し、前記回答と前記問題の正答とが共通の概念に属する場合、前記誤答が前記意味性錯語であると判定する、訓練プログラム。
JP2019232466A 2019-12-24 2019-12-24 訓練システム、訓練方法及び訓練プログラム Active JP7459505B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019232466A JP7459505B2 (ja) 2019-12-24 2019-12-24 訓練システム、訓練方法及び訓練プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019232466A JP7459505B2 (ja) 2019-12-24 2019-12-24 訓練システム、訓練方法及び訓練プログラム

Publications (2)

Publication Number Publication Date
JP2021101202A JP2021101202A (ja) 2021-07-08
JP7459505B2 true JP7459505B2 (ja) 2024-04-02

Family

ID=76651305

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019232466A Active JP7459505B2 (ja) 2019-12-24 2019-12-24 訓練システム、訓練方法及び訓練プログラム

Country Status (1)

Country Link
JP (1) JP7459505B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007292979A (ja) 2006-04-25 2007-11-08 Shimada Seisakusho:Kk 失語症練習支援装置
JP2019086742A (ja) 2017-11-10 2019-06-06 株式会社レイトロン 言語機能訓練システム、装置、およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007292979A (ja) 2006-04-25 2007-11-08 Shimada Seisakusho:Kk 失語症練習支援装置
JP2019086742A (ja) 2017-11-10 2019-06-06 株式会社レイトロン 言語機能訓練システム、装置、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一般演題:読み書き障害,高次脳機能研究,第29巻第1号,81-84頁
平野綾 ほか,呼称において多彩な錯語を呈した流暢型失語の1例 -誤反応分析を中心に-,高次脳機能研究,第30巻第3号,2010年09月30日,52-61頁

Also Published As

Publication number Publication date
JP2021101202A (ja) 2021-07-08

Similar Documents

Publication Publication Date Title
Chandrasekaran et al. Individual variability in cue-weighting and lexical tone learning
Engel et al. Are working memory measures free of socioeconomic influence?
JP6172769B2 (ja) 理解支援システム、理解支援サーバ、理解支援方法、及びプログラム
Golfeto et al. Sentence production after listener and echoic training by prelingual deaf children with cochlear implants
Newton et al. Novel accent perception in typically-developing school-aged children
JP2010094243A (ja) 自動問診システム
CN111459448A (zh) 一种辅助阅读的方法、装置、存储介质及电子设备
Li Using a listening vocabulary levels test to explore the effect of vocabulary knowledge on GEPT listening comprehension performance
Ong et al. Learning novel musical pitch via distributional learning.
Tseng et al. The effects of MALL on L2 pronunciation learning: A meta-analysis
Zellou et al. The influence of conversational role on phonetic alignment toward voice-AI and human interlocutors
Lagerberg et al. Swedish Test of Intelligibility for Children (STI-CH)–Validity and reliability of a computer-mediated single word intelligibility test for children
Lucchesi et al. Speech accuracy and reading in children with cochlear implants
Cheng Unfamiliar accented English negatively affects EFL listening comprehension: It helps to be a more able accent mimic
JP7459505B2 (ja) 訓練システム、訓練方法及び訓練プログラム
Blaiser et al. Effect of repeated exposures on word learning in quiet and noise
Han et al. The effects of phonotactic probability and neighborhood density on adults' word learning in noisy conditions
US20210056957A1 (en) Ability Classification
Dubas et al. Speech-in-speech recognition in preschoolers
JP2017021245A (ja) 語学学習支援装置、語学学習支援方法および語学学習支援プログラム
Fujita THE ROLE OF SPEECH-IN-NOISE IN JAPANESE EFL LEARNERS’LISTENING COMPREHENSION PROCESS AND THEIR USE OF CONTEXTUAL INFORMATION
JP2015060056A (ja) 教育装置並びに教育装置用ic及び媒体
JP6623575B2 (ja) 学習支援装置およびプログラム
KR20140107067A (ko) 이미지 데이터와 원어민 발음 데이터를 이용한 단어 학습장치 및 방법
Viebahn et al. Where is the disadvantage for reduced pronunciation variants in spoken-word recognition? On the neglected role of the decision stage in the processing of word-form variation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150