JP2010197643A - 対話型学習システム - Google Patents

対話型学習システム Download PDF

Info

Publication number
JP2010197643A
JP2010197643A JP2009041793A JP2009041793A JP2010197643A JP 2010197643 A JP2010197643 A JP 2010197643A JP 2009041793 A JP2009041793 A JP 2009041793A JP 2009041793 A JP2009041793 A JP 2009041793A JP 2010197643 A JP2010197643 A JP 2010197643A
Authority
JP
Japan
Prior art keywords
voice
explanation
scenario
question
explanatory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009041793A
Other languages
English (en)
Other versions
JP5461027B2 (ja
Inventor
Yuzo Takahashi
優三 高橋
Takashi Kato
隆 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Urimina
URIMINA KK
Gifu University NUC
Original Assignee
Urimina
URIMINA KK
Gifu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Urimina, URIMINA KK, Gifu University NUC filed Critical Urimina
Priority to JP2009041793A priority Critical patent/JP5461027B2/ja
Publication of JP2010197643A publication Critical patent/JP2010197643A/ja
Application granted granted Critical
Publication of JP5461027B2 publication Critical patent/JP5461027B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】複文で形成された説明文を音声認識し、訓練者が対話形式で問診技術等の学習を行うことが可能な対話型学習システムを提供することを課題とする。
【解決手段】学習システム1の対話コンピュータ2は、テーマに沿って少なくとも一つ以上の固有語彙Kを用いて複文形式で表現された複数の説明文5を含んで構築される説明型シナリオ9を記憶するシナリオ記憶手段10と、テーマの選択指示を受付けるテーマ選択指示受付手段11と、説明型シナリオ9を抽出するシナリオ抽出手段12と、複数の説明文5を提示画面に提示する説明文出力提示手段14と、音声説明を検出し、音声説明情報15として取得する音声説明情報取得手段16と、音声説明情報15を認識する音声認識手段18と、固有語彙Kを検出して説明文5の特定及び判定を行う説明文判定手段19とを具備する。
【選択図】図2

Description

本発明は、対話型学習システムに関するものであり、特に、学習者の発する特定テーマに対する音声による説明を認識し、音声説明に対する評価をすることにより、対話形式の学習を進行することが可能な対話型学習システムに関するものである。
従来から、医学部の学生等に対し、患者に対する診察技術の習得及び向上を図ることを目的とした実践的な教育が行われることがある。この中で、ボランティア等によって集められた患者役の模擬患者に対し、医学生(訓練者)が実際の診察と同じように、患者に症状等を問い掛けて診断を行う問診や、模擬患者の腹部に直接手を当てて診断をする触診、及び聴診器を用いて心音を確認する聴診等を模擬的に体験する訓練が実施されている。これにより、実際の人間を対象として質問の仕方、質問の順所、及び質問のタイミング等の問診に係る技術や、触診や聴診等の実技的な所作を習得することができる。そのため、模擬訓練によって、実際の医療現場に近い実践的な医学教育を行うことが可能となる。しかしながら、訓練者が上述の模擬患者を対象とした模擬訓練を行う機会は、医学生数の増加、模擬患者の確保、訓練費用、及び時間的制約等の各種問題から制限され、一人の訓練者が十分な問診技術を身につけることができるまで訓練を行うことはできなかった。
一方、近年のコンピュータ技術の進歩に伴って、音声認識システムを採用した各種機器が開発されている。これにより、人間の話した言葉の内容をコンピュータが理解し、所望の動作等を行うことが可能となり、カーナビゲーションシステムや各種シミュレータ等に採用されている。そこで、上述した患者に対する問診技術の向上を図るため、実際の人間(模擬患者)を必要とすることなく、コンピュータによって構築されたシミュレータ(問診シミュレータ)を使用し、上記問診技術の習熟を図るための訓練を行うことがある。
問診シミュレータは、訓練者の発する質問(「どこか痛いところはありませんか?」等)の音声を認識し、この質問に対する回答(「頭が痛いです」等)を予め記憶した回答用の辞書データベースから抽出し、画面に表示することができる。さらに、訓練者は、表示された回答に関連し、次の質問(「どの部分が痛いですか?」等)を問診シミュレータに対して行うことにより、訓練者及び問診シミュレータとの間で問診の状況を仮想的にシミュレートした対話を行うことが可能となっている。すなわち、訓練者の問い掛けに応じ、問い掛け内容を理解した上で適切な反応や応答を音声や画面表示等で行うことにより、実際の患者との間で行われる問診に関する技術を、費用的及び時間的な制約をあまり受けることなく習得することが可能となる。
なお、対話形式で学習を進める上記のような教育訓練用のシミュレータは、医学教育用のものに限定されるものではなく、訓練者とシミュレータとの間で音声等を通じてコミュニケーション能力の向上を図る各種教育・訓練用のシミュレータに特に有用なシステムである。
しかしながら、従来の問診シミュレータの場合、下記に掲げるような問題点を生じることがあった。すなわち、一般に問診シミュレータは、訓練者の音声による質問を音声認識技術を利用してその内容を把握する必要があり、質問を構成する語彙を音声によって検出し、さらに当該質問に包含される可能性を有するものとして想定され、登録された語彙から構築された認識用辞書を用いて検出された語彙照合を行うことにより、質問に係る音声の内容を認識(把握)する処理を行っていた。そして、質問の認識結果に基づいて、予め登録された回答用のデータベース(回答辞書)から適切な回答を抽出し、学習者に対して提示(表示)する処理を行っていた。このとき、学習者から音声によって発せられる質問は、「単文」形式の文章で構成され、当該単文に含まれる語彙に特化して語彙の照合及び音声認識を行うことにより、質問の認識及び把握は比較的容易に行うことが可能であった。そのため、音声認識の認識率が低下することがなく、高い認識率で学習者の質問を把握し、これに対する適切な回答をスムーズに提示することが可能であった。これにより、学習者は問診訓練中にストレスを感じることなく、学習内容に集中することができた。
一方で、近年の医療現場では、医師が患者に対して治療や治験の内容を十分に説明し、患者がその説明を理解した上で医療行為を行うことに合意する所謂「インフォームド・コンセント」を行う必要があり、患者に対する医師の説明能力や説明技術を高めることが求められていた。この場合、治療を行う対象の名称、その具体的な内容、得られる効果・結果とともに、代替の治療方法、副作用やリスク、成功率、費用、及び治療後の経過等の情報を正確に伝達する必要があった。そのため、係る説明及び情報の伝達は、質問のような単文で構成することは不可能であり、複数の文章によって構成される複文形式で構成されることが不可欠であった。したがって、単文で構成される語彙を対象とする質問型の問診コンピュータでは、上記のインフォームド・コンセントのような説明文の内容を十分に認識することができず、これに対応する応答も困難なものとなった。
さらに、説明文を構成する全ての語彙を対象に、個別に認識処理を実行し、説明文の内容を把握しようとする場合、想定される語彙を登録する辞書(データベース)の容量が膨大なものとなり、さらに当該データベースを用いた検索、抽出、及び表示等の各処理に多くの時間を要することがあった。そのため、訓練者との間で対話形式での学習及び訓練等を行う場合、システムに多大な負荷がかかることなり、実用上の点で問題を生じることがあった。
そこで、本発明は、上記実情に鑑み、複文で形成された説明文を音声認識し、これに基づいて訓練者が対話形式で問診等の技術や訓練を行うことが可能な対話型学習システムの提供を課題とするものである。
上記の課題を解決するため、本発明の対話型学習システムは、「学習者が説明を行う学習対象のテーマ別に設定され、前記テーマに関する少なくとも一つ以上の固有語彙を用いて複文形式で表現された複数の説明文を含んで構築される説明型シナリオを記憶するシナリオ記憶手段と、前記学習者による前記テーマの選択指示を受付けるテーマ選択指示受付手段と、受付けた選択指示に基づいて、前記シナリオ記憶手段から前記テーマに係る前記説明型シナリオを抽出するシナリオ抽出手段と、抽出された前記説明型シナリオに含まれる複数の前記説明文を、前記学習者が視覚を通じて認識可能に提示画面に出力し、提示する説明文出力提示手段と、提示された複数の前記説明文の中から前記学習者が選択し、前記学習者が自らの言葉を使用して行う音声による説明を検出し、音声説明情報として取得する音声説明情報取得手段と、取得された前記音声説明情報を認識する音声認識手段と、認識された前記音声説明を構成する語彙の中に含まれる前記固定語彙を検出し、提示された複数の前記説明文のいずれかが選択されたかを判定する説明文判定手段と」を具備して主に構成されている。
ここで、説明型シナリオとは、個々のテーマ(例えば、技術分野、専門用語等)の内容についての説明を学習者が訓練する学習方式に利用されるものであり、長文の文章から構成された複文形式の複数の説明文を有して構築されるものである。この説明文及び説明型シナリオがハードディスクやメモリ等で構成されたシナリオ記憶手段に電子データの形式で記憶され、逐次読出し可能(シナリオ抽出手段に相当)に構成されている。このとき、説明文の中には当該テーマの説明を行うために必須のキーワードとして少なくとも一つ以上の固有語彙が含まれている。ここで、一つのテーマに対して提示された複数の説明文に対し、学習者は任意にその中の一つについて決定することができる。
一方、音声説明情報取得手段は、学習者によって音声によって行われた説明(音声説明)を音声説明情報として取得するものであり、マイク等の音声入力機器を介して電子データとして取得することができる。そして、音声説明に係る音声説明情報を周知の音声認識技術を利用し、音声説明の中に含まれる各語彙をそれぞれ認識することができる。これにより、認識された語彙の中から、説明の中に必ず含めることが要求される固有語彙の検出が説明文判定手段において実施される。
したがって、本発明の対話型学習システムによれば、始めに、シナリオ記憶手段にテーマに応じて記憶された複数の説明型シナリオの中から一つが抽出される。そして、抽出された説明型シナリオに対応する複数の説明文が表示される。この中から、学習者が任意で一つの説明文を選択し、これに基づいた説明を音声によって行う。このとき、説明文の文章をそのまま音読するのではなく、当該説明文及びこれを構成する語彙を参照し、自らの言葉で音声による説明(音声説明)を行う必要がある。例えば、本発明の対話型学習システムを採用し、問診シミュレータを構築した場合、医師役の訓練生が患者(対話型学習システム)に対して、インフォームド・コンセントを行う場合の訓練を想定することができる。
そして、対話型学習システムは、音声説明をマイク等の音声入力機器を介して音声説明情報として取得し、音声認識技術を利用して当該音声説明情報を構成する音声説明を認識する。ここで、音声認識技術は既存の構成を採用することができる。そして、認識された音声説明の内容に含まれる複数の語彙の中から、提示された説明文に含まれ、当該テーマを説明する上で必須となる固有語彙を検出し、当該固有語彙がある場合に説明文の判定が行われる。これにより、固有語彙を用いて音声説明を行った場合、当該テーマの内容について、十分な説明を行ったと想定され、一方、音声説明の中の語彙に、いずれの固有語彙も検出されなかった場合には、当該テーマの内容について十分な説明を行っていないものと判定されることになる。これにより、学習者の説明技術の判定が可能となる。なお、説明文中の固有語彙は、一つに限定されるものではなく、二つ以上の複数であっても構わない。さらに、当該固有語彙の組合わせ、及び使用順序及び使用回数を総合的に勘案し、説明技術の習熟度を判定することも可能である。
さらに、本発明の対話型学習システムは、上記構成に加え、「前記説明文出力提示手段は、前記提示画面に提示される複数の説明文について、各々の前記固有語彙の箇所を視覚的に強調して提示する強調提示手段を」具備するものであっても構わない。
したがって、本発明の対話型学習システムによれば、提示画面に提示される説明文において、固有語彙の箇所が強調して提示される。ここで、強調する提示の手法としては、例えば、周囲の文字色に対して固有語彙を異なる文字色で表現するもの、固有語彙の部位に下線を付すること、或いは表示する文字フォントの変更やサイズを変更する等の周知の技術を応用することができる。これにより、学習者に対して必ず使用する必要がある固有語彙を明確に示すことができる。そのため、学習者は、当該固有語彙を意識しながら、自らの言葉でテーマについての説明を行うことができる。
さらに、本発明の対話型学習システムは、上記構成に加え、「前記シナリオ記憶手段は、前記学習者に対して提示され、前記学習者による音声質問に対応する複数の想定可能な前記テーマ別に単文形式で表現された複数の回答が予め記憶された質問型シナリオをさらに含んで構成され、前記シナリオ抽出手段は、受付けた選択指示に基づいて、前記シナリオ記憶手段から前記テーマに係る前記質問型シナリオを抽出する質問シナリオ抽出手段をさらに有し、前記学習者の選択指示に基づいて、前記説明型シナリオ及び前記質問型シナリオのいずれか一方を使用した学習方式に切り換える学習方式切換手段と、前記学習者が音声によって質問する音声質問を検出し、音声質問情報として取得する音声質問情報取得手段と、取得した前記音声質問情報を認識する音声質問認識手段と、認識された前記音声質問に基づいて、前記質問型シナリオから対応する回答を抽出し提示する回答提示手段と」を具備するものであっても構わない。
したがって、本発明の対話型学習システムによれば、上述の説明型シナリオを用いた学習方式に加え、質問型シナリオを用い、学習者の音声質問を認識し、これに対応する回答を抽出し提示する、従来型の質問・回答型の学習方式を実施することが可能となる。これらの二つの学習方式を学習者が任意に選択することが可能となり、それぞれの学習目的や習熟度に応じて適切なテーマ及び学習方式を選択し、対話型学習を進めることができる。
本発明の効果として、複文形式の説明文についての音声説明をシステムが認識し、これに応じた対話を行うことが可能となる。特に、説明文に含まれる固有語彙に基づいて、選択された説明文を判定し、テーマに対して十分な説明がなされたか否かを特定することができる。さらに、質問型シナリオを備えることにより、テーマや学習対象に応じて従来型の対話型の学習方式との間で切り換えることが可能となり、学習者による学習効果を高められる。
本実施形態の対話型学習システムの概略構成を示す説明図である。 対話型学習システムにおける対話コンピュータの機能的構成を示すブロック図である。 対話コンピュータの処理の流れを示すフローチャートである。 対話コンピュータの処理の流れを示すフローチャートである。
以下、本発明の一実施形態である対話型学習システム(以下、単に「学習システム1」と称す)について、図1乃至図4に基づいて説明する。ここで、図1は本実施形態の学習システム1の概略構成を示す説明図であり、図2は学習システム1における対話コンピュータ2の機能的構成を示すブロック図であり、図3及び図4は対話コンピュータ2の処理の流れを示すフローチャートである。なお、本実施形態の学習システム1は、学習者Sとして医学部の学生を想定し、患者に対して実施するインフォームド・コンセントの説明技術の訓練を行うものを例に説明を行うものとする。すなわち、本実施形態の学習システム1を、医学教育用のシミュレータとして機能させるものについて例示する。
本実施形態の学習システム1は、図1乃至図4に示すように、医学教育用のシミュレータとして構築した対話コンピュータ2によって主に構成されている。ここで、対話コンピュータ2は、図1及び図2に示すように、市販のパーソナルコンピュータを利用して主に構成され、学習者Sによるテーマに係る音声説明Vを取得するマイク等の音声入力機器3と、学習方式の選択指示等の命令及び各種データの入力等を行うためのキーボード、マウス等の操作入力機器4と、選択されたテーマに係る説明文5等を、視覚を通じて学習者Sに対して認識させ、或いは種々のデータ及び情報を出力表示するための提示画面6を有する液晶ディスプレイ7とがそれぞれコンピュータ本体8に接続されて構成されている。
また、コンピュータ本体8の内部には、接続された各機器3,4,7等との信号を送受するためのインターフェイスや制御機構、インターネット等のネットワーク環境への接続を可能とする通信機能、及び対話型の学習システム1として機能させるための学習システム用ソフトウェア(図示しない)を内蔵するハードディスク等の記憶手段32(シナリオ記憶手段10及び辞書記憶手段31等に相当)、学習システム用ソフトウェアに基づいて各種処理を行うためのCPUを含む演算処理部等を含んで構成されている。これらのパーソナルコンピュータの構成及び機能については、周知のものであり、詳細な説明は省略する。
学習システム1に使用される対話コンピュータ2は、上記のハードウェア構成によって構築され、学習システム用ソフトウェアによって各機能を奏するように構築されている。対話コンピュータ2の機能的構成は、図2に示すように、学習者Sが説明訓練を行うテーマ毎に登録され、当該テーマに関する説明をする上で必須となる少なくとも一つ以上の固有語彙Kを含んで複文形式で表現された複数の説明文5を有して構築される説明型シナリオ9を電子データとして記憶するシナリオ記憶手段10と、音声入力機器3または操作入力機器4等を介して学習者Sが選択したテーマの選択指示を受付けるテーマ選択指示受付手段11と、受付けた選択指示に基づいて、シナリオ記憶手段10からテーマに対応する説明型シナリオ9を検索し、抽出するシナリオ抽出手段12と、抽出された説明型シナリオ9の複数の説明文5を、学習者Sの視覚を通じて認識可能なようにコンピュータ本体8に接続された液晶ディスプレイ7の提示画面6にそれぞれ一覧表形式或いは単頁形式で出力し、提示する説明文出力提示手段14と、提示された複数の説明文5の中から学習者Sが説明訓練を行うと決定した説明文5について実施する音声説明Vを、音声入力機器3を介して検出し、音声説明情報15として取得する音声説明情報取得手段16と、取得された音声説明情報15及び予め想定される複数の語彙が記録された認識辞書17に基づいて、音声説明Vを構成する各語彙を音声認識技術を利用して認識する音声認識手段18と、認識された音声説明Vに係る複数の語彙の中から、予め指定された固有語彙Kを検出し、説明文5の特定及び判定を行う説明文判定手段19とを主に具備している。これにより、説明文5の提示から音声説明Vについての判定処理を行うことができ、学習者Sの音声説明Vが適切か否かの評価をすることができる。
また、対話コンピュータ2は、上記の基本的構成に加え、説明文出力提示手段14で提示される複数の説明文5において、必須となる固有語彙Kを明確に示すために、当該固有語彙Kの文字色を周囲と異なるもの(例えば、通常の文字色が黒色である場合に、固有語彙Kのみを赤色で表示)に変更し、色彩的に目立つ状態で強調して提示する強調提示手段20と、説明文判定手段19による判定結果に基づいて、次候補の説明型シナリオ9を抽出し、対話形式の説明訓練を繰返して提示する次候補抽出提示手段21とをさらに具備している。ここで、説明文判定手段19によって、説明文5の内容が音声説明Vによって十分なされていると判定された場合には、別の説明文5の説明を行わせたり、或いは当該音声説明V中に使用された語彙(例えば、固有語彙K)についての詳細な説明をさらに要求するような抽出及び提示が行われるものであっても構わない。強調提示手段20に係る機能は、学習者S等の選択によってオフにすることもできる。これにより、学習者Sは対話コンピュータ2からの指示がない状態でテーマについての音声説明Vを行う必要があり、当該テーマ及び説明文5の内容についてのより深い理解が正しい音声説明を行う際に求められることになる。すなわち、難易度の高い学習を行うことができる。
対話コンピュータ2は、その他の機能的構成として、学習者Sの音声入力機器3または操作入力機器4を介した選択指示に基づいて、上述の説明型シナリオ9または質問型シナリオ22(詳細は後述する)のいずれかのシナリオを使用した学習方式にそれぞれ切換える学習方式切換手段23と、学習者Sが音声によって質問する音声質問V’を音声入力機器3を介して検出し、音声質問情報26として取得する音声質問情報取得手段27と、取得された音声質問情報26及び辞書記憶手段31に記憶された認識辞書17に基づいて、音声質問V’を構成する複数の語彙を認識する音声質問認識手段28と、認識された音声質問V’の内容に対応した回答24を質問型シナリオ22に基づいて学習者Sに対して出力し、提示画面6に提示する回答出力提示手段25とをさらに有している。
ここで、質問型シナリオ22を使用した学習方式を実施可能とするため、シナリオ記憶手段10には、各テーマ別の複数の回答24を有して構成された質問型シナリオ22が記憶され、シナリオ抽出手段12は、シナリオ記憶手段10から当該質問型シナリオ22を抽出する機能をさらに有している。予め記憶された認識辞書17の中には、学習者Sからの音声質問V’に応答し、出力された回答24に対してさらに学習者Sが発した音声質問V’を認識するための語彙が含まれている。これにより、学習者Sは、従来型の問診シミュレータによって実施可能な質問・回答型の学習と、本願発明に特有の説明型シナリオ9を利用した説明技術の向上を目的とした学習とを切り換えて行うことができる。
次に、本実施形態の学習システム1を用いた対話形式の説明技術、説明能力の向上を目的とする教育訓練の一例について、図3及び図4のフローチャートに基づいて主として説明する。始めに、説明型シナリオ9または質問型シナリオ22のいずれかを利用して学習を行うかの学習方式の選択指示を学習者Sによりコンピュータ本体8は受付ける(ステップS1)。係る選択指示は、マイク等の音声入力機器3やキーボード等の操作入力機器4によって入力された信号を受付けることにより行われる。
質問型シナリオ22を利用した学習方式は、従来型の問診シミュレータ等に採用され、実施される単文質問対話処理を行うものであり、基本的な処理の流れは周知であるため、本実施形態では説明を省略し、説明型シナリオ9が選択された場合の学習方式の流れについて詳述するものとする。ステップS1において、質問型シナリオ22を利用した学習方式が選択された場合(ステップS1における破線矢印参照)、単文形式の音声質問V’に対し、認識結果としての回答24が提示画面6に提示され、さらにこの回答24に対する学習者Sによる音声質問V’を音声認識し、次候補の回答24を抽出し提示する処理が繰返される(ステップT)。
ステップS1で、説明型シナリオ9による学習方式が選択されると、学習者Sによってシナリオ記憶手段10に予め記憶された複数のテーマの中からさらに一つが選択され、これに基づく選択指示の入力(ここでは操作入力)を、対話コンピュータ2は受付ける(ステップS2)。このとき、提示画面6には、シナリオ記憶手段10に記憶された複数のテーマの説明型シナリオ9が一覧表形式等で表示されている。これに基づいて、学習者Sが当該テーマの中から任意に選択できるようになっている。
学習者Sの選択指示の結果、シナリオ記憶手段10から、対応するテーマについての説明型シナリオ9が抽出される(ステップS3)。ここで、説明型シナリオ9は、各テーマに沿った複数の複文形式の説明文5が含まれている。ここで、医学教育用のシミュレータの一部として、本実施形態の学習システム1を採用した場合について例示すると、テーマには、各種医療用語、病名・症状、或いは治療方法・治療方法等が個別に設定されている。例えば、選択したテーマが「糖尿病」であった場合、それぞれの説明文5の内容は、“糖尿病についての概要”、“糖尿病の種類・分類”、“糖尿病の症状・合併症”、“糖尿病の診断基準”、“糖尿病の治療方法”等を含めることができる。すなわち、患者に対して糖尿病に関する説明を系統的に行うために、それぞれ必要となる内容が項目毎に複文の説明文5として構成されている。
その後、対話コンピュータ2は、抽出された説明型シナリオ9に対応する説明文5を提示画面6にそれぞれ出力し、学習者Sに対して視覚を通じて認識可能なように提示する(ステップS4)。このとき、液晶ディスプレイ7の提示画面6に提示される複数の説明文5で使用される各語彙の中で、学習者Sが音声によって説明をする際に必ず必要となる語彙(固有語彙K)の箇所が、周囲と異なる文字色によって強調して表示される(ステップS5)。これにより、説明文5中の固有語彙Kの箇所が学習者Sに対して明確に示される。例えば、テーマが糖尿病である場合、この内容を説明する上で必須となる用語(「血糖値」、「インスリン」等)が固有語彙Kとして指定され、周囲の文字色(例えば、「黒色」)に対して目立つ文字色(例えば、「赤色」)で表示されることになる。また、固有語彙Kの中には、上記のテーマ(糖尿病)に対して各説明文5で共通して定義されるものを含むとともに、各説明文5毎に独自のものが含まれる。すなわち、“糖尿病の種類・分類”を説明する説明文5においては、固有語彙Kとして、“1型糖尿病”、“2型糖尿病”、“境界型糖尿病”等の糖尿病の種類を具体的に示す名称を指定することができ、また、“糖尿病の症状・合併症”を説明する説明文5においては、“糖尿病性昏睡”や“糖尿病慢性期合併症”、或いは、“糖尿病性神経障害”、“糖尿病性網膜症”、“糖尿病性腎症”等を指定し、これを強調表示することができる。なお、説明文5に対して複数の固有語彙Kを指定することが当然可能であり、各説明文5毎に重複する語彙を固有語彙Kと指定することもできる。
そして、学習者Sは、提示された複数の説明文5の中から自らが説明訓練を行おうと試みるテーマについての説明文5を選択する。このとき、説明文5の選択は、学習者Sが任意に行うものであり、当該学習者Sによる決定については、対話コンピュータ2に対して直接入力されることはない。すなわち、説明文5に係る音声説明Vを発する前は、対話コンピュータ2は、どの説明文5について学習者Sが音声説明Vを行うかについては把握していないこととなる。そして、説明文5に示された内容を含み、学習者Sが自らの言葉に変換した説明(音声説明V)を音声入力機器3に向かって発声する。対話コンピュータ2は、この音声説明Vを音声入力機器3を介して検出し(ステップS6)、当該音声説明Vの検出がある場合(ステップS6においてYES)、これを音声説明情報15として取得する(ステップS7)。一方、音声説明Vの検出がされない場合(ステップS6においてNO)、学習者Sによって音声説明Vが発声され、これを検出するまでステップS6の処理を継続する。ここで、音声入力機器3を介した音声説明Vの検出は、音声信号を電気信号により変換することによって行われる。そして、電気信号に変換された音声信号が周波数分布や検出強度に基づいて認識可能な音声説明情報15として取得される。
そして、対話コンピュータ2は、取得した音声説明情報15に基づく音声認識処理を実施する(ステップS8)。ここで、音声認識に係る処理は、発声される音声説明Vに含まれる語彙を予め想定し、これをデータベース化して記憶した認識辞書17を利用して行われる。このとき、音声説明情報15に含まれる音声信号、周波数分布等が認識辞書17に記憶された語彙の周波数分布等と一致若しくは類似するか否かの照合(語彙の照合)が行われ、これに基づいて音声説明Vを認識する処理が行われる。係る処理は、複文(長文)で示される音声説明Vの全体に対して実施される。音声認識処理に係る技術は周知のものを利用することが可能であるため、詳細な説明についてはここでは説明を省略する。上記音声認識処理により、認識辞書記憶手段31に記憶された認識辞書17を利用し、音声説明情報15の音声説明Vに含まれる各語彙を照合し、音声説明Vを認識する。全ての語彙についての照合及び認識が完了することにより、音声によって入力された音声説明Vが文字情報等として識別することができる。これにより、説明文5に従って行った学習者Sの音声説明Vが文字情報(文章)として提示画面6に提示することが可能となる。
その後、認識された音声説明Vに係る複数の語彙の中から、説明文5の中で文字色を変化させて強調表示して提示した固有語彙Kが存在しているか否かについての検出を行う(ステップS9)。係る固有語彙Kの特定は、前述した音声認識技術を応用することで可能となる。すなわち、音声説明Vを認識する際に、個々の語彙についての分析が行われ、この際に固有語彙Kが存在しているか否かは予め認識されている。そのため、語彙の照合過程において固有語彙Kについての照合及び認識がなされているかを容易に確認することができる。ここで、音声説明Vの語彙に固有語彙Kが含まれ、これが検出される場合(ステップS9においてYES)、その固有語彙Kを含んだ説明文5が一つ特定される(ステップS10)。なお、一つの説明文5には上記固有語彙Kが複数含まれており、また、各説明文5に共通して同一の固有語彙Kが使用されている場合がある。そのため、各固有語彙Kの出現回数、説明文5中の固有語彙Kが全て検出される場合、及び説明における各固有語彙Kの出現順序等を勘案し、総合的な判断により上記説明文5の特定がなされる。一方、固有語彙Kが音声説明Vの中から検出されない場合(ステップS9においてNO)、すなわち、前述した特定の要件(全ての固有語彙Kが検出されない等)を満たさない場合、説明文5の特定がなされないものと判定される(ステップS11)。
上記処理において、固有語彙Kの含有が検出され、説明文5の特定がなされる場合(ステップS10)は、学習者Sによって当該説明文5の内容の説明が適切に実施されたものであると判定され、仮想的な患者や被験者として設置された対話コンピュータ2に正しくその内容が伝えられたものであったと判断される。すなわち、説明技術を十分に有しているものと判定される。一方、固有語彙Kが検出されず、説明文5の特定がされない場合は学習者Sによる説明技術が十分でなく、対話コンピュータ2を相手に正しく説明文5の内容を説明することができなかったものと判断される。その判定結果が、提示画面6を通じて学習者Sに対して提示される(ステップS12)。これにより、学習者Sは、提示された判定結果に基づいて、自らの言葉を使用して説明したテーマに対する音声説明Vについての評価を受けることができ、説明技術の習熟度について認識することができる。
その後、対話コンピュータ2は、上述の音声説明Vによる対話システム1を利用した音声説明Vの評価処理を繰り返して実施することができる。ここで、判定結果に基づいて説明技術が十分でないと判断されたテーマについて再度、音声説明Vを行う指示の入力がある場合(ステップS13においてYES)、ステップS6の処理に戻り、再び音声説明Vを音声入力機器3に対して実施する。
一方、同一テーマについての音声説明Vを繰返す旨の指示がない場合(ステップS13においてNO)、対話コンピュータ2が抽出した次候補テーマについての音声説明Vを実施するか否かの指示について検出する(ステップS14)。ここで、次候補テーマについての音声説明Vを実施する旨の指示が有る場合(ステップS14においてYES)、学習者Sの音声説明Vの内容に基づいて次候補テーマに係る説明文5を記憶手段32から抽出する(ステップS15)。そして、ステップS4の処理に戻り、抽出された説明文5の提示(ステップS4)及び固有語彙Kの強調表示処理(ステップS5)を実施する。
なお、次候補テーマについての音声説明Vを行う旨の指示がない場合(ステップS14においてNO)、システム終了の指示の有無を検出する(ステップS16)。ここで、システム終了の指示がある場合(ステップS16においてYES)、システムを終了する(ステップS17)。一方、システム終了の指示がない場合(ステップS16においてNO)、換言すれば、新たな学習方式または新たなテーマを学習者S自身が選択し、音声説明Vに係る訓練を継続する場合、ステップS1の処理に戻る。
なお、ステップS1において学習方式の選択がなされ、単文質問形式の問診訓練(ステップT)の実施が完了した後は、ステップS16の処理に移行し、システムの終了か新たな学習方式等に基づく訓練を継続して実施するかの指示を検出することとなる。
これにより、本実施形態の学習システム1は、特に複文形式で構成され、学習者Sが患者等に対してあるテーマ(事象)に対して説明をする場合の説明技術、説明能力を訓練するために実施することができる。特に、説明文5を単純に音読するのではなく、自らの言葉に変換し、それを音声によって説明することにより、患者等に対して理解しやすい言葉の選択や説明の順序を体感しながら訓練を実施することが可能となる。そして、係る訓練が予め規定された固有語彙Kに基づいて、説明技術等を評価することが可能となる。その結果、例えば、医療の現場で実際に実施されるインフォームド・コンセントを行う医師の説明技術の向上を図ることができる。特に、時間的及び費用的な制約を受けることが少ない環境で、医師等が十分に説明技術についての習得及び訓練を繰り返し実施することが可能となる。
さらに、本実施形態の学習システム1は、従来型の質問型シナリオ22を使用した学習方式との併用を図ることができる。そのため、問診技術の習得には、質問型シナリオ22による学習方式を選択し、説明技術の習得には、説明型シナリオ9による学習方式を適宜選択することにより、それぞれの学習対象に応じた技術を習得することができる。
以上、本発明について好適な実施形態を挙げて説明したが、本発明はこれらの実施形態に限定されるものではなく、以下に示すように、本発明の要旨を逸脱しない範囲において、種々の改良及び設計の変更が可能である。
すなわち、本実施形態の学習システム1において、特に、医学教育におけるインフォームド・コンセント等の説明技術の向上を目的とした訓練を行うものについて例示したが、これに限定されるものではない。音声認識技術を利用し、対話コンピュータ2と学習者Sとの間で対話をしながら、種々の技術や能力を向上させる教育訓練分野において採用することが可能である。さらに、説明型シナリオ9及び質問型シナリオ22をそれぞれ独立させて教育訓練を行うものを例示したが、これに限定されるものではなく、一つのテーマについての学習の中で、これらを互いに組合わせて実施するものであっても構わない。これにより、問診等の対話の技術や説明技術の双方の能力を高めることができるようになる。
さらに、本実施形態の学習システム1として、市販のパーソナルコンピュータ等のハードウェア構成を有するものを示したがこれに限定されるものではなく、学習システム1の専用端末を構築するものであっても構わない。さらに、本発明の学習システム1による作用効果を奏するものであれば、ハードウェア構成に限定されるものではなく、各種機器にソフトウェア的に組込まれるものであっても構わない。
1 学習システム(対話型学習システム)
2 対話コンピュータ
5 説明文
6 提示画面
9 説明型シナリオ
10 シナリオ記憶手段
11 テーマ選択指示受付手段
12 シナリオ抽出手段
14 説明文出力提示手段
15 音声説明情報
16 音声説明情報取得手段
18 音声認識手段
19 説明文判定手段
20 強調提示手段
21 次候補抽出提示手段
22 質問型シナリオ
23 学習方式切換手段
24 回答
25 回答出力提示手段
26 音声質問情報
27 音声質問情報取得手段
28 音声質問認識手段
31 辞書記憶手段
K 固有語彙
S 学習者
V 音声説明
V’ 音声質問

Claims (3)

  1. 学習者が説明を行う学習対象のテーマ毎に分類され、前記テーマを説明する上で必須の固有語彙を少なくとも一つ以上用いて複文形式で表現された複数の説明文を含んで構築される説明型シナリオを記憶するシナリオ記憶手段と、
    前記学習者による前記テーマの選択指示を受付けるテーマ指示受付手段と、
    選択指示に基づいて、前記シナリオ記憶手段から前記テーマに対応する前記説明型シナリオを抽出するシナリオ抽出手段と、
    抽出された前記説明型シナリオに含まれる複数の前記説明文を、前記学習者が視覚を通じて認識可能に提示画面に出力し、提示する説明文出力提示手段と、
    提示された複数の前記説明文の中から前記学習者が選択し、自らの言葉で音声により行う音声説明を検出し、音声説明情報として取得する音声説明情報取得手段と、
    取得された前記音声説明情報を認識する音声認識手段と、
    認識された前記音声説明を構成する語彙の中に含まれる前記固定語彙を検出し、前記説明文を特定する説明文特定手段と
    を具備することを特徴とする対話型学習システム。
  2. 前記説明文出力提示手段は、
    前記提示画面に提示される複数の説明文について、各々の前記固有語彙の箇所を視覚的に強調して提示する強調提示手段をさらに具備することを特徴とする請求項1に記載の対話型学習システム。
  3. 前記シナリオ記憶手段は、
    前記学習者に対して提示され、前記学習者による音声質問に対応する複数の想定可能な前記テーマ別に単文形式で表現された複数の回答が予め記憶された質問型シナリオをさらに含んで構成され、
    前記シナリオ抽出手段は、
    受付けた選択指示に基づいて、前記シナリオ記憶手段から前記テーマに係る前記質問型シナリオを抽出する質問シナリオ抽出手段をさらに有し、
    前記学習者の選択指示に基づいて、前記説明型シナリオ及び前記質問型シナリオのいずれか一方を使用した学習方式に切り換える学習方式切換手段と、
    前記学習者が音声によって質問する音声質問を検出し、音声質問情報として取得する音声質問情報取得手段と、
    取得した前記音声質問情報を認識する音声質問認識手段と、
    認識された前記音声質問に基づいて、前記質問型シナリオから対応する回答を抽出し提示する回答提示手段と
    をさらに具備することを特徴とする請求項1または請求項2に記載の対話型学習システム。
JP2009041793A 2009-02-25 2009-02-25 対話型学習システム Expired - Fee Related JP5461027B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009041793A JP5461027B2 (ja) 2009-02-25 2009-02-25 対話型学習システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009041793A JP5461027B2 (ja) 2009-02-25 2009-02-25 対話型学習システム

Publications (2)

Publication Number Publication Date
JP2010197643A true JP2010197643A (ja) 2010-09-09
JP5461027B2 JP5461027B2 (ja) 2014-04-02

Family

ID=42822431

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009041793A Expired - Fee Related JP5461027B2 (ja) 2009-02-25 2009-02-25 対話型学習システム

Country Status (1)

Country Link
JP (1) JP5461027B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225562A (zh) * 2015-11-03 2016-01-06 杜兆辉 一种全科医生培训考核系统及方法
JP2017049710A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2018023507A1 (zh) * 2016-08-03 2018-02-08 李仁涛 多功能学习机
JP2020160388A (ja) * 2019-03-28 2020-10-01 日本電信電話株式会社 採点支援装置、その方法、およびプログラム
WO2021130953A1 (ja) * 2019-12-26 2021-07-01 日本電気株式会社 会話支援装置、会話支援システム、会話支援方法及び記録媒体
CN113823261A (zh) * 2021-10-28 2021-12-21 广州宏途教育网络科技有限公司 一种基于语音交互的学习互动系统及方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097405A (ja) * 1996-09-20 1998-04-14 Sanyo Electric Co Ltd コンピュータシステム
JPH10222337A (ja) * 1997-02-13 1998-08-21 Meidensha Corp コンピュータシステム
JP2002525690A (ja) * 1998-09-21 2002-08-13 トムソン マルチメディア 遠隔制御される装置を含むシステム及び、装置の音声に基づく遠隔制御のための装置
JP2002259114A (ja) * 2001-03-05 2002-09-13 Nec Corp 音声認識コンピュータシステム
JP2003186881A (ja) * 2001-12-13 2003-07-04 Aruze Corp 助言システム及び助言方法
JP2003216012A (ja) * 2001-12-12 2003-07-30 Gnb Co Ltd 思考単位と連結質問を用いる言語教育システム及び言語教育方法
JP2004094436A (ja) * 2002-08-30 2004-03-25 Ccg:Kk 職務知識レベル自動判定システム
JP2004309631A (ja) * 2003-04-03 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> 対話練習支援装置、方法及びプログラム
WO2005057524A1 (ja) * 2003-11-28 2005-06-23 Kotobanomori Inc. 作文小論文の評価採点装置
WO2007026715A1 (ja) * 2005-09-01 2007-03-08 Kagoshima University シミュレーションシステム及びプログラム
JP2007333849A (ja) * 2006-06-13 2007-12-27 Masataka Ishii 教材学習支援システム
JP2008275871A (ja) * 2007-04-27 2008-11-13 Rumiko Matsuoka 医学教育支援システムおよび医学教育支援方法

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097405A (ja) * 1996-09-20 1998-04-14 Sanyo Electric Co Ltd コンピュータシステム
JPH10222337A (ja) * 1997-02-13 1998-08-21 Meidensha Corp コンピュータシステム
JP2002525690A (ja) * 1998-09-21 2002-08-13 トムソン マルチメディア 遠隔制御される装置を含むシステム及び、装置の音声に基づく遠隔制御のための装置
JP2002259114A (ja) * 2001-03-05 2002-09-13 Nec Corp 音声認識コンピュータシステム
JP2003216012A (ja) * 2001-12-12 2003-07-30 Gnb Co Ltd 思考単位と連結質問を用いる言語教育システム及び言語教育方法
JP2003186881A (ja) * 2001-12-13 2003-07-04 Aruze Corp 助言システム及び助言方法
JP2004094436A (ja) * 2002-08-30 2004-03-25 Ccg:Kk 職務知識レベル自動判定システム
JP2004309631A (ja) * 2003-04-03 2004-11-04 Nippon Telegr & Teleph Corp <Ntt> 対話練習支援装置、方法及びプログラム
WO2005057524A1 (ja) * 2003-11-28 2005-06-23 Kotobanomori Inc. 作文小論文の評価採点装置
WO2007026715A1 (ja) * 2005-09-01 2007-03-08 Kagoshima University シミュレーションシステム及びプログラム
JP2007333849A (ja) * 2006-06-13 2007-12-27 Masataka Ishii 教材学習支援システム
JP2008275871A (ja) * 2007-04-27 2008-11-13 Rumiko Matsuoka 医学教育支援システムおよび医学教育支援方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017049710A (ja) * 2015-08-31 2017-03-09 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
CN105225562A (zh) * 2015-11-03 2016-01-06 杜兆辉 一种全科医生培训考核系统及方法
WO2018023507A1 (zh) * 2016-08-03 2018-02-08 李仁涛 多功能学习机
JP2020160388A (ja) * 2019-03-28 2020-10-01 日本電信電話株式会社 採点支援装置、その方法、およびプログラム
JP7258627B2 (ja) 2019-03-28 2023-04-17 日本電信電話株式会社 採点支援装置、その方法、およびプログラム
WO2021130953A1 (ja) * 2019-12-26 2021-07-01 日本電気株式会社 会話支援装置、会話支援システム、会話支援方法及び記録媒体
JP7388450B2 (ja) 2019-12-26 2023-11-29 日本電気株式会社 会話支援装置、会話支援システム、会話支援方法及び記録媒体
CN113823261A (zh) * 2021-10-28 2021-12-21 广州宏途教育网络科技有限公司 一种基于语音交互的学习互动系统及方法

Also Published As

Publication number Publication date
JP5461027B2 (ja) 2014-04-02

Similar Documents

Publication Publication Date Title
Grant et al. Eye movements and problem solving: Guiding attention guides thought
Ellis Form-focused instruction and the measurement of implicit and explicit L2 knowledge
JP5461027B2 (ja) 対話型学習システム
Kaderavek et al. School-age children's self-assessment of oral narrative production
Campfield et al. The influence of prosodic input in the second language classroom: Does it stimulate child acquisition of word order and function words?
Kaplan-Rakowski et al. The impact of verbal and nonverbal auditory resources on explicit foreign language vocabulary learning
Lee Enhancing listening comprehension through kinesthetic rhythm training
Labat et al. Multisensory letter integration and implicit learning of reading with 5-year-old children
Douglas Testing languages for specific purposes
Hoang et al. Undergraduate nursing education and end-of-life simulation: A scoping review
Hubal et al. Informed consent procedures: An experimental test using a virtual character in a dialog systems training application
Zhang et al. Developing a listening comprehension problem scale for university students’ metacognitive awareness
Aziz et al. The Reliability and Validation of the English Language Self-Confidence Scale Among Pakistani Students
Franz et al. A clinician's guide to learning disabilities
Alghabban et al. Student Perception of Usability: A Metric for Evaluating the Benefit When Adapting e-Learning to the Needs of Students with Dyslexia.
Maćkowski et al. An alternative method of audio-tactile presentation of graphical information in mathematics adapted to the needs of blind
JP2004524572A (ja) コンピューター管理職業的被雇用者査定へのマルチメディア技術の応用
Dehham Developing Iraqi EFL School Students’ Performance in Creative Writing Skills Through Focus Strategy
Allafi et al. MEASURING THE IMPACT OF DEVELOPING A GAME-BASED MOBILE APPLICATION TO INCREASE READING SKILLS LEVEL FOR DYSLEXIC STUDENTS AT PRIMARY SCHOOLS IN SAUDI ARABIA
Pennington et al. Assessing Pronunciation
Cornillie et al. Seeking out fun failure: how positive failure feedback could enhance the instructional effectiveness of CALL mini-games
Zrníková et al. Development of academic skills and learner’s autonomy in medical English courses
Darejeh et al. Speech pronunciation practice system for speech-impaired children: a systematic review of impacts and functionality
Rauschenberger Early screening of dyslexia using a language-independent content game and machine learning
Fan Scalable teaching and learning via intelligent user interfaces

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20120220

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130604

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140115

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees