JP2017009875A - 学習支援装置およびプログラム - Google Patents

学習支援装置およびプログラム Download PDF

Info

Publication number
JP2017009875A
JP2017009875A JP2015127080A JP2015127080A JP2017009875A JP 2017009875 A JP2017009875 A JP 2017009875A JP 2015127080 A JP2015127080 A JP 2015127080A JP 2015127080 A JP2015127080 A JP 2015127080A JP 2017009875 A JP2017009875 A JP 2017009875A
Authority
JP
Japan
Prior art keywords
data
image
sentence
displayed
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015127080A
Other languages
English (en)
Other versions
JP6623575B2 (ja
Inventor
山口 倫治
Tomoharu Yamaguchi
倫治 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015127080A priority Critical patent/JP6623575B2/ja
Publication of JP2017009875A publication Critical patent/JP2017009875A/ja
Application granted granted Critical
Publication of JP6623575B2 publication Critical patent/JP6623575B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

【課題】学習支援装置においてユーザのリスニング能力をより早く効果的に向上させる。【解決手段】学習問題データとして記憶されている画像データGをタッチパネル付き表示部に表示させ、当該画像Gに表わされている事象を説明する文章1〜文章4に対応した音声1〜音声4を順次再生する。そして、前記音声再生に伴い、前記事象の説明が正しい文章3に関係する前記画像G上のポイント位置Pm(P1,P2,P3)に従って、当該ポイント位置に該当する画像部分を、矢印表示(ヒント表示(1))、または時間経過に応じたコントラスト表示(ヒント表示(2))、または時間経過に応じたズーム表示(ヒント表示(3))などにより識別表示させる。そして、前記各文章1〜文章4の何れが正しいかをユーザに選択させて回答させる。【選択図】 図4

Description

本発明は、例えば外国語のリスニングを学習するのに好適な学習支援装置およびその制御プログラムに関する。
従来から、外国語を学習して正しく話せるようになるには、読み書きだけでなくリスニング能力を向上させることが重要であり、以下に記載するような学習支援装置が考えられている。
立体表示装置に2次元的に表示された画像に含まれる物などの対象図形をタッチして選択すると、当該対象図形を3次元的に表示させると共に、同対象図形に対応する名称などの単語を音声出力してユーザに聞かせる学習装置が考えられている(例えば、特許文献1参照。)。
学生のリスニング能力を測定し、その測定の結果に基づいて、学生に対し弱点対策を付した教材を作成し提供して演習を行なわせる語学学習システムが考えられている(例えば、特許文献2参照。)。
特開平10−31413号公報 特開2005−250423号公報
画像に表わされている事象を説明する文章の音声を再生してリスニングさせるものにおいて、より早く効果的にリスニング能力を向上させることが望まれる。
本発明は、このような課題に鑑みなされたもので、ユーザのリスニング能力をより早く効果的に向上させることが可能になる学習支援装置およびその制御プログラムを提供することを目的とする。
本発明に係る学習支援装置は、画像データと、当該画像データにより表示される画像に表わされている事象を文章で説明する文章データと、前記文章の表す事象のポイントになる前記画像上の位置を示す位置データとを取得するデータ取得手段と、前記データ取得手段により取得された画像データに基づく画像を表示する画像表示手段と、前記データ取得手段により取得された文章データに対応する音声データを再生する音声再生手段と、前記音声再生手段により前記文章データに対応する音声データが再生されるのに伴い、前記画像表示手段により表示されている画像上の前記位置データに該当する部分画像を識別表示させる識別表示手段と、を備えたことを特徴としている。
本発明によれば、ユーザのリスニング能力をより早く効果的に向上させることが可能になる。
本発明の学習支援装置の実施形態に係る学習支援システムの外観構成を示す図。 前記学習支援システムにおける学習端末10の電子回路の構成を示すブロック図。 前記学習端末10の学習問題データ12bとして記憶される学習問題の1問分のデータ構造を示す図。 前記学習問題データ12bに含まれる学習問題1問分のデータの具体例を示す図。 前記学習問題データ12bに含まれる学習問題(1問分)に対応したヒントデータ12cの具体例を示す図。 前記学習支援システムにおける学習端末10の制御処理を示すフローチャート。 前記学習端末10の制御処理における第1実施例のヒント表示処理(1)を示すフローチャート。 前記学習端末10の第1実施例のヒント表示処理(1)に従った音声再生を伴う画像表示動作を示す図。 前記学習端末10の学習問題データ12bとして記憶される学習問題1問分の第2実施例のデータ構造を示す図。 前記学習端末10の制御処理における第2実施例のヒント表示処理(2)を示すフローチャート。 前記学習端末10の第2実施例のヒント表示処理(2)に従った音声再生を伴う画像表示動作を示す図。 前記学習端末10の制御処理における第3実施例のヒント表示処理(3)を示すフローチャート。 前記学習端末10の第3実施例のヒント表示処理(3)に従った音声再生を伴う画像表示動作を示す図。
以下図面により本発明の実施の形態について説明する。
図1は、本発明の学習支援装置の実施形態に係る学習支援システムの外観構成を示す図である。
本実施形態の学習支援システムは、ユーザが操作する学習端末10と、当該学習端末10とインターネットなどの通信ネットワークNを介して接続される学習サーバ20とから構成される。
前記学習端末10は、タブレット端末などの携帯端末あるいはパソコンからなり、外部からインストールされたプログラム、あるいは予め記憶されたプログラムに従って動作することで前記学習支援システムの端末10として機能する。
前記学習サーバ20は、語学学習サイトを有し、前記学習端末10からの依頼に応じて、当該語学学習の学習支援プログラムを提供したり、ユーザの語学力に応じた学習問題を提供したりする。
図2は、前記学習支援システムにおける学習端末10の電子回路の構成を示すブロック図である。
前記学習端末10は、コンピュータである制御装置(CPU)11を備えている。
前記CPU11は、フラッシュROMなどの記憶装置12に記憶された端末制御プログラム12aに従って回路各部の動作を制御する。
前記端末制御プログラム12aは、前記記憶装置12に予め記憶されるか、光ディスクやメモリカードなどの外部記録媒体13から記録媒体読み取り部14により読み込まれて前記記憶装置12に記憶されるか、前記通信ネットワークN上のWebサーバ(ここではプログラムサーバ)20から通信部15によりダウンロードされて前記記憶装置12に記憶される。
前記端末制御プログラム12aとしては、本学習端末10の全体の動作を司るシステムプログラム、ユーザ操作に応じて前記学習サーバ20から学習問題を取得し、当該学習問題に応じた表示の制御および音声再生の制御を行なうための学習支援プログラムなどが記憶される。
前記記憶装置12にはまた、前記学習サーバ20から取得された学習問題データ12bと当該学習問題データ12bと併せて取得されたヒントデータ12cが記憶される。
前記端末制御プログラム12aは、キー操作部17からのキー入力信号、タッチパネル付き表示部18からのタッチ操作に応じた入力信号、前記通信部15を介して受信される前記学習サーバ20などの外部機器からの通信信号に応じて起動される。
RAM16は、前記CPU11による回路各部の動作の制御に伴う各種データの作業用メモリとして機能し、前記タッチパネル付き表示部18の液晶表示部に表示させる表示データが描画されて記憶される表示データエリア16aなどが確保される。
このように、前記CPU11には、前記記憶装置12、記録媒体読み取り部14、通信部15、RAM16、キー操作部17、タッチパネル付き表示部18が接続される他に、当該CPU11により生成された音声や再生された音声を出力するための音声出力部19が接続される。
図3は、前記学習端末10の学習問題データ12bとして記憶される学習問題の1問分のデータ構造を示す図である。
図4は、前記学習問題データ12bに含まれる学習問題1問分のデータの具体例を示す図である。
前記学習問題は、写真や絵からなる画像データGと、当該画像データGに含まれる物,人,動きなどに関する事象を説明する複数の文章データBm(ここでは4つの文章1〜文章4)と、当該文章データBmの各文章が説明している事象に関係した前記画像データG上でのポイント位置データPm(P1〜P7)と、前記文章データBmの各文章の読み上げ音声である音声データRm(音声1〜音声4)とが対応付けられて構成される。
前記複数の文章データBm(文章1〜文章4)は、前記画像データGの事象を正しく説明する内容の文章(ここでは文章3(正解))と誤って説明する内容の文章(ここでは文章1,2,4(不正解))とが混在して記憶される。
また、前記ポイント位置データPm(P1〜P7)は、前記画像データGにより表される画像上での、例えば、物,人,動きを表す位置とされる。
なお、前記学習問題の画像データGを前記タッチパネル付き表示部18により表示させる際には、図4(A)に示すように、当該画像データGの左下に、前記音声データRm(音声1〜音声4)を聴いたユーザがその何れの音声に対応した文章データ(文章1〜文章4)が正解であるかをタッチ操作により選択して回答するための回答ボタン[1]〜[4]が合成される。
図5は、前記学習問題データ12bに含まれる学習問題(1問分)に対応したヒントデータ12cの具体例を示す図である。
前記ヒントデータ12cは、当該ヒントの対象となる前記画像データG上でのポイント位置データPm(P1〜P7)に、各該当する位置の物,人,動きを表す単語(名詞,動詞)と、当該単語に対応した画像部分に関する同単語を用いた説明文とを対応付けて構成される。
このように構成された学習支援システムの学習装置10は、前記制御装置(CPU)11が前記端末制御プログラム12a(前記システムプログラム、学習支援プログラムを含む)に記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、後述の動作説明で述べる機能を実現する。
また、前記学習支援システムの学習サーバ20も同様に、当該学習サーバ20に備えられた制御装置(CPU)がそのサーバ制御プログラムに記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、後述の動作説明で述べる機能を実現する。
次に、前記構成の学習支援システムの動作について説明する。
図6は、前記学習支援システムにおける学習端末10の制御処理を示すフローチャートである。
前記学習端末10において、前記学習サーバ20の語学学習サイトにアクセスし、前記学習支援プログラムをダウンロードしてインストールする。
前記学習支援プログラムが起動されると、ユーザの語学力をチェックするためのチェックテストが実行され、テスト実行結果の語学力と、ユーザ入力された語学検定試験の目標点数や希望の問題項目などに応じて、前記学習サーバ20からユーザに出題する学習問題データ12bと当該学習問題12bに対応したヒントデータ12cが取得され、記憶装置12に記憶される。
なお、前記学習問題データ12bとそのヒントデータ12cは、前記学習サーバ20から学習支援プログラムをダウンロードしてインストールする際に、当該プログラムと併せてダウンロードし取得する構成としてもよい。
ユーザ操作に応じて学習の開始が指示されると、記憶装置12に記憶された学習問題データ12bが制御装置11に読み出され(取得され)、前記学習問題データ12bから最初の問題が読み出される(ステップS1)。そして取得された最初の学習問題の画像データG(図4(A)参照)がタッチパネル付き表示部18に表示される(ステップS2)。
ここで、ユーザが、前記表示された画像データGについて回答選択の前にヒントを得るために、当該画像データGが表示された画面上をタッチすると(ステップS10(Yes))、当該画像データG上のタッチされた位置に対応したポイント位置Pnが、前記ヒントデータ12c(図5参照)に含まれているか否か判断される(ステップS11)。
前記タッチ位置に対応したポイント位置Pnが、前記ヒントデータ12cに含まれていると判断されると(ステップS11(Yes))、当該ポイント位置Pnに対応付けられたヒント情報の単語が前記画像データG上の空エリアに重ねて表示される(ステップS12)。
そして、前記表示されたヒント情報の単語がユーザによりタッチされると(ステップS13(Yes))、前記ヒントデータ12c内の該当単語に対応付けられた当該単語を含む説明文が表示される(ステップS14)。
具体的には、前記図4(A)に示すように表示された画像データGおいて、ポイント位置P1の近傍がタッチされると(ステップS10(Yes))、当該ポイント位置P1に対応付けられた単語“banner”が表示される(ステップS11→S12)。そして、当該単語“banner”がタッチされると(ステップS13(No))、当該単語“banner”を含む説明文“a banner is … between the poles.”が表示される(ステップS14)。
この後、前記表示中の画像データG上でのユーザによるタッチ操作が判断される毎に、前記同様に、当該タッチ操作位置(ポイント位置Pn)に該当する人,物,動きなどの単語が表示され、さらに、当該単語へのタッチ操作に応じて同単語を含む説明文が表示される(ステップS10〜S14)。
これにより、ユーザは、前記表示中の問題の画像データGに対応した正しい文章データBm(文章1〜文章4)が何れであるかの回答選択を行なう前に、当該画像データG上の各部の事象を表す説明をヒントとして知ることができる。またそればかりでなく、当該画像データG上の各部に関係する様々な事象の英語表現を知ることもできる。
次に、ユーザ操作に応じて、前記表示中の画像データGに対応付けられている文章データBm(文章1〜文章4)に対応する音声データRm(音声1〜音声4)の再生開始が指示されると(ステップS3(Yes))、当該再生開始指示後の1回目(初回)である場合は(ステップS4(Yes))、前記各音声1〜音声4が順番に再生され音声出力部19から出力される(ステップS5)。
ユーザは、前記表示中の画像データGに表わされている事象について、前記音声データRm(音声1〜音声4)として再生された文章データBm(文章1〜文章4)の何れの文章が正しいかを、当該画像データG上に表示された回答ボタン[1]〜[4]を選択して回答する(ステップS7)。
ここで、ユーザが、前記再生された音声データRm(音声1〜音声4)を、その聞き取りが不十分であることなどによりもう一度聞きたい場合に、例えば前記表示中の画像データG上でのタッチ操作あるいはキー操作部17のキー操作により当該もう一度聞きたい指示があったと判断される(ステップS6(Yes))。
すると、前記音声データRm(音声1〜音声4)の再生回数nが2回目以降と判断され(ステップS4(No))、当該各音声1〜音声4を順番に再生する処理と共に、各対応する文章1〜文章4の正誤をユーザが判断するためのヒント表示処理が実行される(ステップSH(図7〜図13参照))。
(第1実施例)
図7は、前記学習端末10の制御処理における第1実施例のヒント表示処理(1)を示すフローチャートである。
図8は、前記学習端末10の第1実施例のヒント表示処理(1)に従った音声再生を伴う画像表示動作を示す図である。
前記ヒント表示処理(1)が開始されると、図8に示すように、先ず、前記文章データBm(文章1〜文章4)の文章1“There is a man on the bike in front of the banner.”に対応する音声1が読み出されて再生される(ステップH11,H12)。
そして、前記文章1に対応付けられた画像データG上のポイント位置Pm(P1,P2,P3)(図4参照)に従い矢印D1が表示され、当該表示中の画像データG上の該当する位置(ここではP1〜P3の範囲の画像部分)が識別表示される(ステップH13)。
この後、次の各文章2〜文章4についても前記同様に、当該各文章2〜文章4の各音声2〜音声4が順番に再生されながら、各対応するポイント位置Pm(文章2;P6,P7/文章3;P1,P2,P3/文章4;P5,P6)に矢印D2,D3,D4が表示され、表示中の画像データG上の該当する位置(範囲)が順番に識別表示される(ステップH14(Yes)→H11〜H13)。
これにより、ユーザは、前記矢印D1〜D4により順次識別表示される再生中の各文章1〜文章4にそれぞれ関係する事象がある付近の画像部分に注目しながら当該各文章1〜文章4の再生音声を聴くことができ、同各文章1〜文章4の正誤判断を容易に行えるようになる。
(第2実施例)
図9は、前記学習端末10の学習問題データ12bとして記憶される学習問題1問分の第2実施例のデータ構造を示す図である。
第2実施例(第3実施例も同様)では、前記画像データGに対応付けられるポイント位置データPmとして、正しい文章(ここでは文章3)が説明している事象に関係した当該画像データG上でのポイント位置(P1,P2,P3)だけが記憶される。
図10は、前記学習端末10の制御処理における第2実施例のヒント表示処理(2)を示すフローチャートである。
図11は、前記学習端末10の第2実施例のヒント表示処理(2)に従った音声再生を伴う画像表示動作を示す図である。
前記ヒント表示処理(2)が開始されると、図11に示すように、前記文章データBm(文章1〜文章4)に対応する各音声1〜音声4が順番に読み出されて再生される(ステップH21)。
すると、前記各文章1〜文章4の音声再生に伴い、正解の文章3に対応付けられた画像データG上のポイント位置Pm(P1,P2,P3)に基づいて正解の文章が示す事象を表した範囲が特定される(ステップH22)。
そして、図11に示すように、前記表示中の画像データG上で前記特定された範囲以外の画像が時間の経過に応じて色合いを薄くして表示される(ステップH23)。言い換えれば、時間の経過に応じて、前記正しい文章3に対応する付近の画像部分が徐々に識別表示される。
これにより、ユーザは、前記再生中の各文章1〜文章4の中で正しい文章3に対応した事象がある付近の画像部分にだけ注目の的が誘導されながら当該各文章1〜文章4の再生音声を聴くことができ、同ユーザのリスニング能力に関わらず、前記文章1〜文章4の正誤判断をより容易に行えるようになる。
(第3実施例)
図12は、前記学習端末10の制御処理における第3実施例のヒント表示処理(3)を示すフローチャートである。
図13は、前記学習端末10の第3実施例のヒント表示処理(3)に従った音声再生を伴う画像表示動作を示す図である。
前記ヒント表示処理(3)が開始されると、図13に示すように、前記文章データBm(文章1〜文章4)に対応する各音声1〜音声4が順番に読み出されて再生される(ステップH31)。
すると、前記各文章1〜文章4の音声再生に伴い、正解の文章3に対応付けられた画像データG上のポイント位置Pm(P1,P2,P3)が特定される(ステップH32)。
そして、図13に示すように、前記表示中の画像データGが時間の経過に応じて前記特定された位置(ここではP1,P2,P3を含む所定の範囲)にズームされながら表示される(ステップH23)。言い換えれば、前記第2実施例と同様に、時間の経過に応じて、前記正しい文章3に対応する付近の画像部分だけに徐々に識別されて表示される。
これにより、ユーザは、前記再生中の各文章1〜文章4の中で正しい文章3に対応した事象がある付近の画像部分だけに見ている内容が誘導されながら当該各文章1〜文章4の再生音声を聴くことができ、同ユーザのリスニング能力に関わらず、前記文章3が正しいとの判断をより容易に行えるようになる。
こうして、前記文章データBm(文章1〜文章4)に対応した音声再生を伴う画像データGのヒント表示処理(ステップSH)が実行された後に、ユーザ操作に応じて、さらにもう一度聞きたい指示があったと判断されると(ステップS6(Yes))、その都度、前記同様のヒント表示処理(ステップSH)が繰り返し実行される。
この後、前記表示中の画像データGの事象について、前記音声1〜音声4として再生された文章1〜文章4の何れの文章が正しいか、当該画像G上に表示された回答ボタン[1]〜[4]の選択により回答されると(ステップS7(Yes))、当該回答が正解か否かが判断されその判断結果が前記タッチパネル式表示部18に表示される(ステップS8)。
続いて、前記学習問題データ12の学習問題として次の問題があるか否か判断され(ステップS9)、次の問題(ここでは2問目)があると判断されると(ステップS9(Yes))、当該2問目の問題が読み出され(ステップS1)、その画像データGがタッチパネル付き表示部18に表示される(ステップS2)。
そして、前記1問目の場合と同様に、ユーザは、前記表示された2問目の画像データGの文章データBmに対応した音声再生を行なわせる前に、当該画像データG上の各部をタッチ操作して各対応する画像部分の事象を表す単語や説明文をヒントとして表示させたり(ステップS10〜S14)、前記文章データBm(文章1〜文章n)に対応した音声再生を行なわせながら正しい文章に対応した画像部分をヒントとして識別表示させたりして(ステップSH)、当該各文章1〜文章nの正誤を判断できる。
したがって、前記構成の学習支援システムによれば、学習問題データ12bとして記憶されている画像データGをタッチパネル付き表示部18に表示させ、当該画像Gに表わされている事象を説明する文章1〜文章4に対応した音声1〜音声4を順次再生する。そして、前記音声再生に伴い、前記事象の説明が正しい文章3に関係する前記画像G上のポイント位置Pm(P1,P2,P3)に従って、当該ポイント位置に該当する画像部分を、矢印表示(ヒント表示(1))、または時間経過に応じたコントラスト表示(ヒント表示(2))、または時間経過に応じたズーム表示(ヒント表示(3))などにより識別表示させる。
これにより、ユーザは、前記正しい文章3に対応した事象がある画像部分に注目しながら前記各文章1〜文章4の再生音声を聴くことができ、当該文章3が正しいとの判断を容易に行えるようになる。
なお、前記矢印表示(ヒント表示(1))の場合は、前記各文章1〜文章4に対応した音声1〜音声4を順番に再生する毎に、当該各文章1〜文章4に関係する各々のポイント位置に該当する画像部分を矢印D1〜D4で示して識別表示させる。
この場合、ユーザは、前記矢印D1〜D4により順次識別表示される前記各文章1〜文章4にそれぞれ対応した事象がある各画像部分に注目しながら当該各文章1〜文章4の再生音声を聴くことができ、同各文章1〜文章4の正誤判断を容易に行えるようになる。
また、前記構成の学習支援システムによれば、前記表示中の画像データGに対応した各文章1〜文書4の音声再生を行なわせる前にも、当該画像G上の各部をタッチ操作して各対応する画像部分の事象を表す単語や説明文をヒントとして表示させることができる。
よって、ユーザは、そのリスニング能力に関わらず、前記文章1〜文章4の正誤判断をより容易に行えるようになり、同ユーザのリスニング能力をより早く効果的に向上させることが可能になる。
なお、前記各実施形態では、学習問題として画像Gと当該画像Gの事象を表す正解/不正解が混在する複数の文章1〜4とを取得し、当該文章1〜4に対応する音声を順番に再生することで、何れか正解の文章をユーザに選択させて回答させる構成としたが、前記画像Gの事象を表す正解又は不正解の1つの文章を取得し、当該文章の音声を再生してその文章が正解か否かを回答させる構成としてもよい。
なお、前記各実施形態において記載した学習支援システムによる各処理の手法およびデータベース、すなわち、図6のフローチャートに示す学習端末10の制御処理、図7、図9、図12の各フローチャートに示す前記学習端末10の制御処理に伴うヒント表示処理(1)(2)(3)等の各手法、および学習問題データ12b、ヒントデータ12c等のデータベースは、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピ(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記録装置の媒体に格納して配布することができる。そして、電子機器のコンピュータ(制御装置)は、この外部記録装置の媒体に記憶されたプログラムを記憶装置に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記各実施形態において説明した学習支援機能を実現し、前述した手法による同様の処理を実行することができる。
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク上を伝送させることができ、この通信ネットワークに接続されたコンピュータ装置(プログラムサーバ)から前記プログラムのデータを電子機器に取り込んで記憶装置に記憶させ、前述した学習支援機能を実現することもできる。
本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[1]
画像データと、当該画像データにより表示される画像に表わされている事象を文章で説明する文章データと、前記文章の表す事象のポイントになる前記画像上の位置を示す位置データとを取得するデータ取得手段と、
前記データ取得手段により取得された画像データに基づく画像を表示する画像表示手段と、
前記データ取得手段により取得された文章データに対応する音声データを再生する音声再生手段と、
前記音声再生手段により前記文章データに対応する音声データが再生されるのに伴い、前記画像表示手段により表示されている画像上の前記位置データに該当する部分画像を識別表示させる識別表示手段と、
を備えたことを特徴とする学習支援装置。
[2]
前記データ取得手段は、前記文章データとして、前記画像に表わされている事象を正しく説明する文章データと誤って説明する文章データとを混在して複数取得する、
ことを特徴とする[1]に記載の学習支援装置。
[3]
前記音声再生手段は、前記データ取得手段により取得された複数の文章データに各対応する音声データを順次再生し、
前記識別表示手段は、前記音声再生手段により前記複数の文章データに各対応する音声データが順次再生される毎に、前記画像表示手段により表示されている画像上で当該音声再生中の文章データに対応した前記位置データに該当する部分画像を識別表示させる、
ことを特徴とする[2]に記載の学習支援装置。
[4]
前記識別表示手段は、前記音声再生手段により前記複数の文章データに各対応する音声データが再生される間に、前記画像表示手段により表示されている画像上で前記事象を正しく説明する文章データに対応した位置データに該当する部分画像を徐々に識別して表示させる、
ことを特徴とする[2]に記載の学習支援装置。
[5]
前記データ取得手段により取得された前記画像上の各位置データに対応する各画像部分に対応した単語を取得する単語取得手段と、
前記画像表示手段により表示された画像上でユーザ操作に応じて指定された位置の画像部分に対応して前記単語取得手段により取得された単語をヒントとして表示させるヒント単語表示手段と、
を備えたことを特徴とする[1]ないし[4]の何れかに記載の学習支援装置。
[6]
電子機器のコンピュータを、
画像データと、当該画像データにより表示される画像に表わされている事象を文章で説明する文章データと、前記文章の表す事象のポイントになる前記画像上の位置を示す位置データとを取得するデータ取得手段と、
前記データ取得手段により取得された画像データに基づく画像を表示する画像表示手段と、
前記データ取得手段により取得された文章データに対応する音声データを再生する音声再生手段と、
前記音声再生手段により前記文章データに対応する音声データが再生されるのに伴い、前記画像表示手段により表示されている画像上の前記位置データに該当する部分画像を識別表示させる識別表示手段、
として機能させるためのコンピュータ読み込み可能なプログラム。
10 …学習端末
11 …制御装置(CPU)
12 …記憶装置
12a…端末制御プログラム
12b…学習問題データ
12c…ヒントデータ
13 …外部記録媒体
14 …記録媒体読み取り部
15 …通信部
16a…表示データエリア
18 …タッチパネル付き表示部
20 …学習サーバ(Webサーバ)
N …通信ネットワーク

Claims (6)

  1. 画像データと、当該画像データにより表示される画像に表わされている事象を文章で説明する文章データと、前記文章の表す事象のポイントになる前記画像上の位置を示す位置データとを取得するデータ取得手段と、
    前記データ取得手段により取得された画像データに基づく画像を表示する画像表示手段と、
    前記データ取得手段により取得された文章データに対応する音声データを再生する音声再生手段と、
    前記音声再生手段により前記文章データに対応する音声データが再生されるのに伴い、前記画像表示手段により表示されている画像上の前記位置データに該当する部分画像を識別表示させる識別表示手段と、
    を備えたことを特徴とする学習支援装置。
  2. 前記データ取得手段は、前記文章データとして、前記画像に表わされている事象を正しく説明する文章データと誤って説明する文章データとを混在して複数取得する、
    ことを特徴とする請求項1に記載の学習支援装置。
  3. 前記音声再生手段は、前記データ取得手段により取得された複数の文章データに各対応する音声データを順次再生し、
    前記識別表示手段は、前記音声再生手段により前記複数の文章データに各対応する音声データが順次再生される毎に、前記画像表示手段により表示されている画像上で当該音声再生中の文章データに対応した前記位置データに該当する部分画像を識別表示させる、
    ことを特徴とする請求項2に記載の学習支援装置。
  4. 前記識別表示手段は、前記音声再生手段により前記複数の文章データに各対応する音声データが再生される間に、前記画像表示手段により表示されている画像上で前記事象を正しく説明する文章データに対応した位置データに該当する部分画像を徐々に識別して表示させる、
    ことを特徴とする請求項2に記載の学習支援装置。
  5. 前記データ取得手段により取得された前記画像上の各位置データに対応する各画像部分に対応した単語を取得する単語取得手段と、
    前記画像表示手段により表示された画像上でユーザ操作に応じて指定された位置の画像部分に対応して前記単語取得手段により取得された単語をヒントとして表示させるヒント単語表示手段と、
    を備えたことを特徴とする請求項1ないし請求項4の何れか1項に記載の学習支援装置。
  6. 電子機器のコンピュータを、
    画像データと、当該画像データにより表示される画像に表わされている事象を文章で説明する文章データと、前記文章の表す事象のポイントになる前記画像上の位置を示す位置データとを取得するデータ取得手段と、
    前記データ取得手段により取得された画像データに基づく画像を表示する画像表示手段と、
    前記データ取得手段により取得された文章データに対応する音声データを再生する音声再生手段と、
    前記音声再生手段により前記文章データに対応する音声データが再生されるのに伴い、前記画像表示手段により表示されている画像上の前記位置データに該当する部分画像を識別表示させる識別表示手段、
    として機能させるためのコンピュータ読み込み可能なプログラム。
JP2015127080A 2015-06-24 2015-06-24 学習支援装置およびプログラム Active JP6623575B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015127080A JP6623575B2 (ja) 2015-06-24 2015-06-24 学習支援装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015127080A JP6623575B2 (ja) 2015-06-24 2015-06-24 学習支援装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2017009875A true JP2017009875A (ja) 2017-01-12
JP6623575B2 JP6623575B2 (ja) 2019-12-25

Family

ID=57763438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015127080A Active JP6623575B2 (ja) 2015-06-24 2015-06-24 学習支援装置およびプログラム

Country Status (1)

Country Link
JP (1) JP6623575B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013049A (ja) * 2018-07-20 2020-01-23 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
ES2831166A1 (es) * 2019-12-05 2021-06-07 Univ Castilla La Mancha Procedimiento de reproduccion de contenido multimedia de ayuda mediante audio en interfaces visuales de usuario, y dispositivo que implementa dicho procedimiento

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207332A (ja) * 1997-01-27 1998-08-07 Gakken Co Ltd コンピュータを用いた学習システム
JP2003131778A (ja) * 2001-10-29 2003-05-09 Tdk Corp 表示制御方法、表示制御プログラム及び表示制御プログラムが記録された記録媒体
JP2004219879A (ja) * 2003-01-17 2004-08-05 Miyako Tazaki 教育システム
JP2006119362A (ja) * 2004-10-21 2006-05-11 Docomo Mobile Inc eラーニング用の教材データ、編集装置および編集システム
JP2007504496A (ja) * 2003-09-02 2007-03-01 フェアフィールド ランゲージ テクノロジーズ 言語教育用システムおよび方法
WO2008066361A1 (en) * 2006-12-01 2008-06-05 Jae Bong Choi Language learning contents provider system
JP2011007958A (ja) * 2009-06-24 2011-01-13 Japan Institute For Educational Measurement Inc 教育支援システム用サーバ、教育支援システム
JP2011128362A (ja) * 2009-12-17 2011-06-30 Cocone Corp 学習システム
JP2013077075A (ja) * 2011-09-29 2013-04-25 Furyu Kk 画像表示システム、学習システム、画像表示方法、および制御プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207332A (ja) * 1997-01-27 1998-08-07 Gakken Co Ltd コンピュータを用いた学習システム
JP2003131778A (ja) * 2001-10-29 2003-05-09 Tdk Corp 表示制御方法、表示制御プログラム及び表示制御プログラムが記録された記録媒体
JP2004219879A (ja) * 2003-01-17 2004-08-05 Miyako Tazaki 教育システム
JP2007504496A (ja) * 2003-09-02 2007-03-01 フェアフィールド ランゲージ テクノロジーズ 言語教育用システムおよび方法
JP2006119362A (ja) * 2004-10-21 2006-05-11 Docomo Mobile Inc eラーニング用の教材データ、編集装置および編集システム
WO2008066361A1 (en) * 2006-12-01 2008-06-05 Jae Bong Choi Language learning contents provider system
JP2011007958A (ja) * 2009-06-24 2011-01-13 Japan Institute For Educational Measurement Inc 教育支援システム用サーバ、教育支援システム
JP2011128362A (ja) * 2009-12-17 2011-06-30 Cocone Corp 学習システム
JP2013077075A (ja) * 2011-09-29 2013-04-25 Furyu Kk 画像表示システム、学習システム、画像表示方法、および制御プログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
日下大輔: "音声合成と画像情報を組み合わせた英会話学習支援システム", 全国大会講演論文集(4), vol. 第70回(平成20年), JPN6019016661, 13 March 2008 (2008-03-13), pages 4 - 707, ISSN: 0004030755 *
秋元雄介: "映画を用いた英語学習における注釈付き字幕の検討", 映像情報メディア学会技術報告, vol. 35, no. 8, JPN6019016660, 12 February 2011 (2011-02-12), pages 115 - 118, ISSN: 0004030756 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020013049A (ja) * 2018-07-20 2020-01-23 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム
ES2831166A1 (es) * 2019-12-05 2021-06-07 Univ Castilla La Mancha Procedimiento de reproduccion de contenido multimedia de ayuda mediante audio en interfaces visuales de usuario, y dispositivo que implementa dicho procedimiento

Also Published As

Publication number Publication date
JP6623575B2 (ja) 2019-12-25

Similar Documents

Publication Publication Date Title
US9904666B2 (en) Interactive environment for performing arts scripts
KR20160111275A (ko) 외국어 학습 시스템 및 외국어 학습 방법
CN109389873A (zh) 计算机系统和由计算机实现的训练系统
JP6623575B2 (ja) 学習支援装置およびプログラム
JP6166831B1 (ja) 単語学習支援装置、単語学習支援プログラム、単語学習支援方法
CN109559575B (zh) 学习辅助装置、学习辅助系统和学习辅助方法
JP2018097250A (ja) 言語学習装置
JP2017142366A (ja) 学習支援装置及びプログラム
JP2016224283A (ja) 外国語の会話訓練システム
KR20140107067A (ko) 이미지 데이터와 원어민 발음 데이터를 이용한 단어 학습장치 및 방법
JP2019070717A (ja) 電子機器、その制御方法、および、プログラム
JP6620437B2 (ja) 学習支援装置およびプログラム
JP2014059452A (ja) 学習用装置、その制御方法、学習用プログラム、および、学習システム
JP7118389B2 (ja) 言語学習装置及び言語学習方法並びに言語学習用プログラム
JP7013702B2 (ja) 学習支援装置、学習支援方法、及び、プログラム
JP6155102B2 (ja) 学習支援装置
KR20170014810A (ko) 음성 인식을 이용한 영어 학습방법
JP6225236B1 (ja) 情報処理装置、プログラムおよび情報処理方法
US11562663B1 (en) Production and presentation of aural cloze material
JP7338737B2 (ja) 電子機器、その制御方法、および、プログラム
KR20020024828A (ko) 인터넷을 이용한 상호 대화식 언어 학습방법
Wang Exploring the potential of using spatial audio to improve web accessibility for screen reader users
KR20140082127A (ko) 단어의 어원 및 원어민의 발음 데이터를 이용한 단어 학습장치 및 방법
JP2018130454A (ja) 軽度認知障害検査システム及び軽度認知障害検査プログラム
KR102207910B1 (ko) 영어 학습 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191111

R150 Certificate of patent or registration of utility model

Ref document number: 6623575

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150