JP6953825B2 - データ送信方法、データ送信装置、及びプログラム - Google Patents

データ送信方法、データ送信装置、及びプログラム Download PDF

Info

Publication number
JP6953825B2
JP6953825B2 JP2017121660A JP2017121660A JP6953825B2 JP 6953825 B2 JP6953825 B2 JP 6953825B2 JP 2017121660 A JP2017121660 A JP 2017121660A JP 2017121660 A JP2017121660 A JP 2017121660A JP 6953825 B2 JP6953825 B2 JP 6953825B2
Authority
JP
Japan
Prior art keywords
data
voice
keyword
target
voice data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017121660A
Other languages
English (en)
Other versions
JP2019008035A5 (ja
JP2019008035A (ja
Inventor
湖城 孝
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2017121660A priority Critical patent/JP6953825B2/ja
Publication of JP2019008035A publication Critical patent/JP2019008035A/ja
Publication of JP2019008035A5 publication Critical patent/JP2019008035A5/ja
Application granted granted Critical
Publication of JP6953825B2 publication Critical patent/JP6953825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、講義者が行う講義を効果的に利用するためのデータ送信方法、データ送信装置及びその制御プログラムに関する。
近年、教科の学習単元毎に、動画教材が作成され、作成された動画教材を学習者が視聴して学習することが盛んに行われている。
動画教材を生成する講義録画システムであって、講師が使用する講義用携帯端末から講義用ディスプレイに表示させるプレゼンテーション用の画面の映像と、講義撮影用カメラにより講義を撮影した映像とを、講義用マイクロホンで入力した講師の音声と共に録画用PCにて合成して録画し、動画教材を生成することが考えられている(例えば、特許文献1参照。)。
特開2016−144073号公報
従来の講義録画システムにより動画教材を生成するには、動画編集の技術と手間が掛かるだけでなく、講義用ディスプレイに表示されるプレゼンテーション用の画面の映像や当該画面に対し講師が指示する位置が講義撮影用カメラにより上手く撮影できるように、講師がカメラの位置に注意して移動する必要がある。
このため、動画教材を撮影するための講義は、撮影専用の特別講義として行っているのが殆どである。また、従来の動画教材は、対象とする学習単元の講義を通しで撮影、録画して生成されるので、例えば、講義テキストの項目毎に学習の範囲を分けて利用しづらい問題がある。
本発明は、このような課題に鑑みなされたもので、撮影専用の特別講義を行なう必要なく、利用者にとって適切に利用できる講義データを得ることが可能なデータ送信方法、データ送信装置及びその制御プログラムを提供することを目的とする。
本発明に係るデータ送信方法は、電子機器が、対象のテキストを特定する特定処理と、音声入力部に入力される音声データを逐次取得する取得処理と、前記取得処理により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出処理と、前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得処理により逐次取得される音声データの中から対象の音声データを特定する特定処理と、特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信処理と、を実行し、前記特定処理は、前記検出処理により前記キーワードに対応する音声を検出する毎に、前回の前記キーワードに対応する音声の検出以降で今回の前記キーワードに対応する音声の検出より前に前記取得処理により取得された音声データを前記対象の音声データとして特定する処理であり、前記送信処理は、前記検出処理により前記キーワードに対応する音声を検出する毎に、前記特定処理により特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する処理である。
本発明によれば、撮影専用の特別講義を行なう必要なく、利用者にとって適切に利用できる講義データを得ることが可能になる。
本発明のデータ送信装置の実施形態に係る講義者端末10を利用した講義現場の概要を示す図。 前記講義者端末10の電子回路の構成を示すブロック図。 前記講義者端末10の教科書目次データエリア12cに記憶した中学英語2年の教科書BTx(Tx)に対応した第1実施形態の教科書目次データ(番号のみ)12c1の内容を示す図。 前記講義者端末10の教科書目次データエリア12cに記憶した中学英語2年の教科書BTx(Tx)に対応した第2実施形態の教科書目次データ(タイトルを含む)12c2の内容を示す図。 前記講義者端末10の講義データエリア12dに登録した講義データ12d1の一例を示す図。 前記講義者端末10の講義データ送信処理(その1)を示すフローチャート。 前記講義者端末10の講義データ送信処理(その2)を示すフローチャート。 前記講義者端末10の講義データ送信処理(その3)を示すフローチャート。 前記講義者端末10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義の過程(その1)を示す図。 前記講義者端末10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義の過程(その2)を示す図。 前記講義者端末10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義の過程(その3)を示す図。 前記講義者端末10の講義データ送信処理に従い生成された講義データ12dnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12dnの再生動作(その1)を示す図。 前記講義者端末10の講義データ送信処理に従い生成された講義データ12dnを受信した受講者端末20でのユーザ(受講者)操作に応じた講義データ12dnの再生動作(その2)を示す図。 前記講義者端末10の教科書目次データエリア12cに記憶した中学英語2年の電子教科書(テキスト)Txに対応した第3実施形態の教科書目次データ(タイトル・新出単語を含む)12c3の内容を示す図。 前記講義者端末10において第3実施形態の教科書目次データ(タイトル・新出単語を含む)12c3を使用した場合のユーザ(講義者)操作に応じた講義の過程と、受講者端末20での講義データ12dnの再生動作を示す図。
以下図面により本発明の実施の形態について説明する。
図1は、本発明のデータ送信装置の実施形態に係る講義者端末10を利用した講義現場の概要を示す図である。
前記講義者端末10は、例えば、タブレット端末10Tや電子黒板10B等のコンピュータ(CPU)を備えた電子機器により実現する。
本実施形態では、前記タブレット端末10Tを講義者端末10として説明する。講義者端末10(タブレット端末10T)は、図1に示すように、電子黒板10Bの近傍に取り付けて設置し、音声入力部(マイク)18aを備える。
前記電子黒板10Bは、講義用の大画面のタッチパネル付き表示装置を備え、講義対象のテキスト(電子教科書)Txのデータを表示させたり、ユーザ(講義者Le)のペンPによるタッチ操作に応じた手書き(板書)の文字等を表示させたりする。
なお、本実施形態の講義者端末10を利用する講義現場において、前記電子黒板10Bは、自らは表示機能を持たない通常の黒板(又は白板)としてもよい。本実施形態(図1)に対応する説明では、前記電子黒板10Bを使用し、講義者Leは、ペンPを使用して当該電子黒板10Bに板書しながら講義を行なう。なお、黒板の表示テキスト(教科書)Txを見やすくするために、黒板を実際の1.5倍の長さに拡大して図面化した。講義者Leが受講者St…と比べて巨人サイズに見えるのは、そのためである。
各受講者St…は、受講者端末20として、タブレット端末20Tを持つ受講者Stと、当該タブレット端末20Tを持たずに書籍の教科書BTx及び電子辞書20Dを持つ受講者Stとの両者が存在する。
前記タブレット端末20Tを持つ受講者Stは、当該タブレット端末20Tに講義対象のテキスト(教科書)Txの見開きページを表示させて講義を受ける。前記タブレット端末20Tを持たない受講者Stは、講義対象の書籍の教科書BTxの見開きページを開いて講義を受ける。
前記受講者端末20としてのタブレット端末20Tや電子辞書20Dは、前記講義に応じて前記講義者端末10での後述する講義データ送信処理に従い自動生成された講義データ12dn(図2、図5参照)を、当該講義者端末10(あるいは教育コンテンツサーバ30)から受信して再生する機能を有し、各受講者St…(講義欠席者含む)は、自分のタブレット端末20Tに表示させた講義対象のテキスト(教科書)Txの見開きページや講義対象の書籍の教科書BTxの見開きページを見ながら、前記講義データ12dnを再生し、該当する講義の復習、再受講、講義欠席者の受講などを行なうことができる。
図2は、前記講義者端末10の電子回路の構成を示すブロック図である。
前記講義者端末10は、コンピュータであるCPU11を備える。前記CPU11は、フラッシュROMなどのメモリ12に予め記憶された講義データ送信処理プログラム12aに従って回路各部の動作を制御する。なお、講義データ送信処理プログラム12aは、メモリカードなどの外部記録媒体13から記録媒体読取部14により読み取って前記メモリ12に記憶してもよいし、通信ネットワーク(インターネット)N上のWebサーバ30から通信部(インターネット通信)15を介しダウンロードして前記メモリ12に記憶してもよい。
前記CPU11には、前記メモリ12、記録媒体読取部14、通信部15を接続する他に、キー入力部16、タッチパネル付きカラー表示部17、音声入力部(マイク)(又は音声付き動画入力部(マイク付カメラ))18a、音声出力部(スピーカ)18b、近距離無線通信部(Bluetooth(登録商標)等)19を接続する。
また、前記メモリ12には、電子教科書データエリア12b、教科書目次データエリア12c、講義データエリア12d、ページ位置ポインタデータエリア12e、受講者データエリア12fなどを確保する。
前記電子教科書データエリア12bは、例えば、中学英語1年、中学英語2年等、各教科各学年の電子教科書(テキスト)Txそれぞれのデータを記憶し、語学テキストの場合は、更に、各学習単元の本文、基本文、基本練習等に含まれるテキストに対応した模範音声データも含めて記憶する。
前記教科書目次データエリア12cは、前記電子教科書データエリア12bに記憶した各電子教科書(テキスト)Tx(書籍の教科書BTxも同じ)に対応した目次のデータを記憶する。
図3は、前記講義者端末10の教科書目次データエリア12cに記憶した中学英語2年の教科書BTx(Tx)に対応した第1実施形態の教科書目次データ(番号のみ)12c1の内容を示す図である。
前記教科書目次データ(番号のみ)12c1は、前記教科書BTx(Tx)に含まれる各単元を、例えば、[UNIT]、当該[UNIT]に含まれる各[パート]、当該[パート]に含まれる[基本文]と[基本練習]それぞれに対応する番号と記述ページを組合せた目次として記憶する。
例えば、前記中学英語2年の教科書BTx(Tx)には、単元の最大の区切りとして[UNIT;1(P6−17),2(P18−31),3(P32−45)]があり、[UNIT1]には、当該UNIT番号1に含まれるパート番号1,2,…を対応付けた[パート;1−1(P6−7),1−2(P8−P9)]がある。そして、[パート1−1(P6−7)][パート1−2(P8−9)]には、対象学年(中学2年)の番号2に対して当該学年にて習得すべき基本文と基本練習それぞれの連続番号1,2,…を対応付けた[基本文2−1(P7)/基本練習2−1(P7)][基本文2−2(P9)/基本練習2−2(P9)]がある。
本実施形態の講義者端末10では、CPU11において、教科書BTx(Tx)の種類(ここでは「中学英語2年」)とそのページ、更には、講義対象の項目である[基本文]や[基本練習]を認識することで、前記教科書目次データ(番号のみ)12c1に基づいて、現在講義対象となっている[UNIT][パート][基本文][基本練習]の正確な位置情報(ページ位置)を判定できる。
図4は、前記講義者端末10の教科書目次データエリア12cに記憶した中学英語2年の教科書BTx(Tx)に対応した第2実施形態の教科書目次データ(タイトルを含む)12c2の内容を示す図である。
前記教科書目次データ(タイトルを含む)12c2は、前記図3で示した教科書目次データ(番号のみ)12c1と比較して、各[UNIT][パート][基本文][基本練習]それぞれの番号に対応付けられたタイトルも含む点で異なる。
前記講義データエリア12dには、例えば、各教科各学年各組の時間割りに従い各時限にて講義者Leが行った講義の音声データを、講義対象のテキスト(Tx)の当該講義者Leがその音声データに含めて指示した位置に対応付けた講義データ(4月25日_2時間目_中学2年英語P18−19(2年3組))12d1,(4月23日_4時間目_中学2年英語P18−19(2年1組))12d2,(4月21日_1時間目_中学2年英語P17−18(2年1組))12d3,…として登録する。
図5は、前記講義者端末10の講義データエリア12dに登録した講義データ12d1の一例を示す図である。
前記講義データ12d1は、前記CPU11が、講義対象のテキスト(Tx)に対する講義者Leの指示キーワード(講義の音声に含まれる指示キーワード)を検出する毎に、当該指示の内容と、当該指示に対応する時間と、当該指示に対応するテキスト位置と、当該指示に対応する項目(マーク)等の講義内容とに対して、前回の指示キーワードの検出から今回の指示キーワードの検出より前まで前記音声入力部18aにより入力した講義者Le等の音声データを対応付けて前記講義データエリア12dに登録する。なお、本実施形態では、講義者の発声する音声データから指示キーワードを検出するが、指示キーワードでなく指パッチン(フィンガースナップ)の音や、手をたたく音、関節をポキポキ鳴らす音やそれらの回数を指示キーデータとして、前回の指示キーデータの検出から今回の指示キーデータの検出より前まで前記音声入力部18aにより入力した講義者Le等の音声データを対応付けて前記講義データエリア12dに登録する。また、講義者の講義でなく、馬の走る音、小鳥のさえずり、雷や台風の音を、指示キーデータ、講義者の音再生操作時に機械からでる音、例えばスイッチの操作時の音「パチン」、取得した音声の最後の雑音「ザーザー」を指示キーデータとして、前回の指示キーデータの検出から今回の指示キーデータの検出より前まで前記音声入力部18aにより入力した動物や自然現象の録音音声等の音データを対応付けて前記講義データエリア12dに登録するようにしてもよい。
前記講義データ12d1,12d2,12d3,…において、講義者Leの指示に対応する項目等の内容としては、当該指示に対応するテキスト位置の項目(マーク)をアイコン化したデータとそのアイコンに応じた動作制御の内容を含む。
前記ページ位置ポインタデータエリア12eは、前記講義者Leによる講義の過程において、当該講義者Leの音声データに含まれる指示キーワードを認識して判定した、講義対象のテキスト(Tx)の注目位置(ページやページ内項目)を示すポインタデータを記憶する。
前記受講者データエリア12fは、各受講者(生徒等)St…が使用する受講者端末(タブレット端末20T,電子辞書20D等)20…の通信アドレス等を記憶する。
なお、前記電子教科書データエリア12bが記憶する各種の電子教科書(テキスト)Txそれぞれのデータ、および前記教科書目次データエリア12cが記憶する各種の電子教科書(テキスト)Txそれぞれに対応する教科書目次データは、前記講義データ送信処理プログラム12aに従った本講義者端末10の動作上の必要に応じて、前記通信ネットワーク(インターネット)N上の教育コンテンツサーバ30から、前記通信部15を介しダウンロードして取得する構成としてもよい。
また、前記講義データエリア12dに登録する講義データ12d1,12d2,12d3,…は、当該講義データ12dnを生成する処理の過程で前記教育コンテンツサーバ30に送信して登録してもよいし、各時限の講義毎に前記講義データエリア12dに登録した講義データ12dnを一括して前記教育コンテンツサーバ30に送信して登録してもよい。
また、前記受講者データエリア12fが記憶する各受講者(生徒等)St…のデータも、前記講義データ送信処理プログラム12aに従った本講義者端末10の動作上の必要に応じて、前記通信ネットワーク(インターネット)N上の教育コンテンツサーバ30から、前記通信部15を介しダウンロードして取得する構成としてもよい。
このように構成された講義者端末10は、前記CPU11が、前記講義データ送信処理プログラム12aに記述された命令に従い回路各部の動作を制御し、ソフトウエアとハードウエアとが協働して動作することにより、以下の動作説明で述べるような、実際の受講者St…を対象とした講義からの講義データ12dnの生成機能とその送信機能とを実現する。
次に、前記構成の講義者端末10の動作について説明する。
図6、図7、図8は、前記講義者端末10の講義データ送信処理(その1)(その2)(その3)を示すフローチャートである。
図9、図10、図11は、前記講義者端末10の講義データ送信処理に従ったユーザ(講義者)操作に応じた講義の過程(その1)(その2)(その3)を示す図である。
ここでの講義は、講義者Leが、表示機能を持たない通常の黒板(又は白板)BDに板書しながら行なうものとし、講義者端末10は、当該黒板BDの周辺など、講義者Leの発声する音声を音声入力部18aにより十分に入力可能な場所に置いて利用する。
なお、講義者端末10は、講義を開始する前はスリープモードでの電源オフの状態とし、CPU11をはじめとする各回路は動作している。
先ず、図9(A)に示すように、ユーザ(講義者Le)は、『端末オン』「おはよう。みんな元気かな?出席をとります。…今日もがんばっていこう。」と発声する。
CPU11は、音声入力部18aにより入力した講義者Leの音声データHを音声認識し、当該講義者音声データHに含まれる指示キーワード『端末オン』に応じて電源をオンにし、時計カウンタTによる講義時間のカウントを開始する(ステップS1(Yes)→S2)。
続いて、講義者Leは、図9(A)(B)に示すように、ペンPにより、黒板BDに“予定をあらわす英語表現”と板書しながら、「『教科書のP18』を開いて!みななはGWの予定はもう立てたかな?今日は、予定をあらわす英語の勉強だよ!」と発声する。
CPU11は、音声入力部18aにより入力した講義者音声データHに含まれる指示キーワード『教科書のP18』を検出し(ステップS3(Yes))、教科書に対する最初の指示の検出であると判断すると(ステップS4(Yes))、メモリ12に予め記憶されるか通信部15を介して外部から取得された時間割りの情報に応じて判断した教科書[中学2年英語]、現在の日時、講義対象のクラスに基づいて、講義データ12d1のヘッダ(ここでは[4月25日_2時間目_中学2年英語P18−19(2年3組)])を生成し、メモリ12内の講義データエリア12dに登録する(ステップS5)。
またCPU11は、前記指示キーワード『端末オン』を検出したときから前記指示キーワード『教科書のP18』を検出したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「おはよう。みんな元気かな?出席をとります。…今日もがんばっていこう。」を、前記指示キーワード『端末オン』と、その指示の時点での前記時計カウンタTによる講義時間データ[00:00]と、前記端末オンの指示に対応する[開始]アイコン及びその動作制御(再生開始)のデータとに対応付けて、前記講義データエリア12d内の講義データ12d1のヘッダに続けて登録する(ステップS6)。
そしてCPU11は、前記指示キーワード『教科書のP18』を検出したタイミング以降に前記音声入力部18aにより入力された講義者音声データH「『教科書のP18』を開いて!みななはGWの予定はもう立てたかな?今日は、予定をあらわす英語の勉強だよ!」を、[イントロ]アイコンと、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書[中学2年英語]のページ位置[中2英語;P18]のデータとに対応付けて取得していく(ステップS7)。
次に、講義者Leは、図9(C)に示すように、「『本文』を読んで、内容を説明するよ!<Hi, Dick.><<こんにちは、ディック>>…<I am going to visit NYC next week.><<ぼくは、来週、ニューヨーク市に行く予定です。>>…」と発声する。
CPU11は、前記音声入力部18aにより入力した講義者音声データHに含まれる指示キーワード『本文』を検出すると(ステップS8(Yes))、前記指示キーワード『教科書のP18』を検出したときから前記指示キーワード『本文』を検出したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『教科書のP18』を開いて!みななはGWの予定はもう立てたかな?今日は、予定をあらわす英語の勉強だよ!」を、前記指示キーワード『教科書のP18』と、その指示の時点での前記時計カウンタTによる講義時間データ[04:35]と、前記ページ位置[中2英語;P18]のデータと、前記[イントロ]アイコン及びその動作制御(導入部の講義再生)のデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS9)。
そしてCPU11は、前記指示キーワード『本文』を検出したタイミング以降に前記音声入力部18aにより入力された講義者音声データH「『本文』を読んで、内容を説明するよ!<Hi, Dick.><<こんにちは、ディック>>…<I am going to visit NYC next week.><<ぼくは、来週、ニューヨーク市に行く予定です。>>…」を、[本文]アイコンと、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書[中学2年英語]のページ位置[中2英語;P18;本文]のデータとに対応付けて取得していく(ステップS10)。
ここで、CPU11は、前記取得した講義者音声データH「『本文』を読んで、内容を説明するよ!<Hi, Dick.><<こんにちは、ディック>>…<I am going to visit NYC next week.><<ぼくは、来週、ニューヨーク市に行く予定です。>>…」を音声認識することで、当該講義者音声データHに第1言語の音声(ここでは<英語>)と第2言語の音声(ここでは<<日本語>>)とが含まれると判断した場合(ステップS11(Yes))、当該第1言語の音声部分には第1言語マーク< >M1を付加して取得していき、第2言語の音声部分には第2言語マーク<< >>M2を付加して取得していく(ステップS12)。
次に、講義者Leは、図9(D)に示すように、「これから、「○○する予定です」という『文型』を学習するよ!」と発声し、また、図10(A)に示すように、ペンPにより、黒板BDに教科書の基本文“I am going to visit NYC next week.”を板書しながら、「『基本文』を見てね。I am going to visit NYC next week. amは、be動詞だね。「be going to + 動詞の原型」で「○○する予定です」という意味だよ!たとえば、…」と発声する。
ここで、CPU11は、講義者音声データHに含まれる指示キーワード『文型』と『基本文』については、同じ種類の項目[基本文]を示す指示キーワードであると判断し、当該指示キーワード『文型』と『基本文』が短い時間間隔(例えば1分以内)で入力された場合、同指示キーワード『文型』を含む講義者音声データHと指示キーワード『基本文』を含む講義者音声データHとを、同じページ位置の項目[基本文]に関する一連の講義者音声データHとして取得する。
CPU11は、前記音声入力部18aにより入力した講義者音声データHに含まれる指示キーワード『文型』(又は『基本文』)を検出すると(ステップS13(Yes))、前記指示キーワード『本文』を検出したときから前記指示キーワード『文型』を検出したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『本文』を読んで、内容を説明するよ!<Hi, Dick.><<こんにちは、ディック>>…<I am going to visit NYC next week.><<ぼくは、来週、ニューヨーク市に行く予定です。>>…」を、前記指示キーワード『本文』と、その指示の時点での前記時計カウンタTによる講義時間データ[08:21]と、前記ページ位置[中2英語;P18;本文]のデータと、前記[本文]アイコン及びその動作制御(本文の講義再生)のデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS14)。
そしてCPU11は、前記指示キーワード『文型』を検出したタイミング以降に前記音声入力部18aにより入力された一連の講義者音声データH「これから、「○○する予定です」という『文型』を学習するよ!」「『基本文』を見てね。I am going to visit NYC next week. amは、be動詞だね。「be going to + 動詞の原型」で「○○する予定です」という意味だよ!たとえば、…」を、[基本文説明]アイコンと、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書[中学2年英語]のページ位置[中2英語;P19;基本文2−4]のデータとに対応付けて取得していく(ステップS15)。
次に、講義者Leは、図10(B)(C)に示すように、ペンPにより、黒板BDに教科書の基本練習“My sister and I ( ) going to see many things.”を板書しながら、「『基本練習』を見てね。」「[リサさん]『答えて』ください。」と発声する。
ここで、CPU11は、講義者音声データHに含まれる指示キーワード『基本練習』と『練習問題』と『問題』については、同じ種類の項目[基本練習]を示す指示キーワードであると判断し、また、指示キーワード『答えて』『わかった人』『手を上げて』については、同じ種類の項目[出題]を示す指示キーワードであると判断する。
CPU11は、前記音声入力部18aにより入力した講義者音声データHに含まれる指示キーワード『基本練習』を検出すると(ステップS16(Yes))、前記指示キーワード『文型』を検出したときから前記指示キーワード『基本練習』を検出したタイミング以前までに前記音声入力部18aに入力されて取得された一連の講義者音声データH「これから、「○○する予定です」という『文型』を学習するよ!」「『基本文』を見てね。I am going to visit NYC next week. amは、be動詞だね。「be going to + 動詞の原型」で「○○する予定です」という意味だよ!たとえば、…」を、前記指示キーワード『文型』と、その指示の時点での前記時計カウンタTによる講義時間データ[12:20]と、前記ページ位置[中2英語;P19;基本文2−4]のデータと、前記[基本文説明]アイコン及びその動作制御(基本文の講義再生)のデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS17)。
そしてCPU11は、前記指示キーワード『基本練習』を検出したタイミング以降に前記音声入力部18aにより入力された講義者音声データH「『基本練習』を見てね。」「[リサさん]『答えて』ください。」を、[基本練習説明]アイコンと、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS18)。
ここでCPU11は、前記音声入力部18aに入力されて取得される講義者音声データH「『基本練習』を見てね。」「[リサさん]『答えて』ください。」を音声認識することで、当該講義者音声データHに、例えば、講義者Leが受講者Stに呼びかけたり、受講者Stが答えたりする等の応対音声(ここでは「リサさん」)が含まれると判断した場合は(ステップS19(Yes))、当該講義者音声データHの応対音声が含まれる部分「リサさん」に出力禁止マーク[ ]Xpを付加する(ステップS20)。
これにより、前記講義データエリア12dに登録した講義データ12d1を利用する段階で、受講者Stの個人を特定可能な講義者音声データHが自動再生されないように設定する。
受講者St(ここでは「リサ」)は、前記講義者Leの発声「[リサさん]『答えて』ください。」の指示に応じて、当該受講者St自身の考えによる回答文“My sister and I (am) going to see many things.”を発声する。
また講義者Leは、前記受講者Stの発声した回答文“My sister and I (am) going to see many things.”に応じた板書(am)を加えながら、図10(D)に示すように、「My sister and I (am) going to see many things. どこがおかしいかな?そう!My sister and Iだったら複数(We)になるね。」と発声する。
CPU11は、前記音声入力部18aにより入力した講義者音声データHに含まれる出題を指示する指示キーワード『答えて』を検出すると(ステップS21(Yes))、前記指示キーワード『基本練習』を検出したときから前記指示キーワード『答えて』を検出したタイミング以前までに前記音声入力部18aに入力されて取得された講義者音声データH「『基本練習』を見てね。」を、前記指示キーワード『基本練習』と、その指示の時点での前記時計カウンタTによる講義時間データ[15:35]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[基本練習説明]アイコン及びその動作制御(基本練習の講義再生)のデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS22)。
そしてCPU11は、前記指示キーワード『答えて』を検出したタイミング以降に前記音声入力部18aにより入力された講義者音声データH「[リサさん]『答えて』ください。」と、受講者音声データHs“My sister and I (am) going to see many things.”と、講義者音声データH「My sister and I (am) going to see many things. どこがおかしいかな?そう!My sister and Iだったら複数(We)になるね。」とを、[出題]アイコンと、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS23)。
ここでCPU11は、前記音声入力部18aに入力されて取得される音声データを音声認識することで、前記受講者St(リサ)の回答文の音声データHs“My sister and I (am) going to see many things.”を検出すると(ステップS24(Yes))、当該受講者Stの音声データHsに出力禁止マーク[ ]Xpを付加する(ステップS25)。
またCPU11は、前記音声認識した受講者St(リサ)の回答文“My sister and I (am) going to see many things.”と、前記電子教科書(テキスト)Txの該当するテキスト位置[中2英語;P19;基本練習2−4]に対応して集録されている正解文“My sister and I (are) going to see many things.”とを比較して、前記回答文の正誤を判定する(ステップS26)。
ここで、前記受講者Stの回答文について、前記基本練習の正解文と異なることで誤り判定される場合の当該正解文との異なり方の類型を、予め[誤り1][誤り2]…と設定しておく。
CPU11は、前記受講者St(リサ)の回答文“My sister and I (am) going to see many things.”について、前記[誤り1]と判定すると(ステップS30(Yes))、前記出題の指示キーワード『答えて』を検出したときから現在までに前記音声入力部18aに入力されて取得された講義者音声データH「[リサさん]『答えて』ください。」(出力禁止マーク[]付き)と、受講者音声データHs“My sister and I (am) going to see many things.”(出力禁止マーク[]付き)と、講義者音声データH「My sister and I (am) going to see many things. どこがおかしいかな?そう!My sister and Iだったら複数(We)になるね。」とを、前記指示キーワード『答えて』と、その指示の時点での前記時計カウンタTによる講義時間データ[17:45]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[出題]アイコンに前記[誤り1]の回答文[×]“My sister and I (am) going to see many things.”を対応付けて設定した隠しデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS31)。
CPU11は、このタイミング以降に前記音声入力部18aに入力される講義者音声データHを、前記[誤り1]の説明データとして、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書のページ位置[中2英語;P19;基本練習2−4]のデータに対応付けて取得していく(ステップS32)。
なお、前記ステップS24〜S26の処理に従い音声認識された受講者音声データHsの回答文について、前記[誤り2]と判定された場合も(ステップS33(Yes))、前記[誤り1]と判定された場合と同様に、このタイミング以前に取得された講義者音声データHを登録し(ステップS34)、このタイミング以降に前記音声入力部18aに入力される講義者音声データHを、前記[誤り2]の説明データとして、前記教科書のページ位置[中2英語;P19;基本練習2−4]のデータに対応付けて取得していく(ステップS35)。
また、前記[誤り1][誤り2]に含まれない他の類型の誤りと判定された場合であっても(ステップS36(Yes))、前記同様に、このタイミング以前に取得された講義者音声データHを登録し(ステップS37)、このタイミング以降に前記音声入力部18aに入力される講義者音声データHを、当該他の類型に応じた説明データとして取得していく(ステップS38)。
そして講義者Leは、図11(A)に示すように、「[リサさん]もう一度『チャレンジ』ね。」と発声する。
受講者St(ここでは「リサ」)は、前記講義者Leの発声「[リサさん]もう一度『チャレンジ』ね。」に応じて、当該受講者St自身の再考した回答文“My sister and I (are) going to see many things.”を発声する。
また講義者Leは、前記受講者Stの発声した回答文“My sister and I (are) going to see many things.”に応じた板書(are)を加えながら、図11(B)に示すように、「My sister and I (are) going to see many things.だね。よくできました。」と発声する。
ここで、CPU11は、講義者音声データHに含まれる指示キーワード『チャレンジ』と『どうぞ』については、同じ種類の項目[基本練習]の出題を指示する指示キーワードであると判断する。
CPU11は、前記音声入力部18aにより入力した講義者音声データHに含まれる出題を指示する指示キーワード『チャレンジ』を検出すると(ステップS21(Yes))、前記ステップS32に従い取得した[誤り1]の説明データとしての講義者音声データHを、前記ページ位置[中2英語;P19;基本練習2−4]のデータに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS22)。なお、ここでは、前記[誤り1]の説明データとしての講義者音声データHは取得されていないので、前記講義データ12d1に対する追加の登録はない。
そしてCPU11は、前記指示キーワード『チャレンジ』を検出したタイミング以降に前記音声入力部18aにより入力された講義者音声データH「[リサさん]もう一度『チャレンジ』ね。」と、受講者音声データHs“My sister and I (are) going to see many things.”と、講義者音声データH「My sister and I (are) going to see many things.だね。よくできました。」とを、前回の基本練習の出題のときと同様に、[出題]アイコンと、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書[中学2年英語]のページ位置[中2英語;P19;基本練習2−4]のデータとに対応付けて取得していく(ステップS23)。
ここでCPU11は、前回同様に、音声入力部18aに入力されて取得される音声データを音声認識することで、前記受講者St(リサ)の再考した回答文の音声データHs“My sister and I (are) going to see many things.”を検出すると(ステップS24(Yes))、当該受講者Stの音声データHsに出力禁止マーク[ ]Xpを付加する(ステップS25)。
またCPU11は、前記音声認識した受講者St(リサ)の再考した回答文“My sister and I (are) going to see many things.”と、前記電子教科書(テキスト)Txの該当するテキスト位置[中2英語;P19;基本練習2−4]に対応して集録されている正解文とを比較して、前記回答文の正誤を判定する(ステップS26)。
CPU11は、前記受講者St(リサ)の今度の回答文“My sister and I (are) going to see many things.”について、[正解]と判定すると(ステップS27(Yes))、前記出題の指示キーワード『チャレンジ』を検出したときから現在までに前記音声入力部18aに入力されて取得された前記講義者音声データH「[リサさん]もう一度『チャレンジ』ね。」(出力禁止マーク[]付き)と、受講者音声データHs“My sister and I (are) going to see many things.”(出力禁止マーク[]付き)と、講義者音声データH「My sister and I (are) going to see many things.だね。よくできました。」とを、前記指示キーワード『チャレンジ』と、その指示の時点での前記時計カウンタTによる講義時間データ[27:15]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[出題]アイコンに前記[正解]の回答文[○]“My sister and I (are) going to see many things.”を対応付けて設定した隠しデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS28)。
ここで、講義者Leが、前記[正解]の回答文[○]“My sister and I (are) going to see many things.”について、何らかの説明を発声した場合、CPU11は、当該講義者Leの音声データHを、正解の説明データとして、前記教科書目次データ12c1及びページ位置ポインタデータ12eに従った教科書のページ位置[中2英語;P19;基本練習2−4]のデータに対応付けて取得していく(ステップS29)。
この後、講義者Leは、図11(C)に示すように、「きょうは『ここまで』『講義データを送る』よ。みんな復習してね。今日欠席の○○にも送ったよ!」と発声する。
ここで、CPU11は、講義者音声データHに含まれる指示キーワード『ここまで』と『おわり』については、同じ種類の項目[基本練習]の終了を指示する指示キーワードであると判断する。
CPU11は、前記講義者音声データHに含まれる講義の終了を指示する指示キーワード『ここまで』を検出すると(ステップS39(Yes))、表示部17に[講義]アイコンIcを表示させ、このタイミング以前に音声入力部18aに入力されて取得された講義者音声データH(ここでは、前記正解の説明の音声データと前記講義終了の説明の音声データ「きょうは『ここまで』『講義データを送る』よ。みんな復習してね。今日欠席の○○にも送ったよ!」)を、前記指示キーワード『ここまで』と、その指示の時点での前記時計カウンタTによる講義時間データ[32:15]と、前記ページ位置[中2英語;P19;基本練習2−4]のデータと、[終了]アイコン及びその動作制御(終了の講義再生)のデータとに対応付けて、前記講義データエリア12d内の講義データ12d1に追加して登録する(ステップS40)。なお、ここでも前記同様に、応対音声としての講義者音声データH「今日欠席の○○君にも送ったよ!」には、出力禁止マーク[ ]Xpを付加して登録する。
そしてCPU11は、前記受講者データエリア12eに記憶されている各受講者(生徒等)St…が使用する受講者端末(タブレット端末20T,電子辞書20D等)20…の通信アドレスに従い、前記講義データエリア12dに今回生成して登録した講義データ12d1を、前記無線通信部19あるいは通信部15を介して、欠席者を含む各受講者St…の受講者端末20…に送信し、また、前記教育コンテンツサーバ30に送信する(ステップS41)。
なお、CPU11は、前記講義者Leによるその他の指示を検出した場合も(ステップS42(Yes))、前記同様にその検出以前に取得した音声データを該当する教科書のページ位置や講義内容のデータに対応付けて登録する(ステップS43)。
このように、撮影専用の特別講義を行なう必要なく、電子教科書データ(12b)や書籍の教科書BTxを利用して普段行っている講義を普段通り行うだけで、例えば、講義毎のテキスト位置のデータに講義者音声データHを対応付けた講義データ12dnを生成することできる。そして、生成した講義データ12dnを、当該講義の受講対象者の各受講者端末20…や教育コンテンツサーバ30に送ることで、該当する講義の復習、再受講、講義欠席者の受講など、利用者にとって適切に利用できる講義データを得ることが可能になる。
なお、前記実施形態では、図3に示す第1実施形態の教科書目次データ(番号のみ)12c1に基づいて、現在講義対象となっているテキストTxのページ位置を判定する場合について説明したが、図4に示す第2実施形態の教科書目次データ(タイトルを含む)12c2を使用すれば、講義者音声データHに含まれる指示キーワードの種類を多様化できる。
例えば、前記第1実施形態では、指示キーワード『教科書のP18』を検出してテキストTxのページ位置[中2英語;P18]を判定し、また、指示キーワード『基本練習』を検出してテキストTxのページ位置[中2英語;P19;基本練習2−4]を判定したが、前記第2実施形態の教科書目次データ(タイトルを含む)12c2を使用することで、指示キーワード『A Trip to NYC』を検出すれば、テキストTxのページ位置[中2英語;P18]を判定でき、また、指示キーワード『( )内を補って』を検出すれば、テキストTxのページ位置[中2英語;P19;基本練習2−4]を判定できるようになる。
すなわち、本実施形態の講義者端末10では、講義者音声データHに含まれる指示キーワードを検出して、講義対象のテキスト位置を判定し、当該テキスト位置を対象として講義者Leが行う説明の音声データ(講義者音声データ)Hを、講義データとして登録するので、講義者Leが受講者Stに対し講義対象のテキスト位置について明確な説明を行なうことで、適切な講義データを生成できるようになる。
また、前記実施形態では、前記講義者Leが講義した小単元(講義項目)毎の区切りを講義者音声データHに含まれる指示キーワードに従い検出することで、当該検出毎に、前回検出のタイミング以降で今回検出のタイミング以前に音声入力された講義者音声データHを含む講義中の音声データを、各対応するテキスト位置と講義の内容に対応付けて講義データエリア12dに順次追加して登録し、該当する講義データ12dnを生成する構成とした。
これに対し、前記講義者Leが講義した小単元(講義項目)毎の区切りを検出する毎に、前記同様のタイミング間で音声入力された講義者音声データHを含む講義中の音声データを、各対応するテキスト位置と講義の内容に対応付けて教育コンテンツサーバ30に送信することで(例えば、ステップS6,S9,S14,…,S40参照)、該当する講義データ12dnを当該教育コンテンツサーバ30に直接登録して生成する構成としてもよい。
図12、図13は、前記講義者端末10の講義データ送信処理に従い生成された講義データ12dnを受信した受講者端末20(タブレット端末20T,電子辞書20D等)でのユーザ(受講者)操作に応じた講義データ12dnの再生動作(その1)(その2)を示す図である。
受講者端末20において、前記図11(C)で示したように、講義者端末10(又は教育コンテンツサーバ30)から送信された講義データ12d1が受信された場合、図11(D)に示すように、当該受講者端末20のCPUは、その表示部に[講義]アイコンIcを表示する。
そして受講者端末20は、前記[講義]アイコンIcに対する受講者Stのタッチ操作の指示を検出すると、図12(A)に示すように、前記講義データ12d1(図5参照)のヘッダ[4月25日_2時間目_中学2年英語P18−19(2年3組)]とテキスト位置及び講義内容のデータに基づいて、当該講義データ12d1が対象とする各講義項目の講義内容を選択的に再生させるための各項目アイコン([開始]アイコンK1/[イントロ]アイコンK2a/[本文]アイコンK2b/[基本文説明]アイコンK2c/[基本練習説明]アイコンK2d)、及び[全体再生]アイコンKA、[本文基本]アイコンKB、[基本練習]アイコンKC、及び選択された講義項目の音声データを聞くだけか練習もするかを選択するための[聞く]アイコンKL、[練習]アイコンKPを表示する。
前記[全体再生]アイコンKAは、前記各項目アイコンK2a〜K2dに対応する各講義項目の講義内容をその全体を通して再生させるためのアイコンである。前記[本文基本]アイコンKBは、前記各項目アイコンK2a〜K2dに対応する各講義項目のうち、[本文]アイコンK2bと[基本文説明]アイコンK2cに対応する講義項目の講義内容を選択して再生させるためのアイコンである。前記[基本練習]アイコンKCは、前記各項目アイコンK2a〜K2dに対応する各講義項目のうち、[基本文説明]アイコンK2cと[基本練習説明]アイコンK2dに対応する講義項目の講義内容を選択して再生させるためのアイコンである。
前記[本文基本]アイコンKBをペンPに示すようにタッチ操作して指示すると、これに応じて再生対象となる講義項目に対応した[本文]アイコンK2bと[基本文説明]アイコンK2cが識別表示される。
ここで、受講者端末20は、前記講義データ12d1(図5参照)のヘッダ[4月25日_2時間目_中学2年英語P18−19(2年3組)]に基づいて、講義対象の教科書[中2英]とその講義項目[UNIT2][2−1]を表示させることで、ユーザ(受講者St)は、書籍の教科書BTxあるいは電子教科書データ(12b)の講義対象の見開きページを開いて、当該ページに対応する前記講義データ12d1を再生させることができる。
次に、図12(B)のペンP1に示すように、前記[練習]アイコンKPをタッチ操作して指示すると、これに応じて再生対象となる講義項目に対応した[本文]アイコンK2bと[基本練習説明]アイコンK2dが識別表示される。
なお、前記講義者端末10において、前記図3で示した第1実施形態の教科書目次データ(番号のみ)12c1ではなく、前記図4で示した第2実施形態の教科書目次データ(タイトルを含む)12c2を使用して、前記図5で示した講義データ12d1を生成した場合、前記受講者端末20は、図12(C)に示すように、講義対象の講義項目として、そのタイトルを加えた[UNIT2][A Trip to NYC][2−1]を表示させることができる。
そして、受講者St(講義欠席者含む)は、前記表示中の各アイコンK1,K2a〜K2d,KA,KB,KCのうち、任意のアイコンをペンPによりタッチ操作して指示することで、受講者端末20は、当該指示されたアイコンに対応する講義データ12d1の講義項目の音声データの再生を行う。
例えば、図12(B)あるいは図12(C)のペンP1,P2,P3に示すように、受講者St(講義欠席者含む)が[練習]アイコンKPと[本文]アイコンK2bと[基本練習説明]アイコンK2dを指示すると、先ず、前記講義データ12d1に登録されている[本文]アイコン及びその動作制御(本文の講義再生)のデータ、講義時間データ[08:21]、講義者音声データH「『本文』を読んで、内容を説明するよ!<Hi, Dick.><<こんにちは、ディック>>…<I am going to visit NYC next week.><<ぼくは、来週、ニューヨーク市に行く予定です。>>…」に基づいて、当該講義者音声データHの再生を、図12(D)〜図13(A)に示すように、順次行う。
具体的には、前記図9(C)で示したように、前記講義者端末10での講義データ12d1の生成、登録に際し、講義者Leの講義により行った本文に対応する音声データの再生を同様に行う。
但し、前記講義者音声データH「『本文』を読んで、内容を説明するよ!<Hi, Dick.><<こんにちは、ディック>>…<I am going to visit NYC next week.><<ぼくは、来週、ニューヨーク市に行く予定です。>>…」のうち、第1言語(英語)の音声部分には第1言語マーク< >M1が付加され、第2言語(日本語)の音声部分には第2言語マーク<< >>M2が付加されているので、受講者端末20のCPUは、当該第1言語の音声部分<Hi, Dick.><What are your plans for the holidays?>…を再生する毎に、その再生の動作を一旦停止して合成音声Hc「日本語訳を答えてください。」を出力し、直前に再生した第1言語の音声部分<Hi, Dick.><What are your plans for the holidays?>…に対応した第2言語の音声部分<<こんにちは、ディック>><<休日のあなたの予定は何?>>…を受講者Stに答えさせるように動作する。
そして、受講者端末20は、前記受講者Stが答えた日本語の受講者音声Hsを音声認識し、前記講義者音声データHの再生を一旦停止した直後に含まれる第2言語の音声部分との一致/不一致を判定することで、一致と判定した場合は合成音声Hc「正解:ピンポン」を出力し、不一致と判定した場合は合成音声Hc「不正解:ブッブー」を出力する。また、前記講義者音声データHの第2言語の音声部分<<こんにちは、ディック>><<休日のあなたの予定は何?>>…について、前記受講者Stが答えた日本語の受講者音声Hsの何れとも一致すると判定した場合は、合成音声Hc「本文終了。よくできました。」を出力する。
すると次に、受講者端末20は、前記講義データ12d1に登録されている[基本練習説明]アイコン及びその動作制御(基本練習の講義再生)のデータ、講義者音声データH「『基本練習』を見てね。」「[リサさん]『答えて』ください。」に基づいて、当該講義者音声データHの再生を、図13(B)に示すように行う。
この際、前記講義者音声データH「『基本練習』を見てね。」「[リサさん]『答えて』ください。」のうち、出力禁止マーク[ ]Xp(図10(C)参照)が付加されている音声データ(ここでは講義者音声データH[リサさん])の出力は禁止されるので、前記講義データ12dnを複数の受講者St…(講義欠席者含む)が利用する段階で、その講義に出席して講義者Leと応対した受講者Stの個人が特定されるのを、未然に防止することができる。
ここで、受講者Stは、書籍の教科書BTx又は電子教科書データのテキストTxの[基本練習2−4]を参照し、( )内を補って、「My sister and I (will) going to see many things.」と発声して答える。
すると、受講者端末20は、入力された受講者音声データHs「My sister and I (will) going to see many things.」を音声認識し、当該受講者端末20にこれまでに受信されている同一の講義対象の講義項目[中学2年英語P18−19]を含む全ての講義データ12dn…の中から、前記音声認識された受講者音声データHs「My sister and I (will) going to see many things.」と一致する音声データHsを検索する。
ここで、受講者端末20において、過去に受信された講義データ12dn(例えば[4月21日_1時間目_中学2年英語P18−19(2年1組)])において、[誤り2]の隠しデータとして登録されている回答文[×]“My sister and I (will) going to see many things.”が前記受講者音声データHsと一致して検索されると、図13(C)に示すように、当該[誤り2]の隠しデータに対応付けられて登録されている[誤り2]の説明データとしての講義者音声データH「My sister and I (will) going to see many things. Willは未来の助動詞ですが、going to とつながらないね。」を再生する。
そして、受講者Stは、前記[誤り2]の説明データとしての講義者音声データHに基づいて、再考した答え「My sister and I (are) going to see many things.」を発声する。
すると、受講者端末20は、入力された受講者音声データHs「My sister and I (are) going to see many things.」と、前記講義データ12d1に[正解]の隠しデータとして登録されている回答文[○]“My sister and I (are) going to see many things.”とが一致したと判定することで、当該[正解]の隠しデータに対応付けられて登録されている[正解]の説明データとしての講義者音声データH「My sister and I (are) going to see many things. そうだね。よくできました。」を再生する。
図14は、前記講義者端末10の教科書目次データエリア12cに記憶した中学英語2年の電子教科書(テキスト)Txに対応した第3実施形態の教科書目次データ(タイトル・新出単語を含む)12c3の内容を示す図である。
前記教科書目次データ(タイトル・新出単語を含む)12c3は、前記図4で示した教科書目次データ(タイトルを含む)12c2と比較して、各[パート]に対応付けられた[新出単語]も含む点で異なる。
図15は、前記講義者端末10において第3実施形態の教科書目次データ(タイトル・新出単語を含む)12c3を使用した場合のユーザ(講義者)操作に応じた講義の過程と、受講者端末20での講義データ12dnの再生動作を示す図である。
すなわち、前記講義者端末10では、図15(A)に示すように、第3実施形態の教科書目次データ(タイトル・新出単語を含む)12c3を使用することで、講義データ12dnのテキスト位置[中2英語;P18;本文]と[holiday]アイコンに対応付けて、当該教科書(Tx)の新出単語(ここでは“holiday(s)休日”)を含む講義者音声データH「『休日』の意味の他の単語をしっているかな?…holidayは短めの休暇。Vacationは長い休み。どちらも長めの休暇や休暇旅行のときに使う単語ですが、…アメリカでもイギリスでも祝日はholidayです。」も登録できるようになる。
そして、前記受講者端末20(20D/20T)では、図15(B)に示すように、前記講義データ12dnに登録された新出単語の講義項目に対応するアイコン[holiday]KNを表示させ、当該新出単語のアイコン[holiday]KNをタッチ操作Pすることで、前記講義データ12dnに登録されている新出単語[holiday]の説明としての講義者音声データH「『休日』の意味の他の単語をしっているかな?…holidayは短めの休暇。Vacationは長い休み。どちらも長めの休暇や休暇旅行のときに使う単語ですが、…アメリカでもイギリスでも祝日はholidayです。」を再生できる。
したがって、前記構成の講義者端末10によれば、講義対象の教科書BTx(Tx)の各講義項目等を、講義者Leが音声(指示キーワードを含む)により指示しながら説明して各受講者St…に対する講義を行う。するとCPU11は、前記講義者Leの音声を認識することによる指示キーワードを、前記教科書BTx(Tx)に含まれる各講義項目の番号と記述ページを組合せて記憶している教科書目次データ12cnに基づき検出する毎に、前回の指示を検出したタイミング以降で今回の指示を検出したタイミング以前に音声入力部18aで入力して取得した講義者音声データHを含む講義中の音声データを、前記前回の指示に応じたテキスト位置(各講義項目の番号等)のデータに対応付けて、順次、講義データ12dnとして講義データエリア12d又は教育コンテンツサーバ30に送信して登録する。
そして、前記登録した講義データ12dnを前記各受講者St…(講義欠席者含む)の受講者端末20…に送信し、当該各受講者St…は、自身の受講者端末20で受信した前記講義データ12dnを開くことで、当該講義データ12dnに基づいて、前記講義者Leが行った教科書BTx(Tx)の各講義項目等に対する指示毎の講義者音声データHを含む講義中の音声データの再生を、所望の講義項目等を選択しながら行わせることができる。
これにより、受講者(講義欠席者含む)St…は、受講者端末20として電子教科書データ(12b)を表示可能なタブレット端末20Tを持たずとも、電子辞書20Dを持つだけで、書籍の教科書BTxを対象に、前記講義データ12dnを、復習、再受講、講義欠席後の受講など、適切且つ効果的に利用することができる。
また、前記構成の講義者端末10によれば、前記講義者音声データHを含む講義中の音声データに、例えば、講義者Leが受講者Stに呼びかけたり、受講者Stが答えたりする等の応対音声が含まれる場合は、当該講義中の音声データの応対音声が含まれる部分に出力禁止マーク[ ]Xpを付加して前記講義データ12dnに登録する。
これにより、前記講義データ12dnを利用する段階で、受講者Stの個人を特定可能な講義者音声データHや受講者音声データHsが自動再生されないように予め設定することができる。
また、前記構成の講義者端末10によれば、前記講義の過程で取得した講義者音声データHに第1言語の音声(ここでは<英語>)と第2言語の音声(ここでは<<日本語>>)とが含まれる場合は、当該第1言語の音声部分には第1言語マーク< >M1を付加し、第2言語の音声部分には第2言語マーク<< >>M2を付加して前記講義データ12dnに登録する。
これにより、受講者端末20では、前記講義データ12dnに含まれる講義者音声データHを再生する際に、前記第1言語マーク< >M1が付加された第1言語の音声部分を再生する毎に、その再生の動作を一旦停止し、当該第1言語の音声部分に対応した第2言語の音声部分を受講者Stに答えさせるように動作できる。そして、前記受講者Stが発声して答えた第2言語の音声データを、前記第2言語マーク<< >>M2が付加された第2言語の音声部分と比較して、その正誤を判定し、判定結果を出力できる。
なお、前記実施形態において説明した講義データ12dnは、学校の講義を対象として生成する場合として説明したが、当該学校の講義に限らず、各種講習会での講義や各種プレゼンでの講義など、他のあらゆる講義を対象として生成しても、前記同様の作用、効果が得られるのは言うまでもない。
前記各実施形態において記載した電子黒板(講義者端末)10による各処理の手法、すなわち、図6,図7,図8のフローチャートに示す講義データ送信処理(その1,2,3)などの各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピ(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記録媒体に格納して配布することができる。
また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワークN上を伝送させることができ、このプログラムデータを、通信ネットワークNに接続された電子機器のコンピュータに通信部15によって取り込むことで、前述した実際の受講者St…を対象とした講義からの講義データ12dnの生成機能とその送信機能を実現できる。
本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[請求項1]
電子機器のデータ送信方法であって、
テキストの位置に対応する指示キーデータを含む音データを取得する音データ取得ステップと、
前記取得された音データに含まれるテキストの指示キーデータを検出する指示キーデータ検出ステップと、
前記指示キーデータを検出する毎に、前回の指示キーデータの検出以降で今回の指示キーデータの検出より前に前記取得された音データを、前記前回の指示キーデータに対応する前記テキストの位置に対応付けて送信するデータ送信ステップと、
を含むデータ送信方法。
[請求項2]
前記音データ取得ステップは、講義者が受講者に講義する講義対象のテキストの位置に対応する指示キーワードを含む音声データを取得し、
前記データ送信ステップは、前記指示キーデータ検出ステップによる指示キーデータの検出毎に、前回の指示キーデータの検出以降で今回の指示の検出より前に前記音データ取得ステップにより取得された音声データを、前記前回の指示に応じたテキストの位置に対応付けて講義データとして送信する請求項1に記載のデータ送信方法。
[請求項3]
前記指示キーデータの検出は、前記取得された音声データを音声認識し、音声認識した音声データに含まれるテキストの指示キーワードを検出する、
ようにした請求項2に記載のデータ送信方法。
[請求項4]
前記テキストの項目を特定する目次データを取得し、
前記指示キーデータの検出は、前記取得された目次データに基づいて、前記取得された音声データに含まれるテキストの項目を特定する指示キーワードを検出する、
ようにした請求項2または請求項3に記載のデータ送信方法。
[請求項5]
前記指示キーデータの検出毎に、前回の指示キーデータの検出以降で今回の指示キーデータの検出より前に前記取得された音声データを音声認識し、前記音声認識された音声データが第1言語の音声データと第2言語の音声データを含むか判断し、
前記第1言語の音声データと第2言語の音声データを含むと判断した場合、前記取得された音声データの講義データとしての送信は、前記第1言語の音声データを含むと判断した同音声データの部分には第1言語の制御情報を付加し、前記第2言語の音声データを含むと判断した同音声データの部分には第2言語の制御情報を付加し、前記前回の指示に応じたテキストの位置に対応付けて講義データとして送信する、
ようにした請求項2乃至請求項4の何れか1項に記載のデータ送信方法。
[請求項6]
前記電子機器は記憶部を有し、
前記講義データの送信は、前記指示キーデータの検出毎に、前回の指示キーデータの検出以降で今回の指示の検出より前に前記取得された音声データを、前記前回の指示に応じたテキストの位置に対応付けて前記記憶部に講義データとして登録し、前記記憶部に登録された講義データを送信する、
ようにした請求項2ないし請求項5の何れか1項に記載のデータ送信方法。
[請求項7]
前記電子機器は外部のサーバとの通信機能を有し、
前記講義データの送信は、前記指示キーデータの検出毎に、前記外部のサーバに対して、前回の指示キーデータの検出以降で今回の指示キーデータの検出より前に前記取得された音声データを、前記前回の指示に応じたテキストの位置に対応付けて講義データとして送信する、
ようにした請求項2ないし請求項6の何れか1項に記載のデータ送信方法。
[請求項8]
音入力部と、
前記音入力部に入力された音データを取得する音データ取得制御手段と、
前記音データ取得制御手段により取得された音データに含まれるテキストの位置の指示キーデータを検出する指示キーデータ検出手段と、
前記指示キーデータ検出手段による指示キーデータの検出毎に、前回の指示キーデータの検出以降で今回の指示キーデータの検出より前に前記音データ取得制御手段により取得された音データを、前記前回の指示キーデータに対応する前記テキストの位置に対応付けて送信するデータ送信制御手段と、
を備えたデータ送信装置。
[請求項9]
音入力部を有する電子機器のコンピュータを制御するためのプログラムであって、
前記コンピュータを、
前記音入力部に入力された音データを取得する音データ取得制御手段、
前記音データ取得制御手段により取得された音データに含まれるテキストの位置の指示キーデータを検出する指示キーデータ検出手段、
前記指示キーデータ検出手段による指示キーデータの検出毎に、前回の指示キーデータの検出以降で今回の指示キーデータの検出より前に前記音データ取得制御手段により取得された音データを、前記前回の指示キーデータに対応する前記テキストの位置に対応付けて送信するデータ送信制御手段、
として機能させるためのコンピュータ読み込み可能なプログラム。
10 …講義者端末
11 …CPU
12 …メモリ
12a…講義データ送信処理プログラム
12b…電子教科書データエリア
12c…教科書目次データエリア
12d…講義データエリア
12d1,12d2,…講義データ
12e…ページ位置ポインタデータエリア
12f…受講者データエリア
13 …外部記録媒体
14 …記録媒体読取部
15 …通信部(インターネット通信)
16 …キー入力部
17 …タッチパネル付きカラー表示部
18a…音声入力部(又は音声付き動画入力部)
18b…音声出力部
19 …近距離無線通信部
20 …受講者端末
30 …教育コンテンツサーバ(Webサーバ)
Le …講義者
St …受講者
BTx…書籍の教科書等
Tx …電子テキスト(教科書等)

Claims (11)

  1. 電子機器が、
    対象のテキストを特定する特定処理と、
    音声入力部に入力される音声データを逐次取得する取得処理と、
    前記取得処理により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出処理と、
    前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得処理により逐次取得される音声データの中から対象の音声データを特定する特定処理と、
    特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信処理と、
    を実行し、
    前記特定処理は、前記検出処理により前記キーワードに対応する音声を検出する毎に、前回の前記キーワードに対応する音声の検出以降で今回の前記キーワードに対応する音声の検出より前に前記取得処理により取得された音声データを前記対象の音声データとして特定する処理であり、
    前記送信処理は、前記検出処理により前記キーワードに対応する音声を検出する毎に、前記特定処理により特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する処理である、
    データ送信方法。
  2. 電子機器が、
    対象のテキストを特定する特定処理と、
    音声入力部に入力される音声データを逐次取得する取得処理と、
    前記取得処理により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出処理と、
    前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得処理により逐次取得される音声データの中から対象の音声データを特定する特定処理と、
    特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信処理と、
    を実行し、
    前記対象のテキスト内の特定の位置を示すキーワードは、前記対象のテキストの項目を特定する目次データに対応するキーワードであり、
    前記送信処理は、特定された前記対象の音声データを、前記キーワードに対応する目次データが示す前記対象のテキスト内の項目の位置に対応付けて送信する処理である、
    データ送信方法。
  3. 前記検出処理は、前記取得処理により逐次取得される音声データを音声認識し、音声認識した音声データに含まれるキーワードを検出する処理を含む
    請求項1または2に記載のデータ送信方法。
  4. 前記検出処理は、前記キーワードに対応する音声の検出毎に、前回の前記キーワードに対応する音声の検出以降で今回の前記キーワードに対応する音声の検出より前に前記取得処理により取得された音声データを音声認識し、前記音声認識された音声データが第1言語の音声データと第2言語の音声データを含むか判断する処理であり、
    前記送信処理は、前記第1言語の音声データと第2言語の音声データを含むと判断した場合、前記対象の音声データの送信は、前記第1言語の音声データを含むと判断した同音声データの部分には第1言語の制御情報を付加し、前記第2言語の音声データを含むと判断した同音声データの部分には第2言語の制御情報を付加し、前記前回の前記キーワードに対応する音声が検出されたときの前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する処理である、
    請求項1乃至請求項3の何れか1項に記載のデータ送信方法。
  5. 前記電子機器は講義者の端末であり、
    前記対象のテキストは、講義者が受講者に講義する講義対象のテキストであり、
    前記送信処理は、特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の位置に対応付けて講義データとして受講者の端末へ送信する処理である、
    請求項1乃至請求項4の何れか1項に記載のデータ送信方法。
  6. 前記送信処理は、特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて記憶部に講義データとして登録し、前記記憶部に登録された講義データを送信する処理である、
    請求項5に記載のデータ送信方法。
  7. 前記電子機器は外部のサーバとの通信機能を有し、
    前記送信処理は、特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて講義データとして前記外部のサーバに送信する処理である、
    請求項5または6に記載のデータ送信方法。
  8. 対象のテキストを特定する特定手段と、
    音声入力部に入力される音声データを逐次取得する取得手段と、
    前記取得手段により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出手段と、
    前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得手段により逐次取得される音声データの中から対象の音声データを特定する特定手段と、
    特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信手段と、
    を備え、
    前記特定手段は、前記検出手段により前記キーワードに対応する音声を検出する毎に、前回の前記キーワードに対応する音声の検出以降で今回の前記キーワードに対応する音声の検出より前に前記取得手段により取得された音声データを前記対象の音声データとして特定する処理であり、
    前記送信手段は、前記検出手段により前記キーワードに対応する音声を検出する毎に、前記特定手段により特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する処理である、
    データ送信装置。
  9. コンピュータを、
    対象のテキストを特定する特定手段、
    音声入力部に入力される音声データを逐次取得する取得手段、
    前記取得手段により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出手段、
    前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得手段により逐次取得される音声データの中から対象の音声データを特定する特定手段、
    特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信手段、
    として機能させ、
    前記特定手段は、前記検出手段により前記キーワードに対応する音声を検出する毎に、前回の前記キーワードに対応する音声の検出以降で今回の前記キーワードに対応する音声の検出より前に前記取得手段により取得された音声データを前記対象の音声データとして特定する処理であり、
    前記送信手段は、前記検出手段により前記キーワードに対応する音声を検出する毎に、前記特定手段により特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する処理である、
    コンピュータ読み込み可能なプログラム。
  10. 対象のテキストを特定する特定手段と、
    音声入力部に入力される音声データを逐次取得する取得手段と、
    前記取得手段により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出手段と、
    前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得手段により逐次取得される音声データの中から対象の音声データを特定する特定手段と、
    特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信手段と、
    を備え、
    前記対象のテキスト内の特定の位置を示すキーワードは、前記対象のテキストの項目を特定する目次データに対応するキーワードであり、
    前記送信手段は、特定された前記対象の音声データを、前記キーワードに対応する目次データが示す前記対象のテキスト内の項目の位置に対応付けて送信する処理である、
    データ送信装置。
  11. コンピュータを、
    対象のテキストを特定する特定手段、
    音声入力部に入力される音声データを逐次取得する取得手段、
    前記取得手段により逐次取得される音声データ内から、前記対象のテキスト内の特定の位置を示すキーワードに対応する音声を検出する検出手段、
    前記キーワードに対応する音声が検出されたタイミングに応じて、前記取得手段により逐次取得される音声データの中から対象の音声データを特定する特定手段、
    特定された前記対象の音声データを、前記キーワードが示す前記対象のテキスト内の特定の位置に対応付けて送信する送信手段、
    として機能させ、
    前記対象のテキスト内の特定の位置を示すキーワードは、前記対象のテキストの項目を特定する目次データに対応するキーワードであり、
    前記送信手段は、特定された前記対象の音声データを、前記キーワードに対応する目次データが示す前記対象のテキスト内の項目の位置に対応付けて送信する処理である、
    コンピュータ読み込み可能なプログラム。
JP2017121660A 2017-06-21 2017-06-21 データ送信方法、データ送信装置、及びプログラム Active JP6953825B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017121660A JP6953825B2 (ja) 2017-06-21 2017-06-21 データ送信方法、データ送信装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017121660A JP6953825B2 (ja) 2017-06-21 2017-06-21 データ送信方法、データ送信装置、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019008035A JP2019008035A (ja) 2019-01-17
JP2019008035A5 JP2019008035A5 (ja) 2020-06-18
JP6953825B2 true JP6953825B2 (ja) 2021-10-27

Family

ID=65028827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017121660A Active JP6953825B2 (ja) 2017-06-21 2017-06-21 データ送信方法、データ送信装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6953825B2 (ja)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212895A (ja) * 2003-01-08 2004-07-29 Nec Corp 教育支援システム及び方法並びに教育支援用プログラム
US20050021343A1 (en) * 2003-07-24 2005-01-27 Spencer Julian A.Q. Method and apparatus for highlighting during presentations
CN101382937B (zh) * 2008-07-01 2011-03-30 深圳先进技术研究院 基于语音识别的多媒体资源处理方法及其在线教学系统
JP5664055B2 (ja) * 2010-09-16 2015-02-04 富士ゼロックス株式会社 映像再生装置及び映像再生プログラム
JP2013011668A (ja) * 2011-06-28 2013-01-17 Panasonic Corp 授業データ管理装置及び授業データ管理システム
JP2016144073A (ja) * 2015-02-03 2016-08-08 学校法人慶應義塾 講義録画システム

Also Published As

Publication number Publication date
JP2019008035A (ja) 2019-01-17

Similar Documents

Publication Publication Date Title
JP5502351B2 (ja) 指導システム、指導方法、およびプログラム
US20050084830A1 (en) Method of teaching a foreign language of a multi-user network requiring materials to be presented in audio and digital text format
Wilden Mobile learning
US20140349259A1 (en) Device, method, and graphical user interface for a group reading environment
KR20170141264A (ko) 수직 통합형 모바일 컴퓨터 시스템
US20140315163A1 (en) Device, method, and graphical user interface for a group reading environment
JP5972707B2 (ja) 学習コンテンツの構造化装置及びそれを用いた学習コンテンツ選択支援システム並びに支援方法
US20210005097A1 (en) Language-adapted user interfaces
CN108628939B (zh) 信息显示装置、信息显示方法及计算机能读取的存储介质
US20130311187A1 (en) Electronic Apparatus
Liang Exploring language learning with mobile technology: A qualitative content analysis of vocabulary learning apps for ESL learners in Canada
JP7279754B2 (ja) 学習制御方法及び学習システム
TWI591501B (zh) The book content digital interaction system and method
JP6166831B1 (ja) 単語学習支援装置、単語学習支援プログラム、単語学習支援方法
JP6953825B2 (ja) データ送信方法、データ送信装置、及びプログラム
KR102645880B1 (ko) 자기주도 영어 학습 콘텐츠 제공 방법 및 장치
JP2013109168A (ja) 電子教科書装置、教室システム、およびプログラム
JP2014059452A (ja) 学習用装置、その制御方法、学習用プログラム、および、学習システム
Giliberti et al. Alternative learning technologies for students with special educational needs
JP7331025B2 (ja) 学習支援システム、学習支援方法、及びプログラム
KR100884826B1 (ko) 페이지 인덱스를 이용한 반복 학습 단말기, 시스템 및 방법
CN110362675A (zh) 一种外语教学内容展示方法及系统
Armstrong et al. Accent and Language Training for the Indigenous Performer: Results of Four Focus Groups
Wong English listening courses: A case of pedagogy lagging behind technology
JP2656402B2 (ja) 情報処理装置および情報処理装置を用いた英会話学習システム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6953825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150