JP4623811B2 - Information transmission device - Google Patents

Information transmission device Download PDF

Info

Publication number
JP4623811B2
JP4623811B2 JP2000306544A JP2000306544A JP4623811B2 JP 4623811 B2 JP4623811 B2 JP 4623811B2 JP 2000306544 A JP2000306544 A JP 2000306544A JP 2000306544 A JP2000306544 A JP 2000306544A JP 4623811 B2 JP4623811 B2 JP 4623811B2
Authority
JP
Japan
Prior art keywords
video
document
note
generation unit
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000306544A
Other languages
Japanese (ja)
Other versions
JP2002117072A (en
Inventor
弘明 ▲はが▼
寿子 近藤
和昭 猪股
忠勝 土屋
裕一 阿部
Original Assignee
株式会社デジタル・ナレッジ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デジタル・ナレッジ filed Critical 株式会社デジタル・ナレッジ
Priority to JP2000306544A priority Critical patent/JP4623811B2/en
Publication of JP2002117072A publication Critical patent/JP2002117072A/en
Application granted granted Critical
Publication of JP4623811B2 publication Critical patent/JP4623811B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、コンピュータの画面上に映像及び文書を表示して情報を伝達する情報伝達装置及び方法に関する。さらに、この情報伝達装置及び方法をコンピュータにより実現するための記録媒体に関する。
【0002】
【従来の技術】
従来、情報伝達、例えば通信教育、社内教育、予備校での授業、商品の説明、サービスの説明などにおいて、ビデオテープを用いた教材あるいは資料が用いられてきた。
【0003】
【発明が解決しようとする課題】
最近のコンピュータ技術の進展に伴いビデオがデジタルデータ化され、パソコンでの利用が可能になってきた。上記のような情報伝達においても、ビデオテープに代えてパソコンソフトウエアとそのためのデータを用いることが可能になってきた。
【0004】
パソコンの情報処理能力を生かして、より優れた情報伝達媒体を提供することが望ましい。例えば、映像とともに文書を表示したり、パソコンの情報処理能力を活用して映像と文書を有機的に結合させることが望ましい。さらに、シーケンシャルな映像に対して意味のあるランダムアクセスを可能にすることが望ましい。
【0005】
この発明は、係る課題を解決するためになされたもので、より使いやすくかつ効果的な情報伝達装置及び方法並びに記録媒体を提供することを目的とする。
【0006】
【課題を解決するための手段】
かかる課題を解決するために、本発明に係る情報伝達装置は、映像データを予め記憶する映像記憶部と、前記映像データに基づき映像を生成する映像生成部と、文書データを予め記憶する文書記憶部と、前記文書データに基づき文書表示を行う文書生成部と、前記映像データと前記文書データの対応関係を予め記憶する映像−文書関係記憶部とを備え、前記映像生成部が映像を生成するときに、前記文書生成部は、前記映像−文書関係記憶部を検索して生成されている前記映像に対応する文書の表示を行い、前記文書生成部が文書表示を行うときに、前記映像生成部は、前記映像−文書関係記憶部を検索して表示されている前記文書に対応する映像を生成する。
【0007】
好ましくは、前記映像の表示開始及び停止を含む制御を行う映像制御部と、前記文書記憶部に記憶されている文書データのどの部分を表示するかを制御する文書制御部とを備える。
【0008】
好ましくは、さらに、第2文書データを予め記憶する第2文書記憶部と、前記第2文書データに基づき文書表示を行う第2文書生成部と、前記文書データと前記第2文書データの対応関係を予め記憶する文書−文書関係記憶部とを備え、前記文書生成部が文書表示を行うときに、前記第2文書生成部は、前記文書−文書関係記憶部を検索して表示されている前記文書に対応する前記第2文書の表示を行う。
【0009】
好ましくは、前記映像−文書関係記憶部は、特定の映像をひとつの文書に対応づける情報を含むとともに、特定の文書をひとつ又は複数の映像に対応づける情報を含み、前記文書生成部が文書表示を行うときに、前記複数の映像のうち最も以前のものが選択される。
【0010】
好ましくは、前記映像−文書関係記憶部は、特定の映像をひとつの文書に対応づける情報を含むとともに、特定の文書をひとつ又は複数の映像に対応づける情報を含み、前記文書生成部が文書表示を行うときに、前記複数の映像のうち最近のものが選択される。
【0011】
好ましくは、前記映像−文書関係記憶部は、特定の映像をひとつの文書に対応づける情報を含むとともに、特定の文書をひとつ又は複数の映像に対応づける情報を含み、前記文書生成部が文書表示を行うときに、前記複数の映像のうち中間のものが選択される。
【0012】
前記最も以前のもの、前記最近のもの、中間のものとは、データの記録あるいは再生の時間軸における時間関係(最も過去、最も最近、これらの間)の意味を含み、また、メモリにおける論理アドレスあるいは物理アドレスの大小関係の意味を含む。
【0013】
好ましくは、前記映像−文書関係記憶部は、特定の映像をひとつの文書に対応づける情報を含むとともに、特定の文書をひとつ又は複数の映像に対応づける情報を含み、さらに、前記映像の再生履歴を含み、前記文書生成部が文書表示を行うときに、前記映像生成部により得られた前記文書に対応する映像の情報が、特定の文書に対応する複数の映像の情報である場合、前記複数の映像のうち最近再生されたものが選択される。
【0014】
好ましくは、前記映像−文書関係記憶部は、特定の映像をひとつの文書に対応づける情報を含むとともに、特定の文書をひとつ又は複数の映像に対応づける情報を含み、さらに、前記映像の再生履歴を含み、前記文書生成部が文書表示を行うときに、前記映像生成部により得られた前記文書に対応する映像の情報が、特定の文書に対応する複数の映像の情報である場合、前記複数の映像のうち利用頻度の高いものが選択される。
【0015】
この発明に係る情報伝達方法は、映像データを予め用意するステップと、文書データを予め用意するステップと、前記映像データと前記文書データの対応関係のデータを予め用意するステップと、前記映像データに基づき映像を生成するステップと、前記対応関係のデータを検索して生成されている前記映像に対応する文書の情報を得るステップと、対応する当該文書の表示を行うステップと、前記文書データに基づき文書表示を行うステップと、前記対応関係のデータを検索して表示されている前記文書に対応する映像の情報を得るステップと、対応する前記映像を生成するステップとを備える。
【0016】
この発明に係る記録媒体は、映像データ、文書データ及び前記映像データと前記文書データの対応関係のデータを記憶するとともに、
コンピュータに、前記映像データに基づき映像を生成するステップと、前記対応関係のデータを検索して生成されている前記映像に対応する文書の情報を得るステップと、対応する当該文書の表示を行うステップと、前記文書データに基づき文書表示を行うステップと、前記対応関係のデータを検索して表示されている前記文書に対応する映像の情報を得るステップと、対応する前記映像を生成するステップとを実行させるためのプログラムを記憶する。
【0017】
媒体には、例えば、フロッピーディスク、ハードディスク、磁気テープ、光磁気ディスク、CD(CD−ROM、Video−CDを含む)、DVD(DVD−Video、DVD−ROM、DVD−RAMを含む)、ROMカートリッジ、バッテリバックアップ付きのRAMメモリカートリッジ、フラッシュメモリカートリッジ、不揮発性RAMカートリッジ等を含む。
【0018】
また、電話回線等の有線通信媒体、マイクロ波回線等の無線通信媒体等の通信媒体を含む。インターネットもここでいう通信媒体に含まれる。
【0019】
媒体とは、何等かの物理的手段により情報(主にデジタルデータ、プログラム)が記録されているものであって、コンピュータ、専用プロセッサ等の処理装置に所定の機能を行わせることができるものである。要するに、何等かの手段でもってコンピュータにプログラムをダウンロードし、所定の機能を実行させるものであればよい。
【0020】
【発明の実施の形態】
この発明の実施の形態に係る装置/方法について説明する。
この装置/方法は、CD−ROMなどの記録媒体に記録されたプログラムの形で提供され、このプログラムが利用者のパーソナルコンピュータ(パソコン)にインストールされた状態で機能を果たす。もっとも本発明はこの形式に限定されないのは言うまでもない。周知のように、パソコンは、中央処理装置(CPU、メモリを含む)、外部記憶装置(ハードディスク、CD−ROMドライブ、フロッピーディスクドライブを含む)、入力装置(キーボード、ポインティングデバイスを含む)、出力装置(CRTディスプレイ、液晶ディスプレイを含む)、通信装置(モデム、ターミナルアダプタを含む)を備える。
【0021】
図1は、この発明の実施の形態に係る装置の要部を示すブロック図である。この図は、例えば、この装置/方法に係るプログラムがインストールされたパソコンにおける主要部を示す機能ブロック図である。説明の便宜上、必要な部分のみを示しており、この装置/方法は、必要に応じて図示されない他の部分(例えば、拡大表示処理部、テキスト検索部)を含んでもよい。
【0022】
この装置/方法は、ビデオウインドウを生成するためのビデオ再生部10、ノートウインドウを生成するためのノート画面生成部14、他のノートウインドウ(用語ウインドウ)を生成するための第2ノート(用語)画面生成部18を備える。必要に応じて、第3ノート画面生成部などを備えてもよい。なお、ひとつのビデオに複数のノートが対応してもよい。例えば、ビデオにノート1及びノート2が対応するようにしてもよい。
【0023】
ビデオ再生部10は、制御部11から制御信号を受けてビデオメモリ12から所定のデータを読み出して動画に再生し、図示しない表示装置に出力する。ビデオ再生部10は、ビデオメモリ12のアドレスを指定することにより、任意の部分のデータを読み出すことができる。したがって、ビデオを最初から再生することはもちろん、途中から再生したり、早送り、巻き戻しなどの操作を自由に行うことができる。ビデオ再生部10は映像とともに音声も出力することができる。以下の説明において、ビデオという場合には原則として映像とともに音声も含むものとする。
【0024】
なお、ビデオCDにおいては、各チャプターがそれぞれひとつのファイルになっている。したがって、ビデオCDではファイルを読み込むことにより時間軸の移動が可能である。一方、DVD-Videoの場合は、複数のチャプターがひとつのファイルになっている。この場合、インデックス情報が書きこまれたファイルを参照していくつめのチャプターのXX秒後から、といった時間軸の移動方法をとる。
すなわち、ビデオの時間移動の際の検索方法として、(1)このファイルのこの時間というように、直接ファイルと時刻を指定して検索する方法と、(2)インデックスファイルを参照して、時間位置を検索する方法、の2種類がある。
【0025】
ノート画面生成部14は、制御部15から制御信号を受けてノートメモリ(テキストデータが予め格納されている)16から所定のデータを読み出してノート画面を生成し、図示しない表示装置に出力する。ノート画面生成部14は、ノートメモリ16のアドレスを指定することにより、任意の部分のデータを選択して表示することができる。
【0026】
第2ノート(用語)画面生成部18は、第2ノート(用語)メモリ19から所定のデータを読み出して、図示しない表示装置に出力する。第2ノート(用語)画面生成部18は、第2ノート(用語)メモリ19のアドレスを指定することにより、任意の部分のデータを選択して表示することができる。
【0027】
この発明の実施の形態の装置/方法は、ビデオ再生部10とノート画面生成部13の間にビデオ−ノート対応テーブル13を備えるとともに、ノート画面生成部14と第2ノート(用語)画面生成部18の間にノート−ノート対応テーブル17を備える。テーブル13は、ビデオ画面とノート画面の間で同期をとるためのものである。つまり、制御部11により指定されたビデオ画面が表示されるとき、ノート画面には当該ビデオ画面に対応するノート(テキスト)が表示される。逆に、制御部15により指定されたノート画面が表示されるとき、ビデオ画面には当該ノート画面に対応するビデオが表示される。
【0028】
一方、制御部15により指定されたノート画面が表示されるとき、第2ノート(用語)画面には当該ノート画面に対応するテキスト(例えば、ノート画面においてポインタが特定のテキストを示している場合、そのテキストの内容の説明)が表示される。なお、逆方向、つまり第2ノート画面からノート画面に対する制御は特に必要がない(もちろん、設けても構わない)。
【0029】
図4は、この発明の実施の形態における(a)ビデオ−ノート、及び(b)ノート−ノート対応テーブルの説明図である。ビデオ−ノート対応テーブル13は、ビデオの時刻(例えば、ビデオの最初の部分をゼロとして秒単位で記録されている)と、それに対応するノートのテキストの関係が予め格納されている。例えば、時刻t1のビデオが再生されると、ノートウインドウにはTEXT.htm#5の内容が表示される。なお、ビデオ−ノートの対応関係は1対1に限定されない。ひとつのビデオに複数のノートが対応してもよい。例えば、ビデオにノート1及びノート2が対応する。この場合、ビデオが再生されるとそれに応じたノート1の内容及びノート2の内容が表示され、ノート1のある部分が参照されるとそれに対応するビデオとノート2が表示されるように構成することも可能である。
【0030】
ノート−ノート対応テーブル17は、ノートウインドウごとに、テキストの関係が予め格納されている。例えば、ノートウインドウに、TEXT1.htm#1のテキストが表示されているとき、関連するノートウインドウにはTEXT2.htm#1のテキストが自動的に表示され、関連する目次ウインドウにはmokuji.htm#1のテキストが自動的に表示される。言いかえれば、各ノートには要所要所にタグが埋め込まれていて、テーブルはタグとタグの間の対応関係を記憶している。TEXT1.htm#1等は、1つのテキストファイルの一部に関連付けられた名称であるが、それ自体独立したテキストファイルとして構成してもよい。
【0031】
#1,#2,#3,・・・の部分を参照することにより、同じTEXT1.htmファイルの中の特定の部分を表示させることができる。例えば、TEXT1.htm#1を表示しているときに、TEXT1.htm#3へジャンプした場合、これに応じて表示されているHTMLファイルがスクロールする。
【0032】
ここで、ビデオ−ノート対応テーブル13におけるビデオとノートの対応関係は一対一ではないことについて述べる。公知のほかのシステム、例えば、映像とともに歌詞が表示されるカラオケシステムにおいて、ビデオとノートの対応関係は一対一であり、両者は一体として扱われている。しかし、本発明の実施の形態の装置/方法は、教材、教育機器や商品説明用の機器であり、必ずしもビデオとノートの関係が一対一ではない。例えば、講義において同じテキストが何度も繰り返し参照されたり、テキストの順番を無視して参照されることがある。この対応関係は、講義等の時間の経過に伴ってテキストの一部が順不同で繰り返し参照されるというものである。そのため、後述のように、テキストからビデオを参照するときに特別の工夫が必要になる。
【0033】
図5は、この発明の実施の形態による表示画面の説明図である。画面全体100の中に、ビデオ映像ウインドウ110、ノートウインドウ120、現範囲ウインドウ(第2ノートウインドウ)130、目次ウインドウ140が表示される。また、ビデオ映像ウインドウ110に表示されるビデオを制御するためのスライドバー112、各種制御スイッチ113や、ノートウインドウ120を制御するためのスライドバー121も表示される。現範囲連動ウインドウ130の上のタブ「用語」「目次」「メモ」をクリックすることにより、必要なウインドウを表示することができる。さらに、テキストの検索のためのキーワード入力ボックス150、検索ボタン151や、ヘルプボタン160、関連範囲のドリルを行うためのドリルボタン170も表示される。現範囲連動ウインドウ130を用いれば、再生場所範囲内に関連する情報を見たり、マウスを重ねるだけで用語辞書を表示させることもできる。目次ウインドウ140を用いれば、利用者は容易に再生場所を指定したり、再生場所を確認できる。
【0034】
図6は、この発明の実施の形態による表示画面の一例である。この画面はあくまで説明のための一例である。この画面は本装置/方法を司法試験受験のために用いた場合のものである。
【0035】
次に動作について説明する。
図2は、この発明の実施の形態におけるビデオ−ノートのリンク処理及びノート−用語のリンク処理のフローチャートである。
S1:スライドバー112、制御ボタン113を操作して、ビデオ映像ウインドウ110に所望のビデオを再生表示する。
S2:再生されているビデオの時刻情報(TIME)がビデオノート対応テーブル13に与えられる。
S3:与えられた時刻情報(TIME)に対応するノートの情報が検索される。例えば、TIME=時刻t2であれば、TEXT=TEXT.htm#4が出力される。
S4:ノート画面生成部14は、TEXT=TEXT.htm#4という情報を受ける。
【0036】
S5:ノート画面生成部14は、TEXT.htm#4に対応するアドレスを指定してノートメモリ16からデータを読み出し、これをノートウインドウ120に表示する。
S6:ノート画面生成部14は、TEXT=TEXT.htm#4という情報をノート−ノート対応テーブル17に与える。与えられたノート情報(TEXT)に対応する第2ノートの情報が検索される。例えば、TEXT=TEXT.htm#4のとき、関連するノートウインドウ130に表示すべきものとしてTEXT2.htm#4が、関連する目次ウインドウ140に表示すべきものとしてmokuji.htm#4が検索されて、第2ノート(用語)画面生成部18に出力される。
S7:第2ノート(用語)画面生成部18は、入力されたTEXTに対応するアドレスを指定して第2ノート(用語)メモリ19からデータを読み出し、これらを所定のウインドウ130,140に表示する。
【0037】
S6及びS7の処理により、図7に示すように、ウインドウ120の所定のテキストTEXT1.htm#1がフォーカスされているとき、これに対応してウインドウ130、140に対応するテキストが表示される。フォーカスが移動されていって、別のテキストTEXT2.htm#2がフォーカスされるようになれば、ウインドウ130、140にはこれに対応する別のテキストが自動的に表示される。
【0038】
図3は、図2のS1〜S5とは逆に、ノートを指定したときにこれに対応するビデオを表示するためのリンク処理のフローチャートである。
S10:スライドバー121を操作して所望のテキストを表示させる。
S11:ノート画面生成部14は、ノートウインドウに表示されているテキストの情報をビデオ−ノートテーブル13に送る。
S12:与えられたテキストの情報に対応するビデオの時刻情報が検索される。
S13:前記テキストに対応するビデオの情報(時刻)を得る。
【0039】
例えば、TEXT=TEXT.htm#5であるとき、時刻t1が出力される。しかし、前述のように、ビデオとテキストの対応関係は一対一ではないから、あるテキストが指定されたときに、これに対応するビデオの時刻が複数存在することがあり得る。
この場合、次のような選択が可能である。
(1)複数得られた時刻のうち、最も小さいもの(ゼロに近いもの)を選択する。
(2)複数得られた時刻のうち、最も大きいもの(ゼロからに遠いもの)を選択する。
(3)複数得られた時刻のうち、中間にあるもの(平均値に近いもの)を選択する。
(4)利用者の利用履歴が記録されている場合、最近利用されたビデオの時刻に一致するか最も近いものを選択する。
(5)利用者の利用履歴が記録されている場合、最も利用頻度の高いビデオの時刻に一致するか最も近いものを選択する。
【0040】
S14:選択された時刻のビデオをビデオウインドウで再生表示する。
この発明の実施の形態の装置/方法によれば、ビデオウインドウとノートウインドウが連動しているので、利用者にとって利用しやすい装置の提供が可能である。
【0041】
この発明の実施の形態の装置/方法によれば次のようなことが可能である。
・効率よい学習
速習で学習できる。ノートが連動するので講義に集中できる。聞き逃したときに少しだけ戻れる。後で再学習したいところをマーキングできる。
【0042】
・より深い学習
ビデオを見ながら再生部分に関する関連用語、補足事項テロップなどを閲覧できる。ビデオを見ながら再生部分に質問が発生すればFAQを見ることができる。ビデオを見ながら重要部分(強調部分)を知ることができる。
【0043】
・復習時のビデオの検索閲覧
ノートをスクロールすることで、文字ベースのスキャンでビデオの該当個所を発見できる。全ての文字情報を対象に、文字列検索して即座にビデオの該当部分を発見できる。テキストの頁番号から即座にビデオの該当部分を発見できる。
【0044】
・復習時の集中学習
学習したい用語で文字列検索して、複数の関連するビデオの該当部分を連続して閲覧できる。自分が過去にマーキングした部分を再学習できる。重要部分を集中して見ることができる。
【0045】
本発明は、以上の実施の形態に限定されることなく、特許請求の範囲に記載された発明の範囲内で、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。
【0046】
また、本明細書において、手段とは必ずしも物理的手段を意味するものではなく、各手段の機能が、ソフトウェアによって実現される場合も包含する。さらに、一つの手段の機能が、二つ以上の物理的手段により実現されても、若しくは、二つ以上の手段の機能が、一つの物理的手段により実現されてもよい。
【0047】
【発明の効果】
以上のように、この発明によれば、映像の検索性を高めることで効率的に情報を伝達することができる。つまり、映像と文書を連動させることにより、文字情報の特徴と映像情報の特徴を組み合わせて両者の良い部分を利用できる。また、文書の関連情報を適宜提示することにより、関連情報も適格に伝達できる。
【図面の簡単な説明】
【図1】 この発明の実施の形態に係る装置の要部を示すブロック図である。
【図2】 この発明の実施の形態におけるビデオ−ノートのリンク処理及びノート−用語のリンク処理のフローチャートである。
【図3】 この発明の実施の形態における逆ビデオ−ノートのリンク処理のフローチャートである。
【図4】 この発明の実施の形態における(a)ビデオ−ノート、及び(b)ノート−ノートテーブルの説明図である。
【図5】 この発明の実施の形態による表示画面の説明図である。
【図6】 この発明の実施の形態による表示画面の一例である。
【図7】 この発明の実施の形態による複数のノートウインドウ間のリンクの説明図である。
【符号の説明】
10 ビデオ再生部
11 制御部(早送り、巻き戻し等)
12 ビデオメモリ
13 ビデオ−ノート対応テーブル
14 ノート画面生成部
15 制御部(スクロール、頁UP/DOWN等)
16 ノートメモリ
17 ノート−ノート対応テーブル
18 第2ノート(用語)画面生成部
19 第2ノート(用語)メモリ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an information transmission apparatus and method for transmitting information by displaying a video and a document on a computer screen. Furthermore, the present invention relates to a recording medium for realizing the information transmission apparatus and method by a computer.
[0002]
[Prior art]
Conventionally, teaching materials or materials using videotapes have been used in information transmission, for example, distance learning, in-house education, prep school classes, product descriptions, service descriptions, and the like.
[0003]
[Problems to be solved by the invention]
With recent advances in computer technology, video has been converted to digital data and can be used on personal computers. In the information transmission as described above, it has become possible to use personal computer software and data therefor in place of the video tape.
[0004]
It is desirable to provide a better information transmission medium by utilizing the information processing capability of a personal computer. For example, it is desirable to display a document together with a video, or to organically combine a video and a document by utilizing the information processing capability of a personal computer. Furthermore, it is desirable to enable meaningful random access to sequential video.
[0005]
SUMMARY An advantage of some aspects of the invention is to provide an information transmission device and method, and a recording medium that are easier to use and more effective.
[0006]
[Means for Solving the Problems]
In order to solve such a problem, an information transmission apparatus according to the present invention includes a video storage unit that stores video data in advance, a video generation unit that generates video based on the video data, and a document storage that stores document data in advance. A document generation unit that displays a document based on the document data, and a video-document relationship storage unit that stores a correspondence relationship between the video data and the document data in advance, and the video generation unit generates a video. When the document generation unit displays the document corresponding to the generated video by searching the video-document relation storage unit, and the document generation unit displays the document, the video generation The unit searches the video-document relation storage unit to generate a video corresponding to the displayed document.
[0007]
Preferably, a video control unit that performs control including start and stop of display of the video and a document control unit that controls which part of the document data stored in the document storage unit is displayed.
[0008]
Preferably, further, a second document storage unit that stores second document data in advance, a second document generation unit that displays a document based on the second document data, and a correspondence relationship between the document data and the second document data A document-document relationship storage unit, and when the document generation unit performs document display, the second document generation unit searches the document-document relationship storage unit and displays the document-document relationship storage unit. The second document corresponding to the document is displayed.
[0009]
Preferably, the video-document relation storage unit includes information associating a specific video with one document and includes information associating a specific document with one or a plurality of videos, and the document generation unit displays the document. When performing, the oldest one of the plurality of videos is selected.
[0010]
Preferably, the video-document relation storage unit includes information associating a specific video with one document and includes information associating a specific document with one or a plurality of videos, and the document generation unit displays the document. When performing, the latest one of the plurality of videos is selected.
[0011]
Preferably, the video-document relation storage unit includes information associating a specific video with one document and includes information associating a specific document with one or a plurality of videos, and the document generation unit displays the document. When performing, an intermediate one of the plurality of videos is selected.
[0012]
The oldest, the latest, and the intermediate include the meaning of the time relationship (the most recent, the most recent, and between them) on the time axis of data recording or reproduction, and the logical address in the memory Or it includes the meaning of the magnitude relationship of physical addresses.
[0013]
Preferably, the video-document relationship storage unit includes information associating a specific video with one document, and includes information associating the specific document with one or a plurality of videos, and further, a playback history of the video And when the document generation unit displays the document, the video information corresponding to the document obtained by the video generation unit is information on a plurality of videos corresponding to a specific document. The most recently played video is selected.
[0014]
Preferably, the video-document relationship storage unit includes information associating a specific video with one document, and includes information associating the specific document with one or a plurality of videos, and further, a playback history of the video And when the document generation unit displays the document, the video information corresponding to the document obtained by the video generation unit is information on a plurality of videos corresponding to a specific document. The most frequently used video is selected.
[0015]
The information transmission method according to the present invention includes a step of preparing video data in advance, a step of preparing document data in advance, a step of preparing correspondence data between the video data and the document data in advance, and the video data Based on the document data, generating a video based on the data, retrieving information on the document corresponding to the video generated by searching the correspondence data, displaying the corresponding document, and The method includes a step of displaying a document, a step of retrieving the correspondence data, obtaining information of a video corresponding to the displayed document, and a step of generating the corresponding video.
[0016]
The recording medium according to the present invention stores video data, document data, and data of correspondence between the video data and the document data,
A step of generating a video on the basis of the video data, a step of obtaining information on a document corresponding to the generated video by searching the correspondence data, and a step of displaying the corresponding document A step of displaying a document based on the document data, a step of obtaining information on a video corresponding to the displayed document by searching the correspondence data, and a step of generating the corresponding video A program to be executed is stored.
[0017]
Examples of the medium include floppy disks, hard disks, magnetic tapes, magneto-optical disks, CDs (including CD-ROMs and Video-CDs), DVDs (including DVD-Videos, DVD-ROMs, and DVD-RAMs), ROM cartridges. RAM memory cartridge with battery backup, flash memory cartridge, non-volatile RAM cartridge, etc.
[0018]
In addition, a communication medium such as a wired communication medium such as a telephone line and a wireless communication medium such as a microwave line is included. The Internet is also included in the communication medium here.
[0019]
A medium is a medium in which information (mainly digital data, a program) is recorded by some physical means, and allows a processing device such as a computer or a dedicated processor to perform a predetermined function. is there. In short, any means may be used as long as it downloads a program to a computer and executes a predetermined function by any means.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
An apparatus / method according to an embodiment of the present invention will be described.
This apparatus / method is provided in the form of a program recorded on a recording medium such as a CD-ROM, and functions when the program is installed in a user's personal computer (personal computer). Of course, the present invention is not limited to this format. As is well known, a personal computer includes a central processing unit (including a CPU and a memory), an external storage device (including a hard disk, a CD-ROM drive, and a floppy disk drive), an input device (including a keyboard and a pointing device), and an output device. (Including a CRT display and a liquid crystal display) and a communication device (including a modem and a terminal adapter).
[0021]
FIG. 1 is a block diagram showing a main part of an apparatus according to an embodiment of the present invention. This figure is a functional block diagram showing the main part of a personal computer in which a program according to this apparatus / method is installed, for example. For convenience of explanation, only necessary portions are shown, and this apparatus / method may include other portions (for example, an enlarged display processing unit and a text search unit) which are not shown in the drawing as necessary.
[0022]
This apparatus / method includes a video playback unit 10 for generating a video window, a note screen generation unit 14 for generating a note window, and a second note (term) for generating another note window (term window). A screen generator 18 is provided. If necessary, a third note screen generator may be provided. A plurality of notes may correspond to one video. For example, note 1 and note 2 may correspond to the video.
[0023]
The video playback unit 10 receives a control signal from the control unit 11, reads predetermined data from the video memory 12, plays it back as a moving image, and outputs it to a display device (not shown). The video reproducing unit 10 can read data of an arbitrary part by designating the address of the video memory 12. Therefore, the video can be played back from the beginning, or can be played back in the middle, or can be freely operated such as fast forward and rewind. The video playback unit 10 can output audio along with video. In the following description, in the case of video, in principle, audio is included together with video.
[0024]
In the video CD, each chapter is a single file. Therefore, the time axis can be moved by reading a file in the video CD. On the other hand, in the case of DVD-Video, a plurality of chapters are made into one file. In this case, a time axis moving method is used, for example, after XX seconds of the number of chapters by referring to the file in which the index information is written.
That is, as a search method at the time movement of video, (1) a method of directly specifying a file and time such as this time of this file and (2) a time position by referring to an index file There are two types of search methods.
[0025]
The note screen generation unit 14 receives a control signal from the control unit 15, reads predetermined data from the note memory (text data is stored in advance) 16, generates a note screen, and outputs it to a display device (not shown). The note screen generation unit 14 can select and display an arbitrary portion of data by designating the address of the note memory 16.
[0026]
The second note (term) screen generator 18 reads predetermined data from the second note (term) memory 19 and outputs it to a display device (not shown). The second note (term) screen generation unit 18 can select and display data of an arbitrary portion by designating the address of the second note (term) memory 19.
[0027]
The apparatus / method according to the embodiment of the present invention includes a video-note correspondence table 13 between the video reproduction unit 10 and the note screen generation unit 13, and a note screen generation unit 14 and a second note (term) screen generation unit. 18 is provided with a note-note correspondence table 17. The table 13 is for synchronizing between the video screen and the note screen. That is, when a video screen designated by the control unit 11 is displayed, a note (text) corresponding to the video screen is displayed on the note screen. Conversely, when a note screen designated by the control unit 15 is displayed, a video corresponding to the note screen is displayed on the video screen.
[0028]
On the other hand, when the note screen designated by the control unit 15 is displayed, text corresponding to the note screen is displayed on the second note (term) screen (for example, when the pointer indicates specific text on the note screen, A description of the content of the text) is displayed. Note that control in the reverse direction, that is, control from the second note screen to the note screen is not particularly necessary (of course, it may be provided).
[0029]
FIG. 4 is an explanatory diagram of a (a) video-note and (b) note-note correspondence table in the embodiment of the present invention. The video-note correspondence table 13 stores in advance the relationship between the video time (for example, recorded in seconds with the first part of the video being zero) and the text of the corresponding note. For example, when the video at time t1 is played, the contents of TEXT.htm # 5 are displayed in the note window. Note that the video-note correspondence is not limited to one-to-one. Multiple notes may correspond to one video. For example, note 1 and note 2 correspond to the video. In this case, when the video is reproduced, the contents of the note 1 and the contents of the note 2 corresponding to the video are displayed, and when a certain part of the note 1 is referred to, the corresponding video and the note 2 are displayed. It is also possible.
[0030]
The note-note correspondence table 17 stores text relationships in advance for each note window. For example, when the text of TEXT1.htm # 1 is displayed in the note window, the text of TEXT2.htm # 1 is automatically displayed in the related note window, and mokuji.htm # is displayed in the related table of contents window. 1 text is automatically displayed. In other words, tags are embedded in important points in each note, and the table stores the correspondence between tags. TEXT1.htm # 1 and the like are names associated with a part of one text file, but may be configured as an independent text file.
[0031]
By referring to the parts # 1, # 2, # 3,..., A specific part in the same TEXT1.htm file can be displayed. For example, when jumping to TEXT1.htm # 3 while displaying TEXT1.htm # 1, the displayed HTML file is scrolled accordingly.
[0032]
Here, it will be described that the correspondence between video and notes in the video-note correspondence table 13 is not one-to-one. In other known systems, for example, a karaoke system in which lyrics are displayed together with video, there is a one-to-one correspondence between video and notes, and both are handled as a unit. However, the apparatus / method according to the embodiment of the present invention is a teaching material, an educational device, or a product explanation device, and the relationship between video and notes is not necessarily one-to-one. For example, the same text may be referred to repeatedly in a lecture or may be referred to by ignoring the text order. This correspondence is such that a part of the text is repeatedly referred to in random order as time passes such as a lecture. Therefore, as will be described later, a special device is required when referring to a video from text.
[0033]
FIG. 5 is an explanatory diagram of a display screen according to the embodiment of the present invention. A video image window 110, a note window 120, a current range window (second note window) 130, and a table of contents window 140 are displayed in the entire screen 100. In addition, a slide bar 112 for controlling the video displayed in the video image window 110, various control switches 113, and a slide bar 121 for controlling the note window 120 are also displayed. By clicking the tabs “Terminology”, “Contents”, and “Memo” on the current range link window 130, necessary windows can be displayed. Furthermore, a keyword input box 150 for text search, a search button 151, a help button 160, and a drill button 170 for drilling related ranges are also displayed. If the current range link window 130 is used, the term dictionary can be displayed simply by looking at related information within the playback location range or by overlaying the mouse. By using the table of contents window 140, the user can easily specify the playback location or confirm the playback location.
[0034]
FIG. 6 is an example of a display screen according to the embodiment of the present invention. This screen is merely an example for explanation. This screen is when this apparatus / method is used for taking a bar exam.
[0035]
Next, the operation will be described.
FIG. 2 is a flowchart of video-note link processing and note-term link processing in the embodiment of the present invention.
S1: The slide bar 112 and the control button 113 are operated to reproduce and display a desired video on the video image window 110.
S2: Time information (TIME) of the video being played is given to the video note correspondence table 13.
S3: Information of the note corresponding to the given time information (TIME) is retrieved. For example, if TIME = time t2, TEXT = TEXT.htm # 4 is output.
S4: The note screen generation unit 14 receives information TEXT = TEXT.htm # 4.
[0036]
S5: The note screen generator 14 reads data from the note memory 16 by designating an address corresponding to TEXT.htm # 4, and displays it on the note window 120.
S6: The note screen generator 14 gives the information TEXT = TEXT.htm # 4 to the note-note correspondence table 17. Information on the second note corresponding to the given note information (TEXT) is retrieved. For example, when TEXT = TEXT.htm # 4, TEXT2.htm # 4 is retrieved as the one to be displayed in the related note window 130 and mokuji.htm # 4 is retrieved as the one to be displayed in the related table of contents window 140. 2 notes (terms) are output to the screen generation unit 18.
S7: The second note (term) screen generation unit 18 reads data from the second note (term) memory 19 by designating an address corresponding to the input TEXT, and displays these on predetermined windows 130 and 140. .
[0037]
By the processing of S6 and S7, as shown in FIG. 7, when the predetermined text TEXT1.htm # 1 in the window 120 is focused, the text corresponding to the windows 130 and 140 is displayed correspondingly. When the focus is moved and another text TEXT2.htm # 2 is focused, another text corresponding to this is automatically displayed in the windows 130 and 140.
[0038]
FIG. 3 is a flowchart of link processing for displaying a video corresponding to a note when a note is designated, contrary to S1 to S5 in FIG.
S10: The desired text is displayed by operating the slide bar 121.
S 11: The note screen generation unit 14 sends the text information displayed in the note window to the video-note table 13.
S12: The video time information corresponding to the given text information is retrieved.
S13: Obtain video information (time) corresponding to the text.
[0039]
For example, when TEXT = TEXT.htm # 5, time t1 is output. However, as described above, since the correspondence between video and text is not one-to-one, when a certain text is specified, there may be a plurality of video times corresponding to the text.
In this case, the following selection is possible.
(1) The smallest time (near zero) is selected from a plurality of obtained times.
(2) The largest time (one far from zero) is selected from a plurality of obtained times.
(3) Among the obtained times, the intermediate time (close to the average value) is selected.
(4) When the user's usage history is recorded, the one that matches or is closest to the time of the video that was recently used is selected.
(5) When the user's usage history is recorded, the one that matches or is closest to the time of the video with the highest usage frequency is selected.
[0040]
S14: The video at the selected time is reproduced and displayed in the video window.
According to the apparatus / method of the embodiment of the present invention, since the video window and the note window are linked, it is possible to provide an apparatus that is easy for the user to use.
[0041]
According to the apparatus / method of the embodiment of the present invention, the following is possible.
・ You can study with efficient learning speed. Since the notes are linked, you can concentrate on the lecture. If you miss it, you can go back a little. You can mark where you want to relearn later.
[0042]
・ While watching deeper learning videos, you can view related terms related to the playback part and supplementary telops. If you have any questions in the playback part while watching the video, you can see the FAQ. You can know the important part (emphasized part) while watching the video.
[0043]
-Video search at the time of review By scrolling the browsing note, you can find the relevant part of the video by character-based scanning. You can search for a character string for all text information and find the relevant part of the video instantly. You can instantly find the relevant part of the video from the page number of the text.
[0044]
-Intensive learning at the time of review You can search for a string by the term you want to learn and continuously browse the relevant parts of multiple related videos. You can relearn the parts you have marked in the past. You can focus on the important parts.
[0045]
The present invention is not limited to the above embodiments, and various modifications can be made within the scope of the invention described in the claims, and these are also included in the scope of the present invention. Needless to say.
[0046]
In the present specification, means does not necessarily mean physical means, but includes cases where the functions of each means are realized by software. Furthermore, the function of one means may be realized by two or more physical means, or the functions of two or more means may be realized by one physical means.
[0047]
【The invention's effect】
As described above, according to the present invention, information can be efficiently transmitted by improving the searchability of video. That is, by linking the video and the document, it is possible to combine the characteristics of the character information and the characteristics of the video information and use the good portions of both. In addition, the relevant information can be properly communicated by presenting the relevant information of the document as appropriate.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a main part of a device according to an embodiment of the present invention.
FIG. 2 is a flowchart of video-note link processing and note-term link processing in the embodiment of the present invention;
FIG. 3 is a flowchart of reverse video-note link processing in the embodiment of the present invention;
FIG. 4 is an explanatory diagram of (a) video-note and (b) note-note table in the embodiment of the present invention.
FIG. 5 is an explanatory diagram of a display screen according to the embodiment of the present invention.
FIG. 6 is an example of a display screen according to the embodiment of the present invention.
FIG. 7 is an explanatory diagram of a link between a plurality of note windows according to the embodiment of the present invention.
[Explanation of symbols]
10 Video playback unit 11 Control unit (fast forward, rewind, etc.)
12 Video memory 13 Video-note correspondence table 14 Notebook screen generation unit 15 Control unit (scroll, page up / down, etc.)
16 note memory 17 note-note correspondence table 18 second note (term) screen generation unit 19 second note (term) memory

Claims (1)

映像データを予め記憶する映像記憶部と、
前記映像データに基づき映像を生成する映像生成部と、
文書データを予め記憶する文書記憶部と、
前記文書データに基づき文書表示を行う文書生成部と、
前記映像データの時刻情報と前記文書データのアドレス情報の対応関係を予め記憶する映像−文書関係記憶部とを備え、
前記映像生成部が映像を生成するときに、前記文書生成部は、生成されている前記映像の時刻情報に基づき前記映像−文書関係記憶部を検索して生成されている前記映像に対応する文書の前記アドレス情報を取得し、取得した前記アドレス情報に基づき文書の表示を行い、
前記文書生成部が文書表示を行うときに、前記映像生成部は、表示されている前記文書のアドレス情報に基づき前記映像−文書関係記憶部を検索して表示されている前記文書に対応する映像の前記時刻情報を取得し、取得した前記時刻情報に基づき映像を生成し、
前記映像−文書関係記憶部は、特定の映像をひとつの文書に対応づける情報を含むとともに、特定の文書を複数の映像に対応づける情報を含み、
前記文書生成部が文書表示を行うときに、前記映像生成部により、表示されている前記文書に対応する映像の前記時刻情報が複数取得され、前記複数の時刻情報のうちそれらの平均値に近いものが選択される、ことを特徴とする情報伝達装置。
A video storage unit for storing video data in advance;
A video generation unit for generating a video based on the video data;
A document storage unit for storing document data in advance;
A document generation unit for displaying a document based on the document data;
A video-document relationship storage unit that stores in advance the correspondence between the time information of the video data and the address information of the document data;
When the video generation unit generates a video, the document generation unit searches the video-document relation storage unit based on the time information of the generated video and a document corresponding to the generated video The address information is acquired, and a document is displayed based on the acquired address information.
When the document generation unit displays a document, the video generation unit searches the video-document relation storage unit based on the address information of the displayed document, and the video corresponding to the displayed document To obtain the time information, and generate a video based on the obtained time information ,
The video - document relation storage unit, as well includes information that associates the document one specific image includes information associating specific document to multiple images,
When the document generation unit displays a document, the video generation unit acquires a plurality of time information of the video corresponding to the displayed document, and is close to an average value of the plurality of time information An information transmission device characterized in that a thing is selected.
JP2000306544A 2000-10-05 2000-10-05 Information transmission device Expired - Lifetime JP4623811B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000306544A JP4623811B2 (en) 2000-10-05 2000-10-05 Information transmission device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000306544A JP4623811B2 (en) 2000-10-05 2000-10-05 Information transmission device

Publications (2)

Publication Number Publication Date
JP2002117072A JP2002117072A (en) 2002-04-19
JP4623811B2 true JP4623811B2 (en) 2011-02-02

Family

ID=18787213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000306544A Expired - Lifetime JP4623811B2 (en) 2000-10-05 2000-10-05 Information transmission device

Country Status (1)

Country Link
JP (1) JP4623811B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4012540B2 (en) * 2002-05-20 2007-11-21 富士通株式会社 Teaching material display method and teaching material display program
JP5067332B2 (en) * 2008-09-30 2012-11-07 ソニー株式会社 Information processing apparatus, information processing method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275210A (en) * 1997-03-28 1998-10-13 Sony Corp Video display device and method therefor
JPH11288420A (en) * 1998-04-03 1999-10-19 Casio Comput Co Ltd Music reproducing device and action presuming device
JP2000148765A (en) * 1998-11-05 2000-05-30 Nec Corp System and method for retrieval
JP2000231562A (en) * 1999-02-09 2000-08-22 Sharp Corp File information display device and recording medium with file information display program recorded therein

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2698989B2 (en) * 1988-11-17 1998-01-19 日本電気ホームエレクトロニクス株式会社 Inspection method in multimedia database
JP3090233B2 (en) * 1992-02-18 2000-09-18 日本電信電話株式会社 A method for identifying associations between complex information
JPH05342265A (en) * 1992-06-09 1993-12-24 Mitsubishi Electric Corp Controller and presenting method for multi-media
JP3350995B2 (en) * 1993-02-24 2002-11-25 三菱電機株式会社 Search device and search method
JPH07226931A (en) * 1994-02-15 1995-08-22 Toshiba Corp Multi-medium conference equipment
JPH11353325A (en) * 1998-06-10 1999-12-24 Hitachi Ltd Synchronous display system for video and relative information
JP2000020535A (en) * 1998-06-30 2000-01-21 Toshiba Corp Multi-media information reproducing system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10275210A (en) * 1997-03-28 1998-10-13 Sony Corp Video display device and method therefor
JPH11288420A (en) * 1998-04-03 1999-10-19 Casio Comput Co Ltd Music reproducing device and action presuming device
JP2000148765A (en) * 1998-11-05 2000-05-30 Nec Corp System and method for retrieval
JP2000231562A (en) * 1999-02-09 2000-08-22 Sharp Corp File information display device and recording medium with file information display program recorded therein

Also Published As

Publication number Publication date
JP2002117072A (en) 2002-04-19

Similar Documents

Publication Publication Date Title
US7735012B2 (en) Audio user interface for computing devices
CN102568534B (en) Reproducer and display control method
US20070027844A1 (en) Navigating recorded multimedia content using keywords or phrases
JPH03134883A (en) Picture retrieving device
JP2003029911A (en) Information processor, information processing method, recording medium and program
KR20070067179A (en) Information management method, information management program, and information management device
JP2003330777A (en) Data file reproduction device, recording medium, data file recording device, data file recording program
EP1847918A2 (en) Method and apparatus for displaying content list
JP2001306599A (en) Method and device for hierarchically managing video, and recording medium recorded with hierarchical management program
JP2006236142A (en) Position information display program and position information display device
JP2007528572A5 (en)
JP2007528572A (en) User interface for multimedia file playback devices
JP2009181464A (en) Information terminal device, method of information-processing of information terminal device, and information processing program
JP4623811B2 (en) Information transmission device
US20060224703A1 (en) Slideshow system, rule server, music reproducing apparatus and methods of controlling said server and apparatus
KR100226946B1 (en) Data disk and method for retrieving data stored thereon
JP2006343933A (en) Data processing method, electronic equipment, and program
KR20090027118A (en) System and method for providing multimedia contents
JP2006510163A (en) Recording / reproducing system, recording apparatus, reproducing apparatus, recording medium, recording / reproducing method, recording method, reproducing method, program, and recording medium
JP4072849B2 (en) Performance learning device
US6928405B2 (en) Method of adding audio data to an information title of a document
KR20060119023A (en) Apparatus and method for managing book mark in portable device
JPH07334523A (en) Information processor
JP2006208514A (en) Karaoke apparatus having karaoke music selection keyboard into which inputting is conducted in two languages and music selecting method in the apparatus
JP2002091955A (en) Digital contents operating system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100506

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20100907

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20100930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101102

R150 Certificate of patent or registration of utility model

Ref document number: 4623811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250