JP3915888B2 - Multimedia synchronous search method - Google Patents

Multimedia synchronous search method Download PDF

Info

Publication number
JP3915888B2
JP3915888B2 JP2001319143A JP2001319143A JP3915888B2 JP 3915888 B2 JP3915888 B2 JP 3915888B2 JP 2001319143 A JP2001319143 A JP 2001319143A JP 2001319143 A JP2001319143 A JP 2001319143A JP 3915888 B2 JP3915888 B2 JP 3915888B2
Authority
JP
Japan
Prior art keywords
keyword
page
scene
presentation
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001319143A
Other languages
Japanese (ja)
Other versions
JP2003122792A (en
Inventor
治夫 横田
Original Assignee
財団法人理工学振興会
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財団法人理工学振興会 filed Critical 財団法人理工学振興会
Priority to JP2001319143A priority Critical patent/JP3915888B2/en
Publication of JP2003122792A publication Critical patent/JP2003122792A/en
Application granted granted Critical
Publication of JP3915888B2 publication Critical patent/JP3915888B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、動画と資料を統合して提供するような情報統合の分野で、元の動画と資料に手を加えることなく同期させながら、キーワードによって資料を検索し、その資料に対応する動画の場面を高速に抽出するためのマルチメディア同期検索の方法に関する。
【0002】
【従来の技術】
従来、プレゼンテーション資料(ここでは、テキストと図より構成されているドキュメントを指す。)と、そのプレゼンテーション資料を使って説明を行っている動画のビデオ等の検索を行うことを考えた場合には、資料は資料で、動画は動画で独立に索引等を準備し、別々に提供していた。
【0003】
特に、動画の検索の場合には、ニュースのビデオやスポーツ番組のビデオのシーンを切り出して索引をつける仕組みは既に研究されているが、本発明で主に対象としている講義ビデオ、論文発表ビデオ、講演会ビデオ、研究会ビデオ、PR用のプレゼンテーションビデオ等では、ニュースやスポーツ番組に比べるとシーンの切り替えや動きが少ないため、シーンを切り出して索引付けることが困難である。また、シーンを切り出しても有効なキーワードを付加するためには、多額の費用がかかった。
【0004】
また、動画とプレゼンテーション資料の組み合わせという面から見ると、ネットワークの研究プロジェクトであるWIDE(Widely Integrated Distributed Environment)のSOIWG(Schoo1 0n the Internet Working Group)で、動画とプレゼンテーション資料を同時に示すものもある(http://www.soi.wide.ad.jp/)。しかし、それはプレゼンテーション資料も一種の動画として扱い、同時に開始して同時に終了する二つの動画が同時に見えているだけである。つまり、本発明が行おうとしているような検索機能は持っていない。
【0005】
ビデオフレームをインタラクティブにWebで管理する研究(Rune Hjelsvold and Subu Vdaygiri and Yves Leate,Web−based Personalization and Management of Interactive Video,Proc of WWW10,pp.129−139,2001)もあるが、パーソナライズに注目したもので、本発明のような検索機構は持たない。この他、関連のあるものとして、動画を組み込んだオーサリングツールがある。
【0006】
【発明が解決しようとする課題】
しかし、そのようなオーサリングツールでは、新たな素材を作るに等しい作成コストがかかることになる。また、統合したビューを提供しても、元の素材がそのままの形で残り、元の素材単独としても扱えることが必要である。例えば、以前のプレゼンテーション資料に手を加えて内容を更新しようと思っても、オーサリングツール用のフォーマットに改変されてしまっていては、自由にプレゼンテーション資料を変更することが出来なくなってしまう。更に、必要な情報を効率よく検索し提供するためには、索引が必要である。索引としては、コンテンツ内部での位置(ビデオ等の場面)を示すものと、多くのコンテンツの中で必要な情報が含まれているコンテンツを探し出すためのものが必要であり、可能であればそれら索引は統合されていることが望ましいが、個々のオーサリングツールレベルでそのような統合された索引を提供するのは容易ではない。
【0007】
本発明は、かかる従来技術の問題点に鑑みなされたものであり、元の動画とプレゼンテーション資料に手を加えることなく同期させながら、キーワードによってプレゼンテーション資料を検索し、そのプレゼンテーション資料に対応する動画の場面を高速に抽出するためのマルチメディア同期検索の方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明は、元の動画とプレゼンテーション資料に手を加えることなく同期させながら、キーワードによってプレゼンテーション資料を検索し、そのプレゼンテーション資料に対応する動画の場面を高速に抽出するためのマルチメディア同期検索方法に関し、本発明の上記目的は、利用者が入力するキーワードによってプレゼンテーション資料を検索し、前記キーワードに対応する資料のページを探し出すと同時に、そのページに対応した動画の場面を探し出して表示するマルチメディア同期検索方法であって、該方法は、予めキーワードとそのキーワードが記載されているプレゼンテーション資料のページとを対応付ける索引を作成し、資料のページへのポインタとそれが提示されている1箇所もしくは複数箇所の動画の場面へのポインタの列から成る同期ブロックと、前記資料のページ中のキーワードに対応する前記同期ブロックと前記キーワードが記載されている場所のアドレスの組からなる位置ブロックとからなる組内索引と、複数の前記組内索引へのポインタをつなげた組ブロックと、前記の複数の組ブロックに対する組間索引と、
からなる同期検索インデックスによって、前記入力されたキーワードに従い組間索引を手繰り、前記キーワードを含む資料のページと動画のペアを指す組ブロックを探し出すステップと、前記探し出した組ブロックの先頭のポインタが指す組の組内索引によって、前記キーワードに対応する位置ブロックを探し出すステップと、前記探し出した位置ブロックの中の同期ブロックへのポインタを手繰り、同期ブロック中の表示ページポインタに従って、資料のページとそれが提示されている動画の場面をペアで表示するステップとからなるマルチメディア同期検索方法によって達成される。
【0009】
また本発明の上記目的は、前記同期ブロック中の動画の場面へのポインタをリスト構造でつなげることにより、或いは前記位置ブロックをリスト構造でつなげることによって、より効果的に達成される。
【0010】
【発明の実施の形態】
本発明は、デジタルデータとして格納されている動画データとプレゼンテーション資料(以下、「資料」という。)を、同期させながら、キーワードに従って資料を検索し、検索された前記資料のページに対応する動画の場面を抽出するためのマルチメディア同期検索方法に関するものであり、図1はその概念図である。
【0011】
図中、マルチメディア同期検索機構は、利用者から与えられたキーワードに従って資料を検索し、キーワードが出現する資料中のページを抽出し、そのページに対応した動画データの場面を資料のページと共に利用者に返す。
【0012】
概説すれば、まず、プレゼンテーション資料の内容に従った索引を作成しておき、プレゼンテーション資料のページとそのページが提示された時の動画の場面を対応付け、検索要求が来た場合に、まずキーワードによってプレゼンテーション資料を検索し、キーワードに対応するページを探し出すと同時に、そのページに対応した動画の場面を探し出す。
【0013】
前記マルチメディア同期検索機構は、その中に、資料のページとそのページが提示されている時の動画中の(複数の)場面を対応付けるための同期ブロックを持つ。同期ブロックは、ページとそのページが掲示され始めた動画中の(複数の場面の)位置情報を保持する。また、同期ブロックへのポインタと一緒に、資料ページ内のキーワードの位置を示すアドレスを持つ位置ブロックも持つ。この位置ブロックをリスト構造でつなげることで、同一キーワードが複数現れる場合にも対応できる。さらに、索引の階層構造を取り入れ、複数の資料と動画データの組に対する索引を組み合わせる。
【0014】
図2は、前記マルチメディア同期検索を行うためのインデックス(索引)の構成例を示すものであり、これに基づいて説明する。
【0015】
ここで、例えば、前記資料を講義資料、前記動画データを講義ビデオとした場合には、講義ビデオと講義資料が1回の講義(組)に対応し、組間索引は、複数の講義の間の索引を指す。また、組内索引はその1回の講義内の索引を意味する。
【0016】
前記マルチメディア同期検索のためのインデックスは、資料のページへのポインタとそれが提示されている1箇所もしくは複数箇所の動画の場面へのポインタの列から成る同期ブロック1と、キーワードに対応する前記同期ブロック1と前記資料のページ中のキーワードが使われている場所のアドレスの組(ペア)からなる位置ブロック2と、資料と動画の組に対する組内索引3と、複数の組内索引3へのポインタをつなげた組ブロック4と、組ブロック4に対する組間索引5とからなる。なお、資料と動画の組が1つしかない場合には、組ブロック4と組間索引5は不要であることは言うまでもない。
【0017】
資料と動画データの組を作成するには、資料の提示の時に、その資料のページと録画している動画のフレーム番号を同期ブロックとして記憶しておく。次に、資料をスキャンしてキーワードを抽出し、キーワードに対する位置ブロックを作成すると共に、組内索引3を構成し、索引から位置ブロック2を指すようにする。さらに、複数の組がある場合には、組の中に含まれるキーワードに従って、組ブロック4を作成し、組間索引5から組ブロック4を指すようにする。なお、組内索引3、組間索引5は例えばB-treeのようなツリー構造を用いた索引でも、ハッシング(ハッシュ法)を用いた索引でもよい。
【0018】
こうすることで、資料に含まれるキーワードに対応する動画の場面を提示することが可能となる。たとえ、そのキーワードを含む資料のページが複数あっても、また、ある資料のページが動画の場面の中に複数回対応していても、高速に検索を行うことが可能であり、そのような資料と動画データが複数あっても高速にキーワードに対応する資料のページと動画の場面を提示できる。
【0019】
次に、検索の手順を図3のフローチャートに基づいて説明する。
【0020】
まず始めに、利用者は検索画面(図5)にキーワードを入力し、検索キーをクリックする(ステップS201)。
【0021】
キーワードが入力されると、与えられたキーワードに従って組間索引5を手繰り、キーワードを含む資料と動画の組を指す組ブロック4を探し出す(ステップS202)。
【0022】
次に、組ブロック4の先頭のポインタが指す組の組内索引3によってキーワードに対応する位置ブロック2を探し出す(ステップS203)。
【0023】
さらに、位置ブロック2の中の同期ブロック1へのポインタを手繰り、同期ブロック1中の表示ページのポインタに従って、資料のページと動画の場面のサムネイルを表示する(図6。ステップS204)。
【0024】
なお、このステップS204においては資料ページのみを表示するようにし、動画の場面のサムネイルは後述のステップS205において「YES」の場合に表示させるようにしてもよい。
【0025】
その資料のページが、利用者の探そうとしているものでなかった場合(図6で「いいえ」をクリック。)には、それが最後の位置ブロックでないことを条件として、次の位置ブロックに移り(ステップS211)、位置ブロック2の中の同期ブロック1へのポインタを手繰り、同期ブロック1中の表示ページのポインタに従って、資料のページと動画の場面のサムネイルを表示する(ステップS204)。検索画面上(図6)では、資料のサムネイルが変わることになる。
【0026】
このようにして、利用者が探そうとしている資料のページが見つかるまで繰り返す。最後の組ブロックまで検索しても見つからなかった場合は、検出できずに終了する(ステップS214)。このとき、図9の画面が表示される。
【0027】
もし、表示された資料のページのサムネイルが利用者が探そうとしているものであった場合(ステップS205でYESの場合)は、図6で「はい」をクリックすると図7の画面に切り替わり、そこで、場面のサムネイルが利用者が探そうとしているものであれば、「はい」をクリックして、資料及び場面の拡大画面を表示(図8)させ、検索が終了する(ステップS207)。
【0028】
ステップS206で表示された場面(図7)が、利用者が探そうとしている場面でないときは、図7で「いいえ」をクリックすると、その場面が、同一の同期ブロック内の最後の場面でないことを条件として(ステップS208のNO)、同一同期ブロック内の次の場面が表示される(図7において、場面のサムネイルのみが切り替わる。)。このようにして、利用者が探している場面が見つかるまで繰り返す。
【0029】
同一の同期ブロック内に探している場面が無かった場合は、次の位置ブロックに移り(ステップS211)、ステップS204からの手順を繰り返す。
【0030】
同一組ブロック内の最後の位置ブロックまで上記の手順を繰り返しても、所望の資料ページと場面のペアが見つからない場合は(ステップS210のYES)、次の組ブロックに移り(ステップS213)、ステップS203からの手順を繰り返す。
【0031】
最後の組ブロックまで検索を行い、見つからなかった場合は図9の画面が表示され、検索が終了する。
【0032】
また、複数のキーワードが与えられた場合には、それぞれのキーワードで検索された同期ブロックで論理和もしくは論理積を取ることで絞り込むことができる。
【0033】
図4は、上述したような機能を実現するためのシステムを表した図であり、図中30はかかる統合されたマルチメディア情報を提供するセンターであり、例えば教育コンテンツ等を発信する大学等である。
【0034】
センター30内においては、Webサーバ32とWeb検索エンジン33と動画サーバ34がネットワークスイッチ35を経由して接続されており、各マシンにはそれぞれに十分な容量のハードディスク32a、33a、34aが接続されている。ここに、ハードディスク32aには資料、ハードディスク33aには検索用のインデックス(索引)、ハードディスク34aには動画データが格納されている。
【0035】
前記ハードディスクに格納されている資料、動画データ等の各素材は、基本的にその素材を作成した者が修正すること等が可能なように、提供されたままの形で格納されている。例えば、資料は、PDFやPPTで提供された場合にはその内容まで無理矢理XMLに変更するようなことはしない。動画に関しては、利用者側の通信速度等を考慮して、MPEG2、MPEG4、Real等、フォーマットの異なる動画を格納しておくようにする。
【0036】
上記の構成で、組内索引3および組間索引5は、Web検索エンジン33の中に置かれる。つまり、同期ブロックはWeb検索エンジン33内に置かれ、その中から動画サーバ34内の画像フレームとWebサーバ32内の資料のページを指すポインタを持つ。なお、動画のサーチには前述のインデックス(索引)を用いるだけでなく、MPEG7を併用したり、XMLを用いてアノテーションや付加情報等を記述することも考える。
【0037】
前記動画サーバ34は、Webサーバ32およびWeb検索エンジン33と密に結合され、任意の位置からビデオ再生が可能なVOD(Video On Demand)サービスを提供する機能を持つ。
【0038】
なお、Webサーバ32とWeb検索エンジン33を併用するのは、検索処理の負荷によってWebサーバ32の性能が低下することを防ぐためである。
【0039】
また、コンテンツを編集して準備するためのオーサリングツール36もネットワークスイッチ35を経由して前記各マシンと接続されている。
【0040】
さらに、利用者数が増えた場合に備え、迅速なデータの提供を維持するためのキャッシュサーバ37も複数用意され、ネットワークスイッチに接続されている。
【0041】
なお、ビデオカメラ38は教室内における講義風景等を撮影したりするものであり、撮影した動画データはネットワークスイッチ35を介して動画サーバ34に送られ、ハードディスク34aに格納される。また、プロジェクタ39は、資料や動画データを教室内のスクリーン(図示しない)に投影するものである。
【0042】
また、バックアップシステム40は、前記サーバ等がシステムダウンしたときにおいても運用をストップさせないようにするために設置するものである。
【0043】
上記構成における実際の運用の一例として、利用者は端末10から、インターネット20、さらにはセンター30内のゲートウェイ31を介してWebサーバ32にアクセスし、表示された画面からキーワードを入力し、ネットワークスイッチ35に接続されたWeb検索エンジン33が同期ブロック索引を使って検索し、その結果をJavaScriptに含めた形で同期ブロックを利用者の端末10に返す。
【0044】
利用者はそのJavaScriptと(組間索引情報を含む)同期ブロックの情報に従って、Webサーバ32と動画サーバ34に必要なデータを要求する。データを要求された前記Webサーバ32と動画サーバ34は、同期ブロックに従って必要なデータをピックアップして利用者の端末10に返すことによって同期検索が行われる。
【0045】
なお、上記例はJavaScriptで書いた処理を利用者側で行う方法であるが、特にJavaScriptに限定されるものではなく、また、すべての処理を検索エンジンの側で行うようにしてもよいことは言うまでもない。
【0046】
【発明の効果】
これまでは、動画と対応付けられるプレゼンテーション資料があっても、動画は動画、資料は資料で各々索引を提供しているだけで、資料と動画を同期させながら検索するインデックス(索引)はなかった。
【0047】
本発明により、例えば、講義ビデオと講義資料の同期を取り、講義資料をキーワードで検索して、その内容を講義している場面の講義ビデオをみることができるようになり、これまでにない教育効果を得ることができるようになる。
【0048】
また、1つの資料と動画の組だけでなく、複数の資料と動画の組がある場合にも、キーワードを与えることで、その中からそのキーワードを含む資料と動画の組を選び出し、対応する場面を出力できるという効果もある。
【0049】
以上のように、本発明に係るマルチメディア同期検索方法は、論文発表会ビデオや、講演会ビデオ、研究会ビデオ、PR用のプレゼンテーションビデオ等、様々な分野にも適用でき、大きな効果が期待される。
【図面の簡単な説明】
【図1】本発明に係るマルチメディア同期検索方法の概念を示す図である。
【図2】マルチメディア同期検索を行うためのインデックス(索引)の構成例を示す図である。
【図3】本発明に係るマルチメディア同期検索の手順を示すフローチャートである。
【図4】本発明に係るマルチメディア同期検索のシステム構成を示す図である。
【図5】キーワード入力画面の一例である。
【図6】検索結果表示画面の一例である。
【図7】検索結果表示画面の一例である。
【図8】検索結果表示画面の一例である。
【図9】検索結果表示画面の一例である。
【符号の説明】
1 同期ブロック
2 位置ブロック
3 組内索引
4 組ブロック
5 組間索引
10 利用者端末
20 インターネット
30 センター
31 ゲートウェイ
32 Webサーバ
33 Web検索エンジン
34 動画サーバ
35 ネットワークスイッチ
36 オーサリングツール
37 キャッシュサーバ
38 ビデオカメラ
39 プロジェクタ
40 バックアップシステム
[0001]
BACKGROUND OF THE INVENTION
The present invention is an information integration field in which videos and materials are integrated and provided, and the materials are searched by keywords while synchronizing the original videos and materials without modification, and the videos corresponding to the materials are searched. The present invention relates to a multimedia synchronous search method for extracting scenes at high speed.
[0002]
[Prior art]
Traditionally, if you're thinking about searching for presentation materials (here, documents that consist of text and figures) and videos of videos that are explained using the presentation materials, The material was a document, and the movie was a movie.
[0003]
In particular, in the case of video search, mechanisms for extracting and indexing scenes of news videos and sports program videos have already been studied, but lecture videos, papers for publications that are mainly targeted in the present invention, In lecture videos, research meeting videos, PR presentation videos, etc., scene switching and movement are less than news and sports programs, so it is difficult to cut out and index scenes. In addition, it took a large amount of money to add a valid keyword even if the scene was cut out.
[0004]
Also, from the viewpoint of the combination of video and presentation materials, the network research project WIDE (Widely Integrated Distributed Environment) SOIWG (Schoo10n the Internet Working Group) also shows videos and presentation materials simultaneously ( http://www.soi.wide.ad.jp/). However, it treats presentation materials as a kind of video, and only two videos that start and end simultaneously can be seen at the same time. That is, it does not have a search function that the present invention intends to perform.
[0005]
There is research to manage video frames interactively on the web (Rune Hjelsvold and Subu Vdaygiri and Yves Leate, Web-based Personalization and Management of Interactive Video, Proc of WWW10, pp.129-139, 2001), but we focused on personalization. However, it does not have a search mechanism like the present invention. Another related tool is an authoring tool that incorporates video.
[0006]
[Problems to be solved by the invention]
However, such an authoring tool will cost as much as creating a new material. Even if an integrated view is provided, the original material remains as it is, and it must be handled as the original material alone. For example, even if you want to update the contents of the previous presentation material, if you change it to the authoring tool format, you will not be able to change the presentation material freely. Furthermore, an index is necessary to efficiently retrieve and provide necessary information. The index needs to indicate the position (scenes such as videos) within the content, and to search for content that contains the necessary information among many contents, and if possible, these While it is desirable for the indexes to be integrated, it is not easy to provide such an integrated index at the individual authoring tool level.
[0007]
The present invention has been made in view of the problems of the prior art, and while searching for a presentation material by a keyword while synchronizing the original video and the presentation material without modification, the video corresponding to the presentation material is searched for. The purpose is to provide a multimedia synchronized search method for extracting scenes at high speed.
[0008]
[Means for Solving the Problems]
The present invention relates to a multimedia synchronized search method for retrieving presentation materials by keywords and extracting a scene of a moving image corresponding to the presentation materials at high speed while synchronizing the original movie and the presentation materials without any change. The above-mentioned object of the present invention is to search for presentation materials by a keyword input by a user, find a page of the material corresponding to the keyword, and at the same time search for and display a video scene corresponding to the page. A search method, in which an index that associates a keyword with a page of a presentation material in which the keyword is described is created in advance, and a pointer to the material page and one or a plurality of locations where the pointer is presented Pointer to the video scene An intra-group index consisting of a synchronous block corresponding to a keyword in the page of the material and a position block consisting of a set of addresses where the keyword is described, and a plurality of the intra-group index A set block connected with pointers to, an inter-set index for the plurality of set blocks,
The inter-group index is searched according to the inputted keyword by the synchronous search index consisting of the following: a pair block pointing to a pair of a page of the material including the keyword and a moving image, and a pointer at the head of the found pair block A step of searching for a position block corresponding to the keyword by a group index, and a pointer to a synchronous block in the searched position block are repeated, and according to a display page pointer in the synchronous block, a document page and This is achieved by a multimedia synchronous search method comprising a step of displaying a pair of presented moving image scenes.
[0009]
The above-mentioned object of the present invention can be achieved more effectively by connecting pointers to moving image scenes in the synchronized block in a list structure, or by connecting the position blocks in a list structure.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
The present invention searches for a material according to a keyword while synchronizing moving image data and presentation material (hereinafter referred to as “material”) stored as digital data, and stores the moving image data corresponding to the retrieved material page. The present invention relates to a multimedia synchronous search method for extracting scenes, and FIG. 1 is a conceptual diagram thereof.
[0011]
In the figure, the multimedia synchronous search mechanism searches the material according to the keyword given by the user, extracts the page in the material where the keyword appears, and uses the scene of the video data corresponding to that page together with the material page Return to the person.
[0012]
In summary, first create an index according to the content of the presentation material, associate the page of the presentation material with the scene of the video when the page is presented, and when a search request comes in, first enter a keyword. The presentation material is searched for, and a page corresponding to the keyword is found, and at the same time, a moving image scene corresponding to the page is found.
[0013]
The multimedia synchronization search mechanism has a synchronization block for associating a page of the material with a scene (s) in the moving image when the page is presented. The synchronization block holds a page and position information (of a plurality of scenes) in the moving image where the page has started to be posted. It also has a location block with an address indicating the location of the keyword in the material page along with a pointer to the synchronization block. By connecting the position blocks in a list structure, it is possible to cope with a case where a plurality of the same keywords appear. Furthermore, an index hierarchical structure is adopted, and an index for a set of a plurality of materials and moving image data is combined.
[0014]
FIG. 2 shows a configuration example of an index (index) for performing the multimedia synchronous search, which will be described based on this.
[0015]
Here, for example, when the material is a lecture material and the moving image data is a lecture video, the lecture video and the lecture material correspond to one lecture (group), and the inter-group index is used for a plurality of lectures. Points to the index. The intra-group index means an index within the lecture.
[0016]
The multimedia synchronization search index includes a synchronization block 1 composed of a pointer to a document page, a sequence of pointers to one or a plurality of moving picture scenes in which the pointer is presented, and the keyword corresponding to the keyword. To the position block 2 composed of a pair of addresses where the keyword in the page of the synchronization block 1 and the material is used, the intra-group index 3 for the pair of the material and the moving image, and a plurality of intra-group indexes 3 Are composed of a set block 4 to which the pointers are connected and an inter-set index 5 for the set block 4. Needless to say, when there is only one set of material and moving image, the set block 4 and the set index 5 are not necessary.
[0017]
In order to create a set of material and moving image data, the page of the material and the frame number of the recorded moving image are stored as a synchronization block when the material is presented. Next, the material is scanned to extract a keyword, a position block for the keyword is created, and an intra-group index 3 is constructed so that the position block 2 is pointed from the index. Further, when there are a plurality of sets, a set block 4 is created according to the keywords included in the set, and the set block 4 is pointed to from the set index 5. The intra-group index 3 and the inter-group index 5 may be an index using a tree structure such as a B-tree or an index using hashing (hash method).
[0018]
By doing so, it is possible to present a moving image scene corresponding to the keyword included in the material. Even if there are multiple pages of documents that contain the keyword, or even if a page of a document corresponds to multiple times in a video scene, it is possible to perform a search at high speed. Even if there are multiple materials and moving image data, it is possible to present a document page and moving image scene corresponding to the keyword at high speed.
[0019]
Next, the search procedure will be described based on the flowchart of FIG.
[0020]
First, the user inputs a keyword on the search screen (FIG. 5) and clicks the search key (step S201).
[0021]
When a keyword is input, the inter-group index 5 is repeated according to the given keyword, and a group block 4 indicating a group of material and moving image including the keyword is searched for (step S202).
[0022]
Next, the position block 2 corresponding to the keyword is searched by the group index 3 of the group pointed to by the head pointer of the group block 4 (step S203).
[0023]
Further, the pointer to the synchronization block 1 in the position block 2 is repeated, and according to the display page pointer in the synchronization block 1, the material page and the thumbnail of the moving image scene are displayed (FIG. 6, step S204).
[0024]
In this step S204, only the document page may be displayed, and the thumbnail of the moving image scene may be displayed in the case of “YES” in step S205 described later.
[0025]
If the page of the material is not what the user is looking for (click “No” in FIG. 6), it moves to the next location block, provided that it is not the last location block. (Step S211), the pointer to the synchronization block 1 in the position block 2 is repeated, and the thumbnail of the page of the material and the scene of the moving image is displayed according to the pointer of the display page in the synchronization block 1 (step S204). On the search screen (FIG. 6), the thumbnail of the material changes.
[0026]
In this way, the process is repeated until the page of the material that the user is looking for is found. If no search is made up to the last set block, the process ends without being detected (step S214). At this time, the screen of FIG. 9 is displayed.
[0027]
If the thumbnail of the displayed document page is what the user is trying to find (YES in step S205), clicking “Yes” in FIG. 6 switches to the screen in FIG. If the scene thumbnail is what the user is looking for, click “Yes” to display the enlarged screen of the document and the scene (FIG. 8), and the search ends (step S207).
[0028]
If the scene displayed in step S206 (FIG. 7) is not the scene that the user is trying to find, clicking “No” in FIG. 7 indicates that the scene is not the last scene in the same synchronization block. (NO in step S208), the next scene in the same synchronization block is displayed (in FIG. 7, only the thumbnail of the scene is switched). In this way, the process is repeated until the scene that the user is looking for is found.
[0029]
If there is no scene being searched for in the same synchronization block, the process moves to the next position block (step S211), and the procedure from step S204 is repeated.
[0030]
If the desired document page / scene pair is not found even after repeating the above procedure up to the last position block in the same set block (YES in step S210), the process moves to the next set block (step S213), step Repeat the procedure from S203.
[0031]
The search is performed up to the last set block. If no search is found, the screen of FIG. 9 is displayed and the search ends.
[0032]
Further, when a plurality of keywords are given, it is possible to narrow down by taking a logical sum or a logical product with the synchronous blocks searched by the respective keywords.
[0033]
FIG. 4 is a diagram showing a system for realizing the functions as described above. In the figure, reference numeral 30 denotes a center that provides such integrated multimedia information. is there.
[0034]
In the center 30, a web server 32, a web search engine 33, and a moving image server 34 are connected via a network switch 35, and hard disks 32a, 33a, 34a having sufficient capacity are connected to the respective machines. ing. Here, data is stored in the hard disk 32a, a search index is stored in the hard disk 33a, and moving image data is stored in the hard disk 34a.
[0035]
Each material such as material and moving image data stored in the hard disk is basically stored as provided so that the person who created the material can modify it. For example, if a document is provided in PDF or PPT, its contents will not be changed to XML. With regard to moving images, in consideration of the communication speed on the user side, moving images having different formats such as MPEG2, MPEG4, and Real are stored.
[0036]
With the above configuration, the intra-group index 3 and the inter-group index 5 are placed in the Web search engine 33. That is, the synchronization block is placed in the Web search engine 33, and has a pointer that points to an image frame in the moving image server 34 and a document page in the Web server 32. It should be noted that not only the above-described index (index) is used for moving image search, but MPEG7 is used together, or annotation, additional information, etc. are described using XML.
[0037]
The moving image server 34 is tightly coupled with the web server 32 and the web search engine 33, and has a function of providing a VOD (Video On Demand) service capable of playing a video from an arbitrary position.
[0038]
The reason why the Web server 32 and the Web search engine 33 are used together is to prevent the performance of the Web server 32 from being deteriorated due to the load of search processing.
[0039]
An authoring tool 36 for editing and preparing content is also connected to each machine via the network switch 35.
[0040]
In addition, in preparation for an increase in the number of users, a plurality of cache servers 37 for maintaining the rapid provision of data are also prepared and connected to a network switch.
[0041]
The video camera 38 is used to take pictures of lecture scenes in the classroom, and the taken moving image data is sent to the moving image server 34 via the network switch 35 and stored in the hard disk 34a. The projector 39 projects material and moving image data onto a screen (not shown) in the classroom.
[0042]
The backup system 40 is installed so as not to stop the operation even when the server or the like is down.
[0043]
As an example of actual operation in the above configuration, the user accesses the Web server 32 from the terminal 10 through the Internet 20 or further through the gateway 31 in the center 30, and inputs a keyword from the displayed screen, and the network switch The Web search engine 33 connected to 35 searches using the synchronization block index, and returns the synchronization block to the user terminal 10 in a form including the result in JavaScript.
[0044]
The user requests necessary data from the Web server 32 and the moving image server 34 in accordance with the JavaScript and the synchronization block information (including inter-group index information). The web server 32 and the moving image server 34 that have requested the data perform a synchronous search by picking up necessary data according to the synchronization block and returning it to the user terminal 10.
[0045]
In addition, the above example is a method in which processing written in JavaScript is performed on the user side, but it is not particularly limited to JavaScript, and all processing may be performed on the search engine side. Needless to say.
[0046]
【The invention's effect】
So far, even if there is presentation material associated with the video, only the index is provided for the video and the material for the video, but there is no index (index) to search while synchronizing the material and the video .
[0047]
With the present invention, for example, it has become possible to synchronize lecture videos and lecture materials, search for lecture materials by keyword, and view lecture videos of scenes in which the content is being lectured. The effect can be obtained.
[0048]
Also, when there is a set of multiple materials and videos as well as a set of one material and video, a keyword is given to select a set of materials and videos that contain the keyword from among them, and corresponding scenes Can also be output.
[0049]
As described above, the multimedia synchronous search method according to the present invention can be applied to various fields such as a paper for presentation papers, lecture videos, study videos, and PR presentation videos, and is expected to have a great effect. The
[Brief description of the drawings]
FIG. 1 is a diagram showing a concept of a multimedia synchronous search method according to the present invention.
FIG. 2 is a diagram illustrating a configuration example of an index (index) for performing multimedia synchronous search;
FIG. 3 is a flowchart showing a multimedia synchronous search procedure according to the present invention.
FIG. 4 is a diagram showing a system configuration of multimedia synchronous search according to the present invention.
FIG. 5 is an example of a keyword input screen.
FIG. 6 is an example of a search result display screen.
FIG. 7 is an example of a search result display screen.
FIG. 8 is an example of a search result display screen.
FIG. 9 is an example of a search result display screen.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Synchronous block 2 Position block 3 Set index 4 Set block 5 Set index 10 User terminal 20 Internet 30 Center 31 Gateway 32 Web server 33 Web search engine 34 Movie server 35 Network switch 36 Authoring tool 37 Cache server 38 Video camera 39 Projector 40 Backup system

Claims (5)

利用者が入力するキーワードによってプレゼンテーション資料を検索し、前記キーワードに対応する前記プレゼンテーション資料の該当ページを抽出すると同時に、該抽出されたページに対応した動画の場面を探し出して表示するマルチメディア同期検索方法であって、該方法は、
予め前記プレゼンテーション資料からキーワードを抽出し、前記プレゼンテーション資料内に、前記キーワードが出現する複数ページにおける前記キーワードの位置の情報を前記キーワードと対応付けて保持するとともに、前記キーワードが出現するページが提示されている動画中の場面の情報を保持し、
前記キーワードが入力されたときに、前記キーワードに対応する前記プレゼンテーション資料のすべての該当ページを候補として表示し、さらに、
前記利用者によって選択された一のページに関連付けられた前記動画中の場面を候補として表示し、
前記利用者によって選択された前記動画中の場面を起点として、それ以降の動画とそれに同期するプレゼンテーション資料をペアで表示することを特徴とするマルチメディア同期検索方法。
Find the presentation materials by keyword for a user to input, at the same time to extract the relevant page of the presentation materials corresponding to the keyword, multimedia synchronization and display find a video of the scene corresponding to the extracted pages search A method comprising the steps of:
A keyword is extracted from the presentation material in advance, and information on the position of the keyword in a plurality of pages where the keyword appears is associated with the keyword in the presentation material, and a page on which the keyword appears is presented. Holds information about the scenes in the video
When the keyword is input, all corresponding pages of the presentation material corresponding to the keyword are displayed as candidates,
Displaying the scene in the video associated with the one page selected by the user as a candidate,
A multimedia synchronized search method characterized in that, starting from a scene in the moving picture selected by the user, a subsequent moving picture and presentation materials synchronized with the moving picture are displayed in pairs .
利用者が入力するキーワードによってプレゼンテーション資料を検索し、前記キーワードに対応する資料のページを探し出すと同時に、そのページに対応した動画の場面を探し出して表示するマルチメディア同期検索方法であって、該方法は、
予めキーワードとそのキーワードが記載されているプレゼンテーション資料のページとを対応付ける索引を作成し、前記プレゼンテーション資料のページへのポインタとそれが提示されている1箇所もしくは複数箇所の動画の場面へのポインタの列から成る同期ブロックと、
前記プレゼンテーション資料のページ中のキーワードに対応する前記同期ブロックと前記キーワードが記載されている位置のアドレスの組からなる位置ブロックとからなる同期検索インデックスによって、前記入力されたキーワードに従い、前記キーワードに対応する位置ブロックを探し出すステップと、
前記探し出した位置ブロックの中の同期ブロックへのポインタを手繰り、前記同期ブロック中の表示ページポインタに従って、前記プレゼンテーション資料のページとそれが提示されている動画の場面をペアで表示するステップと、
からなることを特徴とするマルチメディア同期検索方法。
A multimedia synchronous search method for searching for presentation materials by a keyword input by a user, searching for a page of the material corresponding to the keyword, and simultaneously searching for and displaying a video scene corresponding to the page, the method Is
An index that associates a keyword with a page of presentation material in which the keyword is described in advance is created, and a pointer to the page of the presentation material and a pointer to a scene of one or more moving images where the keyword is presented and synchronization block consisting of a column,
Corresponding to the keyword according to the input keyword by a synchronous search index consisting of the synchronous block corresponding to the keyword in the page of the presentation material and a position block consisting of a set of addresses of positions where the keyword is described Searching for a position block to perform,
Hauling a pointer to sync blocks in the searched position block, according to the display page pointer in the synchronizing block, and displaying the scene of a moving image and a page of the presentation materials which it is presented in pairs,
A multimedia synchronous search method comprising:
前記同期ブロック中の動画の場面へのポインタをリスト構造でつなげることを特徴とする請求項2に記載のマルチメディア同期検索方法。3. The multimedia synchronized search method according to claim 2, wherein pointers to moving image scenes in the synchronized block are connected in a list structure. 前記位置ブロックをリスト構造でつなげることを特徴とする請求項2又は3に記載のマルチメディア同期検索方法。4. The multimedia synchronous search method according to claim 2, wherein the position blocks are connected in a list structure. 前記利用者の端末と、前記プレゼンテーション資料が格納されたウェブサーバと、前記同期検索インデックスが格納されたウェブ検索エンジンと、前記動画のデータが格納された動画サーバとがネットワークを介して接続され、  The user terminal, a web server storing the presentation material, a web search engine storing the synchronous search index, and a moving image server storing the moving image data are connected via a network,
前記利用者が前記端末から前記キーワードを入力すると、前記ウェブ検索エンジンによって検索された前記プレゼンテーション資料のページとそれが提示されている動画の場面を前記端末にペアで表示することを特徴とする請求項2乃至4のいずれかに記載のマルチメディア同期検索方法。  When the user inputs the keyword from the terminal, the presentation material page searched by the web search engine and a video scene on which the page is presented are displayed in a pair on the terminal. Item 5. The multimedia synchronized search method according to any one of Items 2 to 4.
JP2001319143A 2001-10-17 2001-10-17 Multimedia synchronous search method Expired - Fee Related JP3915888B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001319143A JP3915888B2 (en) 2001-10-17 2001-10-17 Multimedia synchronous search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001319143A JP3915888B2 (en) 2001-10-17 2001-10-17 Multimedia synchronous search method

Publications (2)

Publication Number Publication Date
JP2003122792A JP2003122792A (en) 2003-04-25
JP3915888B2 true JP3915888B2 (en) 2007-05-16

Family

ID=19136730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001319143A Expired - Fee Related JP3915888B2 (en) 2001-10-17 2001-10-17 Multimedia synchronous search method

Country Status (1)

Country Link
JP (1) JP3915888B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101212692B1 (en) * 2006-03-30 2012-12-14 엘지전자 주식회사 Method and apparatus for reproducing media, and media file format thereof
KR101252160B1 (en) 2005-10-13 2013-04-05 엘지전자 주식회사 Method and apparatus for reproducing multi media, and multi-media file format thereof
KR101275555B1 (en) 2005-10-13 2013-06-24 엘지전자 주식회사 Method and apparatus for reproducing multi media, and multi-media file format thereof

Also Published As

Publication number Publication date
JP2003122792A (en) 2003-04-25

Similar Documents

Publication Publication Date Title
US20240031568A1 (en) Transferring system for huge and high quality images on network and method thereof
US10318110B2 (en) Location-based visualization of geo-referenced context
US7131059B2 (en) Scalably presenting a collection of media objects
US20030191776A1 (en) Media object management
KR20060052116A (en) Contents management system, contents management method, and computer program
CN104516892A (en) Distribution method, system and terminal of user generated content associated with rich media information
US20120287116A1 (en) Anchors For Displaying Image Sprites, Sub-Regions And 3D Images
CN109168020A (en) Method for processing video frequency, device, calculating equipment and storage medium based on live streaming
JP2004112379A (en) Image retrieving system
US20100281046A1 (en) Method and web server of processing a dynamic picture for searching purpose
JP3915888B2 (en) Multimedia synchronous search method
JP6076149B2 (en) Broadcast program management device, broadcast program playback device, and program
US10311112B2 (en) Linearized search of visual media
Falchuk et al. A multimedia news delivery system over an ATM network
KR100362380B1 (en) The multimedia data editing and retrieval system on XML and method thereof
KR101021655B1 (en) Time Delaying Keyword Advertisement Contents Provding Method
JP2004318723A (en) Related information provision schedule preparation method and device
JP4096670B2 (en) Image playback system
JP4640564B2 (en) Content distribution system
JP4292902B2 (en) Content editing apparatus and content editing method
KR100616425B1 (en) High quality streaming service system for moving pictures
Lazarinis Developing a web tool for searching and viewing collections of high‐quality cultural images
KR20090101748A (en) Time delaying keyword advertisement contents provding method
KR20090101749A (en) Time delaying keyword advertisement contents provding method
Sakanoue et al. New Sevices and Technologies Associated with Metadata

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040826

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060912

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070123

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070130

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100216

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100216

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100216

Year of fee payment: 3

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D03

LAPS Cancellation because of no payment of annual fees