JP2006228059A - ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体 - Google Patents

ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
JP2006228059A
JP2006228059A JP2005043011A JP2005043011A JP2006228059A JP 2006228059 A JP2006228059 A JP 2006228059A JP 2005043011 A JP2005043011 A JP 2005043011A JP 2005043011 A JP2005043011 A JP 2005043011A JP 2006228059 A JP2006228059 A JP 2006228059A
Authority
JP
Japan
Prior art keywords
search
presentation
pointer
information
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005043011A
Other languages
English (en)
Inventor
Haruo Yokota
治夫 横田
Takashi Kobayashi
隆志 小林
Wataru Nakano
亘 仲野
Yuta Ochi
悠太 越智
Satoshi Naoi
聡 直井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Institute of Technology NUC
Original Assignee
Tokyo Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Institute of Technology NUC filed Critical Tokyo Institute of Technology NUC
Priority to JP2005043011A priority Critical patent/JP2006228059A/ja
Publication of JP2006228059A publication Critical patent/JP2006228059A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 レーザーポインタ等の指示手段で指し示された情報を有効利用して検索キーワードの検索精度を向上することができる。
【解決手段】 画像形式のプレゼンテーション資料を用いて行われたプレゼンテーションの録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーション資料に含まれる情報毎の重要度を求め、この重要度に応じて前記プレゼンテーション資料中の各キーワードに対する検索の適合度を設定し、この検索の適合度をプレゼンテーション資料中の情報の検索に利用する検索手段を含むポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよび方法、ならびにその方法をコンピュータに実行させるプログラムを記録した記録媒体。
【選択図】 図1

Description

本発明は、ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにその方法をコンピュータで実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体に関する。
IT技術の発達に伴って様々な情報がインターネットを介して配信されるようになり、多様かつ大量の情報の入手が可能となってきている。例えば、インターネットを介して、教育コンテンツを配信する試みが、米国や日本国内の大学等で多くの機関で行われている。これらの教育コンテンツの配信では、シラバス、講義ビデオ、プレゼンテーション資料などの教育素材がほぼそのままの形で提供されている。これらの教育コンテンツの配信では、特に、非定型データやマルチメディアデータが増大し、そのような膨大なデータから、いかにして所望のデータにアクセスするかが重要となっている。
しかし、プレゼンテーション資料は膨大であり、これらの膨大な資料のなかから、ユーザが所望のスライドを含む資料に効率良くかつ迅速にアクセスすることは困難である。従来は、単純な文字列検索のみ、即ち、所望のキーワードを入力してこのキーワードを含むものがヒットするというような単純な検索手段でしか利用できない。従って、ヒットした資料(即ちキーワードを含む資料)には、重要なものと重要でないものがあるはずであるが、これらの従来の検索手段は、その優劣を判定する手段を持っていない。
そこで、本願出願人は、先に、講義・講演等のプレゼンテーションにおける資料とその撮影動画をメタデータによる統合コンテンツとして蓄積し、その特性を利用して検索・提供するシステムとして、UPRISE(Unified Presentation Contents Retrieval by Impression Search Engine)(非特許文献1〜非特許文献6参照)を提案し、そのシステムおよびその方法ならびにその方法を実行するためのプログラムを提案した(特許文献1)。このUPRISEは,プレゼンテーションを撮影した動画や用いた資料等の教育コンテンツをメタデータによって統合することで,それらの教育コンテンツの同期表示を実現する。加えて、統合された教育コンテンツに対する高度な検索機能や,その検索結果を効率的に提供するユーザインターフェースを備えている。
このUPRISEでは、メタデータによるコンテンツの統合のために、動画ストリームをシーンの連続であると抽象化し、各シーンとそこで使用された資料とを対応付けている。そして、シーンと資料との対応情報、および各シーン、資料の検索用インデクスをデータベースに格納し、検索に利用している。すなわち、UPRISEで提案しているコンテンツ検索機能は、検索キーワードに対する適合度という、コンテンツの特徴を活かした検索指標を利用している。ここで、適合度とは、あるキーワードに対してプレゼンテーション中の各シーン毎に算出されるポイントであり、シーン中で使用している資料スライドの情報や、そのスライドの説明に要した時間等を利用して計算されている。UPRISEは、このようにして求められる適合度を用いて、ユーザに動画のシーン中で用いられたスライドのサムネイルを適合度順に表示する。
これにより、従来のビデオやマルチメディアプレゼンテーションに対する検索手法(非特許文献7〜非特許文献9)では実現することのできない、重要なシーンの効率の良い検索を可能にしている。
ところで、プレゼンテーション資料を用いて行われる講義・講演中では、講演者はレーザーポインタ等を用いて重要な箇所を指し示すことがある。そして、レーザポインタ等で指し示された箇所に含まれる情報は、必要な情報を抽出する上で非常に有用である。すなわち、レーザポインタ等によって指し示されているシーンまたは文字列、あるいは図面等は、そのプレゼンテーション資料を提供する講演者等にとって、強調したい重要度の高い情報を含む箇所であり、そのプレゼンテーション資料中の情報を検索する利用者にとってより有用であると考えられる。しかし、これまでの検索システムでは、レーザポインタ等で指示された箇所に含まれる情報を、その情報の重要度に応じて有効かつ適切に利用することができなかった。このレーザポインタ等で指示された箇所に含まれる情報の有用性に応じて、その情報の有用性を検索への適合度に反映できれば、プレゼンテーション資料中の情報を検索する際の有用な情報への検索精度の向上が期待される。
特開2004−265097号公報 横田 治夫. 東工大学術国際センターの情報蓄積・活用―教育コンテンツの統合とその手法−. 研究会報告 DBS-125-58, 情報処理学会, 2001. 村木 太一,吉田 誠,小林 隆志,直井 聡,横田 治夫. メタデータによる講演資料と動画の統合と検索. In Proc. of DBWeb2002, pages 97‐104. 情報処理学会, 2002. 村木 太一,吉田 誠,小林隆志,直井 聡,横田 治夫. メタデータによる教育資料の統合における検索絞り込み指標の評価. Issn 1347-4413, DEWS2003, 5-c, 電子情報通信学会 データ工学ワークショップ, 3 2003. Haruo Yokota, Takashi Kobayashi, Taichi Muraki, and Satoshi Naoi. UPRISE: Unified Presentation Slide Retrieval by Impression Search Engine. IEICE Transactions on Information and Systems, E87-D(2), February 2004. 小林 隆志,村木 太一,直井 聡,横田 治夫. 統合プレゼンテーションコンテンツ蓄積検索システムの試作. 電子情報通信学会論文誌 D1. (採録決定, ショートバージョン:Proc. of DBWeb2003, pp.61−68, 11 2003). 岡本 拓明,小林 隆志,横田 治夫. プレゼンテーション蓄積検索システムにおける適合度計算の改善. Issn 1347-4413, DEWS2004; 1-b-3, 電子情報通信学会 データ工学ワークショップ, 3 2004. O.Marques and B.Furht. Content-Based Image and Video Retrieval. Kluwer, 2000. Y.Kambayashi, K.Katayama, Y.Kamiya, and O.Kagawa. Index generation and advanced search functions for multimedia presentation material. In Proc. of ER97 Workshop on Conceptual Modeling in Multimedia Information Seeking, 1997. R.Muller and T.Ottmann. The "Authoring on the Fly" system for automated recording and replay of (tele)presentations. Multimedia Syst., 8(3):158−176, 2000.
そこで、本発明の目的は、講義・講演等で用いられるプレゼンテーション資料と、そのプレゼンテーションを撮影した録画画像から取得される、レーザーポインタ等の指示手段で指し示された情報とを有効利用して、検索キーワードの検索精度を向上させることができるプレゼンテーションコンテンツ検索システムおよび方法、ならびにその方法をコンピュータに実行させるプログラムを記録したコンピュータに読み取り可能な記録媒体を提供することを目的とする。
前記課題を解決するため、請求項1に係るポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムは、プレゼンテーション資料とそのプレゼンテーション資料を用いて行われたプレゼンテーションの録画画像を同期配信可能にしたプレゼンテーションコンテンツに対し、プレゼンテーション資料に含まれる情報を用いてプレゼンテーション内の部分単位での検索を行うプレゼンテーションコンテンツ検索システムであって、前記プレゼンテーション資料を用いて行われたプレゼンテーションの録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーション資料に含まれる情報ごとの重要度を求め、この重要度に応じて前記プレゼンテーション資料中の検索キーワードに対する検索の適合度を求め、この検索の適合度をプレゼンテーション資料中の情報の検索に利用する検索手段を含むことを特徴とする。
本発明において、ポインタとは、ディスプレイ画面、投影用のスクリーン、壁、黒板、白板等の情報表示画面上に点、線または曲線あるいは矩形の軌跡を表示するための道具またはその表示された点、線または軌跡を意味し、例えば、レーザーポインタ、マウス、指示棒等の指示器具を操作することによって、前記情報表示画面上に表示された光点、カーソル、その光点やカーソルの軌跡で形成される線、またはその光点やカーソルの軌跡を意味する。また、ポインタの位置情報とは、前記情報表示画面上のポインタの位置に関する情報を意味する。さらに、プレゼンテーションとは、プレゼンテーション資料の内容を説明し、さらに、付加的な情報を追加したり、より詳細な説明を行って、プレゼンテーションの内容の理解を図ることを言う。
この請求項1に係るプレゼンテーションコンテンツ検索システムでは、プレゼンテーションを撮影した録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーション資料に含まれる情報ごとの重要度を求め、この重要度に応じて前記プレゼンテーション資料中の検索キーワードに対する検索の適合度を求めることによって、プレゼンテーション資料中の情報を検索する際に、この検索の適合度をプレゼンテーション資料中の情報の検索に利用して検索することができる。そのため、より検索キーワードへの適合度が高いとともに、そのプレゼンテーションにおいて、プレゼンテーション資料を提供する講演者等にとって、強調したい重要度の高い情報を含む箇所であり、そのプレゼンテーション資料中の情報を検索する利用者にとってもより有用である情報にアクセスすることが可能となり、検索精度の向上を図ることができる。例えば、あるキーワードで膨大な数のプレゼンテーション資料がヒットした場合は、本システムで算出した適合度の上位何件かを提示するなどという形式で、適正な絞り込みが可能となる。
請求項2に係るプレゼンテーションコンテンツ検索システムは、前記検索手段は、前記プレゼンテーションを撮影した録画画像における前記ポインタの指示位置の近傍の文字列に応じて、前記検索の適合度を求めることを特徴とする。
このプレゼンテーションコンテンツ検索システムでは、前記プレゼンテーションを撮影した録画画像における前記ポインタの指示位置の近傍の文字列に応じて、前記検索の適合度を求めることによって、プレゼンテーション資料中の情報を検索する際に、この検索の適合度をプレゼンテーション資料中の情報の検索に利用して検索することができる。このポインタの指示位置の近傍の文字列が示す情報が、より検索キーワードへの適合度が高いとともに、そのプレゼンテーションにおいて、プレゼンテーション資料を提供する講演者等にとって、強調したい重要度の高い情報を含む箇所であり、そのプレゼンテーション資料中の情報を検索する利用者にとってもより有用である情報にアクセスすることが可能となり、検索精度の向上を図ることができる。
請求項3に係るプレゼンテーションコンテンツ検索システムは、前記検索手段は、前記検索の適合度を求めるに際して、前記プレゼンテーションを撮影した録画画像の各シーンを、前記ポインタの位置情報に応じてサブシーンに分割して保存し、前記ポインタの指示時間、指示回数、指示位置およびその軌跡のうちの少なくとも1つに応じて前記各キーワードに対する検索の適合度を求めることを特徴とする。
このプレゼンテーションコンテンツ検索システムでは、前記プレゼンテーションを撮影した録画画像の各シーンを、前記ポインタの位置情報に応じてサブシーンに分割して保存し、前記ポインタの指示時間、指示回数、指示位置およびその軌跡のうちの少なくとも1つに応じて求められる各キーワードに対する検索の適合度を求めることによって、より正確かつ重要な情報へのアクセスが可能となり、検索精度の向上を図ることが可能となる。
請求項4に係るプレゼンテーションコンテンツ検索システムは、前記検索手段は、前記プレゼンテーション資料に含まれる文字列から、単語を切り出し、この切り出した各単語をインデックスとするメタデータを作成するメタデータ作成手段を含み、このメタデータに基づいて、前記検索キーワードに対する検索の適合度に応じて情報を検索することを特徴とする。
このプレゼンテーションコンテンツ検索システムでは、前記プレゼンテーション資料に含まれる文字列から、単語を切り出し、この切り出した各単語をインデックスとするメタデータに基づいて、前記検索キーワードに対する検索の適合度に応じて情報を検索することによって、検索を迅速に行うことができる。これによって、プレゼンテーション資料が膨大な情報を含むものであるほど、検索精度の向上と相まって、効率的に目的の情報にヒットすることが可能となる。
請求項5に係るプレゼンテーションコンテンツ検索システムは、前記検索手段は、検索キーワードで前記プレゼンテーション資料を検索し、プレゼンテーション資料内における前記キーワードの出現位置、前記キーワードの文字サイズ、ならびに前記キーワードが置かれるレベルのインデント情報および編集情報のうちの少なくとも1つに応じて、各検索キーワードの適合度を計算し、この検索キーワードの適合度と前記ポインタの位置情報に基づいて求められた検索の適合度とに基づき、ヒットした情報を順位付けることを特徴とする。
このプレゼンテーションコンテンツ検索システムでは、プレゼンテーション資料内における前記キーワードの出現位置、前記キーワードの文字サイズ、ならびに前記キーワードが置かれるレベルのインデント情報および編集情報のうちの少なくとも1つに応じて、各検索キーワードの適合度を計算し、この検索キーワードの適合度と、前記ポインタの位置情報に基づいて求められた検索の適合度とに基づき、ヒットした情報を順位付けることによって、利用者(検索者)の意図に沿ってより正確かつ重要な情報へのアクセスが可能となり、検索精度の向上を図ることが可能となる。
請求項6に係るプレゼンテーションコンテンツ検索システムは、前記検索手段は、前記検索の結果、順位付けられた情報を提示するときに、この情報と関連付けられた画像も併せて提示することを特徴とする。
このプレゼンテーションコンテンツ検索システムでは、順位付けられた情報とともに、関連つけられた画像も併せて提示することによって、利用者(検索者)が求める情報へのアクセスを迅速に行うことができるとともに、検索精度の向上を図ることができる。
請求項7に係るプレゼンテーションコンテンツ検索システムは、前記情報と関連付けられた画像、および、その画像に時系列で隣接する複数の画像をサムネイル表示し、それぞれのサムネイルを、前記画像の提示時間、および/または前記適合度に応じたサイズで提示することを特徴とする。
このプレゼンテーションコンテンツ検索システムでは、前記情報と関連付けられた画像、および、その画像に時系列で隣接する複数の画像をサムネイル表示し、それぞれのサムネイルを、前記画像の提示時間、および/または前記適合度に応じたサイズで提示することによって、検索キーワードへの適合度の高い情報を含む画像に視覚的に分かり易く迅速にアクセスすることが可能となる。
請求項8に係る発明は、プレゼンテーション資料とそのプレゼンテーション資料を用いて行われたプレゼンテーションの録画画像を同期配信可能にしたプレゼンテーションコンテンツに対し、プレゼンテーション資料に含まれる情報を用いてプレゼンテーション内の部分単位での検索を行うプレゼンテーションコンテンツ資料検索方法であって、前記プレゼンテーション資料を用いて行われたプレゼンテーションのビデオ録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーションコンテンツ中の検索単位ごとの重要度を求め、この重要度に応じて前記プレゼンテーション資料中の検索キーワードに対する検索の適合度を求め、この検索の適合度をプレゼンテーション資料中の情報の検索に利用して記憶手段に格納されているプレゼンテーションコンテンツを検索し、検索キーワードに対してヒットしたプレゼンテーションコンテンツの各部分を順位付ける検索段階を含むことを特徴とするポインタの位置情報を利用するプレゼンテーションコンテンツ検索方法を提供する。
このプレゼンテーションコンテンツ検索方法では、プレゼンテーションを撮影した録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーション資料に含まれる情報ごとの重要度を求め、この重要度に応じて前記プレゼンテーション資料中の検索キーワードに対する検索の適合度を求めることによって、プレゼンテーション資料中の情報を検索する際に、この検索の適合度をプレゼンテーション資料中の情報の検索に利用して検索することができる。そのため、より検索キーワードへの適合度が高いとともに、そのプレゼンテーションにおいて、プレゼンテーション資料を提供する講演者等にとって、強調したい重要度の高い情報であり、そのプレゼンテーション資料中の情報を検索する利用者にとってもより有用である情報にアクセスすることが可能となり、検索精度の向上を図ることができる。例えば、あるキーワードで膨大な数のプレゼンテーション資料がヒットした場合は、本システムで算出した適合度の上位何件かを提示するなどという形式で、適正な絞り込みが可能となる。
請求項9に係るプレゼンテーションコンテンツ検索方法は、前記検索段階は、前記プレゼンテーションのビデオ録画画像における前記ポインタの指示位置の近傍の文字列に応じて、前記検索の適合度を求めるステップを含むことを特徴とする。
このプレゼンテーションコンテンツ検索方法では、前記プレゼンテーションを撮影した録画画像における前記ポインタの指示位置の近傍の文字列に応じて、前記検索の適合度を求めることによって、プレゼンテーション資料中の情報を検索する際に、この検索の適合度をプレゼンテーション資料中の情報の検索に利用して検索することができる。このポインタの指示位置の近傍の文字列が示す情報が、より検索キーワードへの適合度が高いとともに、そのプレゼンテーションにおいて、プレゼンテーション資料を提供する講演者等にとって、強調したい重要度の高い情報を含む箇所であり、そのプレゼンテーション資料中の情報を検索する利用者にとってもより有用である情報にアクセスすることが可能となり、検索精度の向上を図ることができる。
請求項10に係るプレゼンテーションコンテンツ検索方法は、前記検索段階は、前記検索の適合度を求めるに際して、前記プレゼンテーションのビデオ録画画像の各シーンを、前記ポインタの位置情報に応じてサブシーンに分割して保存し、前記ポインタの指示時間、指示回数、指示位置およびその軌跡のうちの少なくとも1つに応じて前記各キーワードに対する検索の適合度を求めることを特徴とする。
このプレゼンテーションコンテンツ検索方法では、前記プレゼンテーションを撮影した録画画像の各シーンを、前記ポインタの位置情報に応じてサブシーンに分割して保存し、前記ポインタの指示時間、指示回数、指示位置およびその軌跡のうちの少なくとも1つに応じて求められる各キーワードに対する検索の適合度を求めることによって、より正確かつ重要な情報へのアクセスが可能となり、検索精度の向上を図ることが可能となる。
さらにまた、請求項11に係る発明は、前記のポインタの位置情報を利用するプレゼンテーション資料検索方法をコンピュータによって実行させるプログラムを記録したコンピュータが読み取り可能な記録媒体を提供する。
この記録媒体に記録したプログラムをコンピュータに読み取らせて実行させることによって、前記プレゼンテーション資料検索方法を実行することができる。
本発明の検索システムによれば、プレゼンテーション中に用いられるポインタの位置情報を利用して、プレゼンテーションの際に、ポインタを用いて指示して説明されている内容は、プレゼンターが強調したい重要な情報を含む部分であり、その情報は、利用者(検索者)にとってもより有用な情報を含むものであると考えられ、この情報に基づいて適合度を設定して検索の指標とすることによって、検索精度の向上を図ることができる。すなわち、利用者(検索者)が望む有用な情報に迅速にアクセスすることが可能となる。特に、ポインタの位置情報を画像認識により抽出し、ポインタの位置情報をUPRISEによる検索システムに統合するためにサブシーンという抽象モデルを導入して、それらを用いてポインタの位置情報を適合度の設定に利用することにより、プレゼンテーション資料中の膨大なデータの中から、検索キーワードへの適合度が高く、かつ、重要度の高い情報へ迅速にアクセスすることが可能となる。例えば、ある検索キーワードで膨大な数のデータがヒットした場合は、本発明によって算出した適合度の上位何件かを提示するなどという形式で、適正な絞り込みが可能となる。
次に、本発明のプレゼンテーションコンテンツ検索システムおよびその方法に係る実施形態について、適宜図面を参照しながら詳細に説明する。
本実施形態では、講義・講演等のプレゼンテーションにおけるプレゼンテーション資料とそのビデオ撮影による録画画像をメタデータによる統合コンテンツとして蓄積し、その特性を利用して検索するUPRISE(Unified Presentation Contents Retrieval by Impression Search Engine)システムを利用し、そのUPRISEによって求められる検索キーワードに対する検索の適合度に、さらに、ポインタの位置情報に基づく情報の適合度を利用して、検索精度の向上を図る。また、以下の説明において、プレゼンテーション資料として、スライドを用いる場合について説明する。
そこで、初めに、UPRISEにおけるコンテンツの統合について説明する。
図1においては、メタデータによるコンテンツの統合のために、動画ストリームをシーンの連続であるとし、各シーンとそこで使用されたプレゼンテーション資料とを対応付けている。そして、シーンとプレゼンテーション資料との対応情報、および各シーン、プレゼンテーション資料の検索用インデクスをデータベースに格納し、検索に利用する。すなわち、UPRISEにおけるコンテンツ検索機能は、検索キーワードに対する適合度という、コンテンツの特徴を活かした検索指標を利用している。ここで、適合度とは、あるキーワードに対してプレゼンテーション中の各シーン毎に算出されるポイントであり、シーン中で使用している資料スライドの情報や、そのスライドの説明に要した時間等を利用して計算されている。UPRISEは、この適合度を用いて、ユーザ(検索者)に動画のシーン中で用いられたスライドのサムネイルを適合度順に表示する。
図2に、UPRISEによるコンテンツ統合の概念図を示す。メタデータには、動画のどの時刻にスライドの切り替えが起こったかというシーン情報と、その際にどのスライドを用いていたかという同期情報と、スライドに含まれる文字列情報に対するインデクスとが含まれる。これらの情報を保持するメタデータによってコンテンツを緩く結合することにより、個々のコンテンツが持つ情報に修正を加えることなくコンテンツの同期表示を実現し、柔軟な統合を可能にしている。また、このメタデータから得られるスライドの使用順序やスライド毎の説明に要した時間という情報を用いることによって各シーンの特性が具体化され、シーンの特性に基づいた検索が可能になる。
図3は、UPRISEによるプレゼンテーションコンテンツ検索システムの一例を示すブロック図である。図3に示すように、UPRISEによるプレゼンテーションコンテンツ検索システム100は、メタデータ作成手段110、同期手段120、検索手段130、および提示(表示)手段140を含む。
このプレゼンテーションコンテンツ検索システム100において、メタデータ作成手段110は、記憶手段に格納された膨大な量のコンテンツデータベースから電子化されたスライド形式のプレゼンテーション資料を読み出し、これに基づきメタデータを作成し、メタデータデータベースを構築し記憶手段に格納する。次に、同期手段120は、コンテンツデータベースから映像(撮影)データを読み出し、これを対応するプレゼンテーション資料の各スライドに関連付けるなどして同期化し、これを前記メタデータに統合する。
ユーザ(検索者)は、直接的に或いはネットワーク(図示せず)を介して、検索システム100にアクセスし、所望のキーワードを入力する。検索システム100は、この入力されたキーワードを受け、これに基づき検索手段130において前記メタデータを検索する。検索手段130は、第1の適合度算出手段131、第2の適合度算出手段132、第3の適合度算出手段133、第4の適合度算出手段134、および順位付け手段138を含む。第1の適合度算出手段131では単一スライド内でのキーワードの出現位置などに基づき適合度を計算し、第2の適合度算出手段132では各スライドの提示時間に基づき適合度を計算し、第3の適合度算出手段133では前後複数のスライドに含まれるキーワードに基づく適合度を計算し、最後に第4の適合度算出手段134では複数キーワードの共起に基づき適合度を計算する。これらの少なくとも1つの適合度を用いて順位付け手段138は、ヒットしたスライドを順位付ける。提示手段140は、順位付けに従って、適合度の高い順にヒットしたスライドをユーザへ提示する。
以下では、UPRISEの検索において用いる、適合度算出方法について述べる。
このUPRISEは、以下の適合度を検索に用いる。
Ip:スライドの文書構造(インデント,文字のサイズ等)を考慮した適合度
Id:Ipにシーンの時間情報を考慮した適合度
Ic:Idに前後のシーンを考慮した適合度
SFP:キーワードの特定性を考慮した適合度
次に、これらの適合度Ip、Id、IcおよびSFPについて説明する。
<適合度Ip>
適合度Ipはスライドの文書構造を考慮した適合度であり、下記式で表される。
Figure 2006228059
ここで、sはシーン、kはキーワード、lは行数であり、P(s,l)はシーンsで用いられたスライドの行lに与えられるポイント、C(s,k,l)はシーンsで用いられたスライドの行lにキーワードkが含まれる個数を表している。さらに、P(s,l)において行のインデントや文字の大きさに応じて重み付けをし、キーワードの出現回数だけではなく出現位置も考慮する。
<適合度Id>
適合度IdはIpにシーンの時間情報を付加した適合度であり、以下の式によって表される。
Figure 2006228059
ここで、T(s)はシーンsの時間であり、θは時間の影響の強弱を定めるパラメタ、uは単位時間を定めるパラメタである。これによって、長い説明を行っているシーンを重要視することができる。
<適合度Ic>
適合度IcはIdにシーンの前後関係を付加した適合度であり、以下の式によって表される。
Figure 2006228059
ここで、δは考慮する前後シーンの範囲を定めるパラメタであり、E(γ−s,ε1,ε2)は前後関係の強弱を定める関数であり、下記式で表される。なお、γは、シーンs、およびその前後シーンである。
Figure 2006228059
この適合度Icによって、適合度はそのシーンの前後δだけの範囲の影響を受け、εが小さいほど影響を受けやすくなる。例えば、δ=4,ε1=5.0,ε2=0.5であるとき、そのシーンの適合度は前後4シーンの適合度に影響を受け、後に続くシーンのほうにより強い影響を受ける。
<適合度SFP>
Ipにおいて、キーワードの出現回数の多いシーンに多くの適合度を与えている。これはキーワードの網羅性(exhaustivity)を考慮した手法で、Ipを拡張したId,Icも同様に網羅性を考慮している。
しかし、網羅性への考慮だけでは、キーワードが複数の際に適切な結果を得ることはできない。多くのシーンに出現するキーワードと、いくつかのシーンのみに出現するキーワードでは、後者の方がシーンをより特定している。多くのシーンに出現するようなキーワードは目的のシーンを特定する性質(特定性:specificity)が低い。したがって、シーン検索においては、網羅性だけではなくキーワードの特定性も考慮して適合度を算出しなければならない。
そこで、キーワードのプレゼンテーション中での出現頻度を表す適合度として、適合度SFPを用いる。この適合度SFPは、シーンsが出現するプレゼンテーションをP(s),P(s)に含まれるシーン数をN(s),プレゼンテーションP(s)でキーワードkが出現するシーンの数をpf(k,s)として、下記式で表される。
Figure 2006228059
この適合度SFP(s,k)の逆数を掛け合わせることによって、多くのシーンに頻出するキーワードの適合度への影響を抑え、限られたシーンに出現するキーワードの影響を多く反映した検索を可能にすることができる。
本実施形態では、これらのキーワードの位置情報やキーワードを含むスライドの提示時間を元に算出される適合度Ip、Id,IcまたはSFPに、ポインタの位置情報に基づく適合度を組み合わせることによって、検索精度を向上させる。前記のUPRISEによる検索方法では、動画中に同じスライドが複数回出現する場合にそれらを異なるシーンとして区別し、個別に適合度を算出している。これにより、それぞれのプレゼンテーションは対応する動画のシーンの集合として抽象化され、プレゼンテーション中の任意のシーンが検索可能になるが、本実施形態では、さらに、シーンをさらにサブシーンに分割して、ポインタの位置情報を取り入れることによって、適合度の計算を行う。そこで、以下に、画像認識によって、動画コンテンツからポインタの光点に関する情報を抽出し、適合度を算出する方法について説明する。
<ポインタの位置情報の抽出>
ポインタの位置情報の抽出は、動画ストリーム(動画コンテンツ)からポインタの光点に関する情報を、所定の時間間隔で、画像認識によって抽出することによって行うことができる。画像認識を行う時間間隔は、例えば、1秒の時間間隔で行い、スライドの画像中に出現した光点の位置座標と、その出現時刻とを組として光点情報を抽出する。これにより、プレゼンテーション中の時間軸上のある時点で、ポインタが出現したことを情報として取得できる。このポインタの位置情報の抽出は、公知の方法で行うことができ、例えば、Yutaka Katsuyama, Noriaki Ozawa, Jun Sun, Hiroaki Takebe, Takashi Kobayashi, Haruo Yokota, and Satoshi Naoi. A new solution for extracting laser pointer information from lecture videos. In Proc. of E-learn2004, pages 2713−2718, 10 2004.に記載の方法によって、行うことができる。
次に,画像認識によって抽出したポインタの光点座標に対してスライド上で最も近い行の文字列を取得する。これは、ポインタを当てるという行為の対象がスライド中の一行であることが多いことから、座標ではなく文字列としてポインタ情報を持つほうが検索の際に利用しやすいためである。このとき、同じ文字列を取得した連続の光点を一回のポインタを指す行為と定義し、一つのポインタ情報として統合する。したがって、一つのポインタ情報は行文字列の他に、当たった時間の長さの情報を有する。
また、レーザーポインタはある1行に対して正確に当て続けることが容易ではないため、ポインタの光点は対象行から外れてしまうことが多い。そのため、1秒ごとに光点に最も近い行を取得しているだけではプレゼンターの意図と異なる行をポインタの位置情報として抽出してしまうことがある。そこで、図4に示すように、一回のポインタに対し,近傍の数行(P´s another line)をポインタが当たった行の次候補として取得しておく。最も近い行(P´s line)と、その付近のいくつかの行(P´s another line)とを組にしてポインタの位置情報とすることで、プレゼンターの意図と光点とのぶれをある程度解消することができる。
このとき、ポインタの位置情報は、下記のようなxmlファイルとして抽出され、保管される。
Figure 2006228059
図5は、このポインタの位置情報の抽出処理を示す図である。
このポインタの位置情報の抽出処理は、まず、プレゼンテーション資料から資料メタデータが抽出され、資料メタデータのxmlファイルが生成される。一方、プレゼンテーションを撮影した録画画像の動画ストリームを含む動画ファイルから、前記のようにして、ポインタの位置情報が抽出され、このポインタの位置情報を対応するプレゼンテーション資料の各シーンに関連付けるなどして同期化して同期情報xmlファイルを生成する。そして、資料メタデータxmlファイルと、同期情報xmlファイルとを、メタデータに統合して、データベースに格納する。
このように、統合されたメタデータを格納したデータベースから、利用者(検索者)は、検索キーワードによって所要の情報を検索することができる。このとき、プレゼンテーション資料とポインタの位置情報とが、ともにメタデータ化されているため、迅速な検索が可能となる。
<ポインタの位置情報の抽象化>
ここで、ポインタの位置情報の抽象化に際して、そのポインタの位置情報を利用して、下記の(1)〜(5)の事項を考慮して適切な適合度を算出することが望ましい。
(1)ポインタの座標に対してスライド上で最も近い行の文字列を考慮する。これは、座標ではなく文字列としてポインタの位置情報を持つほうが検索の際に利用しやすいためである。また、ポインタを当てるという行為の対象がスライド中の一行であることが多いことも理由の一つである。
(2)同じ文字列を取得した連続の点を一回のポインタを指す行為とし、一つのポインタの位置情報として統合する。一つのポインタの位置情報は、行文字列の他に、光点が当たった時間の長さの情報を有する。
(3)ポインタはある1行に対して正確に当て続けることが容易ではないため、ポインタの点は対象行から外れてしまうことも多い。そのため、ある期間(例えば1秒ごと)に点に最も近い行を取得しているだけでは講師の意図と異なる行をポインタ情報として抽出してしまう。そこで、一回のポインタに対し、近傍の数行をポインタが当たった行の次候補として取得しておく。最も近い行とその付近のいくつかの行を組にしてポインタ情報とすることで、講師の意図と光点のぶれをある程度解消することができる。
(4)あるポインタが当たっている間、講師はポインタを当てている行に対して説明をしていると考える。このことから、あるシーンの中で1回のポインタに対応する部分をより細かい概念として抽象化すると、その一つ一つはある事柄に対して説明を行っている場面がまとまったものとなる。この1回のポインタに相当する部分をサブシーンと定義する。したがって、各シーンはより詳細な内容ごとにまとまったサブシーンを複数持つ。このように定義することで、各シーンで講師がいくつの話題について説明しているのかを知ることができる。
(5)キーワードを含む行に対してポインタが当てられた回数を考慮した適合度を計算する。ポインタは確実に講師の意図どおりに当たるわけではなく、抽出した情報も誤差を含む。このため、ポインタの回数はその情報の信頼度を考慮し、キーワードが全候補行に含まれていたときに1とするような、回数の期待値として数値化する。こうして得られるポインタごとの回数の期待値をシーンごとに合計し、各シーンの適合度加算分とする。この加算分を用いて、検索候補の絞込みを行う。
そして、ポインタの位置情報の抽象化に際して、ポインタの光点が当たっている間、プレゼンターはポインタを当てている行に対して説明をしていると考えられる。このことから、あるシーンの中で1回のポインタに対応する部分をより細かい概念として抽象化すると、その一つ一つはある事柄に対して説明を行っている場面がまとまったものとなる。そこで、この1回のポインタに相当する部分をサブシーンと定義する。したがって、各シーンはより詳細な内容ごとにまとまったサブシーンを複数持つことになる。このようにシーンをサブシーンに分割することで、各シーンでプレゼンターがいくつの話題について説明しているのかをも知ることができる。
図6に、本発明の資料検索システムにおけるシーンとサブシーンの関係について示す。ここで、複数のシーンにまたがるポインタはないと考える。したがって、各サブシーンはある特定のシーンに属することになる。
まず、キーワードを含む行に対してポインタが当てられた回数を考慮した適合度について説明する。ポインタは確実に講師の意図どおりに当たるわけではなく、抽出した情報も誤差を含む。この問題を解消するため、対象行以外に候補となる行を持つことが望ましいことは前述の通りである。このため、ポインタの回数はその情報の信頼度を考慮し、キーワードが全候補行に含まれていたときに1とするような、回数の期待値として数値化することができる。こうして得られるポインタごとの回数の期待値をシーンごとに合計し、各シーンの適合度加算分とする。シーンs、キーワードkに対するこの加算分をpoc(s,k)(Pointer Of Count)とし、下記式で表される。
Figure 2006228059
ここで、tはサブシーンを表し、Tはシーンsが有するサブシーンの数を表す。また、W(s,t,k)はシーンsのサブシーンtにおけるキーワードkの出現回数の期待値である。
次に、ポインタの時間情報を考慮した適合度を考える。上で算出したポインタごとの回数の期待値に対して、各ポインタが当たっていた時間を掛け合わせることで、ポインタの時間の期待値が得られる。この時間の期待値をシーンごとに合計し、適合度加算分とする。この加算分をpod(s,k)(Pointer Of Duration)とする。ここで、s,kは前記のpoc(s,k)におけるs,kと同様である。pod(s,k)は、下記式で表される。
Figure 2006228059
ここで、T(s,t)はシーンsのサブシーンtの時間を表す。すなわち、サブシーンtに対応するポインタの光点が当たっている時間を表す。
次に、以上のようにして抽出されたポインタの位置情報を、前記UPRISEで求められた適合度Ip、Id、Icと統合して、情報の検索に利用するために、前記UPRISEで求められた適合度に、ポインタの位置情報から求められる適合度を統合した新しい適合度を算出する。
<適合度>
ポインタの位置情報による適合度を、UPRISEで求められた適合度のどの箇所と統合するかによって、いくつかの適合度が算出される。以下では、基本となる適合度をIcとし、文書構造部分から求められる適合度Ip、時間情報部分から求められる適合度Id、文脈情報部分から求められる適合度Icのそれぞれにおいてポインタ情報を統合した適合度を算出する。
<適合度Ip+poc
まず、適合度Ipの段階、すなわち、スライドの文書構造情報に統合する手法を説明する。適合度Ipによるキーワードの網羅性に対し、ポインタの出現回数の期待値であるpoc(s,k)を足し合わせ、ポインタが当たっていたときにそのシーンにおけるキーワード出現回数が増えたとみなす。この値をIpとしてIcを求めたものを適合度Ip+pocとし、下記式のように表される。
Figure 2006228059
ここで、dはIpのP(s,l)と対応するパラメタで、ポインタの出現回数のスライド文書情報に対する影響度を与える。例えば、P(s,l)においてタイトル行に10ポイント与えると定義されていて、d=10とした場合、キーワードを含む行にポインタが1回当たることは、そのスライドのタイトルにキーワードが1つ含まれていることと同等の意味を持つことになる。
<適合度Id+pod
次に、適合度Idの段階、すなわち、シーンの時間情報に統合する手法について説明する。シーンごとの時間情報である。
Figure 2006228059
に対し、ポインタの時間の期待値であるpod(s,k)を足し合わせ、ポインタが当たっていたときにそのシーンの時間に加点する。こうして求めた時間情報を用いてIcを求める。この適合度をId+podとし、下記式で表される。
Figure 2006228059
ここで、ω1およびω2はポインタの出現時間とシーンの時間との影響度を調節するパラメタである。例えば、ω1=1、ω2=10である場合、ポインタが1秒間当たることはそのシーンが10秒伸びることに相当する。
<適合度Ic+poc,Ic+pod
最後に、Icで与えられた各シーンごとの適合度に対して、ポインタの位置情報によ
る適合度の全ポインタ情報に対する比率を掛け合わせる。この手法では、該当シーンのポインタ情報のみを考慮している。この手法をpoc(s,k)およびpod(s,k)に対して適用し、それぞれをIc+poc,Ic+podとし、下記式で表される。
Figure 2006228059
ここで、αおよびβはポインタ情報の影響度を表すパラメタである。また、poc(s)とpod(s)は、シーンsに属する全サブシーンの数および時間の総和を表し、Sはプレゼンテーションにおけるシーンの数である。
次に、本実施形態によるプレゼンテーションコンテンツ検索システムにおける検索手順の一例を説明する。
まず、利用者(検索者)が、プレゼンテーションコンテンツ検索システムにアクセスして、所望の検索キーワードを入力する。これによって、検索システムは、入力された検索キーワードに基づいて、図5に示すデータベースDBに格納された統合メタデータを検索する。このとき、検索手段は、前記適合度(Ip+poc、Id+pod、Ic+poc,Ic+pod)を計算し、求められた適合度を用いて、ヒットしたスライドを順位付ける。そして、提示手段は、その順位付けに基づいて、適合度の高い順にスライドを利用者(検索者)に提示する。
このとき、検索システムは、求められた適合度を用いて、検索キーワードにヒットしたスライドと、時間軸上でその前後のスライドについても、それぞれ適合度を算出し、適合度の順にサムネイル表示することが望ましい。そして、サムネイルをマウスなどでクリックすると、選択されたスライドの対応する時点から、選択されたスライド(プレゼンテーション資料)と講義ビデオを同期させ、1つのコンテンツとして統合して再生するようにしてもよい。さらに、ユーザの検索の目的に応じて、適合度、および/または、プレゼンテーション時間に応じたサイズでサムネイル表示することもできる。これによって、多量のデータを含むプレゼンテーション資料の中から、視覚的に容易に把握できる状態で所要の情報を検索することが可能となる。
このとき、前記のようにして算出された適合度Ip+poc、Id+pod、Ic+poc,Ic+podの順に、プレゼンテーション資料をサムネイル表示する。このとき、サムネイルのサイズは、適合度に応じた大きさとすることによって、ユーザ(検索者)による適合度の視覚的な把握を助けることができる。また、サムネイルのサイズは、各スライドのプレゼンテーション時間に応じた大きさとすることも可能である。
本実施形態は、スライド形式のプレゼンテーション資料によるe−ラーニングのみならず、教育資料を用いた通常の講義資料、営業活動における提案資料、或いは、学術会議などでの発表資料などをプレゼンテーション資料とする場合にも、適用することができる。
前記実施形態では、ポインタの位置情報を、情報表示画面上の光点から最も近い文字列の行を取得し、連続して同じ行を取得した光点を一つのポインタとしてまとめるという手法を採用して、ポインタの時間情報を取得した。しかし、ある行を取得した光点から,何秒か後にたまたま同じ行に光点が当たってしまった場合、この手法では、2つの光点の間にはポインタが当たっていないにも拘わらず、2点間を統合して一つのポインタとして認識してしまうことがある。そこで、例えば、同じ行を取得する離れた2点間がつながってしまう問題では、適切な間隔の閾値を設けることが望ましい。
また、前記実施形態では、適合度のパラメタは任意に指定したいくつかの値を用いたが、パラメタを最適化することでより検索精度の向上を図ることができる。例えば、多くの資料を蓄積し、統計的手法を用いることによって、前記パラメータを最適化して検索精度の向上を図ることが望ましい。
さらに、前記実施形態では、ポインタの位置情報として、ポインタの光点付近の行文字列を単位として抽出した。しかし、ポインタを指す行為には、行ではなく単語に対して焦点を当てるという場合も多く存在する。そこで、画像認識で得られた座標付近の単語を抽出して検索に用いることでよりポインタの影響を特定することが望ましい。
また、一般に、ポインタの使用傾向は、プレゼンテーションを行う者、例えば、講師によって異なる部分が多い。さらに、使用頻度によって、ポインタを指すことの価値も異なる。全部のスライドに対して網羅的にポインタを使うのであれば、ポインタ一つ一つの価値は低い。逆に極めてポインタが限られた回数しか用いられない場合でも、ポインタを指すことを忘れていたという場合もある。そこで、これらを分析し、ポインタの使用傾向を検索に利用することが望ましい。
また、スライドの種別によっても、ポインタを指すことの意味が変わることもある。例えば目次のスライドでは、項目が多いためにポインタを多用することが多いが、そのスライドを用いたシーンの重要度が大きいとは言えないことが多い。また、図を含むスライドでは図中に余分な行要素が散在することによって、ポインタが多く使われているにも拘わらずキーワードを持たないために重要度が上がらないということもある。そこで、これらを分析し、有用なポインタとそうでないポインタを区別することが望ましい。
また、前記の実施形態では、ポインタの位置情報に基づいて適合度を算出しているが、シーン中で説明している内容をより細かく取得できる方法として,動画中の音声情報を利用してもよい。例えば、音声認識もしくは文字起こしを行ったテキストをポインタ情報の文字列と連携させることにより、よりシーンの特性を正確に抽出することができると考える。
さらに、ポインタの誤認識および指示部の揺れに対して、前記の実施形態では、複数候補をとるという信頼度での対応を行ったが、音声情報を用いればポインタ情報の精度を向上させることができると考える。
この音声情報を利用する検索システムとして、例えば、講演者が行った説明の音声を録音し、この音声を音声認識ソフトによって文字データに変換し、対応するサブシーン内の文字情報として格納することで、ポインタによる文字情報と同様に格納し、前記のIpと同様にして扱う、もしくは双方の一致度合いなどから適合度を計算し、前記他の適合度に加味することにより、プレゼンテーション資料に含まれないが、講演者が説明の際に話した内容を利用した検索、ポインタを利用して指示し、繰り返し説明を行った箇所の特定などに利用できる。
以下、本発明の実施例によって本発明をより具体的に説明するが、本発明は以下の実施例に限定されるものではない。
(実施例1)
実際の講義のコンテンツを、UPRISEに登録し、登録したコンテンツに対して各適合度ごとの検索実験を行った。
実験は、538個のシーンを含む全12回の講義を1つのコンテンツとして登録し、画像認識によってコンテンツのメタデータを抽出して行った。
(1)全シーンの538個に対し、サブシーンを含むシーンは368個であり、これは全シーンの68%であった。
(2)全コンテンツにおいて、サブシーンは3833個抽出された。
(3)サブシーンを含むシーンにおいて、サブシーンの個数の平均は10個であった。
(4)サブシーンの平均時間、つまり1回のポインタの平均時間は3.6秒であった。
次に、登録したコンテンツに対し、キーワードについて説明しているシーンを実際に検索する実験を行った。実験は前記に説明した適合度Ip+poc,Id+pod,Ic+poc,Id+podおよび従来の適合度であるIcを用い、以下の条件の下で行った。
(a)パラメタはθ=0.5,u=60,δ=4,ε1=5.0,ε2=0.5に固定した。
(b)1回のポインタに対し5つの候補行を取得し、光点からの距離の近い順に0.4,0.3,0.15,0.10,0.05という、回数の期待値を与えた。
(c)各適合度毎に78種類のキーワードを検索した。
(d)格納された全てのシーンに対して適合度を算出し、順序付けを行った。
(e)キーワードに対し、事前にプレゼンテーション中で最もよく解説していると判断したシーンをそのキーワードの正解シーンとした。
(f)適合度の種類毎に、正解シーンが何番目に順序付けされたかを記録した。
なお、評価に際して指標となる再現率(recall)は検索結果に含まれていた正解が全正解の中で占める割合、適合率(precision)は検索結果に対して正解が占める割合であり、これらは、以下の式で表される。
Figure 2006228059
今回の実験では、正解シーンを各キーワードに対して1つしか与えていないため、再現率は常に0か1をとることになる。しかし、今回、全ての試行において検索結果には正解シーンが含まれているため、以下の結果における再現率は常に1である。そこで、検索範囲を正解シーンの順位までとすると、適合率が以下の式で求まる。ただし、Nは検索回数である。
Figure 2006228059
表1は、各適合度における検索結果を順位別に表したものである。なお、表示は10位までに限っており、評価の指標として適合率、正解シーンが3位までに入ったキーワードの数、および全キーワード中最も悪かった順位を併記した。
Figure 2006228059
なお、表1での各適合度におけるパラメタは、d=10,ω1=1,ω2=1,α=10,β=10である。
表1より、適合度Ip+poc以外の適合度では従来のIcよりも適合率が上回っていることがわかる。したがって、ポインタ情報による適合度加算が正解シーンの順位を引き上げる効果を持つと言える。つまり、利用者がより求めているシーンに対し、多くのポインタが用いられる傾向があることが導かれる。
なお、正解シーンの中でサブシーンを持たないシーンの数は、78シーン中20個であった。利用者が求めるシーンにはおおむねポインタが使われていると言える。
次に、Ip+pocについて追加実験を行った。Ip+pocにおけるパラメタとして,そしてpoc(s,k)内での回数の期待値を変更して検索実験を行った。その結果を表2に示す。
Figure 2006228059
表2に示す結果から、回数の期待値の変化が精度に与える影響はほぼないことが分かる。したがって、回数の期待値のパラメタを変化させても精度に変化がないということから、複数の候補行を取得しておくことが光点のぶれを吸収する目的をある程度果たすことが分かる。
ここで、Ip+pocの精度が良くない原因について考える。今回、画像認識からポインタを統合する際に、第一候補行が同一であるかどうかをポインタ統合の指標とした。このため、例えば、20秒間、行lを指すポインタにおいて、ポインタ光点がぶれ、取得した第一候補行が行l,l+1,l,l−1,lのようにぶれてしまった場合では、本来は1つであるポインタが5つに分割されてしまい、行lに光点が当たった回数も1回から3回に誤認識されてしまう。このようにポインタの回数情報を誤って取得した結果、たまたま回数の多い余分なシーンが上位にきてしまうことが考えられる。
そこで、表3は、期待値を0.4,0.3,0.15,0.1,0.05に固定した上で,パラメタdを変化させた結果を示す。なお、以下の全ての実験では回数の期待値はこの0.4,0.3,0.15,0.1,0.05という値に固定した。
Figure 2006228059
この表3に示す結果から、回数の期待値を変化させたときよりも精度への影響は大きいことがわかる。さらに、dを大きくするほど精度が下がってしまっている。このことから、ポインタの位置情報による適合度への影響は、従来のスライド文書構造、シーン時間、文脈構造などと適切な比率をもって考慮すると良い結果が得られるのではないかと考えられる。そこで、他の適合度Id+pod,Ic+poc,Ic+podについても各パラメタを変化さ
せて検索実験を行った。結果を表4、表5および表6に示す。
Figure 2006228059
Figure 2006228059
Figure 2006228059
これらの表4、表5および表6は、それぞれId+pod,Ic+poc,Ic+podのパラメタ
ω2,α,βを変化させた結果を表している。ここで、α,βは10付近、ω2は1付近に向かって精度が向上することが期待できる。パラメタの最適値がばらつくのは、パラメタと適合度ごとに影響度が異なるためであると考えられる。
また、表4、表5および表6に見られる特徴として、ポインタの影響度を大きくするにつれて、全キーワードの順位の中で最も悪い順位が改善されていることがある。これは、ポインタ情報による有効なシーンの順位上昇が低い順位のシーン間においても起きていて、かつ、それが有効に働いていることを示している。適合率には現れないが、これもポインタの位置情報を利用する検索システムの有効性を示すことが分かる。
メタデータによるコンテンツの統合を説明する図である。 UPRISEによるコンテンツ統合の概念を示す図である。 UPRISEによるプレゼンテーションコンテンツ検索システムの一例を示すブロック図である。 ポインタの位置情報の抽出を説明する図である。 ポインタの位置情報の抽出処理を示す図である。 本発明のコンテンツ検索システムにおけるシーンとサブシーンの関係を示す図である。
符号の説明
100 プレゼンテーションコンテンツ検索システム
110 メタデータ作成手段
120 同期手段
130 検索手段
140 提示(表示)手段

Claims (11)

  1. プレゼンテーション資料とそのプレゼンテーション資料を用いて行われたプレゼンテーションの録画画像を同期配信可能にしたプレゼンテーションコンテンツに対し、プレゼンテーション資料に含まれる情報を用いてプレゼンテーション内の部分単位での検索を行うプレゼンテーションコンテンツ検索システムであって、
    前記プレゼンテーション資料を用いて行われたプレゼンテーションの録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーション資料に含まれる情報ごとの重要度を求め、この重要度に応じて前記プレゼンテーション資料中の検索キーワードに対する検索の適合度を求め、この検索の適合度をプレゼンテーション資料中の情報の検索に利用する検索手段を含むことを特徴とするポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  2. 前記検索手段は、前記プレゼンテーションのビデオ録画画像における前記ポインタの指示位置の近傍の文字列に応じて、前記検索の適合度を求めることを特徴とする請求項1に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  3. 前記検索手段は、前記検索の適合度を求めるに際して、前記プレゼンテーションのビデオ録画画像の各シーンを、前記ポインタの位置情報に応じてサブシーンに分割して保存し、前記ポインタの指示時間、指示回数、指示位置およびその軌跡のうちの少なくとも1つに応じて前記各キーワードに対する検索の適合度を求めることを特徴とする請求項1または請求項2に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  4. 前記検索手段は、前記プレゼンテーション資料に含まれる文字列から、単語を切り出し、この切り出した各単語をインデックスとするメタデータを作成するメタデータ作成手段を含み、このメタデータに基づいて、前記検索キーワードに対する検索の適合度に応じて情報を検索することを特徴とする請求項1〜請求項3のいずれか1項に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  5. 前記検索手段は、検索キーワードで前記プレゼンテーション資料を検索し、プレゼンテーション資料内における前記キーワードの出現位置、前記キーワードの文字サイズ、ならびに前記キーワードが置かれるレベルのインデント情報および編集情報のうちの少なくとも1つに応じて、各検索キーワードの適合度を計算し、この検索キーワードの適合度と前記ポインタの位置情報に基づいて求められた検索の適合度とに基づき、ヒットした情報を順位付けることを特徴とする請求項1〜請求項4のいずれか1項に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  6. 前記検索手段は、前記検索の結果、順位付けられた情報を提示するときに、この情報と関連付けられた画像も併せて提示することを特徴とする請求項5に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  7. 前記情報と関連付けられた画像、および、その画像に時系列で隣接する複数の画像をサムネイル表示し、それぞれのサムネイルを、前記画像の提示時間、および/または前記適合度に応じたサイズで提示することを特徴とする請求項6に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索システム。
  8. プレゼンテーション資料とそのプレゼンテーション資料を用いて行われたプレゼンテーションの録画画像を同期配信可能にしたプレゼンテーションコンテンツに対し、プレゼンテーション資料に含まれる情報を用いてプレゼンテーション内の部分単位での検索を行うプレゼンテーションコンテンツ検索方法であって、
    前記プレゼンテーション資料を用いて行われたプレゼンテーションのビデオ録画画像におけるポインタの位置情報に基づいて、前記プレゼンテーションコンテンツ中の検索単位ごとの重要度を求め、この重要度に応じて前記プレゼンテーション資料中の検索キーワードに対する検索の適合度を求め、この検索の適合度をプレゼンテーション資料中の情報の検索に利用して記憶手段に格納されているプレゼンテーションコンテンツを検索し、検索キーワードに対してヒットしたプレゼンテーションコンテンツの各部分を順位付ける検索段階を含むことを特徴とするポインタの位置情報を利用するプレゼンテーションコンテンツ検索方法。
  9. 前記検索段階は、前記プレゼンテーションのビデオ録画画像における前記ポインタの指示位置の近傍の文字列に応じて、前記検索の適合度を求めるステップを含むことを特徴とする請求項8に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索方法。
  10. 前記検索段階は、前記検索の適合度を求めるに際して、前記プレゼンテーションのビデオ録画画像の各シーンを、前記ポインタの位置情報に応じてサブシーンに分割して保存し、前記ポインタの指示時間、指示回数、指示回数、指示位置およびその軌跡のうちの少なくとも1つに応じて前記各キーワードに対する検索の適合度を求めることを特徴とする請求項8または請求項9に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索方法。
  11. 請求項8〜請求項10のいずれか1項に記載のポインタの位置情報を利用するプレゼンテーションコンテンツ検索方法をコンピュータによって実行させるプログラムを記録したコンピュータが読み取り可能な記録媒体。
JP2005043011A 2005-02-18 2005-02-18 ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体 Pending JP2006228059A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005043011A JP2006228059A (ja) 2005-02-18 2005-02-18 ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005043011A JP2006228059A (ja) 2005-02-18 2005-02-18 ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
JP2006228059A true JP2006228059A (ja) 2006-08-31

Family

ID=36989377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005043011A Pending JP2006228059A (ja) 2005-02-18 2005-02-18 ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体

Country Status (1)

Country Link
JP (1) JP2006228059A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293286A (ja) * 2007-05-24 2008-12-04 Seiko Epson Corp ダウンロード対象の選択
JP2011164865A (ja) * 2010-02-08 2011-08-25 Kddi Corp 画像選定装置、画像選定方法および画像選定プログラム
JP2012065170A (ja) * 2010-09-16 2012-03-29 Fuji Xerox Co Ltd 映像再生装置及び映像再生プログラム
JP2013054684A (ja) * 2011-09-06 2013-03-21 Fuji Xerox Co Ltd 情報処理システム及びプログラム
WO2019123762A1 (ja) 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106845A (ja) * 2004-09-30 2006-04-20 Seiko Epson Corp 文書概要作成装置、表示装置、情報処理装置、プレゼンテーションシステム、文書概要作成プログラム、文書概要作成装置制御プログラム、表示装置制御プログラム、情報処理装置制御プログラム、文書概要作成方法、文書概要作成装置制御方法、表示装置制御方法及び情報処理装置制御方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006106845A (ja) * 2004-09-30 2006-04-20 Seiko Epson Corp 文書概要作成装置、表示装置、情報処理装置、プレゼンテーションシステム、文書概要作成プログラム、文書概要作成装置制御プログラム、表示装置制御プログラム、情報処理装置制御プログラム、文書概要作成方法、文書概要作成装置制御方法、表示装置制御方法及び情報処理装置制御方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008293286A (ja) * 2007-05-24 2008-12-04 Seiko Epson Corp ダウンロード対象の選択
JP2011164865A (ja) * 2010-02-08 2011-08-25 Kddi Corp 画像選定装置、画像選定方法および画像選定プログラム
JP2012065170A (ja) * 2010-09-16 2012-03-29 Fuji Xerox Co Ltd 映像再生装置及び映像再生プログラム
JP2013054684A (ja) * 2011-09-06 2013-03-21 Fuji Xerox Co Ltd 情報処理システム及びプログラム
WO2019123762A1 (ja) 2017-12-22 2019-06-27 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
CN111465916A (zh) * 2017-12-22 2020-07-28 索尼公司 信息处理装置、信息处理方法以及程序
JPWO2019123762A1 (ja) * 2017-12-22 2021-01-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP3731073A4 (en) * 2017-12-22 2021-02-24 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND PROGRAM
US11321880B2 (en) * 2017-12-22 2022-05-03 Sony Corporation Information processor, information processing method, and program for specifying an important region of an operation target in a moving image
JP7192792B2 (ja) 2017-12-22 2022-12-20 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
CN111465916B (zh) * 2017-12-22 2024-04-23 索尼公司 信息处理装置、信息处理方法以及程序
US12008682B2 (en) 2017-12-22 2024-06-11 Sony Group Corporation Information processor, information processing method, and program image to determine a region of an operation target in a moving image

Similar Documents

Publication Publication Date Title
US10750245B1 (en) User interface for labeling, browsing, and searching semantic labels within video
US10031649B2 (en) Automated content detection, analysis, visual synthesis and repurposing
US9400833B2 (en) Generating electronic summaries of online meetings
US8332391B1 (en) Method and apparatus for automatically identifying compounds
US20130047097A1 (en) Methods, systems, and computer program products for displaying tag words for selection by users engaged in social tagging of content
JP6361351B2 (ja) 発話ワードをランク付けする方法、プログラム及び計算処理システム
CN108959586A (zh) 响应于可视化查询标识文本词汇
JP2004080769A (ja) マルチメディア又はビデオストリームの注釈の共同インデックスをフィルタリングして、見るための方法、システム、ユーザインタフェース、及び実行させるためのプログラム
JP2011515896A (ja) ビデオインターバルへの注釈
JP5306114B2 (ja) クエリ抽出装置、クエリ抽出方法およびクエリ抽出プログラム
JP5286732B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
Stober et al. Musicgalaxy: A multi-focus zoomable interface for multi-facet exploration of music collections
Christel Evaluation and user studies with respect to video summarization and browsing
JP2006228059A (ja) ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体
US11544322B2 (en) Facilitating contextual video searching using user interactions with interactive computing environments
Villa et al. FacetBrowser: a user interface for complex search tasks
JP5345963B2 (ja) 画像イメージを検索するタグデータの生成方法
Grünewald et al. Next generation tele-teaching: Latest recording technology, user engagement and automatic metadata retrieval
JP2003208083A (ja) 教材作成方法及び装置及び教材作成プログラム及び教材作成プログラムを格納した記憶媒体
Yang et al. Lecture video browsing using multimodal information resources
JP4120597B2 (ja) 部分コンテンツ作成方法及び装置及びプログラム
JP2004265097A (ja) プレゼンテーション資料検索システムおよびその方法並びにプログラム
Christel Automated metadata in multimedia information systems
JP6638281B2 (ja) 情報処理装置及びプログラム
Pavel Navigating Video Using Structured Text

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100907