JP2004258745A - Event acquisition device, indexing device, event acquisition method and program - Google Patents

Event acquisition device, indexing device, event acquisition method and program Download PDF

Info

Publication number
JP2004258745A
JP2004258745A JP2003045975A JP2003045975A JP2004258745A JP 2004258745 A JP2004258745 A JP 2004258745A JP 2003045975 A JP2003045975 A JP 2003045975A JP 2003045975 A JP2003045975 A JP 2003045975A JP 2004258745 A JP2004258745 A JP 2004258745A
Authority
JP
Japan
Prior art keywords
data
image display
instruction
time
application
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003045975A
Other languages
Japanese (ja)
Other versions
JP4358533B2 (en
Inventor
Nozomi Takahashi
望 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2003045975A priority Critical patent/JP4358533B2/en
Publication of JP2004258745A publication Critical patent/JP2004258745A/en
Application granted granted Critical
Publication of JP4358533B2 publication Critical patent/JP4358533B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make it possible, when reproducing the contents of a lecture, meeting or the like, to display a supplement reference which was not presented in the lecture or the like simultaneously with such reproduction. <P>SOLUTION: While a motion picture is being reproduced by a motion picture reproducing application 130, when a user inputs an instruction of creating a new slide image to an application 120 for presentation via a user interface 110, an event data acquiring application 140 acquires reproduction time by the motion picture reproducing application 130 at issuance of the instruction to create event data wherein the reproduction time is associated with a page number identifying the newly-created slide image. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は、イベント取得装置、インデキシング装置、イベント取得方法およびプログラムに関する。
【0002】
【従来の技術】
従来より、プレゼンテーション、講義、打ち合わせ会議などを行う際に、プレゼンテーションや講義等の様子をビデオカメラで撮影または録音装置で録音し、ビデオカメラで撮影した録画データまたは録音した録音データを記録媒体等に記録して配布等することがある。このような記録媒体等の配布を受けた者が記録されたデータを所定の再生装置で再生することで、プレゼンテーションや講義の様子を視聴したり、聴講したりすることができる。
【0003】
プレゼンテーションや講義などでは、スクリーン上に資料等を表示させるプロジェクター装置等が用いられることが多い。したがって、プレゼンテーション等を撮影した映像等を再生する場合において、このようなスクリーン上に表示された資料等が上記再生に同期して表示されると、よりプレゼンテーションや講義などの内容がより理解しやすくなる。
【0004】
そこで、プレゼンテーションの様子をビデオに録画するとともに、プレゼンテーションの際に説明者が、各々の資料画像をスクリーンに表示させたタイミング情報を取得するといった技術が提案されている(例えば、特許文献1参照)。
【0005】
かかる技術では、プレゼンテーションの様子を録画した映像を再生する際に、取得した各画像の表示タイミング情報を参照することで、プレゼンテーション映像の再生時刻がある画像の表示タイミングとなった時点で当該ある画像を、その画像データに基づいて表示させるようにしている。
【0006】
【特許文献1】
特開平10−55391号公報
【0007】
【発明が解決しようとする課題】
ところで、講義や打ち合わせの参加者が、その内容を第三者等によりわかりやすく伝えるためにその講義や打ち合わせの際には用意されていなかった補足資料等を提供したいと思う場合もある。例えば、打ち合わせ時において、ある話をしているときの相手方の雰囲気はどのようなものであったかなど、記録した映像や音声には含まれていない補足情報等をこれらの映像や音声の再生と同期させて提示等できると、視聴者や聴取者等にとってはその打ち合わせの内容をより理解しやすくなると考えられる。
【0008】
上述した講義等において説明者が予め用意された資料を表示させたタイミング等を取得して同期再生表示を行う上記従来技術では、講義等の終了後に新たな補足資料を追加したいと思った場合にもそれを追加することができなかった。
【0009】
この発明は上記に鑑みてなされたもので、講義や打ち合わせ等の内容を再生する際に、その講義等では提示されなかった補足資料を講義や打ち合わせ等の再生に同期させて表示させることを容易とするイベント取得装置、インデキシング装置、イベント取得方法およびプログラムを得ることを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するため、請求項1にかかる発明は、動画像データまたは音声データに基づいて動画像または音声を再生している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段を具備することを特徴とするイベント取得装置である。
【0011】
請求項1にかかる発明によれば、再生される動画像表示等を参照しながら、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点の再生時刻と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。したがって、このような再生時刻と識別情報とを関連付けた記録を参照することで、動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0012】
また、請求項2にかかる発明は、請求項1にかかる発明の構成において、前記イベント記録手段は、前記アプリケーションによって作成された画像表示用データがすでにある場合においてユーザからタイミング指示があったときには、その指示された時の再生時刻と、当該画像表示用データを識別する識別情報とを関連付けて記録することを特徴とする。
【0013】
請求項2にかかる発明によれば、動画像等が再生される前に予め作成しておいた画像表示用データがある場合において、動画像再生が行われている間にユーザが所望のタイミングで指示を行えば、その指示時点における再生時刻と、予め作成しておいた画像表示用データを識別する情報とが関連付けて記録される。したがって、このような再生時刻と識別情報とを関連付けた記録を参照することで、動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで予め作成しておいた画像表示用データに基づく画像表示を行わせるデータの作成を容易にすることができる。
【0014】
また、請求項3にかかる発明は、ユーザからの開始指示があった後に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の前記開始指示時点からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段を具備することを特徴とするイベント取得装置である。
【0015】
請求項3にかかる発明によれば、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点のユーザが指定した開始時刻からの経過時間と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。したがって、ユーザが別途撮影等されている講義や打ち合わせに参加しているときに、打ち合わせや講義の撮影開始と同時に開始指示を行えば、当該経過時間と識別情報とを関連付けた記録がなされ、これを参照することで撮影画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0016】
また、請求項4にかかる発明は、請求項3にかかる発明の構成において、前記イベント記録手段は、前記アプリケーションによって作成された画像表示用データがすでにある場合においてユーザからタイミング指示があったときには、その指示された時の前記開始指示時点からの経過時間と、当該画像表示用データを識別する識別情報とを関連付けて記録することを特徴とする。
【0017】
請求項4にかかる発明によれば、ユーザが開始指示をする前に予め作成しておいた画像表示用データがある場合において、撮影等されている打ち合わせや講義に参加するユーザが所望のタイミングで指示を行えば、その指示時点における開始指示時からの経過時間と、予め作成しておいた画像表示用データを識別する情報とが関連付けて記録される。したがって、このような経過時間と識別情報とを関連付けた記録を参照することで、打ち合わせ等を撮影した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで予め作成しておいた画像表示用データに基づく画像表示を行わせるデータの作成を容易にすることができる。
【0018】
また、請求項5にかかる発明は、リアルタイムで供給される動画像データおよび音声データを記録している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段を具備することを特徴とするイベント取得装置である。
【0019】
請求項5にかかる発明によれば、リアルタイムで供給される打ち合わせや講義などを撮影した動画像等を記録している間、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点の記録開始からの経過時間と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。したがって、このような経過時間と識別情報とを関連付けた記録を参照することで、記録した動画像等を再生する際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0020】
また、請求項6にかかる発明は、請求項5にかかる発明の構成において、前記イベント記録手段は、前記アプリケーションによって作成された画像表示用データがすでにある場合においてユーザからタイミング指示があったときには、その指示された時の記録開始からの経過時間と、当該画像表示用データを識別する識別情報とを関連付けて記録することを特徴とする。
【0021】
請求項6にかかる発明によれば、打ち合わせや動画像等を記録する前に予め作成しておいた画像表示用データがある場合において、動画像記録が行われている間にユーザが所望のタイミングで指示を行えば、その指示時点における記録開始からの経過時間と、予め作成しておいた画像表示用データを識別する情報とが関連付けて記録される。したがって、このような経過時間と識別情報とを関連付けた記録を参照することで、記録した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで予め作成しておいた画像表示用データに基づく画像表示を行わせるデータの作成を容易にすることができる。
【0022】
また、請求項7にかかる発明は、動画像データまたは音声データに基づいて動画像または音声を再生している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段と、再生された前記動画像データまたは前記音声データと、前記イベント記録手段によって記録された再生時刻に関連付けられた識別情報を含むイベント内容とを、前記イベント記録手段によって記録された再生時刻に基づいて時系列に対応付けるインデキシング手段とを具備することを特徴とするインデキシング装置である。
【0023】
請求項7にかかる発明によれば、再生される動画像表示等を参照しながら、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点の再生時刻と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。そして、インデキシング手段によって、動画像データと画像表示用データの識別情報とがイベント内容に含まれる再生時刻によって時系列に対応付けられる。したがって、このような対応付けにしたがうことで、動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0024】
また、請求項8にかかる発明は、リアルタイムで供給される動画像データおよび音声データを記録している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段と、記録された前記動画像データまたは前記音声データと、前記イベント記録手段によって記録された経過時間に関連付けられた識別情報を含むイベント内容とを、前記イベント記録手段によって記録された経過時間に基づいて時系列に対応付けるインデキシング手段とを具備することを特徴とするインデキシング装置である。
【0025】
請求項8にかかる発明によれば、リアルタイムで供給される打ち合わせや講義などを撮影した動画像等を記録している間、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点の記録開始からの経過時間と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。そして、インデキシング手段によって、動画像データと画像表示用データの識別情報とがイベント内容に含まれる経過時間によって時系列に対応付けられる。したがって、このような対応付けにしたがうことで、記録した動画像等を再生する際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0026】
また、請求項9にかかる発明は、動画像データまたは音声データに基づいて動画像または音声を再生する再生ステップと、前記再生ステップでの再生中に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録ステップとを具備することを特徴とするイベント取得方法である。
【0027】
請求項9にかかる発明によれば、再生される動画像表示等を参照しながら、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点の再生時刻と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。したがって、このような再生時刻と識別情報とを関連付けた記録を参照することで、動画像再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0028】
また、請求項10にかかる発明は、ユーザからの開始指示があった後に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の前記開始指示時点からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録ステップを具備することを特徴とするイベント取得方法である。
【0029】
請求項10にかかる発明によれば、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点のユーザが指定した開始時刻からの経過時間と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。したがって、ユーザが別途撮影等されている講義や打ち合わせに参加しているときに、打ち合わせや講義の撮影開始と同時に開始指示を行えば、当該経過時間と識別情報とを関連付けた記録がなされ、これを参照することで撮影画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0030】
また、請求項11にかかる発明は、リアルタイムで供給される動画像データおよび音声データを記録する記録ステップと、前記記録ステップでの記録中に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録ステップとを具備することを特徴とするイベント取得方法である。
【0031】
請求項11にかかる発明によれば、リアルタイムで供給される打ち合わせや講義などを撮影した動画像等を記録している間、補足資料等の画像表示を加えたいタイミングでアプリケーションに対して新たな画像表示用データの作成指示を行えば、その新規作成指示時点の記録開始からの経過時間と、その新規作成した画像表示用データを識別する情報とが関連付けて記録される。したがって、このような経過時間と識別情報とを関連付けた記録を参照することで、記録した動画像等を再生する際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0032】
また、請求項12にかかる発明は、コンピュータを、動画像データまたは音声データに基づいて動画像または音声を再生している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段として機能させることを特徴とするプログラムである。
【0033】
請求項12にかかるプログラムをコンピュータに実行させることで、上記請求項1にかかる発明と同様の動作が行われ、動画像再生等の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0034】
また、請求項13にかかる発明は、コンピュータを、ユーザからの開始指示があった後に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の前記開始指示時点からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段として機能させることを特徴とするプログラムである。
【0035】
請求項13にかかるプログラムをコンピュータに実行させることで、上記請求項3にかかる発明と同様の動作が行われ、動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0036】
また、請求項14にかかる発明は、コンピュータを、リアルタイムで供給される動画像データおよび音声データを記録する記録している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段として機能させることを特徴とするプログラムである。
【0037】
請求項14にかかるプログラムをコンピュータに実行させることで、上記請求項5にかかる発明と同様の動作が行われ、動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0038】
【発明の実施の形態】
以下に添付図面を参照して、この発明にかかるイベント取得装置、インデキシング装置、イベント取得方法およびプログラムの好適な実施の形態を詳細に説明する。
【0039】
A.第1実施形態
図1は、本発明の第1実施形態にかかるインデキシング装置の機能構成を示す。同図に示すインデキシング装置100は、CPU等がアプリケーションを実行することにより種々の機能を実現する装置、例えばPC(Personal Computer)で構成することができ、ユーザインターフェース(I/F)110と、プレゼンテーション用アプリケーション120と、動画像再生アプリケーション130と、イベントデータ取得アプリケーション140と、インデキシングアプリケーション150と、記憶部160とを備える。
【0040】
ユーザインターフェース110は、キーボードやマウス等の入力デバイスを有しており、ユーザはこれらを適宜操作することで当該インデキシング装置で動作する種々のアプリケーションに対して指示を行うことができる。
【0041】
記憶部160は、データの記録、読み出しが可能なハードディスクドライブ等の記憶装置であり、後述する種々のアプリケーションによって作成・利用されるデータを記憶する。
【0042】
プレゼンテーション用アプリケーション120は、プレゼンテーションなどを行う時にスクリーン等に表示すべきスライド画像(表、グラフ、文書、図柄等)に対応するスライド画像表示用データを作成する。
【0043】
図2に例示するように、このプレゼンテーション用アプリケーション120では、1つのプレゼンテーションに用いられるために作成された複数のスライド画像表示用データが1つのプレゼンテーション資料ファイルとして管理される。そして、当該スライド画像ファイルに含まれる各々スライド画像表示用データには、スライド画像に対応する表示用データの他に、そのスライド画像のタイトルデータ、ページ番号といったデータが含まれている。
【0044】
ユーザは、ユーザインターフェース110を介して新たなスライド画像表示用データを作成する旨の指示を入力すれば、プレゼンテーション用アプリケーション120によって編集可能な新たなスライド画像表示用データ、つまり白紙状態のスライド画像を表示するためのデータが作成され、その後ユーザがユーザインターフェース110を介して適宜指示を行うことで、所望の文字、表、グラフ、絵柄等の画像が表示されるよう当該スライド画像表示用データを編集することができるようになっている。
【0045】
また、ユーザの指示にしたがって上記のように新たなスライド画像表示用データが作成された場合、タイトルデータについてはユーザが指示入力されるまでは空白であり、ユーザが適宜指示することで所望のタイトルを記述することができる。
【0046】
また、新規作成されたスライド画像表示用データのページ番号データについてはこれまで当該プレゼンテーション資料ファイル内で作成している最も大きいページ番号の次の番号を示す情報が自動的に記述される。例えば、新規作成するスライド画像表示用データが、当該プレゼンテーション資料ファイル内の1つ目のスライド画像表示用データである場合にはページ番号は「1」となり、すでに3つのスライド画像表示用データを作成した後に、新規作成指示をした場合には新規作成されたスライド画像表示用データのページ番号は「4」となる。当該プレゼンテーション用アプリケーション120によればページ番号は自動的に記述されることになるが、この順序はユーザの指示によって編集、つまり任意のページ番号に変更することができる。
【0047】
プレゼンテーション用アプリケーション120は以上のようにユーザ操作にしたがって作成したプレゼンテーション資料ファイルを記憶部160に記憶させる。
【0048】
また、ユーザは、ユーザインターフェース110を適宜操作してプレゼンテーション用アプリケーション120に対して指示を行うことで、作成したプレゼンテーション資料ファイルに含まれる複数のスライド画像表示用データのいずれかを選択し、所望のタイミングでそのスライド画像表示用データに基づく画像をLCD(Liquid Crystal Display)等の表示部に表示させることができる。
【0049】
動画像再生アプリケーション130は、記憶部16に記憶されているMPEG(Moving Pictures Experts Group)2規格などにしたがった動画像データに基づく動画像を再生する。また、動画像再生アプリケーション130は、ユーザからユーザインターフェース110を介して供給される再生開始、一時停止、再生終了、早送り等の指示にしたがって動画像再生を行う。
【0050】
イベントデータ取得アプリケーション140は、動画像再生アプリケーション130によって動画像データに基づく動画像再生が行われている間、プレゼンテーション用アプリケーション120の状態をモニタリングし、ユーザから新たなスライド画像表示用データの作成指示がプレゼンテーション用アプリケーション120に対して行われた場合にイベントデータを作成して記録する。
【0051】
より具体的には、図3に示すようにイベントデータ取得アプリケーション140は、動画像再生アプリケーション130による動画像再生が開始されると、ユーザがプレゼンテーション用アプリケーション120に対してスライド画像表示用データの新規作成指示を行ったか否かをモニタリングし(ステップSa1)、新規作成指示があった場合には、その新規作成指示によって作成されたスライド画像表示用データを識別する情報としてページ番号データを取得する(ステップSa2)。
【0052】
ここで、イベントデータ取得アプリケーション140が、プレゼンテーション用アプリケーション120から新規作成指示があった旨や新規作成したスライド画像のページ番号データ等を取得する手法としては以下のような手法を用いることができる。例えば、プレゼンテーション用アプリケーションがマイクロソフト社の「PowerPoint」である場合にはOLE(Object Linking and Embedding)と呼ばれる技術を利用し、当該アプリケーションの種々の状態を示す情報を取得することができる。この場合には、イベントデータ取得アプリケーション140とOLEをサポートしているプレゼンテーション用アプリケーションとの間でデータの授受を行えるよう関数を呼び出すことで、上記のようなアプリケーション状態を示す情報を取得することができる。
【0053】
なお、このようなOLE技術を利用してプレゼンテーション用アプリケーション120の状態を示す情報を取得する以外の方法を用いるようにしてもよく、例えばプレゼンテーション用アプリケーションを、新規作成指示があった場合に、その旨と作成したスライド画像のページ番号とを逐一イベントデータ取得アプリケーション140に対して通知する処理を実行するよう構成しておくようにしてもよい。
【0054】
上記のような手法により新規作成指示の有無およびページ番号データを取得すると、イベントデータ取得アプリケーション140は、新規作成指示があった時点における動画像再生アプリケーション130による動画像データの再生時刻を取得する(ステップSa3)。例えば、図4に示す「0:00:00」〜「35:00:00」といった35分間の動画像データに基づく動画像再生が動画像再生アプリケーション130によって行われている間に、その再生位置が「0:07:12」の時にユーザからの新規作成指示があった場合、イベントデータ取得アプリケーション140は「0:07:12」を再生時刻として取得する。また、動画像再生アプリケーション130による動画像再生が途中の位置、例えば「0:13:15」から開始された場合において、その再生位置が「0:25:18」の時に新規作成指示があったときにはイベントデータ取得アプリケーション140は動画像データの再生時刻「0:25:18」を取得する。すなわち、再生を開始した時点からの経過時間は12分3秒であるが、イベントデータ取得アプリケーション140は、そのような再生開始時からの経過時間ではなく、ユーザからの新規作成指示があった時の動画像データ上の再生時刻を取得するのである。
【0055】
イベントデータ取得アプリケーション140は、ユーザからプレゼンテーション用アプリケーション120に対して新規作成指示があった場合に、その指示時点の再生時刻と、指示によって作成されたスライド画像のページ番号を取得すると、取得した再生時刻とページ番号データとを関連付けてイベントデータとして記録する(ステップSa4)。すなわち、図4に示すように、再生時刻「0:07:12」の時点で新規作成指示がなされ、ページ番号「2」のスライド画像表示用データがプレゼンテーション用アプリケーション120によって新規作成された場合には再生時刻「0:07:12」と「2ページ」とが関連付けられたイベントデータが作成記録される。また、再生時刻「0:25:18」の時点で新規作成指示がなされ、ページ番号「3」のスライド画像表示用データがプレゼンテーション用アプリケーション120によって作成された場合には再生時刻「0:25:18」と「3ページ」とが関連付けられたイベントデータが作成記録される。
【0056】
イベントデータ取得アプリケーション140は、ユーザからプレゼンテーション用アプリケーション120に対してスライド画像の新規作成指示があるごとに、以上のステップSa2〜ステップSa4までのイベントデータ記録作成処理を行う。
【0057】
一方、ユーザからの新規作成指示がない場合には(ステップSa1の判別「No」)、動画像再生アプリケーション130による動画像再生が終了したか否かを判別する(ステップSa5)。動画像再生が終了する場合とは、ある動画像データに基づく再生が終了したか、つまり図4に示す動画像データであれば再生位置が「0:35:00」に達して終了したか、もしくはユーザがユーザインターフェース110を介して動画像再生アプリケーション130に対して再生終了を指示した場合である。
【0058】
動画像再生アプリケーション130による動画像再生が終了している場合、イベントデータ取得アプリケーション140は、動画像再生が行われている間に上記ステップSa2〜ステップSa4までの処理を行って記録したイベントデータをインデキシングアプリケーション150に出力する(ステップSa6)。
【0059】
図1に示すインデキシングアプリケーション150は、動画像再生が終了した後にイベントデータ取得アプリケーション140から供給されるイベントデータ、上記のように動画再生中にプレゼンテーション用アプリケーション120によって作成されたスライド画像表示用データを含むプレゼンテーション資料ファイルと、動画像再生アプリケーション130によって再生されていた動画像データとに基づいて、当該動画像データに基づく動画像再生とスライド画像とを同期再生させることができる同期再生データを作成する。
【0060】
動画像、静止画、文字等の種々の異なる形式のデータの再生を制御して同期させるデータフォーマットとしては、例えばSMIL(Synchronized Multimedia Integration Language)形式があり、本実施形態におけるインデキシングアプリケーション150は同期再生データとしてかかるSMIL形式のデータを作成する。
【0061】
このような同期再生データをPC等で所定の再生ソフトウェア(例えばSMIL形式データを再生するソフトウェア)により再生することで、その表示画面には図5に示すような表示がなされることになる。
【0062】
同図に示すように、この表示画面には、上述した動画像再生アプリケーションによって再生される動画像を表示する映像表示欄500と、動画像再生の間に作成されたプレゼンテーション資料ファイルに含まれるスライド画像表示用データに基づくスライド画像を表示するスライド画像欄510と、これらのスライド画像のタイトルを一覧表示する目次欄520とが表示されるようになっている。
【0063】
同期再生データとは、以上のような動画像、スライド画像、タイトル等の文字を同期して再生表示させることを可能とするデータであり、以下、同期再生データ作成処理の詳細について図6を参照しながら説明する。
【0064】
まず、インデキシングアプリケーション150は、記憶部160に記憶されているプレゼンテーション資料ファイルから、各スライド画像表示用データのタイトルデータ、ページ番号データ等の文字情報等を抽出する(ステップSb1)。また、インデキシングアプリケーション150は、プレゼンテーション資料ファイルからスライド画像表示用データを抽出し、これを所定の形式(例えば、JPEG(Joint Photographic Experts Group)などの汎用の形式)のスライド画像表示用のデータとして保存する(ステップSb2)。
【0065】
次に、インデキシングアプリケーション150は、イベントデータ、抽出したタイトルデータやページ番号データ等の文書情報、プレゼンテーション資料ファイルおよび動画像データに基づいて、図5に示されるように動画像データに基づく映像と、プレゼンテーション資料ファイル中のスライド画像表示用データに基づくスライド画像と、これらのスライド画像のタイトル等の文字情報を同期して表示させることができる同期再生データを作成する(ステップSb3)。
【0066】
上述したように本実施形態では、このような同期再生データとしてSMIL形式のデータを作成することとしており、インデキシングアプリケーション150は、供給される各データから、以下のデータを取得し、これらをSMIL形式にしたがって記述することでSMIL形式の同期再生データを作成する。
(1)各スライド画像の新規作成タイミング
(2)各々のスライド画像のタイトルデータ等(タイトル、本文の内容、ページ番号等)
(3)各スライド画像(JPEG等)の保存場所(ファイルパス情報)
(4)各スライド画像に対応する動画像データの保存場所(ファイルパス情報)
(5)映像表示欄500、スライド画像欄510、目次欄520(図5参照)をどのように配置するかを示すレイアウトデータ
【0067】
なお、(5)のレイアウト情報については、イベントデータ等の供給されるデータからではなく、ユーザが設定指示したレイアウトにしたがって作成されたデータである。
【0068】
このように作成される同期再生データにおける、タイトルとスライド画像と映像ファイルとの同期の対応関係について図7に模式的に示す。同図に示す例では、動画再生時にユーザのプレゼンテーション用アプリケーション120に対する1ページ目の新規スライド画像作成指示が再生時刻「0:00:00」に行われ、2ページ目の新規スライド画像作成指示が再生時刻「0:01:15」に行われ、3ページ目の新規スライド画像作成指示が再生時刻「0:02:45」に行われ、4ページ目の新規スライド画像作成指示が再生時刻「0:03:53」に行われたものとし、かかる指示タイミングでのイベントデータがイベントデータ取得アプリケーション140によって取得されている。
【0069】
動画再生時に以上のようなタイミングでスライド画像の新規作成指示が行われると、1ページ目のスライド画像の新規作成が指示されてから2ページ目のスライド画像の新規作成が指示されるまでの間(時刻0:00:00〜0:01:15)に再生された動画像データと1ページ目のスライド画像およびそのタイトル「はじめに」が対応付けられる。また、2ページ目のスライド画像の新規作成指示がなされてから3ページ目のスライド画像の新規作成指示がなされるまでの間(時刻0:01:15〜0:02:45)に再生された動画像データと2ページ目のスライド画像およびそのタイトル「背景」が対応付けられる。さらに3ページ目のスライド画像の新規作成指示がなされてから4ページ目のスライド画像の新規作成指示がなされるまでの間(時刻0:02:45〜0:03:53)に再生された動画像データが3ページ目のスライド画像およびそのタイトル「概略」に対応付けられる。
【0070】
インデキシングアプリケーション150は、このようなタイトルという文字情報、スライド画像という静止画、動画像データといった異なる形式のデータの再生を上記のような時系列の対応関係に基づいて制御して同期させることができるSMIL形式のデータを作成するのである。
【0071】
かかる同期再生データをPC等で所定の再生ソフトウェアにより再生することで、その表示画面には図5に示すような表示がなされることになる。
【0072】
かかる表示を参照しているユーザが「背景」をクリックすれば、同期再生データにはこの表示に2ページ目のスライド画像へのパスおよびこれに対応する動画像データ(開始時刻0:01:15〜)へのリンクが記述されているので、再生ソフトウェアによってこれに対応する2ページ目のスライド画像がスライド画像欄510に表示されるとともに、このタイトルに対応する時刻「0:01:15」から動画像データの再生が開始され映像表示欄500に表示される。
【0073】
また、「概略」をクリックすれば、当該タイトルに対応する3ページ目のスライド画像および動画像データ(開始時刻0:02:45)へのパスがリンクされているので、3ページ目のスライド画像がスライド画像欄510に表示されるとともに、映像表示欄500には時刻「0:02:45」からの動画像データに基づく再生映像が表示されることになる。
【0074】
もちろん、映像表示欄500に表示させる再生時刻をユーザが指定することで、その指定再生時刻に対応するスライド画像をスライド画像欄510に表示させることもできる。例えば、ユーザが再生時刻「0:02:30」からの動画像再生を指示した場合には、同期再生データにしたがって再生ソフトウェアが、その時刻からの動画像再生を行うとともに、指定時刻「0:02:30」に対応付けられている2ページ目のスライド画像(0:01:15〜0:02:45の映像に対応している)を読み出してスライド画像欄510に表示させる。
【0075】
以上のような過程を経て作成された同期再生データによる再生は、動画像データに基づく映像に加え、その動画像再生を参照しながら行った新規作成指示タイミングで新規作成されたページのスライド画像が表示され、次のページの新規作成指示があったタイミングまでかかるページのスライド画像が表示されるものとなる。
【0076】
したがって、当該インデキシング装置100のユーザは、打ち合わせや講義等を撮影した動画像再生を参照しながら、補足資料等を加えたいタイミングでプレゼンテーション用アプリケーション120に対して新規作成指示を行い、その後新規作成したスライド画像を補足すべき資料を表示するスライド画像に編集するといった作業を行うことで、上述したように動画像再生の進行に応じて、編集者が意図したタイミングで意図した内容の補足資料画像を表示させることができる同期再生データを作成することができる。
【0077】
また、本実施形態では、イベントデータ取得アプリケーション140が、ユーザによる新規作成指示があった時点における動画像再生アプリケーション130による動画像再生の再生時刻を取得するようにしており、動画像データの途中から再生を開始した場合であっても、途中再生開始後の経過時間ではなく当該動画像データの再生時刻を取得するようになっている(図4参照)。
【0078】
このようにすることでユーザが新規作成したスライド画像編集作業を行うために動画像データに基づく再生を一旦停止した後、再度その停止した時点からの動画像再生指示を行い、再生映像を参照しながら所望のタイミングで新規作成指示を行った場合であっても、指示時点における当該動画像データの再生時刻をイベントデータとして取得できる。したがって、このように取得したイベントデータを用いて同期再生データを作成し、かかる同期再生データを再生することで動画像データ再生時におけるユーザが所望したタイミングで、作成した補足資料等を提示するスライド画像を表示させることができる。
【0079】
B.第2実施形態
次に、本発明の第2実施形態にかかるインデキシング装置について図8を参照しながら説明する。同図に示すように、第2実施形態にかかるインデキシング装置200は、図1に示す動画像再生アプリケーション130に代えて、動画像録画再生部180を備える点で第1実施形態にかかるインデキシング装置100と相違している。
【0080】
動画像録画再生部180は、キャプチャボードまたはソフトウェアによって実現される機能であり、DV(Digital Video)カメラ190によって撮影され、リアルタイムで供給される動画像データを所定の形式(例えば、MPEG2など)の動画像データに変換し、変換後の動画像データを記憶部160に記憶する。また、動画像録画再生部180は、DVカメラ190からリアルタイムで供給される動画像データに基づく動画像再生を上記のように記録を行いながら実行して図示せぬ表示部等に再生映像を表示させる。
【0081】
本実施形態において、インデキシング装置200を用いて上記第1実施形態にかかるインデキシング装置100と同様に同期再生データを作成する場合、DVカメラ190は、例えば打ち合わせや講義の様子などを撮影し、その撮影動画像を動画像録画再生部180がリアルタイムで記録再生させる。その再生映像を参照しながら編集者が、補足資料等を提示したいタイミングでプレゼンテーション用アプリケーション120に対して新規作成指示をすることで、上記第1実施形態と同様の同期再生データを作成することができる。
【0082】
すなわち、第2実施形態におけるイベントデータ取得アプリケーション140は、動画像録画再生部180によってDVカメラ190からリアルタイムで供給される動画像データの記録が行われている間、プレゼンテーション用アプリケーション120に対してユーザからスライド画像の新規作成指示があった場合、新規作成されたスライド画像のページ番号を取得するとともに、指示があった時点の動画像録画再生部180による記録時刻を取得し、これらを関連付けてイベントデータとして記録する(図3参照)。
【0083】
ここで、動画像録画再生部180による記録時刻とは、DVカメラ190による撮影が開始されることによりその撮影映像がリアルタイムで供給されて動画像データの記録を開始した時点からの経過時間である。したがって、DVカメラ190によって撮影される動画像の記録開始から3分20秒後に3ページ目のスライド画像の新規作成指示がなされた場合には、イベントデータ取得アプリケーション140によって記録時刻「0:03:20」が取得され、これが3ページといったページ番号と関連付けて記録されることになる。
【0084】
そして、第2実施形態におけるインデキシングアプリケーション150によって行われる同期再生データ作成処理は上記第1実施形態と同様である。したがって、インデキシングアプリケーション150によって生成された同期再生データに基づく再生を行うと、動画像録画再生部180によって記録された動画像データに基づく動画像の再生時刻が「0:03:20」になった時点で、スライド画像欄510(図5参照)に3ページ目のスライド画像が表示されることになる。
【0085】
以上のように当該インデキシング装置200のユーザは、打ち合わせや講義等を撮影して記録しつつ、リアルタイムで再生される映像を参照しながらもしくは撮影対象となっている講義や打ち合わせに実際に参加等しながら、補充資料を表示させたいタイミングでプレゼンテーション用アプリケーション120に対して新規作成指示を行い、その後新規作成したスライド画像を補足すべき資料を表示するスライド画像に編集するといった作業を行うことで、上述したように動画像再生を行う際に、編集者が意図したタイミングで意図した内容の補足資料画像を表示させることができる同期再生データを作成することができる。
【0086】
なお、本明細書における「リアルタイム」で供給される動画像データを記録するとは、動画像データ等のファイルの供給を受けてコピーする場合などは含まれないが、DVカメラ190等が撮影した映像をそのままインデキシング装置200に供給する場合に限らず、予めDVカメラ190等で撮影しておいた動画像データをインデキシング装置300に再生する時と同じ時間で供給する、つまり35分の動画像データであれば35分間で供給する場合も含み、また放送される番組などの動画像データを受信して動画像録画再生部180が記録する場合も含む。
【0087】
C.第3実施形態
次に、本発明の第3実施形態にかかるインデキシング装置300について図9を参照しながら説明する。同図に示すように、第3実施形態にかかるインデキシング装置300は、図1に示す動画像再生アプリケーション130を有しない点で第1実施形態にかかるインデキシング装置100と相違している。
【0088】
かかるインデキシング装置300では、ユーザはユーザインターフェース110を介してイベントデータの取得開始をイベントデータ取得アプリケーション140に対して指示する。かかる指示があるとイベントデータ取得アプリケーション140は時間の計測を開始する。
【0089】
そして、取得開始指示があった後、プレゼンテーション用アプリケーション120に対して新規作成指示がなされた場合、イベントデータ取得アプリケーション140はかかる指示がなされた時の前記取得開始指示からの経過時間を取得し、かかる新規作成指示によって作成されたスライド画像のページ番号と関連付けてイベントデータとして記録する。
【0090】
このようにしてイベントデータ取得アプリケーション140によって取得されたイベントデータに基づいて、インデキシングアプリケーション150が上記第1実施形態と同様に同期再生データを作成する。なお、ここでスライド画像表示と同期再生させる動画像データは、当該インデキシング装置300とは別の動画像記録装置等によって記録されたものである。そして、かかる動画像記録装置によって記録された動画像データを当該インデキシング装置300に供給して記憶部160に記憶させることで、上記第1実施形態と同様にインデキシングアプリケーション150がかかる動画像データに基づく動画像再生と、スライド画像表示とを同期させることができる同期再生データを作成することができる。
【0091】
すなわち、講義や打ち合わせに実際に参加等しているインデキシング装置300のユーザが、講義や打ち合わせの様子を撮影する動画像記録装置(図示略)に対して撮影開始の指示を行うと同時またはほぼ同時にインデキシング装置300のイベントデータ取得アプリケーション140に対して取得開始指示を行うようにすればよい。その後、インデキシング装置300のユーザが、動画像記録装置に打ち合わせや講義等を撮影させて記録しつつ、撮影対象となっている講義や打ち合わせに実際に参加等しながら、補充資料を表示させたいタイミングでプレゼンテーション用アプリケーション120に対して新規作成指示を行い、その後新規作成したスライド画像を補足すべき資料を表示するスライド画像に編集するといった作業を行うことで、上述した第1実施形態と同様に動画像再生の進行に応じて、編集者が意図したタイミングで意図した内容の補足資料画像を表示させることができる同期再生データを作成することができる。
【0092】
D.変形例
なお、本発明は、上述した実施形態に限定されるものではなく、以下に例示するような種々の変形が可能である。
【0093】
(変形例1)
上述した第1実施形態では、イベントデータ取得アプリケーション140が、ユーザによる新規作成指示があった時点における動画像再生アプリケーション130による動画像再生の再生時刻を取得するようにしていた。さらに、1つの同期再生データを作成する際に、ある動画像データに別の動画像データを追加するといった場合においては、イベントデータ取得アプリケーション140は、以下のようにしてイベントデータを取得するようにしてもよい。
【0094】
図10に示すように、動画像再生アプリケーション130により35分間の動画像データAを再生した後、これに追加すべき動画像データBをさらに再生させた場合において、動画像データBの再生時刻が「0:05:12」の時点でユーザによってnページのスライド画像の新規作成指示がなされたときには、イベントデータ取得アプリケーション140は、動画像データBの再生時刻に動画像データAの再生時間である35分を加算調整し、調整後の再生時刻である「0:40:12」を取得してイベントデータを作成する。
【0095】
このようにすることで、動画像データAと動画像データBとを連続再生させるといった同期再生データを作成する場合であっても、イベントデータ取得アプリケーション140によって動画像データAの再生時間を考慮した再生時刻が取得されているので、連続再生される再生位置が動画像データBの「0:05:12」に達した時、つまり連続再生時間が「0:40:12」に達した時にnページのスライド画像が図5に示すスライド表示欄510に表示されるといった同期再生が可能な同期再生データを作成することが可能となる。
【0096】
(変形例2)
また、上述した第1〜第3実施形態においては、イベントデータ取得アプリケーション140は、プレゼンテーション用アプリケーション120に対してスライド画像の新規作成指示があった場合に、そのタイミング(再生時刻、記録開始からの経過時間、ユーザの開始指示からの経過時間)等を含むイベントデータを取得するようにしていた。
【0097】
このようにすべてのスライド画像を新規作成する場合のみならず、動画像再生、記録、ユーザの開始指示等が行われる前にすでに1または複数のスライド画像が作成されている場合においても、これに追加するために新規作成指示があったときには上記各実施形態と同様、イベントデータ取得アプリケーション140がその指示タイミング等を含むイベントデータを作成するようにしてもよい。
【0098】
さらに、すでに1または複数のスライド画像が作成済みである場合においては、イベントデータ取得アプリケーション140が、ユーザからのタイミング指定指示に基づいて、すでに作成されているスライド画像のうちタイミング指定指示に係るページ番号と、タイミング指定指示が行われた再生時刻等のタイミングとを関連付けてイベントデータを作成するようにしてもよい。
【0099】
例えば、図11に示すように、1ページのスライド画像がすでに作成済みの状態で、動画像データに基づく再生が開始された場合において、ユーザから当該イベントデータ取得アプリケーション140に対してタイミング指定指示があったときにはイベントデータ取得アプリケーションは、その指示があった時の再生時刻「0:08:14」と、1ページとを関連付けたイベントデータを作成する。その後、動画像データに基づく再生の再生時刻「0:13:24」となった時に、プレゼンテーション用アプリケーション120に対して新規作成指示があると、イベントデータ取得アプリケーション140は上記第1実施形態と同様にその指示時点における再生時刻「0:13:24」と、新規作成されたページである2ページとを関連付けたイベントデータを作成する。
【0100】
(変形例3)
また、上述した各実施形態において、イベントデータ取得アプリケーション140は、プレゼンテーション用アプリケーション120に対してユーザがスライド画像の新規作成指示を行った場合にその指示タイミング等を含むイベントデータを作成するようになっていたが、プレゼンテーション用アプリケーション120以外の画像表示機能を有するアプリケーションに対して新規作成指示があった場合にイベントデータを作成するようにしてもよい。
【0101】
例えば、文書データ作成編集アプリケーション(ワードプロセッサアプリケーション)のように作成編集した文書画像を表示させる機能を有するアプリケーションや、表計算アプリケーションのように作成編集した表やグラフを表示させる機能を有するアプリケーションであってもよい。そして、ユーザが文書データ作成編集アプリケーションに対して文書データの新規作成指示を行った場合には、イベントデータ取得アプリケーション140が、その指示タイミングと、新規作成した文書データを識別する情報(ファイル名等)とを関連付けたイベントデータを作成するようにすればよい。
【0102】
(変形例4)
また、上述した各実施形態では、講義や打ち合わせなどを撮影した動画像データと、スライド画像表示用データと、各々のスライド画像のタイトルといった文字情報といった異なる形式のデータの再生を制御して同期させることができるSMIL形式のデータを作成していたが、動画像再生に同期させるスライド画像のタイトルのみならず、講義や打ち合わせなどを録音した音声データに基づく音声再生とスライド画像表示を同期させる同期再生データ作成のために、上記各実施形態と同様のイベントデータ取得処理を行うようにしてもよい。
【0103】
(変形例5)
また、上述した実施形態では、インデキシングアプリケーション150が、イベントデータ、抽出したタイトルデータやページ番号データ等の文書情報、プレゼンテーション資料ファイルおよび動画像データに基づいて、動画像と、スライド画像と、これらのスライド画像のタイトル等の文字情報を同期して表示させることができる同期再生データとしてSMIL形式のデータを作成するようにしていた。
【0104】
このように同期再生データとしてSMIL形式のデータを作成するようにしてもよいが、SMIL以外のデータであっても、映像(または音声等)と、スライド画像等の静止画と、タイトル等の文字情報といった異なる形式のデータの再生を制御して同期させることができる形式のデータであればよく、SMIL形式以外の形式のデータを作成するようにしてもよい。
【0105】
(変形例6)
また、上述した各実施形態では、単独のインデキシング装置においてプレゼンテーション用アプリケーション120、動画像再生アプリケーション130、イベントデータ取得アプリケーション140およびインデキシングアプリケーション150が動作するようになっていたが、互いにデータの授受が可能な複数のPC等が上記アプリケーションの機能を分担して実現して同期再生データを生成するインデキシング装置を構成するようにしてもよい。
【0106】
(変形例7)
また、上述した各実施形態では、PC等に内蔵されるCPU等のコンピュータが外部記憶装置等に記憶されたプログラムを読み出して動作することにより、上述したイベント取得処理(図3参照)やインデキシング処理(図6参照)などを行うようになっていたが、このような処理と同様の処理をハードウェア回路によって実現するようにしてもよいし、コンピュータにこのような処理を実行させるためのプログラムをインターネット等の通信回線を介してユーザに提供するようにしてもよいし、当該プログラムをCD−ROM(Compact Disc−Read Only Memory)などのコンピュータ読み取り可能な記録媒体に記録してユーザに提供するようにしてもよい。
【0107】
【発明の効果】
以上説明したように、請求項1にかかる発明によれば、講義や打ち合わせ等を撮影した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0108】
また、請求項2にかかる発明によれば、講義や打ち合わせなどを撮影した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで予め作成しておいた画像表示用データに基づく画像表示を行わせるデータの作成を容易にすることができるという効果を奏する。
【0109】
また、請求項3にかかる発明によれば、ユーザが別途撮影等されている講義や打ち合わせに参加しているときに、打ち合わせや講義の撮影開始と同時に開始指示を行えば、撮影画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0110】
また、請求項4にかかる発明によれば、打ち合わせ等を撮影等した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで予め作成しておいた画像表示用データに基づく画像表示を行わせるデータの作成を容易にすることができるという効果を奏する。
【0111】
また、請求項5にかかる発明によれば、打ち合わせや講義等を撮影記録した動画像等を再生する際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0112】
また、請求項6にかかる発明によれば、打ち合わせや講義等を撮影記録した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで予め作成しておいた画像表示用データに基づく画像表示を行わせるデータの作成を容易にすることができるという効果を奏する。
【0113】
また、請求項7にかかる発明によれば、打ち合わせ等を撮影した動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0114】
また、請求項8にかかる発明によれば、打ち合わせ等を撮影記録した動画像等を再生する際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0115】
また、請求項9にかかる発明によれば、打ち合わせ等を撮影した動画像再生の際に応じてユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0116】
また、請求項10にかかる発明によれば、ユーザが別途撮影等されている講義や打ち合わせに参加しているときに、打ち合わせや講義の撮影開始と同時に開始指示を行えば、当該撮影画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0117】
また、請求項11にかかる発明によれば、打ち合わせ等を撮影記録した動画像等を再生する際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0118】
また、請求項12にかかるプログラムをコンピュータに実行させることで、上記請求項1にかかる発明と同様の動作が行われ、動画像再生等をする際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができるという効果を奏する。
【0119】
また、請求項13にかかるプログラムをコンピュータに実行させることで、上記請求項3にかかる発明と同様の動作が行われ、動画像等の再生の進行に応じてユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【0120】
また、請求項14にかかるプログラムをコンピュータに実行させることで、上記請求項5にかかる発明と同様の動作が行われ、動画像等の再生の際にユーザが所望したタイミングで上記アプリケーションで作成した画像表示用データに基づく画像表示を行わせるデータの作成等を容易にすることができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態にかかるインデキシング装置の構成を示すブロック図である。
【図2】前記インデキシング装置で動作するプレゼンテーション用アプリケーションによって作成されるプレゼンテーション資料ファイルの内容を示す図である。
【図3】前記インデキシング装置で動作するイベントデータ取得アプリケーションによるイベントデータ取得処理の手順を示すフローチャートである。
【図4】前記イベントデータ取得アプリケーションによるイベントデータ取得過程を説明するための図である。
【図5】前記インデキシング装置によって作成される同期再生データに基づく再生画像の一例を示す図である。
【図6】前記インデキシング装置で動作するインデキシングアプリケーションによる処理の手順を示すフローチャートである。
【図7】動画像およびスライド画像といった異なる形式のデータを同期再生させる前記同期再生データにおける、動画像とスライド画像との対応関係を模式的に示す図である。
【図8】本発明の第2実施形態にかかるインデキシング装置の構成を示すブロック図である。
【図9】本発明の第3実施形態にかかるインデキシング装置の構成を示すブロック図である。
【図10】前記第1実施形態にかかるインデキシング装置の変形例によるイベントデータ取得処理の内容を説明するための図である。
【図11】各実施形態にかかるインデキシング装置の変形例によるイベントデータ取得処理の内容を説明するための図である。
【符号の説明】
100 インデキシング装置
110 ユーザインターフェース
120 プレゼンテーションアプリケーション
130 動画像再生アプリケーション
140 イベントデータ取得アプリケーション
150 インデキシングアプリケーション
160 記憶部
180 動画像録画再生部
200 インデキシング装置
300 インデキシング装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an event acquisition device, an indexing device, an event acquisition method, and a program.
[0002]
[Prior art]
Conventionally, when conducting presentations, lectures, meeting meetings, etc., the state of presentations, lectures, etc. is taken with a video camera or recorded with a recording device, and recorded data taken with a video camera or recorded data recorded on a recording medium etc. It may be recorded and distributed. A person who has received such a recording medium or the like reproduces the recorded data with a predetermined reproducing device, so that the presentation or lecture can be viewed or listened to.
[0003]
In presentations and lectures, a projector or the like that displays materials and the like on a screen is often used. Therefore, when a video or the like obtained by shooting a presentation or the like is reproduced, if the materials and the like displayed on the screen are displayed in synchronization with the reproduction, the contents of the presentation and the lecture can be more easily understood. Become.
[0004]
Accordingly, a technique has been proposed in which the state of a presentation is recorded on a video, and at the time of the presentation, a presenter obtains timing information for displaying each material image on a screen (for example, see Patent Document 1). .
[0005]
In such a technique, when playing back a video in which a presentation is recorded, the display timing information of each acquired image is referred to, and when the playback time of the presentation video reaches the display timing of a certain image, the certain image is displayed. Is displayed based on the image data.
[0006]
[Patent Document 1]
JP-A-10-55391
[0007]
[Problems to be solved by the invention]
In some cases, a participant in a lecture or a meeting may want to provide supplementary materials or the like that were not prepared at the time of the lecture or the meeting in order to easily convey the contents to a third party or the like. For example, at the time of the meeting, supplementary information that is not included in the recorded video and audio, such as what the atmosphere of the other party was when talking, was synchronized with the reproduction of these video and audio. It is considered that the presentation and the like can make it easier for viewers and listeners to understand the contents of the meeting.
[0008]
In the above-described conventional technology in which the presenter obtains the timing at which the prepared material is displayed in the lecture or the like in the above-described lecture and performs synchronous playback display, when the user wants to add a new supplementary material after the end of the lecture or the like Even could not add it.
[0009]
The present invention has been made in view of the above, and when reproducing the contents of a lecture or a meeting or the like, it is easy to display supplementary materials not presented in the lecture or the like in synchronization with the reproduction of the lecture or the meeting or the like. It is an object to obtain an event acquisition device, an indexing device, an event acquisition method, and a program.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the invention according to claim 1 provides a new application for an application that realizes an image display function from a user while reproducing a moving image or audio based on moving image data or audio data. An event recording means is provided for recording, when an instruction to create editable image display data is issued, a reproduction time at the time of the instruction and identification information for identifying the newly created image display data in association with each other. An event acquisition device characterized in that:
[0011]
According to the first aspect of the present invention, if an instruction to create new image display data is given to an application at a timing when it is desired to add an image display such as supplementary material while referring to a moving image display to be reproduced, The reproduction time at the time of the new creation instruction and the information for identifying the newly created image display data are recorded in association with each other. Therefore, by referring to such a record in which the reproduction time is associated with the identification information, the image display based on the image display data created by the application at the timing desired by the user at the time of reproducing the moving image or the like is performed. It is possible to easily create data to be performed.
[0012]
The invention according to claim 2 is the configuration according to claim 1, wherein the event recording unit is configured to determine whether or not the image display data created by the application already exists and when a timing instruction is given from a user. The reproduction time at the time of the instruction and the identification information for identifying the image display data are recorded in association with each other.
[0013]
According to the second aspect of the present invention, when there is image display data created in advance before a moving image or the like is reproduced, the user can perform the operation at a desired timing while the moving image is being reproduced. When the instruction is issued, the reproduction time at the time of the instruction and the information for identifying the image display data created in advance are recorded in association with each other. Therefore, by referring to such a record in which the reproduction time and the identification information are associated with each other, the reproduction of the moving image or the like is performed based on the image display data created in advance by the application at the timing desired by the user. Creation of data for displaying an image can be facilitated.
[0014]
The invention according to claim 3 is configured such that, when a start instruction is issued from the user and an instruction to create new editable image display data is issued from the user to an application for realizing the image display function, An event acquisition device, comprising: an event recording unit that records an elapsed time from the start instruction time at the time of execution and identification information for identifying the newly created image display data in association with each other. is there.
[0015]
According to the third aspect of the present invention, if an instruction to create new image display data is given to the application at a timing at which an image such as supplementary material is to be added, the start time specified by the user at the time of the new creation instruction Is recorded in association with information that identifies the newly created image display data. Therefore, if the user gives a start instruction at the same time as the start of the shooting of a meeting or a lecture while participating in a lecture or a meeting that has been separately shot, a record in which the elapsed time is associated with the identification information is recorded. , It is possible to easily create data for performing image display based on the image display data created by the application at a timing desired by the user when reproducing a captured image or the like.
[0016]
According to a fourth aspect of the present invention, in the configuration of the third aspect of the invention, the event recording means includes a step of: receiving a timing instruction from a user when image display data created by the application already exists; It is characterized in that an elapsed time from the start instruction time at the time of the instruction and the identification information for identifying the image display data are recorded in association with each other.
[0017]
According to the invention according to claim 4, when there is image display data created in advance before the user gives a start instruction, the user who participates in a meeting or lecture that is being photographed at a desired timing. When the instruction is issued, the elapsed time from the start instruction at the time of the instruction and the information for identifying the image display data created in advance are recorded in association with each other. Therefore, by referring to such a record in which the elapsed time and the identification information are associated with each other, an image created in advance by the application at the timing desired by the user at the time of reproduction of a moving image or the like photographed at a meeting or the like. It is possible to easily create data for performing image display based on the display data.
[0018]
According to a fifth aspect of the present invention, while recording moving image data and audio data supplied in real time, new editable image display data for an application realizing an image display function from a user. When an instruction to create the image is given, an event recording means for recording the elapsed time from the start of recording at the time of the instruction and identification information for identifying the newly created image display data is provided. It is an event acquisition device characterized by the following.
[0019]
According to the fifth aspect of the present invention, while recording a moving image or the like obtained by capturing a meeting or a lecture provided in real time, a new image is added to the application at a timing at which an image display such as supplementary material is to be added. When the display data creation instruction is issued, the elapsed time from the start of recording at the time of the new creation instruction and the information for identifying the newly created image display data are recorded in association with each other. Therefore, by referring to the recording in which the elapsed time and the identification information are associated with each other, the image display based on the image display data created by the application at the timing desired by the user when reproducing the recorded moving image or the like. Can be easily created.
[0020]
According to a sixth aspect of the present invention, in the configuration of the fifth aspect of the present invention, the event recording means includes a step of, when there is a timing instruction from a user when image display data created by the application already exists, It is characterized in that the elapsed time from the start of recording at the time of the instruction and the identification information for identifying the image display data are recorded in association with each other.
[0021]
According to the invention according to claim 6, when there is image display data created in advance before recording a meeting or a moving image, the user can select a desired timing while recording the moving image. In this case, the elapsed time from the start of recording at the time of the instruction and the information for identifying the image display data created in advance are recorded in association with each other. Therefore, by referring to the recording in which the elapsed time and the identification information are associated with each other, the image display data created in advance by the application at the timing desired by the user when reproducing the recorded moving image or the like. It is possible to easily create data for displaying an image based on the image.
[0022]
In addition, the invention according to claim 7 is a system in which, while reproducing a moving image or a sound based on the moving image data or the sound data, a new image display data is transmitted from the user to an application for realizing the image display function. When a creation instruction is issued, an event recording unit that associates and records a playback time at the time of the instruction and identification information for identifying the newly created image display data, and the reproduced moving image data or Indexing means for associating the audio data with event content including identification information associated with the playback time recorded by the event recording means in a time series based on the playback time recorded by the event recording means. An indexing apparatus characterized in that:
[0023]
According to the invention according to claim 7, if an instruction to create new image display data is given to the application at a timing when it is desired to add an image display such as supplementary material while referring to the moving image display to be reproduced, The reproduction time at the time of the new creation instruction and the information for identifying the newly created image display data are recorded in association with each other. Then, the indexing unit associates the moving image data with the identification information of the image display data in chronological order by the reproduction time included in the event content. Therefore, according to such association, it becomes easy to create data for performing image display based on the image display data created by the application at a timing desired by the user when reproducing a moving image or the like. be able to.
[0024]
Further, according to the invention, while recording moving image data and audio data supplied in real time, a user instructs an application for realizing an image display function to create new image display data. Event recording means for recording the elapsed time from the start of recording when instructed, and identification information for identifying the newly created image display data, and the recorded moving image Indexing means for associating data or the audio data with event content including identification information associated with the elapsed time recorded by the event recording means, in a time series based on the elapsed time recorded by the event recording means; An indexing device comprising:
[0025]
According to the invention according to claim 8, while recording a moving image or the like taken of a meeting or a lecture provided in real time, a new image is added to the application at a timing at which an image display such as supplementary material is to be added. When the display data creation instruction is issued, the elapsed time from the start of recording at the time of the new creation instruction and the information for identifying the newly created image display data are recorded in association with each other. Then, the moving image data and the identification information of the image display data are associated with the time series by the elapsed time included in the event content by the indexing means. Therefore, according to such association, it is easy to create data for performing image display based on the image display data created by the application at a timing desired by the user when reproducing the recorded moving image or the like. Can be
[0026]
According to a ninth aspect of the present invention, there is provided a reproducing step of reproducing a moving image or audio based on moving image data or audio data, and an application for realizing an image display function from a user during the reproducing in the reproducing step. Event recording that, when an instruction to create new editable image display data is issued, associates the playback time at the time of the instruction with identification information for identifying the newly created image display data and records the event. And an event acquiring method.
[0027]
According to the ninth aspect of the present invention, if an instruction to create new image display data is given to the application at a timing when it is desired to add an image display such as supplementary material while referring to a moving image display to be reproduced, The reproduction time at the time of the new creation instruction and the information for identifying the newly created image display data are recorded in association with each other. Therefore, by referring to such a record in which the reproduction time and the identification information are associated with each other, the data for performing the image display based on the image display data created by the application at the timing desired by the user at the time of reproducing the moving image. Can be easily created.
[0028]
The invention according to claim 10 is configured such that, when an instruction to create new editable image display data is issued to the application for realizing the image display function from the user after the start instruction from the user, An event acquisition method characterized by comprising an event recording step of recording an elapsed time from the time of the start instruction at the time of execution and identification information for identifying the newly created image display data in association with each other. is there.
[0029]
According to the tenth aspect of the present invention, when an instruction to create new image display data is given to the application at a timing at which an image such as supplementary material is to be added, the start time designated by the user at the time of the new creation instruction Is recorded in association with information that identifies the newly created image display data. Therefore, if the user gives a start instruction at the same time as the start of the shooting of a meeting or a lecture while participating in a lecture or a meeting that has been separately shot, a record in which the elapsed time is associated with the identification information is recorded. , It is possible to easily create data for performing image display based on the image display data created by the application at a timing desired by the user when reproducing a captured image or the like.
[0030]
The invention according to claim 11 provides a recording step for recording moving image data and audio data supplied in real time, and an application for realizing an image display function from a user during recording in the recording step. When there is an instruction to create a new editable image display data, the elapsed time from the start of recording at the time of the instruction and the identification information for identifying the newly created image display data are recorded in association with each other. And an event recording step.
[0031]
According to the eleventh aspect of the present invention, while recording a moving image or the like obtained by capturing a meeting or a lecture provided in real time, a new image is added to the application at a timing at which it is desired to display an image such as supplementary material. When the display data creation instruction is issued, the elapsed time from the start of recording at the time of the new creation instruction and the information for identifying the newly created image display data are recorded in association with each other. Therefore, by referring to the recording in which the elapsed time and the identification information are associated with each other, the image display based on the image display data created by the application at the timing desired by the user when reproducing the recorded moving image or the like. Can be easily created.
[0032]
According to the twelfth aspect of the present invention, a user can newly edit an application for realizing an image display function from a user while reproducing a moving image or a sound based on the moving image data or the sound data. Functioning as event recording means for associating and recording the reproduction time at the time of the instruction and the identification information for identifying the newly created image display data, It is a program characterized by the following.
[0033]
By causing a computer to execute the program according to the twelfth aspect, the same operation as the invention according to the first aspect is performed, and an image display created by the application at a timing desired by the user when reproducing a moving image or the like. It is possible to easily create data for displaying an image based on the data.
[0034]
Further, in the invention according to claim 13, after an instruction to start the computer is issued from the user, an instruction to create new editable image display data is issued from the user to an application for realizing the image display function. In this case, the program is caused to function as an event recording unit that records the elapsed time from the start instruction time at the time of the instruction and the identification information for identifying the newly created image display data in association with each other. It is.
[0035]
By causing a computer to execute the program according to claim 13, the same operation as the invention according to claim 3 is performed, and the image display created by the application at a timing desired by the user when reproducing a moving image or the like. It is possible to easily create data for performing image display based on the application data.
[0036]
Further, the invention according to claim 14 enables a user to newly edit an application for realizing an image display function from a user while recording the moving image data and the audio data supplied in real time. Recording means for associating the elapsed time from the start of recording at the time of the instruction with the identification information for identifying the newly created image display data when the instruction to create the new image display data is issued. It is a program characterized by functioning as.
[0037]
By causing a computer to execute the program according to claim 14, the same operation as the invention according to claim 5 is performed, and the image display created by the application at a timing desired by the user when reproducing a moving image or the like. It is possible to easily create data for performing image display based on the application data.
[0038]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of an event acquisition device, an indexing device, an event acquisition method, and a program according to the present invention will be described in detail with reference to the accompanying drawings.
[0039]
A. First embodiment
FIG. 1 shows a functional configuration of the indexing device according to the first embodiment of the present invention. The indexing device 100 shown in FIG. 1 can be configured by a device that realizes various functions by executing an application by a CPU or the like, for example, a PC (Personal Computer), and includes a user interface (I / F) 110 and a presentation. Application 120, a moving image reproduction application 130, an event data acquisition application 140, an indexing application 150, and a storage unit 160.
[0040]
The user interface 110 has input devices such as a keyboard and a mouse, and the user can give instructions to various applications operating on the indexing device by appropriately operating these devices.
[0041]
The storage unit 160 is a storage device such as a hard disk drive capable of recording and reading data, and stores data created and used by various applications described later.
[0042]
The presentation application 120 creates slide image display data corresponding to slide images (tables, graphs, documents, patterns, etc.) to be displayed on a screen or the like when performing a presentation or the like.
[0043]
As illustrated in FIG. 2, the presentation application 120 manages a plurality of slide image display data created for use in one presentation as one presentation material file. Each slide image display data included in the slide image file includes data such as title data and a page number of the slide image in addition to display data corresponding to the slide image.
[0044]
When the user inputs an instruction to create new slide image display data via the user interface 110, the new slide image display data editable by the presentation application 120, that is, the blank slide image is displayed. Data to be displayed is created, and then the user issues an appropriate instruction via the user interface 110 to edit the slide image display data so that an image of a desired character, table, graph, pattern, or the like is displayed. You can do it.
[0045]
Also, when new slide image display data is created as described above according to the user's instruction, the title data is blank until the user inputs the instruction, and the desired title can be set by the user's instruction as appropriate. Can be described.
[0046]
In addition, as for the page number data of the newly created slide image display data, information indicating the number next to the largest page number created in the presentation material file so far is automatically described. For example, if the slide image display data to be newly created is the first slide image display data in the presentation material file, the page number is “1”, and three slide image display data have already been created. After that, when a new creation instruction is issued, the page number of the newly created slide image display data is “4”. According to the presentation application 120, the page numbers are automatically described, but this order can be edited, that is, changed to an arbitrary page number according to a user's instruction.
[0047]
The presentation application 120 causes the storage unit 160 to store the presentation material file created according to the user operation as described above.
[0048]
In addition, the user operates the user interface 110 as appropriate to instruct the presentation application 120 to select one of the plurality of slide image display data included in the created presentation material file, and At the timing, an image based on the slide image display data can be displayed on a display unit such as an LCD (Liquid Crystal Display).
[0049]
The moving image reproduction application 130 reproduces a moving image based on moving image data stored in the storage unit 16 in accordance with the MPEG (Moving Pictures Experts Group) 2 standard or the like. In addition, the moving image reproduction application 130 reproduces a moving image in accordance with an instruction supplied from the user via the user interface 110 such as reproduction start, pause, reproduction end, and fast forward.
[0050]
The event data acquisition application 140 monitors the state of the presentation application 120 while the moving image data is being reproduced based on the moving image data by the moving image reproduction application 130, and instructs the user to create new slide image display data. Creates and records event data when is performed on the presentation application 120.
[0051]
More specifically, as shown in FIG. 3, when the moving image reproduction by the moving image reproduction application 130 is started, the event data acquisition application 140 transmits a new slide image display data to the presentation application 120. It is monitored whether or not a creation instruction has been issued (step Sa1). If there is a new creation instruction, page number data is acquired as information for identifying slide image display data created by the new creation instruction (step Sa1). Step Sa2).
[0052]
Here, the following method can be used as a method by which the event data obtaining application 140 obtains a notification of a new creation instruction from the presentation application 120, page number data of a newly created slide image, and the like. For example, when the presentation application is Microsoft's “PowerPoint”, information indicating various states of the application can be acquired using a technique called OLE (Object Linking and Embedding). In this case, by calling a function so that data can be exchanged between the event data acquisition application 140 and the presentation application supporting OLE, it is possible to acquire information indicating the application state as described above. it can.
[0053]
Note that a method other than acquiring the information indicating the state of the presentation application 120 using the OLE technology may be used. For example, when a new creation of the presentation application is instructed, The process of notifying the event data acquisition application 140 of the fact and the page number of the created slide image may be executed.
[0054]
When the presence / absence of a new creation instruction and the page number data are acquired by the method described above, the event data acquisition application 140 acquires the playback time of the moving image data by the moving image playback application 130 at the time when the new creation instruction is issued ( Step Sa3). For example, while the moving image reproduction based on 35 minutes of moving image data such as “0: 00: 00: 00” to “35: 00: 0” shown in FIG. Is "0:07:12", the event data acquisition application 140 acquires "0:07:12" as the reproduction time. Further, when the moving image reproduction by the moving image reproduction application 130 is started at an intermediate position, for example, “0:13:15”, a new creation instruction is issued when the reproduction position is “0:25:18”. Sometimes, the event data acquisition application 140 acquires the reproduction time “0:25:18” of the moving image data. That is, the elapsed time from the start of the reproduction is 12 minutes and 3 seconds, but the event data acquisition application 140 is not the elapsed time from the start of the reproduction, but the time when a new creation instruction is given from the user. The reproduction time on the moving image data is obtained.
[0055]
When the user issues a new creation instruction to the presentation application 120, the event data acquisition application 140 acquires the playback time at the time of the instruction and the page number of the slide image created by the instruction. The time and the page number data are associated and recorded as event data (step Sa4). That is, as shown in FIG. 4, when a new creation instruction is issued at the playback time “0:07:12” and the slide image display data of page number “2” is newly created by the presentation application 120, Creates and records event data in which the reproduction time “0:07:12” is associated with “2 pages”. When a new creation instruction is issued at the playback time “0:25:18” and the slide image display data of the page number “3” is created by the presentation application 120, the playback time “0:25:18” is displayed. Event data in which “18” and “3 pages” are associated with each other is created and recorded.
[0056]
The event data acquisition application 140 performs the above-described event data recording / creating process from step Sa2 to step Sa4 every time the user issues a new slide image creation instruction to the presentation application 120.
[0057]
On the other hand, if there is no new creation instruction from the user (determination “No” in step Sa1), it is determined whether or not the moving image reproduction by the moving image reproduction application 130 has been completed (step Sa5). The case where the reproduction of the moving image is completed means whether the reproduction based on a certain moving image data has been completed, that is, the reproduction position has reached “0:35:00” in the case of the moving image data shown in FIG. Alternatively, this is a case where the user instructs the moving image reproduction application 130 to end reproduction through the user interface 110.
[0058]
When the moving image reproduction by the moving image reproduction application 130 has been completed, the event data acquisition application 140 executes the processing of steps Sa2 to Sa4 and records the event data recorded while performing the moving image reproduction. The output is output to the indexing application 150 (step Sa6).
[0059]
The indexing application 150 shown in FIG. 1 converts the event data supplied from the event data acquisition application 140 after the moving image reproduction ends, and the slide image display data created by the presentation application 120 during the moving image reproduction as described above. Based on the presentation material file including the moving image data and the moving image data reproduced by the moving image reproducing application 130, synchronous reproduction data capable of synchronously reproducing a moving image based on the moving image data and a slide image is generated. .
[0060]
As a data format for controlling and synchronizing data of various different formats such as moving images, still images, and characters, for example, there is a SMIL (Synchronized Multimedia Integration Language) format, and the indexing application 150 in the present embodiment performs synchronous reproduction. The SMIL format data is created as data.
[0061]
By reproducing such synchronized reproduction data by a predetermined reproduction software (for example, software for reproducing SMIL format data) on a PC or the like, a display as shown in FIG. 5 is made on the display screen.
[0062]
As shown in the figure, the display screen includes a video display column 500 for displaying a moving image reproduced by the moving image reproduction application described above, and a slide included in a presentation material file created during the reproduction of the moving image. A slide image column 510 for displaying slide images based on the image display data and a table of contents column 520 for displaying a list of titles of these slide images are displayed.
[0063]
Synchronous reproduction data is data that enables the above-described characters such as moving images, slide images, and titles to be reproduced and displayed in synchronization with each other. For details of the synchronous reproduction data creation processing, see FIG. It will be explained while doing so.
[0064]
First, the indexing application 150 extracts character information such as title data and page number data of each slide image display data from the presentation material file stored in the storage unit 160 (step Sb1). In addition, the indexing application 150 extracts slide image display data from the presentation material file and saves the data as slide image display data in a predetermined format (for example, a general-purpose format such as JPEG (Joint Photographic Experts Group)). (Step Sb2).
[0065]
Next, based on the event data, the document information such as the extracted title data and page number data, the presentation material file and the moving image data, the indexing application 150 generates a video based on the moving image data as shown in FIG. Synchronized playback data is created that allows the slide images based on the slide image display data in the presentation material file and character information such as the titles of these slide images to be displayed in synchronization (step Sb3).
[0066]
As described above, in the present embodiment, SMIL format data is created as such synchronized playback data, and the indexing application 150 acquires the following data from the supplied data and converts them into SMIL format data. , To create SMIL-format synchronized playback data.
(1) New creation timing of each slide image
(2) Title data of each slide image, etc. (title, body text, page number, etc.)
(3) Storage location (file path information) for each slide image (JPEG, etc.)
(4) Storage location of moving image data corresponding to each slide image (file path information)
(5) Layout data indicating how to arrange the video display column 500, the slide image column 510, and the table of contents column 520 (see FIG. 5).
[0067]
The layout information of (5) is not data supplied from event data or the like, but data created according to a layout specified by the user.
[0068]
FIG. 7 schematically shows the correspondence between the synchronization of the title, the slide image, and the video file in the synchronously reproduced data thus created. In the example shown in the drawing, at the time of reproduction of a moving image, the user's instruction to create a new slide image for the first page to the presentation application 120 is performed at the playback time “00:00:00”, and the instruction to create the new slide image for the second page is issued. At the playback time “0:01:15”, a new slide image creation instruction for the third page is performed at the playback time “0:02:45”, and a new slide image creation instruction for the fourth page is issued at the playback time “0”. : 03:53 ", and the event data at the instruction timing is acquired by the event data acquisition application 140.
[0069]
When a new slide image creation instruction is issued at the above timing during video playback, a period from when a new slide image creation instruction for the first page is instructed to a new slide image creation instruction for the second page is given. The moving image data reproduced at (time 0:00:00 to 0:01:15) is associated with the slide image of the first page and its title “Introduction”. Also, during the period from when a new slide image creation instruction for the second page is issued to when a new slide image creation instruction for the third page is issued (time 0:01:15 to 0:02:45). The moving image data is associated with the slide image of the second page and its title “background”. Further, the moving image reproduced between the time when the new slide image creation instruction for the third page is issued and the time when the new slide image creation instruction for the fourth page is issued (time 0:02:45 to 0:03:53). The image data is associated with the slide image of the third page and its title “Summary”.
[0070]
The indexing application 150 can control and synchronize the reproduction of data in different formats, such as character information such as a title, still images such as a slide image, and moving image data, based on the time-series correspondence as described above. It creates data in SMIL format.
[0071]
By reproducing the synchronous reproduction data by a predetermined reproduction software on a PC or the like, a display as shown in FIG. 5 is made on the display screen.
[0072]
If the user viewing the display clicks on "background", the synchronized playback data includes a path to the slide image of the second page and the corresponding moving image data (start time 0:01:15). Since the link to the title is described, the corresponding slide image of the second page is displayed in the slide image column 510 by the playback software, and at the time “0:01:15” corresponding to the title. The reproduction of the moving image data is started and is displayed in the video display column 500.
[0073]
If the user clicks on “Overview”, the slide image on the third page and the path to the moving image data (start time 0:02:45) corresponding to the title are linked. Is displayed in the slide image column 510, and the reproduced video based on the moving image data from the time “0:02:45” is displayed in the video display column 500.
[0074]
Of course, the slide image corresponding to the designated reproduction time can be displayed in the slide image column 510 by specifying the reproduction time to be displayed in the video display column 500 by the user. For example, when the user instructs to reproduce a moving image from the reproduction time “0:02:30”, the reproduction software performs the reproduction of the moving image from that time according to the synchronous reproduction data, and performs the reproduction at the designated time “0:02:30”. The slide image of the second page (corresponding to the video of 0:01:15 to 0:02:45) associated with “02:30” is read out and displayed in the slide image column 510.
[0075]
The reproduction by the synchronized reproduction data created through the above-described process includes, in addition to the video based on the moving image data, the slide image of the newly created page at the timing of the new creation instruction performed with reference to the moving image reproduction. The displayed slide image of the page up to the timing at which a new page creation instruction is issued is displayed.
[0076]
Therefore, the user of the indexing apparatus 100 issues a new creation instruction to the presentation application 120 at a timing at which supplementary materials and the like are desired to be added while referring to the moving image playback of the meeting or the lecture, and then newly creates the new creation. By performing operations such as editing the slide image into a slide image that displays the material to be supplemented, as described above, the supplementary material image of the intended content is created at the timing intended by the editor according to the progress of the moving image playback as described above. Synchronous reproduction data that can be displayed can be created.
[0077]
Further, in the present embodiment, the event data acquisition application 140 acquires the reproduction time of the moving image reproduction by the moving image reproduction application 130 at the time when the new creation instruction is given by the user, and starts from the middle of the moving image data. Even when the reproduction is started, the reproduction time of the moving image data is acquired instead of the elapsed time after the start of the halfway reproduction (see FIG. 4).
[0078]
In this way, the user temporarily stops playback based on the moving image data in order to perform a newly created slide image editing operation, and then gives a moving image playback instruction from the point of the stop again, and refers to the playback video. However, even when a new creation instruction is issued at a desired timing, the reproduction time of the moving image data at the time of the instruction can be acquired as event data. Therefore, a slide that presents the created supplementary material or the like at the timing desired by the user at the time of reproducing the moving image data by generating the synchronous reproduction data using the event data thus obtained and reproducing the synchronous reproduction data. Images can be displayed.
[0079]
B. Second embodiment
Next, an indexing device according to a second embodiment of the present invention will be described with reference to FIG. As shown in the figure, the indexing device 200 according to the first embodiment is different from the indexing device 100 according to the first embodiment in that a moving image recording / reproducing unit 180 is provided instead of the moving image reproducing application 130 shown in FIG. Is different.
[0080]
The moving image recording / playback unit 180 is a function realized by a capture board or software, and converts moving image data captured by a DV (Digital Video) camera 190 and supplied in real time into a predetermined format (for example, MPEG2 or the like). The image data is converted into moving image data, and the converted moving image data is stored in the storage unit 160. The moving image recording / playback unit 180 executes the moving image playback based on the moving image data supplied from the DV camera 190 in real time while recording as described above, and displays the playback image on a display unit (not shown) or the like. Let it.
[0081]
In the present embodiment, when the synchronized playback data is created using the indexing device 200 in the same manner as the indexing device 100 according to the first embodiment, the DV camera 190 shoots, for example, a meeting or a lecture, and shoots the image. The moving image recording / reproducing unit 180 records and reproduces the moving image in real time. By referring to the playback video, the editor issues a new creation instruction to the presentation application 120 at a timing at which supplementary material or the like is to be presented, so that the same synchronized playback data as in the first embodiment can be created. it can.
[0082]
In other words, the event data acquisition application 140 according to the second embodiment sends the user to the presentation application 120 while the moving image data supplied from the DV camera 190 is recorded in real time by the moving image recording / reproducing unit 180. When a new slide image creation instruction is issued from the server, the page number of the newly created slide image is acquired, and the recording time of the moving image recording / playback unit 180 at the time when the instruction is issued is acquired. Record as data (see FIG. 3).
[0083]
Here, the recording time by the moving image recording / reproducing unit 180 is an elapsed time from the point in time when the shooting by the DV camera 190 is started and the shot image is supplied in real time to start the recording of the moving image data. . Therefore, when a new slide image creation instruction for the third page is issued 3 minutes and 20 seconds after the start of recording of the moving image captured by the DV camera 190, the event data acquisition application 140 records the recording time “0:03: 20 "is acquired and recorded in association with a page number such as three pages.
[0084]
The synchronous reproduction data creation processing performed by the indexing application 150 in the second embodiment is the same as that in the first embodiment. Therefore, when the reproduction based on the synchronized reproduction data generated by the indexing application 150 is performed, the reproduction time of the moving image based on the moving image data recorded by the moving image recording / reproducing unit 180 becomes “0:03:20”. At this point, the slide image of the third page is displayed in the slide image column 510 (see FIG. 5).
[0085]
As described above, the user of the indexing apparatus 200 shoots and records a meeting or a lecture or the like, actually refers to a video reproduced in real time, or actually participates in a lecture or a meeting to be shot. Meanwhile, a new creation instruction is given to the presentation application 120 at a timing when the supplementary material is to be displayed, and then the newly created slide image is edited into a slide image displaying the material to be supplemented, thereby performing the above-described operation. As described above, when playing back a moving image, it is possible to create synchronous playback data that can display a supplementary material image of the intended content at the timing intended by the editor.
[0086]
Note that the recording of moving image data supplied in “real time” in the present specification does not include a case where a file such as moving image data is supplied and copied, but a video captured by the DV camera 190 or the like is included. Is supplied to the indexing apparatus 200 as it is, and is supplied at the same time as when the moving image data previously shot by the DV camera 190 or the like is reproduced to the indexing apparatus 300, that is, with 35 minutes of moving image data. This includes the case where the video data is supplied in 35 minutes, and also the case where the video recording / reproducing unit 180 receives video data such as a broadcasted program and records it.
[0087]
C. Third embodiment
Next, an indexing device 300 according to a third embodiment of the present invention will be described with reference to FIG. As shown in the figure, the indexing device 300 according to the third embodiment is different from the indexing device 100 according to the first embodiment in not having the moving image reproduction application 130 shown in FIG.
[0088]
In the indexing device 300, the user instructs the event data acquisition application 140 via the user interface 110 to start acquiring event data. Upon receiving such an instruction, the event data acquisition application 140 starts measuring time.
[0089]
When a new creation instruction is issued to the presentation application 120 after the acquisition start instruction is issued, the event data acquisition application 140 acquires the elapsed time from the acquisition start instruction when the instruction is issued, The slide image is recorded as event data in association with the page number of the slide image created by the new creation instruction.
[0090]
Based on the event data acquired by the event data acquisition application 140 in this manner, the indexing application 150 creates synchronized playback data as in the first embodiment. Here, the moving image data to be reproduced in synchronization with the display of the slide image is recorded by a moving image recording device different from the indexing device 300 or the like. Then, the moving image data recorded by the moving image recording device is supplied to the indexing device 300 and stored in the storage unit 160, so that the indexing application 150 performs processing based on the moving image data as in the first embodiment. Synchronous reproduction data that can synchronize the reproduction of a moving image with the display of a slide image can be created.
[0091]
That is, the user of the indexing apparatus 300 that is actually participating in a lecture or a meeting gives an instruction to start shooting to a moving image recording apparatus (not shown) that shoots the state of the lecture or the meeting at the same time or almost simultaneously. What is necessary is just to give an acquisition start instruction to the event data acquisition application 140 of the indexing device 300. Thereafter, when the user of the indexing apparatus 300 wants the moving image recording apparatus to photograph and record a meeting or a lecture, and to display supplementary material while actually participating in the lecture or meeting to be photographed. In the same manner as in the first embodiment described above, a new creation instruction is issued to the presentation application 120, and then the newly created slide image is edited into a slide image that displays the material to be supplemented. In accordance with the progress of the image reproduction, it is possible to create synchronous reproduction data capable of displaying the supplementary material image of the intended content at the timing intended by the editor.
[0092]
D. Modified example
Note that the present invention is not limited to the above-described embodiment, and various modifications as exemplified below are possible.
[0093]
(Modification 1)
In the first embodiment described above, the event data acquisition application 140 acquires the reproduction time of the moving image reproduction by the moving image reproduction application 130 at the time when a new creation instruction is given by the user. Further, when one piece of synchronous reproduction data is created, when another piece of moving image data is added to one piece of moving image data, the event data acquisition application 140 acquires the event data as follows. You may.
[0094]
As shown in FIG. 10, after the moving image data A for 35 minutes is reproduced by the moving image reproducing application 130, when the moving image data B to be added thereto is further reproduced, the reproduction time of the moving image data B is changed. When the user issues an instruction to newly create an n-page slide image at “0:05:12”, the event data acquisition application 140 sets the playback time of the moving image data A to the playback time of the moving image data B. 35 minutes are added and adjusted, and the adjusted playback time “0:40:12” is obtained to create event data.
[0095]
By doing so, even when synchronous playback data such as continuous playback of the video data A and the video data B is created, the event data acquisition application 140 takes the playback time of the video data A into consideration. Since the playback time has been acquired, when the playback position for continuous playback reaches “0:05:12” of the moving image data B, that is, when the continuous playback time reaches “0:40:12”, n Synchronous reproduction data capable of synchronous reproduction such that a slide image of a page is displayed in a slide display field 510 shown in FIG. 5 can be created.
[0096]
(Modification 2)
In the above-described first to third embodiments, when the event data acquisition application 140 receives a new slide image creation instruction from the presentation application 120, the timing (playback time, the time from the start of recording). Event data including an elapsed time, an elapsed time from a user's start instruction, and the like are obtained.
[0097]
Not only when all the slide images are newly created as described above, but also when one or a plurality of slide images have already been created before moving image reproduction, recording, user start instruction, etc., are performed. When a new creation instruction is issued to add the event data, the event data acquisition application 140 may create event data including the instruction timing, as in the above embodiments.
[0098]
Further, when one or a plurality of slide images have already been created, the event data acquisition application 140 transmits a page related to the timing designation instruction among the slide images already created based on the timing designation instruction from the user. The event data may be created by associating the number with the timing such as the reproduction time at which the timing designation instruction was issued.
[0099]
For example, as shown in FIG. 11, when a reproduction based on moving image data is started in a state where a slide image of one page has already been created, a timing designation instruction is issued from the user to the event data acquisition application 140. If there is, the event data acquisition application creates event data in which the reproduction time “0:08:14” at the time of the instruction is associated with one page. Thereafter, when a new creation instruction is given to the presentation application 120 at the playback time “0:13:24” of the playback based on the moving image data, the event data acquisition application 140 operates in the same manner as in the first embodiment. Then, event data is created in which the reproduction time “0:13:24” at the time of the instruction is associated with two pages that are newly created pages.
[0100]
(Modification 3)
In each of the above-described embodiments, when the user issues a new slide image creation instruction to the presentation application 120, the event data acquisition application 140 creates event data including the instruction timing. However, event data may be created when a new creation instruction is issued to an application having an image display function other than the presentation application 120.
[0101]
For example, an application having a function of displaying a document image created and edited, such as a document data creation and editing application (word processor application), and an application having a function of displaying a created table and a graph, such as a spreadsheet application, Is also good. When the user issues a new document data creation instruction to the document data creation / editing application, the event data acquisition application 140 sends the instruction timing and information (file name, etc.) for identifying the newly created document data. ) May be created.
[0102]
(Modification 4)
In each of the above-described embodiments, reproduction of data in different formats such as moving image data obtained by capturing a lecture or a meeting, slide image display data, and character information such as a title of each slide image is controlled and synchronized. Created the SMIL format data that can be synchronized, but not only the title of the slide image synchronized with the video playback, but also the synchronized playback that synchronizes the audio playback with the slide image display based on the audio data that recorded the lectures and meetings. For data creation, the same event data acquisition processing as in the above embodiments may be performed.
[0103]
(Modification 5)
Further, in the above-described embodiment, the indexing application 150 generates a moving image, a slide image, and the like based on event data, document information such as extracted title data and page number data, a presentation material file, and moving image data. SMIL format data has been created as synchronous reproduction data that can synchronously display character information such as a title of a slide image.
[0104]
As described above, data in SMIL format may be created as synchronous reproduction data. However, even if data other than SMIL is used, video (or audio or the like), still images such as slide images, and characters such as titles may be used. Any data may be used as long as the data can be controlled and synchronized in different formats such as information, and data in a format other than the SMIL format may be created.
[0105]
(Modification 6)
In each of the above-described embodiments, the presentation application 120, the moving image reproduction application 130, the event data acquisition application 140, and the indexing application 150 operate in a single indexing device. A plurality of PCs or the like may share the functions of the application to realize an indexing device that generates synchronized playback data.
[0106]
(Modification 7)
In each of the above-described embodiments, a computer such as a CPU incorporated in a PC or the like reads out and operates a program stored in an external storage device or the like to execute the event acquisition process (see FIG. 3) and the indexing process. (See FIG. 6). However, the same processing as the above processing may be realized by a hardware circuit, or a program for causing a computer to execute such processing may be provided. The program may be provided to the user via a communication line such as the Internet, or the program may be recorded on a computer-readable recording medium such as a CD-ROM (Compact Disc-Read Only Memory) and provided to the user. It may be.
[0107]
【The invention's effect】
As described above, according to the first aspect of the present invention, an image display based on image display data created by the application at a timing desired by the user when reproducing a moving image or the like obtained by taking a lecture or a meeting or the like. This makes it possible to easily create data for performing the above.
[0108]
According to the second aspect of the present invention, an image display based on image display data created in advance by the application at a timing desired by the user when reproducing a moving image or the like obtained by taking a lecture or a meeting or the like. This makes it possible to easily create data for performing the following.
[0109]
According to the third aspect of the present invention, when a user gives a start instruction at the same time as the start of shooting of a meeting or a lecture when the user is participating in a lecture or a meeting that is separately shot, the reproduction of a shot image or the like can be performed. In this case, it is possible to easily create data for performing image display based on the image display data created by the application at a timing desired by the user.
[0110]
According to the invention of claim 4, when reproducing a moving image or the like obtained by photographing a meeting or the like, an image display based on image display data created in advance by the application at a timing desired by the user is performed. There is an effect that the creation of data to be performed can be facilitated.
[0111]
According to the invention according to claim 5, when a moving image or the like obtained by recording a meeting or a lecture is reproduced, an image is displayed based on the image display data created by the application at a timing desired by the user. This has the effect of facilitating data creation and the like.
[0112]
Further, according to the invention according to claim 6, an image based on image display data created in advance by the application at a timing desired by the user at the time of reproduction of a moving image or the like obtained by photographing and recording a meeting or a lecture. This has the effect of facilitating creation of data to be displayed.
[0113]
According to the seventh aspect of the present invention, when reproducing a moving image or the like obtained by capturing a meeting or the like, generating data for performing image display based on the image display data generated by the application at a timing desired by the user. And the like can be facilitated.
[0114]
Further, according to the invention according to claim 8, when reproducing a moving image or the like in which a meeting or the like is recorded, data for displaying an image based on the image display data created by the application at a timing desired by the user. This has the effect of facilitating creation and the like.
[0115]
According to the ninth aspect of the present invention, creation of data for performing image display based on the image display data created by the application at a timing desired by the user in response to playback of a moving image obtained by capturing a meeting or the like. And the like can be facilitated.
[0116]
According to the tenth aspect of the present invention, when the user participates in a lecture or a meeting that has been separately photographed or the like and gives a start instruction at the same time as the start of the shooting of the meeting or the lecture, the photographed image or the like can be obtained. This has the effect of facilitating the creation of data for performing image display based on the image display data created by the application at the timing desired by the user during reproduction.
[0117]
According to the eleventh aspect of the present invention, when reproducing a moving image or the like in which a meeting or the like is captured and recorded, data for performing image display based on image display data created by the application at a timing desired by the user is provided. This has the effect of facilitating creation and the like.
[0118]
Further, by causing a computer to execute the program according to claim 12, the same operation as that of the invention according to claim 1 is performed, and the program created by the application at a timing desired by the user when reproducing a moving image or the like. This has the effect of facilitating the creation of data for performing image display based on the image display data.
[0119]
By causing a computer to execute the program according to claim 13, the same operation as the invention according to claim 3 is performed, and the application executes the program at a timing desired by the user in accordance with the progress of reproduction of a moving image or the like. It is possible to easily create data for performing image display based on the created image display data.
[0120]
Further, by causing a computer to execute the program according to claim 14, the same operation as the invention according to claim 5 is performed, and the program created by the application at a timing desired by the user when reproducing a moving image or the like. Creation of data for performing image display based on the image display data can be facilitated.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of an indexing device according to a first embodiment of the present invention.
FIG. 2 is a diagram showing the contents of a presentation material file created by a presentation application operating on the indexing device.
FIG. 3 is a flowchart showing a procedure of event data acquisition processing by an event data acquisition application operating on the indexing device.
FIG. 4 is a diagram for explaining an event data acquisition process by the event data acquisition application.
FIG. 5 is a diagram showing an example of a reproduced image based on synchronous reproduction data created by the indexing device.
FIG. 6 is a flowchart showing a procedure of processing by an indexing application operating on the indexing device.
FIG. 7 is a diagram schematically showing a correspondence relationship between a moving image and a slide image in the synchronously reproduced data for synchronously reproducing data of different formats such as a moving image and a slide image.
FIG. 8 is a block diagram illustrating a configuration of an indexing device according to a second embodiment of the present invention.
FIG. 9 is a block diagram illustrating a configuration of an indexing device according to a third embodiment of the present invention.
FIG. 10 is a diagram for explaining the content of event data acquisition processing by a modification of the indexing device according to the first embodiment.
FIG. 11 is a diagram for explaining the content of event data acquisition processing by a modification of the indexing device according to each embodiment.
[Explanation of symbols]
100 indexing device
110 User Interface
120 Presentation Application
130 Video playback application
140 Event data acquisition application
150 Indexing Application
160 storage unit
180 Video recording and playback unit
200 indexing device
300 indexing device

Claims (14)

動画像データまたは音声データに基づいて動画像または音声を再生している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段
を具備することを特徴とするイベント取得装置。
While reproducing a moving image or audio based on the moving image data or audio data, when the user instructs an application that realizes the image display function to create new editable image display data, An event acquisition apparatus, comprising: an event recording unit that associates and records a reproduction time when instructed and identification information for identifying the newly created image display data.
前記イベント記録手段は、前記アプリケーションによって作成された画像表示用データがすでにある場合においてユーザからタイミング指示があったときには、その指示された時の再生時刻と、当該画像表示用データを識別する識別情報とを関連付けて記録する
ことを特徴とする請求項1に記載のイベント取得装置。
The event recording means, when a timing instruction is given by a user when image display data created by the application already exists, a reproduction time at the time of the instruction and identification information for identifying the image display data The event acquisition device according to claim 1, wherein the event acquisition device records the event in association with the event.
ユーザからの開始指示があった後に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の前記開始指示時点からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段
を具備することを特徴とするイベント取得装置。
If there is an instruction from the user to create new editable image display data for the application realizing the image display function after the user issues an instruction to start the application, the instruction from the time of the start instruction at the time of the instruction is given. An event acquisition device, comprising: an event recording unit that records an elapsed time in association with identification information for identifying the newly created image display data.
前記イベント記録手段は、前記アプリケーションによって作成された画像表示用データがすでにある場合においてユーザからタイミング指示があったときには、その指示された時の前記開始指示時点からの経過時間と、当該画像表示用データを識別する識別情報とを関連付けて記録する
ことを特徴とする請求項3に記載のイベント取得装置。
The event recording means, when there is a timing instruction from the user when the image display data created by the application already exists, an elapsed time from the start instruction time at the time when the instruction is issued, The event acquisition device according to claim 3, wherein the event acquisition device records the data in association with identification information for identifying data.
リアルタイムで供給される動画像データおよび音声データを記録している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段
を具備することを特徴とするイベント取得装置。
While recording moving image data and audio data supplied in real time, if the user instructs an application that realizes the image display function to create new editable image display data, the instruction is issued. An event acquisition device, comprising: an event recording unit that records an elapsed time from the start of recording at the time of recording and identification information for identifying the newly created image display data in association with each other.
前記イベント記録手段は、前記アプリケーションによって作成された画像表示用データがすでにある場合においてユーザからタイミング指示があったときには、その指示された時の記録開始からの経過時間と、当該画像表示用データを識別する識別情報とを関連付けて記録する
ことを特徴とする請求項5に記載のイベント取得装置。
The event recording means, when there is a timing instruction from the user when the image display data created by the application already exists, the time elapsed from the start of recording at the time of the instruction, and the image display data 6. The event acquisition device according to claim 5, wherein the event acquisition device records the identification information in association with the identification information.
動画像データまたは音声データに基づいて動画像または音声を再生している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段と、
再生された前記動画像データまたは前記音声データと、前記イベント記録手段によって記録された再生時刻に関連付けられた識別情報を含むイベント内容とを、前記イベント記録手段によって記録された再生時刻に基づいて時系列に対応付けるインデキシング手段と
を具備することを特徴とするインデキシング装置。
When a user instructs an application for realizing an image display function to create new image display data while reproducing a moving image or audio based on the moving image data or audio data, the instruction is issued. Event recording means for recording the reproduction time at the time and the identification information for identifying the newly created image display data in association with each other;
The reproduced moving image data or the audio data and the event content including the identification information associated with the reproduction time recorded by the event recording means are timed based on the reproduction time recorded by the event recording means. An indexing device, comprising: indexing means for associating with a stream.
リアルタイムで供給される動画像データおよび音声データを記録している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段と、
記録された前記動画像データまたは前記音声データと、前記イベント記録手段によって記録された経過時間に関連付けられた識別情報を含むイベント内容とを、前記イベント記録手段によって記録された経過時間に基づいて時系列に対応付けるインデキシング手段と
を具備することを特徴とするインデキシング装置。
While recording moving image data and audio data supplied in real time, if the user issues an instruction to create new image display data to an application that implements the image display function, Event recording means for recording the elapsed time from the start of recording in association with identification information for identifying the newly created image display data,
Based on the elapsed time recorded by the event recording unit, the recorded moving image data or the audio data and the event content including the identification information associated with the elapsed time recorded by the event recording unit are timed. An indexing device, comprising: indexing means for associating with a stream.
動画像データまたは音声データに基づいて動画像または音声を再生する再生ステップと、
前記再生ステップでの再生中に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録ステップと
を具備することを特徴とするイベント取得方法。
A reproducing step of reproducing a moving image or a sound based on the moving image data or the sound data;
During the playback in the playback step, when a user issues an instruction to create new editable image display data to an application that implements an image display function, the playback time at the time of the instruction and the new An event recording step of recording the created image display data in association with identification information for identifying the image display data.
ユーザからの開始指示があった後に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の前記開始指示時点からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録ステップを
を具備することを特徴とするイベント取得方法。
If there is an instruction from the user to create new editable image display data for the application realizing the image display function after the user issues an instruction to start the application, the instruction from the time of the start instruction at the time of the instruction is given. An event acquisition method comprising an event recording step of recording an elapsed time in association with identification information for identifying the newly created image display data.
リアルタイムで供給される動画像データおよび音声データを記録する記録ステップと、
前記記録ステップでの記録中に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録ステップと
を具備することを特徴とするイベント取得方法。
A recording step of recording moving image data and audio data supplied in real time,
During the recording in the recording step, when a user issues an instruction to create new editable image display data for an application that implements an image display function, the elapsed time from the start of recording at the time of the instruction. An event recording step of recording in association with identification information for identifying the newly created image display data.
コンピュータを、
動画像データまたは音声データに基づいて動画像または音声を再生している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の再生時刻と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段
として機能させることを特徴とするプログラム。
Computer
While reproducing a moving image or audio based on the moving image data or audio data, when the user instructs an application that realizes the image display function to create new editable image display data, A program that functions as an event recording unit that records a reproduction time at the time of an instruction and identification information for identifying the newly created image display data in association with each other.
コンピュータを、
ユーザからの開始指示があった後に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の前記開始指示時点からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段
として機能させることを特徴とするプログラム。
Computer
If there is an instruction from the user to create new editable image display data for the application realizing the image display function after the user issues an instruction to start the application, the instruction from the time of the start instruction at the time of the instruction is given. A program that functions as an event recording unit that records an elapsed time in association with identification information for identifying the newly created image display data.
コンピュータを、
リアルタイムで供給される動画像データおよび音声データを記録する記録している間に、ユーザから画像表示機能を実現するアプリケーションに対して新たな編集可能な画像表示用データの作成指示があった場合、指示された時の記録開始からの経過時間と、当該新たに作成された画像表示用データを識別する識別情報とを関連付けて記録するイベント記録手段
として機能させることを特徴とするプログラム。
Computer
While recording moving image data and audio data supplied in real time, if the user instructs the application that realizes the image display function to create new editable image display data, A program that functions as an event recording unit that records an elapsed time from the start of recording when instructed and identification information for identifying the newly created image display data in association with each other.
JP2003045975A 2003-02-24 2003-02-24 Event acquisition device, indexing device, event acquisition method and program Expired - Fee Related JP4358533B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003045975A JP4358533B2 (en) 2003-02-24 2003-02-24 Event acquisition device, indexing device, event acquisition method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003045975A JP4358533B2 (en) 2003-02-24 2003-02-24 Event acquisition device, indexing device, event acquisition method and program

Publications (2)

Publication Number Publication Date
JP2004258745A true JP2004258745A (en) 2004-09-16
JP4358533B2 JP4358533B2 (en) 2009-11-04

Family

ID=33112645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003045975A Expired - Fee Related JP4358533B2 (en) 2003-02-24 2003-02-24 Event acquisition device, indexing device, event acquisition method and program

Country Status (1)

Country Link
JP (1) JP4358533B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055391A (en) * 1996-08-12 1998-02-24 Fuji Xerox Co Ltd Information reproducing device and material display device
JPH11250038A (en) * 1998-02-27 1999-09-17 Toshiba Corp Information processing system and operation history management method for the same
JP2000059724A (en) * 1998-08-11 2000-02-25 Toshiba Syst Technol Corp Multimedia authoring method, its system and recording medium thereof
JP2002008052A (en) * 2000-06-22 2002-01-11 Pfu Ltd Presentation system and recording medium
JP2002232858A (en) * 2001-01-29 2002-08-16 Fuji Xerox Co Ltd Document processing method, document processor and program
WO2002073462A1 (en) * 2001-03-08 2002-09-19 Fujitsu Limited Multimedia cooperative work system, client/server thereof, method therefor, recorded medium therefor, and program therefor
JP2002374525A (en) * 2001-06-14 2002-12-26 Sanyo Electric Co Ltd Distributing device, computer program and recording medium
JP2003323356A (en) * 2002-05-07 2003-11-14 Ricoh Co Ltd Data recording/reproducing system, data recording method, program and storage medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055391A (en) * 1996-08-12 1998-02-24 Fuji Xerox Co Ltd Information reproducing device and material display device
JPH11250038A (en) * 1998-02-27 1999-09-17 Toshiba Corp Information processing system and operation history management method for the same
JP2000059724A (en) * 1998-08-11 2000-02-25 Toshiba Syst Technol Corp Multimedia authoring method, its system and recording medium thereof
JP2002008052A (en) * 2000-06-22 2002-01-11 Pfu Ltd Presentation system and recording medium
JP2002232858A (en) * 2001-01-29 2002-08-16 Fuji Xerox Co Ltd Document processing method, document processor and program
WO2002073462A1 (en) * 2001-03-08 2002-09-19 Fujitsu Limited Multimedia cooperative work system, client/server thereof, method therefor, recorded medium therefor, and program therefor
JP2002374525A (en) * 2001-06-14 2002-12-26 Sanyo Electric Co Ltd Distributing device, computer program and recording medium
JP2003323356A (en) * 2002-05-07 2003-11-14 Ricoh Co Ltd Data recording/reproducing system, data recording method, program and storage medium

Also Published As

Publication number Publication date
JP4358533B2 (en) 2009-11-04

Similar Documents

Publication Publication Date Title
KR101013055B1 (en) Creating annotated recordings and transcripts of presentations using a mobile device
US8910225B2 (en) System and method for capturing, editing, searching, and delivering multi-media content with local and global time
US8363056B2 (en) Content generation system, content generation device, and content generation program
JP3664132B2 (en) Network information processing system and information processing method
JP2008172582A (en) Minutes generating and reproducing apparatus
JP2008293219A (en) Content management system, information processor in content management system, link information generation system in information processor, link information generation program in information processor, and recording medium with link information generation program recorded thereon
JPH056251A (en) Device for previously recording, editing and regenerating screening on computer system
JP2007036752A (en) System, method and program for reproducing contents
TWI220480B (en) System and method for generating synchronous playback of the slides and the corresponding audio/video information during the presentation
JP2004227514A (en) Memory unit, presentation data generating device, presentation data generating system, presentation data generating method and presentation method
JPH1055391A (en) Information reproducing device and material display device
JP2005252574A (en) Device and method for creating multimedia content, program for making computer execute method, and multimedia content creating system
JP4686990B2 (en) Content processing system, content processing method, and computer program
JP2004336289A (en) Shared white board history reproducing method, shared white board system, client, program and recording medium
JP4358533B2 (en) Event acquisition device, indexing device, event acquisition method and program
JP3507767B2 (en) Multimedia content reproduction system and multimedia content reproduction method
JP2004135256A (en) Data structure of information file, methods, apparatuses and programs for generating and reproducing information file, and storage media for storing the same programs
JP4149824B2 (en) Identification information display control device, presentation data creation device, program, and recording medium
KR100459668B1 (en) Index-based authoring and editing system for video contents
JP3757229B2 (en) Lectures at academic conferences, editing systems for lectures, and knowledge content distribution systems
JP4149825B2 (en) Indexing apparatus, indexing method and program
JP4640564B2 (en) Content distribution system
JP2005045434A (en) Device and method for supporting presentation
JP2004029612A (en) Information processor for remote education
JP6209835B2 (en) Information processing system, server device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090806

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120814

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130814

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees