JP2004199696A - Method for displaying information stored in multiple multimedia document - Google Patents

Method for displaying information stored in multiple multimedia document Download PDF

Info

Publication number
JP2004199696A
JP2004199696A JP2003420231A JP2003420231A JP2004199696A JP 2004199696 A JP2004199696 A JP 2004199696A JP 2003420231 A JP2003420231 A JP 2003420231A JP 2003420231 A JP2003420231 A JP 2003420231A JP 2004199696 A JP2004199696 A JP 2004199696A
Authority
JP
Japan
Prior art keywords
information
representation
thumbnail
video
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003420231A
Other languages
Japanese (ja)
Other versions
JP4446728B2 (en
JP2004199696A5 (en
Inventor
Jamey Graham
グラハム ジャメイ
Jonathan J Hull
ジェー ハル ジョナサン
Wolf Gregg
ウォルフ グレッグ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/465,022 external-priority patent/US8635531B2/en
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2004199696A publication Critical patent/JP2004199696A/en
Publication of JP2004199696A5 publication Critical patent/JP2004199696A5/ja
Application granted granted Critical
Publication of JP4446728B2 publication Critical patent/JP4446728B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide techniques for enabling a user to "horizontally" browse or read a multimedia document. <P>SOLUTION: Techniques for providing a graphical user interface (GUI) that displays representation of stored information that may include information of one or more types is provided. The displayed representation may include representation of information of one or more types. The GUI enables the user to navigate the stored information and to analyze the contents of the stored information. The stored information may include information captured along the same timeline and information captured along different timelines. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

本発明は、情報を表示するユーザ・インターフェースに係り、特に、1以上のマルチメディア文書(multimedia document)に記憶されているマルチメディア情報を検索し、表示するユーザ・インターフェースに関する。   The present invention relates to a user interface for displaying information, and more particularly, to a user interface for searching and displaying multimedia information stored in one or more multimedia documents.

コンピュータ技術の急速な進歩により、益々多くの情報量が電子(又はディジタル)文書の形で記憶されている。このような電子文書とは、例えば、マルチメディア情報を記憶したマルチメディア文書である。「マルチメディア情報」という単語は、一体化された複数の異なる種類の情報から構成された情報を指すのに用いられる。このマルチメディア情報に含まれる異なる種類の情報とは、例えば、テキスト情報、グラフィック情報、アニメーション情報、サウンド(オーディオ)情報、ビデオ情報、スライド情報、ホワイトボード情報、及び、他の種類の情報、の組み合わせである。また、マルチメディア情報は、異なる種類の情報を含んだ1以上のオブジェクトから構成された情報を指すのにも用いられる。例えば、マルチメディア情報に含まれるマルチメディア・オブジェクトは、テキスト情報、グラフィック情報、アニメーション情報、サウンド(オーディオ)情報、ビデオ情報、スライド情報、ホワイトボード情報、及び、他の種類の情報、を含む。マルチメディア文書は、マルチメディア文書は、ビデオ、オーディオ、クローズド・キャプション(字幕)・テキスト、キーフレーム、プレゼンテーション・スライド、ホワイトボード取込情報、及び、他のマルチメディア・タイプのオブジェクト、から構成された複合オブジェクトであると考え得る。マルチメディア文書の例は、例えば、双方向ウェブ・ページ、テレビ放送、ビデオ、プレゼンテーション、などを記憶した文書である。   With rapid advances in computer technology, an increasing amount of information is stored in the form of electronic (or digital) documents. Such an electronic document is, for example, a multimedia document storing multimedia information. The term “multimedia information” is used to refer to information composed of a plurality of different types of information integrated. The different types of information included in the multimedia information include, for example, text information, graphic information, animation information, sound (audio) information, video information, slide information, whiteboard information, and other types of information. It is a combination. The multimedia information is also used to refer to information composed of one or more objects including different types of information. For example, multimedia objects included in the multimedia information include text information, graphic information, animation information, sound (audio) information, video information, slide information, whiteboard information, and other types of information. Multimedia documents are composed of video, audio, closed caption text, keyframes, presentation slides, whiteboard capture information, and other multimedia type objects. Think of it as a composite object. Examples of multimedia documents are documents that store, for example, interactive web pages, television broadcasts, videos, presentations, and the like.

従来入手可能な複数のツール及びアプリケーションにより、ユーザは、マルチメディア文書に記憶されたマルチメディア情報を再生、記憶、インデックス作成、編集、又は、操作することができる。このようなツール及び/又はアプリケーションの例は、例えば、メーカ独自の又はカスタマイズされたマルチメディア・プレイヤ(例えば、RealNetworks社のRealPlayer(登録商標)や、Microsoft社のMicrosoft Windows(登録商標) Media Player、Apple社のQuickTime(登録商標)、Shockwave multimedia player、など)、ビデオ・プレイヤ、テレビ、パーソナル・ディジタル・アシスタント(PDA)、などである。例えば、カリフォルニア州サンマテオのVirage社(www.virage.com)は、ビデオ・コンテンツを視聴・操作するツールや、ビデオ・データベースを作成するツールなどの様々なツールを供給している。また、Virage社は、顔検出ツール及びビデオ情報からのオンスクリーン・テキスト認識ツールも供給している。   Multiple tools and applications available in the past allow a user to play, store, index, edit, or manipulate multimedia information stored in a multimedia document. Examples of such tools and / or applications include, for example, manufacturer-specific or customized multimedia players (e.g., RealNetworks RealPlayer (R), Microsoft's Microsoft Windows (R) Media Player, Apple's QuickTime (registered trademark), Shockwave multimedia player, etc.), video player, television, personal digital assistant (PDA), etc. For example, Village, Inc. (San Mateo, California) (www.virage.com) supplies various tools such as a tool for viewing and manipulating video content and a tool for creating a video database. Virage also supplies face detection tools and on-screen text recognition tools from video information.

膨大な数の電子文書を考えると、電子文書の読者は、益々、膨大な量の情報を短時間で理解することを求められている。彼らに置かれている要求を満たすために、読者は、電子文書を「垂直に」ではなく、「水平に」読まなければならないことが、すなわち、彼らは、1つの文書を先頭から終わりまで読んで分析する代わりに、1以上の電子文書の関心ある部分を走査し、拾い読みし、ザッと目を通すことが、必要であると分かっている。ユーザがテキスト/画像情報を含む電子文書を「水平に」読む又はザッと目を通すことを可能にするツール(例えば、特許文献1に記載された読書ツール)は存在するが、従来のツールは、オーディオ情報、ビデオ情報、及び、他の種類の情報を含み得るマルチメディア文書を「水平に」読む又はザッと目を通すのに用いることができない。上記特許文献に記載されたマルチメディア・ツールにより、ユーザは、マルチメディア文書を「水平に」読む又はザッと目を通すことはできない。
米国非仮特許出願第08/995,616号明細書
Given the enormous number of electronic documents, readers of electronic documents are increasingly required to understand an enormous amount of information in a short time. To meet the demands placed on them, readers must read electronic documents "horizontally" instead of "vertically", that is, they read one document from beginning to end Instead of analyzing at, it has been found necessary to scan, browse and glance through portions of one or more electronic documents of interest. While there are tools that allow a user to “read horizontally” or look through an electronic document containing text / image information (eg, a reading tool described in US Pat. Multimedia documents that may contain audio information, video information, and other types of information cannot be used to “read” or look through multimedia documents. The multimedia tools described in the above patent documents do not allow the user to read or glance through multimedia documents “horizontally”.
US Non-Provisional Patent Application No. 08 / 995,616

上記の点から、ユーザにマルチメディア文書を「水平に」ザッと目を通す又は読むことを可能にする手法に対する必要性が存在する。ユーザにマルチメディア文書に記憶されたマルチメディア情報の視聴、分析、及び、検索を可能にする手法が望ましい。   In view of the above, there is a need for a technique that allows a user to “read” or read a multimedia document “horizontally”. A technique that allows a user to view, analyze, and search multimedia information stored in a multimedia document is desirable.

本発明の実施形態は、1以上の種類の情報を含み得る格納された情報の表現(representation)を表示するグラフィカル・ユーザ・インターフェース(GUI)を提供する。この表示される表現は、上記1以上の種類の情報の表現を含み得る。このGUIにより、ユーザは、この格納された情報をナビゲートし及びザッと目を通し、そのコンテンツを分析することができる。この格納された情報は、同じタイムラインに沿って取り込まれた情報を含んでもよく、異なるタイムラインに沿って取り込まれた情報を含んでもよい。   Embodiments of the present invention provide a graphical user interface (GUI) that displays a representation of stored information that may include one or more types of information. The displayed representation may include a representation of the one or more types of information. The GUI allows the user to navigate through this stored information and browse through it and analyze its content. This stored information may include information captured along the same timeline or may include information captured along different timelines.

本発明の一実施形態によれば、第一の格納された情報の第一の表現が表示される。第一の格納された情報は、第一の種類の情報と、第二の種類の情報とを有する。第一の表現は、第一の格納された情報に含まれる第一の種類の情報の表現と、第一の格納された情報に含まれる第二の種類の情報の表現とを含む。第一の表現の1以上の部分が強調(highlight)される。この強調された第一の表現の1以上の部分は、第一の表現のうち第一の基準を含む部分に対応する。   According to one embodiment of the present invention, a first representation of the first stored information is displayed. The first stored information includes a first type of information and a second type of information. The first representation includes a representation of the first type of information included in the first stored information and a representation of the second type of information included in the first stored information. One or more parts of the first representation are highlighted. One or more portions of the emphasized first representation correspond to portions of the first representation that include the first criterion.

本発明の別の実施形態によれば、第一の格納された情報の第一の表現の表示に加えて、第二の格納された情報の第二の表現が表示される。第二の格納された情報は、第一の種類の情報と、第二の種類の情報とを有する。第二の表現は、第二の格納された情報に含まれる第一の種類の情報の表現と、第二の格納された情報に含まれる第二の種類の情報の表現とを含む。第二の表現の1以上の部分が強調される。この強調された第二の表現の1以上の部分は、第二の表現のうち第一の基準を含む部分に対応する。   According to another embodiment of the present invention, in addition to displaying the first representation of the first stored information, a second representation of the second stored information is displayed. The second stored information includes a first type of information and a second type of information. The second representation includes a representation of the first type of information included in the second stored information and a representation of the second type of information included in the second stored information. One or more parts of the second representation are emphasized. One or more portions of the enhanced second representation correspond to portions of the second representation that include the first criterion.

本発明の別の実施形態によれば、マルチメディア情報を表示する手法が提供される。第一の記録された情報に含まれる第一の種類の情報の表現を含む第一のサムネール(thumbnail)が表示される。第一の記録された情報に含まれる第二の種類の情報の表現を含む第二のサムネールが表示される。第二の記録された情報に含まれる第一の種類の情報の表現を含む第三のサムネールが表示される。第二の記録された情報に含まれる第二の種類の情報の表現を含む第四のサムネールが表示される。一実施形態によれば、第一及び第三のサムネールのうち(又は、第二及び第四のサムネールのうち)単語群の中の少なくとも一単語(又は、関心ある話題)を含む1以上の部分が強調される。   According to another embodiment of the present invention, a technique for displaying multimedia information is provided. A first thumbnail containing a representation of the first type of information contained in the first recorded information is displayed. A second thumbnail is displayed that includes a representation of the second type of information contained in the first recorded information. A third thumbnail containing a representation of the first type of information contained in the second recorded information is displayed. A fourth thumbnail is displayed that includes a representation of the second type of information contained in the second recorded information. According to one embodiment, one or more portions that include at least one word (or topic of interest) in a group of words of the first and third thumbnails (or of the second and fourth thumbnails). Is emphasized.

本発明の更に別の実施形態によれば、オーディオ情報及びビデオ情報を含む第一の記録された情報とオーディオ情報及びビデオ情報を含む第二の記録された情報とに含まれる情報を表示する手法が提供される。第一の記録された情報に含まれる情報の第一の表現が表示される。第一の表現は、第一のサムネールと第二のサムネールとを有する。第一のサムネールは、第一の記録された情報に含まれるオーディオ情報から得られたテキスト情報を含み、第二のサムネールは、第一の記録された情報に含まれるビデオ情報から抽出された1以上のキーフレームを含む。第二の記録された情報に含まれる情報の第二の表現が表示される。第二の表現は、第三のサムネールと第四のサムネールとを有する。第三のサムネールは、第二の記録された情報に含まれるオーディオ情報から得られたテキスト情報を含み、第四のサムネールは、第二の記録された情報に含まれるビデオ情報から抽出された1以上のキーフレームを含む。一実施形態によれば、第一の表現及び第二の表現のうちユーザ基準を含む1以上の部分が強調される。ここで、第一の表現の強調される部分は第一のサムネール及び第二のサムネールの一部を覆い、第二の表現の強調される部分は第三のサムネール及び第四のサムネールの一部を覆う。   According to yet another embodiment of the present invention, a technique for displaying information contained in a first recorded information including audio information and video information and a second recorded information including audio information and video information Is provided. A first representation of the information contained in the first recorded information is displayed. The first representation has a first thumbnail and a second thumbnail. The first thumbnail includes text information obtained from audio information included in the first recorded information, and the second thumbnail is extracted from video information included in the first recorded information. Includes the above key frames. A second representation of the information contained in the second recorded information is displayed. The second representation has a third thumbnail and a fourth thumbnail. The third thumbnail includes text information obtained from the audio information included in the second recorded information, and the fourth thumbnail is extracted from the video information included in the second recorded information. Includes the above key frames. According to one embodiment, one or more portions of the first representation and the second representation that include user criteria are highlighted. Here, the emphasized part of the first expression covers a part of the first thumbnail and the second thumbnail, and the emphasized part of the second expression is a part of the third thumbnail and the fourth thumbnail. Cover.

本発明の別の実施形態によれば、情報を表示する手法が提供される。格納された情報の表現が表示される。格納された情報のうち出力済の1以上の部分を表す情報が受信される。格納された情報の表現のうち、格納された情報の出力済の1以上の部分に対応する1以上の部分が強調される。   According to another embodiment of the present invention, a technique for displaying information is provided. A representation of the stored information is displayed. Information representing one or more output portions of the stored information is received. In the stored information representation, one or more portions corresponding to one or more output portions of the stored information are emphasized.

本発明の一実施形態によれば、情報を表示する手法が提供される。格納された情報の表現が表示される。格納された情報のうちいまだ出力されていない1以上の部分を表す情報が受信される。格納された情報の表現のうち、格納された情報のいまだ出力されていない1以上の部分に対応する1以上の部分が強調される。   According to one embodiment of the present invention, a technique for displaying information is provided. A representation of the stored information is displayed. Information representing one or more portions of the stored information that have not yet been output is received. Of the representation of the stored information, one or more portions corresponding to one or more portions of the stored information that have not yet been output are highlighted.

本発明の上記及び他の特徴、実施形態、及び利点は、以下の明細書、請求項、及び添付図面を参照することによって、より明らかとなる。   These and other features, embodiments, and advantages of the present invention will become more apparent with reference to the following specification, claims, and accompanying drawings.

本発明の実施形態は、マルチメディア情報を検索・表示する手法を提供する。本発明の一実施形態によれば、マルチメディア文書に格納され得るマルチメディア情報を表示するグラフィカル・ユーザ・インターフェース(GUI)が提供される。本発明の手法によれば、このGUIにより、ユーザは、マルチメディア文書に格納されたマルチメディア情報を検索することができる。このGUIは、マルチメディア文書のコンテンツの一部に着目した表示及び全体の文脈を見せる表示の両方を提供する。このように、このGUIによって、ユーザは、マルチメディア文書を「水平に」読む又はザッと目を通すことが可能となる。   Embodiments of the present invention provide a technique for searching and displaying multimedia information. In accordance with one embodiment of the present invention, a graphical user interface (GUI) is provided that displays multimedia information that can be stored in a multimedia document. According to the method of the present invention, this GUI allows a user to search for multimedia information stored in a multimedia document. This GUI provides both a display focusing on a part of the content of the multimedia document and a display showing the entire context. Thus, this GUI allows the user to read or “glance” through the multimedia document “horizontally”.

上述のように、「マルチメディア情報」という単語は、複数の異なる種類の情報を含む情報を指すものとする。このマルチメディア情報に含まれる異なる種類の情報とは、例えば、テキスト情報、グラフィック情報、アニメーション情報、音(オーディオ)情報、ビデオ情報、スライド情報、ホワイトボード画像情報、及び、他の種類の情報、の組み合わせなどである。例えば、テレビ放送のビデオ録画は、ビデオ情報及びオーディオ情報を含み得る。特定の瞬間には、ビデオ録画は、ビデオ情報に関連したマテリアル(多くの場合、そのビデオ録画のオーディオ部分に含まれるスピーチをそのまま表したクローズド・キャプション(CC)テキスト情報)も含み得る。マルチメディア情報は、異なる種類の情報を含んだ1以上のオブジェクトを含む情報を指すのにも用いられる。例えば、マルチメディア情報に含まれるマルチメディア・オブジェクトは、テキスト情報、グラフィック情報、アニメーション情報、音(オーディオ)情報、ビデオ情報、スライド情報、ホワイトボード画像情報、及び、他の種類の情報、などを含む。   As described above, the word “multimedia information” refers to information including a plurality of different types of information. Different types of information included in this multimedia information include, for example, text information, graphic information, animation information, sound (audio) information, video information, slide information, whiteboard image information, and other types of information, Or a combination. For example, a television broadcast video recording may include video information and audio information. At a particular moment, the video recording may also include material related to the video information, often closed caption (CC) text information that directly represents the speech contained in the audio portion of the video recording. Multimedia information is also used to refer to information that includes one or more objects that contain different types of information. For example, multimedia objects included in multimedia information include text information, graphic information, animation information, sound (audio) information, video information, slide information, whiteboard image information, and other types of information. Including.

本願において用いられる「マルチメディア文書」という単語は、マルチメディア情報を格納するあらゆる電子的ストレージ・ユニット(例えば、ファイル、ディレクトリ、など)を指すものとする。マルチメディア情報を格納するのには様々な異なる形式が用いられ得る。これら形式は、様々なMPEGフォーマット(例えば、MPEG−1、MPEG−2、MPEG−4、MPEG−7、など)、MP3フォーマット、SMILフォーマット、HTML+TIMEフォーマット、WMF(ウィンドウズ(登録商標)・メディア・フォーマット)、RM(Real Media)フォーマット、Quicktimeフォーマット、Shockwaveフォーマット、様々なストリーミング・メディア・フォーマット、エンジニアリング・コミュニティによって開発されたフォーマット、メーカ独自の慣習上のフォーマット、などである。マルチメディア文書の例は、例えば、録画ビデオ、MPEGファイル、ニュース放送録画、プレゼンテーション記録、会議録画、授業の録画、テレビ放送番組、などである。   As used herein, the term “multimedia document” shall refer to any electronic storage unit (eg, file, directory, etc.) that stores multimedia information. A variety of different formats can be used to store multimedia information. These formats include various MPEG formats (for example, MPEG-1, MPEG-2, MPEG-4, MPEG-7, etc.), MP3 format, SMIL format, HTML + TIME format, WMF (Windows (registered trademark) media format). ), RM (Real Media) format, Quicktime format, Shockwave format, various streaming media formats, formats developed by the engineering community, manufacturer-specific custom formats, and the like. Examples of multimedia documents are, for example, recorded videos, MPEG files, news broadcast recordings, presentation recordings, conference recordings, class recordings, television broadcast programs, and the like.

ズ1は、本発明の一実施形態を組み込み得る分散型ネットワーク100の簡略化されたブロック図である。図1に示すように、分散型ネットワーク100は、1以上のクライアント・システム102と、サーバ・システム104と、複数の通信リンク110を通じて通信ネットワーク108に接続されたマルチメディア情報源(MIS)106と、を含む複数のコンピュータ・システムを有する。図1に示す分散型ネットワーク100は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者は、他の変形例、修正例、及び、代替例を認識し得る。例えば、本発明は、スタンドアロン・システムにおいても具現化し得る。スタンドアロン環境では、図1に示した様々なコンピュータ・システムによって実行される機能が1台のコンピュータ・システムによって実行される。   FIG. 1 is a simplified block diagram of a distributed network 100 that may incorporate an embodiment of the present invention. As shown in FIG. 1, the distributed network 100 includes one or more client systems 102, a server system 104, and a multimedia information source (MIS) 106 connected to a communication network 108 through a plurality of communication links 110. , Including a plurality of computer systems. The distributed network 100 shown in FIG. 1 is merely illustrative of one embodiment that incorporates the present invention and does not limit the scope of the claimed invention. Those skilled in the art will recognize other variations, modifications, and alternatives. For example, the present invention may be implemented in a stand-alone system. In a stand-alone environment, the functions performed by the various computer systems shown in FIG. 1 are performed by a single computer system.

通信ネットワーク108は、図1に示す様々なコンピュータ・システムが情報を通信し、互いに交換することを可能にするメカニズムを提供する。通信ネットワーク108は、それ自体が多くの相互接続されたコンピュータ・システム及び通信リンクから構成されてもよい。一実施形態において、通信ネットワーク108はインターネットであるが、他の実施形態では、通信ネットワーク108は、ローカル・エリア・ネットワーク(LAN)、ワイド・エリア・ネットワーク(WAN)、無線ネットワーク、イントラネット、プライベート・ネットワーク、公衆網、交換網、などのあらゆる適切な通信ネットワークでよい。   Communication network 108 provides a mechanism that allows the various computer systems shown in FIG. 1 to communicate and exchange information. The communication network 108 may itself consist of many interconnected computer systems and communication links. In one embodiment, the communication network 108 is the Internet, but in other embodiments the communication network 108 is a local area network (LAN), a wide area network (WAN), a wireless network, an intranet, a private network. Any suitable communication network such as a network, public network, switching network, etc. may be used.

図1に示す様々なシステムを接続するのに用いられる通信リンク110は、有線リンク、光リンク、衛星又は他の無線通信リンク、波動リンク、或いは、情報通信用のあらゆる他のメカニズム、などの様々な種類のものでよい。通信リンクを通じた情報伝達を容易にするために様々な通信プロトコルが用いられ得る。これら通信プロトコルは、例えば、TCP/IP、HTTPプロトコル、エクステンシブル・マークアップ・ランゲージ(XML)、ワイヤレス・アプリケーション・プロトコル(WAP)、業界標準化機関によって開発中のプロトコル、ベンダ固有のプロトコル、カスタマイズされたプロトコル、などである。   The communication link 110 used to connect the various systems shown in FIG. 1 may vary, such as a wired link, an optical link, a satellite or other wireless communication link, a wave link, or any other mechanism for information communication. It can be of any kind. Various communication protocols can be used to facilitate information transmission over the communication link. These communication protocols include, for example, TCP / IP, HTTP protocol, extensible markup language (XML), wireless application protocol (WAP), protocols under development by industry standards bodies, vendor specific protocols, customized Protocol, etc.

通信ネットワーク108に接続されたコンピュータ・システムは、情報及び/又はサービスをリクエストするか又は情報及び/又はサービスを提供するかという点でいずれの役割を演じるかに応じて「クライアント」と「サーバ」に分類できる。ユーザによって情報又はサービスをリクエストするのに用いられるコンピュータ・システムは「クライアント」コンピュータ(又は、「クライアント」)に分類される。情報を格納し、該情報をクライアント・コンピュータ又はユーザがリクエストしたサービスを提供するための処理を実行するコンピュータ・システムから受信したユーザ・リクエストに応じて提供するコンピュータ・システムは、「サーバ」コンピュータ(又は、「サーバ」)と呼ばれる。ただし、特定のコンピュータ・システムがクライアント及びサーバの双方として機能し得ることは明らかである。   Depending on whether the computer system connected to the communication network 108 plays a role in requesting information and / or providing information and / or services, a “client” and a “server” Can be classified. Computer systems used to request information or services by a user are classified as “client” computers (or “clients”). A computer system that stores information and provides it in response to a user request received from a client computer or a computer system that performs processing to provide a service requested by a user is a “server” computer ( Alternatively, it is called a “server”). However, it is clear that a particular computer system can function as both a client and a server.

したがって、本発明の一実施形態によれば、サーバ・システム104は、本発明の教えに従ってマルチメディア情報を表示するGUIの生成を容易にするための処理を実行するように構成される。サーバ・システム104によって生成されたGUIは、サーバ・システム104に接続された出力装置又はクライアント・システム102を通じてユーザ(例えば、マルチメディア文書の読み手)に対して出力され得る。サーバ104によって生成されたGUIにより、ユーザは、マルチメディア文書に格納され得るマルチメディア情報を検索・閲覧することができる。このGUIは、マルチメディア文書のコンテンツの一部に着目した表示及び全体の文脈を見せる表示の両方を提供するため、このGUIによって、ユーザは、マルチメディア文書をザッと目を通す又は「水平に」読むことが可能となる。   Thus, according to one embodiment of the present invention, server system 104 is configured to perform processing to facilitate generation of a GUI that displays multimedia information in accordance with the teachings of the present invention. The GUI generated by server system 104 may be output to a user (eg, a reader of a multimedia document) through an output device connected to server system 104 or client system 102. The GUI generated by the server 104 allows the user to search and browse multimedia information that can be stored in the multimedia document. Because this GUI provides both a display that focuses on a portion of the content of the multimedia document and a display that shows the overall context, this GUI allows the user to browse through the multimedia document or “horizontally”. It becomes possible to read.

GUIを生成し、本発明の教えに係る様々な特徴を提供するためにサーバ・システム104によって実行される処理は、サーバ・システム104上で実行されるソフトウェア・モジュールによって実施されてもよく、サーバ・システム104に接続されたハードウェア・モジュールによって実施されてもよく、或いは、それらの組み合わせによって実施されてもよい。本発明の代替的実施形態として、この処理も、図1に示す様々なコンピュータ・システム間に分散されてもよい。   The processing performed by the server system 104 to generate the GUI and provide various features according to the teachings of the present invention may be performed by a software module executing on the server system 104, and the server It may be implemented by a hardware module connected to the system 104, or a combination thereof. As an alternative embodiment of the present invention, this process may also be distributed among the various computer systems shown in FIG.

このGUIに表示されるマルチメディア情報は、サーバ・システム104がアクセス可能なマルチメディア文書に格納され得る。例えば、このマルチメディア文書は、サーバ・システム104のストレージ・サブシステムに格納され得る。また、このマルチメディア文書は、サーバ104がアクセス可能なMIS106などの他のシステムによっても格納され得る。別の方法として、このマルチメディア文書は、サーバ・システム104がアクセス可能なメモリ・ロケーションに格納されてもよい。   The multimedia information displayed on this GUI may be stored in a multimedia document accessible by the server system 104. For example, the multimedia document may be stored in the storage subsystem of server system 104. The multimedia document may also be stored by other systems such as the MIS 106 accessible by the server 104. Alternatively, the multimedia document may be stored in a memory location accessible to the server system 104.

代替的実施形態として、マルチメディア文書にアクセスする代わりに、サーバ・システム104がマルチメディア文書のストリーム(例えば、ストリーミング・メディア信号、ケーブル信号、など)をMIS106などのマルチメディア情報源から受信してもよい。本発明の一実施形態によれば、サーバ・システム104はマルチメディア情報信号をマルチメディア文書に格納し、このマルチメディア情報を表示するGUIを生成する。MIS106の例は、テレビ放送受信機、ケーブル受信機、ディジタル・ビデオ録画機(例えば、TIVO box)、などである。例えば、マルチメディア情報源106は、マルチメディア放送信号を受信し、該信号をサーバ・システム104へ送信するように構成されたテレビとして実現され得る。代替的実施形態として、サーバ104は、MIS106によって受信されたマルチメディア情報信号をインターセプトするように構成されてもよい。サーバ・システム104は、このマルチメディア情報をMIS106から直接受信してもよく、或いは、別の方法として、通信ネットワーク108などの通信ネットワークを通じて該情報を受信してもよい。   As an alternative embodiment, instead of accessing a multimedia document, server system 104 receives a stream of multimedia documents (eg, streaming media signals, cable signals, etc.) from a multimedia information source such as MIS 106. Also good. According to one embodiment of the present invention, the server system 104 stores the multimedia information signal in a multimedia document and generates a GUI for displaying the multimedia information. Examples of the MIS 106 are a television broadcast receiver, a cable receiver, a digital video recorder (eg, a TIVO box), and the like. For example, the multimedia information source 106 may be implemented as a television configured to receive multimedia broadcast signals and transmit the signals to the server system 104. As an alternative embodiment, server 104 may be configured to intercept multimedia information signals received by MIS 106. The server system 104 may receive this multimedia information directly from the MIS 106 or alternatively may receive the information through a communication network such as the communication network 108.

上述のように、図1に示すMIS106は、マルチメディア情報の発信源を表す。本発明の一実施形態によれば、MIS106は、サーバ・システム104によってアクセスされるマルチメディア文書を格納し得る。例えば、MIS106は、サーバ・システム104がアクセス可能なマルチメディア文書を格納するストレージ装置又はサーバである。代替的実施形態として、MIS106は、マルチメディア情報ストリームをサーバ・システム104に提供してもよい。例えば、MIS106は、サーバ・システム104にライブ・テレビ供給情報を提供するテレビ受信機/アンテナでもよい。MIS106は、例えば、記録されたビデオ及び/又はオーディオ・ストリームをサーバ・システム104へ提供するビデオ録画機/プレイヤ、DVDプレイヤ、CDプレイヤ、などの装置である。代替的実施形態として、MIS106は、取り込まれたプレゼンテーション又は会議情報のストリームをサーバ・システム104へ提供し得るプレゼンテーション又は会議記録装置でもよい。また、MIS106は、外部ソースからマルチメディア情報を取り込む又は(例えば、無線リンクを通じて)受信し、その取り込まれたマルチメディア情報を更なる処理のためにサーバ・システム104へ提供するように構成された受信機(例えば、衛星受信アンテナ、又は、ケーブル受信機)でもよい。   As described above, the MIS 106 shown in FIG. 1 represents a source of multimedia information. According to one embodiment of the invention, MIS 106 may store multimedia documents that are accessed by server system 104. For example, the MIS 106 is a storage device or server that stores multimedia documents accessible by the server system 104. As an alternative embodiment, MIS 106 may provide a multimedia information stream to server system 104. For example, the MIS 106 may be a television receiver / antenna that provides live television feed information to the server system 104. The MIS 106 is, for example, a device such as a video recorder / player, DVD player, CD player, etc. that provides recorded video and / or audio streams to the server system 104. As an alternative embodiment, MIS 106 may be a presentation or meeting recording device that may provide a stream of captured presentation or meeting information to server system 104. The MIS 106 is also configured to capture or receive multimedia information from an external source (eg, via a wireless link) and provide the captured multimedia information to the server system 104 for further processing. It may be a receiver (for example, a satellite receiving antenna or a cable receiver).

ユーザは、クライアント・システム102を用いて、サーバ・システム104によって生成されたGUIを見ることができる。また、ユーザは、クライアント・システム102を用いて、特性のマルチメディア文書を選択し、その特定のマルチメディア文書によって格納されているマルチメディア情報を表示するGUIを生成するようにサーバ・システム104にリクエストすることもできる。また、ユーザは、クライアント・システム102に接続された入力装置を用いて、サーバ・システム104によって生成されたGUIとやりとりすることもできる。代替的実施形態として、クライアント・システム102は、本発明の教えに従ってGUIの生成を容易にするための処理も実行してもよい。クライアント・システム102は、パーソナル・コンピュータ、ポータブル・コンピュータ、ワークステーション、コンピュータ端末、ネットワーク・コンピュータ、メインフレーム、キオスク(kiosk)、パーソナル・ディジタル・アシスタント(PDA)、携帯電話などの通信装置、又は、他のデータ処理システム、などの様々な種類のものでよい。   A user can use the client system 102 to view the GUI generated by the server system 104. The user can also use the client system 102 to select a particular multimedia document and generate a GUI that displays the multimedia information stored by that particular multimedia document. You can also request it. The user can also interact with the GUI generated by the server system 104 using an input device connected to the client system 102. As an alternative embodiment, client system 102 may also perform processing to facilitate GUI generation in accordance with the teachings of the present invention. The client system 102 is a personal computer, portable computer, workstation, computer terminal, network computer, mainframe, kiosk, personal digital assistant (PDA), communication device such as a mobile phone, or Various types of data processing systems may be used.

本発明の一実施形態によれば、1台のコンピュータ・システムがサーバ・システム104及びクライアント・システム102の双方として機能してもよい。サーバ・システム104、クライアント・システム102、及び、MIS106の他の様々な構成が考えられる。   According to one embodiment of the present invention, a single computer system may function as both the server system 104 and the client system 102. Various other configurations of server system 104, client system 102, and MIS 106 are contemplated.

図2は、本発明の一実施形態に係るコンピュータ・システム200の簡略化されたブロック図である。コンピュータ・システム200は、図1に示すコンピュータ・システムのいずれとしても用いることができる。図2に示するように、コンピュータ・システム200は、少なくとも1つのプロセッサ202を有する。プロセッサ202は、バス・サブシステム204を通じて、複数の周辺装置と通信する。これら周辺装置は、例えば、メモリ・サブシステム208及びファイル・ストレージ・サブシステム210を含むストレージ・サブシステム206、ユーザ・インターフェース入力装置212、ユーザ・インターフェース出力装置214、及び、ネットワーク・インターフェース・サブシステム216、などである。これら入出力装置により、ユーザは、コンピュータ・システム200とのやりとりが可能となる。ユーザとは、人間のユーザ、装置、プロセス、別のコンピュータ、などである。ネットワーク・インターフェース・サブシステム216は、他のコンピュータ・システム及び通信ネットワークへのインターフェースを提供する。   FIG. 2 is a simplified block diagram of a computer system 200 according to one embodiment of the invention. The computer system 200 can be used as any of the computer systems shown in FIG. As shown in FIG. 2, the computer system 200 has at least one processor 202. The processor 202 communicates with a plurality of peripheral devices through the bus subsystem 204. These peripheral devices include, for example, a storage subsystem 206 including a memory subsystem 208 and a file storage subsystem 210, a user interface input device 212, a user interface output device 214, and a network interface subsystem. 216, and so on. These input / output devices allow the user to interact with the computer system 200. A user is a human user, device, process, another computer, or the like. The network interface subsystem 216 provides an interface to other computer systems and communication networks.

バス・サブシステム204は、コンピュータ・システム200の様々な構成要素及びサブシステムに目的通りに互いに通信させるメカニズムを提供する。これらコンピュータ・システム200の様々なサブシステム及び構成要素は、物理的に同じ場所にある必要はなく、ネットワーク100の様々な場所に分散していてもよい。バス・サブシステム204は1本のバスとして概略的に図示されているが、このバス・サブシステムの代替的実施形態として、複数のバスが用いられてもよい。   The bus subsystem 204 provides a mechanism that allows the various components and subsystems of the computer system 200 to communicate with each other as intended. These various subsystems and components of the computer system 200 need not be physically located at the same location, but may be distributed at various locations in the network 100. Although the bus subsystem 204 is schematically illustrated as a single bus, multiple buses may be used as an alternative embodiment of the bus subsystem.

ユーザ・インターフェース入力装置212は、キーボード、ポインティング装置、マウス、トラックボール、タッチパッド、グラフィック・タブレット、スキャナ、バーコード・スキャナ、ディスプレイに内蔵されたタッチスクリーン、音声認識システムなどの音声入力装置、マイク、及び、他の種類の入力装置、などである。一般的に、「入力装置」という単語が用いられると、コンピュータ・システム200を用いて情報を入力する考え得るすべての種類の装置及び方法を含むことが意図されている。   The user interface input device 212 includes a keyboard, a pointing device, a mouse, a trackball, a touch pad, a graphic tablet, a scanner, a barcode scanner, a touch screen built in the display, a voice input device such as a voice recognition system, a microphone , And other types of input devices. In general, when the word “input device” is used, it is intended to include all possible types of devices and methods for inputting information using computer system 200.

ユーザ・インターフェース出力装置214は、ディスプレイ・サブシステム、プリンタ、ファックス機、又は、音声出力装置などの視覚的でないディスプレイ、などである。このディスプレイ・サブシステムは、陰極線管(CRT)、液晶ディスプレイ(LCD)などのフラット・パネル装置、プロジェクション装置、などである。また、このディスプレイ・サブシステムは、音声出力装置などを通じた非視覚的ディスプレイも提供する。一般的に、「出力装置」という単語が用いられると、コンピュータ・システム200から情報を出力する考え得るすべての種類の装置及び方法を含むことが意図されている。本発明の一実施形態によれば、本発明の教えに従って生成されたGUIは、出力装置214を通じて、ユーザに提示され得る。   User interface output device 214 may be a display subsystem, printer, fax machine, or non-visual display such as an audio output device. The display subsystem is a flat panel device such as a cathode ray tube (CRT) or a liquid crystal display (LCD), a projection device, or the like. The display subsystem also provides a non-visual display, such as through an audio output device. In general, when the word “output device” is used, it is intended to include all possible types of devices and methods for outputting information from computer system 200. According to one embodiment of the present invention, a GUI generated in accordance with the teachings of the present invention may be presented to the user through output device 214.

ストレージ・サブシステム206は、コンピュータ・システム及び本発明の機能性を提供する基本プログラム及びデータ構造を格納するように構成され得る。例えば、本発明の一実施形態によれば、本発明の機能性を実行するソフトウェア・モジュールは、サーバ・システム104のストレージ・サブシステム206に格納することができる。これらソフトウェア・モジュールは、サーバ・システム104の1以上のプロセッサ202によって実行することができる。分散型の環境において、これらソフトウェア・モジュールは、複数のコンピュータ・システム上に格納され、それら複数のコンピュータ・システムのプロセッサによって実行され得る。また、ストレージ・サブシステム206は、本発明によって用いられ得る様々なデータベースを格納する貯蔵室も提供する。ストレージ・サブシステム206は、メモリ・サブシステム208及びファイル・ストレージ・サブシステム210を有し得る。   The storage subsystem 206 may be configured to store basic programs and data structures that provide the functionality of the computer system and the present invention. For example, according to one embodiment of the present invention, software modules that implement the functionality of the present invention may be stored in the storage subsystem 206 of the server system 104. These software modules can be executed by one or more processors 202 of server system 104. In a distributed environment, these software modules may be stored on multiple computer systems and executed by the processors of the multiple computer systems. The storage subsystem 206 also provides a storage room for storing various databases that can be used by the present invention. Storage subsystem 206 may include a memory subsystem 208 and a file storage subsystem 210.

メモリ・サブシステム208は、プログラム実行中に命令及びデータを保存する主ランダム・アクセス・メモリ(RAM)218、固定命令が格納されたリード・オンリ・メモリ(ROM)220などの複数のメモリを含み得る。ファイル・ストレージ・サブシステム210は、プログラム及びデータ・ファイル用の永久(不揮発性)ストレージを提供し、例えば、ハードディスク・ドライブ、関連する着脱可能媒体を伴うフロッピー(登録商標)・ディスク・ドライブ、コンパクト・ディスク・リード・オンリ・メモリ(CD−ROM)・ドライブ、光ドライブ、着脱可能媒体カートリッジ、及び、他の類似のストレージ媒体、などである。これらドライブの1以上が他の接続されたコンピュータ上の遠隔地に配置されてもよい。   The memory subsystem 208 includes a plurality of memories such as a main random access memory (RAM) 218 that stores instructions and data during program execution, and a read only memory (ROM) 220 that stores fixed instructions. obtain. The file storage subsystem 210 provides permanent (non-volatile) storage for program and data files, such as a hard disk drive, a floppy disk drive with associated removable media, a compact Disk read only memory (CD-ROM) drives, optical drives, removable media cartridges, and other similar storage media. One or more of these drives may be located at remote locations on other connected computers.

コンピュータ・システム200は、パーソナル・コンピュータ、ポータブル・コンピュータ、ワークステーション、コンピュータ端末、ネットワーク・コンピュータ、メインフレーム、キオスク(kiosk)、パーソナル・ディジタル・アシスタント(PDA)、携帯電話などの通信装置、又は、他のデータ処理システム、などの様々な種類のものでよい。サーバ・コンピュータは、一般的に、クライアント・システムよりもより多くのストレージ及び処理能力を有する。コンピュータ及びネットワークは絶え間なく変わる性質を持つため、図2に示したコンピュータ・システム200の説明は、コンピュータ・システムの好ましい実施形態を説明することを目的とした単なる一具体例であることが意図されている。図2に示したコンピュータ・システムより多くの又は少ない構成要素を有する他の多くのコンピュータ・システムの構成が考えられる。   The computer system 200 is a personal computer, portable computer, workstation, computer terminal, network computer, mainframe, kiosk, personal digital assistant (PDA), communication device such as a mobile phone, or Various types of data processing systems may be used. Server computers typically have more storage and processing power than client systems. Because computers and networks are constantly changing in nature, the description of computer system 200 shown in FIG. 2 is intended only as a specific example for the purpose of describing a preferred embodiment of the computer system. ing. Many other computer system configurations are possible having more or fewer components than the computer system shown in FIG.

図3は、本発明の一実施形態に従って生成された、マルチメディア情報を見るための簡略化されたユーザ・インターフェース300を示す。図3に示すGUI300は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではないことは明らかである。当業者は、他の変形例、修正例、及び、代替例を認識し得る。   FIG. 3 illustrates a simplified user interface 300 for viewing multimedia information generated in accordance with one embodiment of the present invention. It will be appreciated that the GUI 300 shown in FIG. 3 is merely exemplary of one embodiment incorporating the present invention and does not limit the scope of the invention as claimed. Those skilled in the art will recognize other variations, modifications, and alternatives.

GUI300は、マルチメディア文書に格納されたマルチメディア情報を表示する。このマルチメディア文書によって格納され、GUI300によって表示されるマルチメディア情報は、複数の異なる種類の情報を含み得る。図3に示すように、GUI300は、ビデオ情報、オーディオ情報、及び、場合によってクローズド・キャプション(CC)・テキスト情報を含むテレビ放送に対応したマルチメディア情報を表示する。テレビ放送は、サーバ・システム104がアクセス可能なメモリ・ロケーションにテレビ放送録画として格納され得る。しかし、本発明は、テレビ録画を表示することだけに限定されないことは明らかである。他の種類の情報から成るマルチメディア情報も本発明の教えに従って表示することができる。   The GUI 300 displays multimedia information stored in the multimedia document. The multimedia information stored by the multimedia document and displayed by the GUI 300 may include a plurality of different types of information. As shown in FIG. 3, the GUI 300 displays multimedia information corresponding to television broadcasting including video information, audio information, and possibly closed caption (CC) text information. Television broadcasts may be stored as television broadcast recordings in memory locations accessible to server system 104. However, it is clear that the present invention is not limited to displaying television recordings. Multimedia information consisting of other types of information can also be displayed in accordance with the teachings of the present invention.

テレビ放送は、様々な異なる手法を用いて格納され得る。一手法によれば、テレビ放送は、サーバ・システム104のPC−TVビデオカードに接続された衛星受信機を用いて、記録・格納される。次いで、サーバ・システム104上で実行されるアプリケーションが、この記録されたテレビ放送を処理し、GUI300の生成を容易にする。例えば、テレビ放送に含まれるビデオ情報は、その放送用の時間的情報及び用意されていればクローズド・オプションを含む別のメタファイル(例えば、XML形式の)を作成するMPEGキャプチャ・アプリケーションを用いて、取り込まれ得る。次いで、このメタファイルに格納された情報を用いて、図3に示すGUI300が生成される。   Television broadcasts can be stored using a variety of different techniques. According to one approach, television broadcasts are recorded and stored using a satellite receiver connected to the PC-TV video card of server system 104. An application running on server system 104 then processes this recorded television broadcast to facilitate the generation of GUI 300. For example, video information contained in a television broadcast can be obtained using an MPEG capture application that creates another metafile (eg, in XML format) that includes temporal information for the broadcast and, if prepared, a closed option. Can be incorporated. Next, the GUI 300 shown in FIG. 3 is generated using the information stored in the metafile.

図3に示すように、GUI300は、第一の表示エリア302、第二の表示エリア304、第三の表示エリア306、第四の表示エリア308、及び、第五の表示エリア310などの複数の表示エリアを有する。代替的実施形態として、本発明は、図3に示した例より多くの又は少ない表示エリアを有し得ることは明らかである。さらに、本発明の代替的実施形態では、1以上の表示エリアが1つの表示エリアに合成されていてもよく、或いは、特性の表示エリアが複数の表示エリアに分かれていてもよい。したがって、図3に示し、以下に説明する表示エリアは、請求項に記載された本発明の範囲を制限するものではない。   As shown in FIG. 3, the GUI 300 includes a plurality of display areas 302 such as a first display area 302, a second display area 304, a third display area 306, a fourth display area 308, and a fifth display area 310. It has a display area. As an alternative embodiment, it is clear that the invention can have more or less display area than the example shown in FIG. Further, in an alternative embodiment of the present invention, one or more display areas may be combined into one display area, or the characteristic display area may be divided into a plurality of display areas. Accordingly, the display areas shown in FIG. 3 and described below are not intended to limit the scope of the present invention as set forth in the claims.

本発明の一実施形態によれば、第一の表示エリア302は、GUI300を見ているユーザが選択できる1以上のコマンドを表示する。メニュ・バー、ドロップ・ダウン・メニュ、カスケード・メニュ、ボタン、選択バー、ボタンなどの様々なユーザ・インターフェース機能がこのユーザ選択可能コマンドを表示するのに用いられ得る。本発明の一実施形態によれば、第一の表示エリア302において提供されるコマンドは、ユーザがGUIに表示されるマルチメディア情報を有するマルチメディア文書を選ぶことができるようにするコマンドを含む。また、このコマンドは、ユーザが選択したマルチメディア文書に格納されたマルチメディア情報がGUI300に表示される方法をユーザが設定及び/又はカスタマイズできるようにする1以上のコマンドも含み得る。また、様々な他のコマンドも第一の表示エリア302において提供され得る。   According to an embodiment of the present invention, the first display area 302 displays one or more commands that can be selected by a user watching the GUI 300. Various user interface functions such as menu bar, drop down menu, cascade menu, button, selection bar, button, etc. can be used to display this user selectable command. According to one embodiment of the present invention, the commands provided in the first display area 302 include commands that allow the user to select a multimedia document having multimedia information displayed on the GUI. The command may also include one or more commands that allow the user to set and / or customize the manner in which multimedia information stored in the multimedia document selected by the user is displayed on the GUI 300. Various other commands may also be provided in the first display area 302.

本発明の一実施形態によれば、第二の表示エリア304は、マルチメディア文書によって格納されたマルチメディア情報の縮小表現を表示する。ユーザは、第二の表示エリア304において情報を表示するのに用いられる倍率を選択し得る。本発明の特定の実施形態によれば、マルチメディア文書全体(すなわち、そのマルチメディア文書に関連する開始時刻から終了時刻までのマルチメディア情報)の表現は、第二の表示エリア304に表示される。この実施形態において、第二の表示エリア304の一端はそのマルチメディア文書の開始時刻を表し、第二の表示エリア304の他端はそのマルチメディア文書の終了時刻を表す。   According to one embodiment of the invention, the second display area 304 displays a reduced representation of the multimedia information stored by the multimedia document. The user can select the magnification used to display information in the second display area 304. According to certain embodiments of the invention, a representation of the entire multimedia document (ie, multimedia information from the start time to the end time associated with the multimedia document) is displayed in the second display area 304. . In this embodiment, one end of the second display area 304 represents the start time of the multimedia document, and the other end of the second display area 304 represents the end time of the multimedia document.

図3に示すように、本発明の一実施形態によれば、第二の表示エリア304は、1以上のサムネール画像312を有する。各サムネール画像は、マルチメディア文書によって格納されたマルチメディア情報に含まれる特定の種類の情報の表現を表示する。例えば、図3に示されたGUI300の第二の表示エリア304には、2つのサムネール画像312−1及び312−2が表示されている。サムネール画像312−1は、GUI300によって表示されているマルチメディア文書によって格納されたマルチメディア情報に含まれる情報に対応したテキスト情報を表示する。サムネール画像312−1に表示されるテキストは、例えば、GUI300によって表示されるマルチメディア情報に含まれるCCテキストの表示可能な表現を表す。あるいは、サムネール画像312−1に表示されるテキストは、GUI300によってコンテンツが表示されたマルチメディア文書によって格納されたマルチメディア情報に含まれるオーディオ情報の録音(transcript)の表示可能な描写を表してもよい。オーディオ情報用の録音を生成するのには様々なオーディオ/テキスト録音手法が用いることができる。また、サムネール画像に表示されるテキストは、マルチメディア情報に含まれる他の種類の情報の表現であってもよい。例えば、テキスト情報は、マルチメディア情報がマルチメディア情報に付け加えられた注釈などが記録又は表示されたものであるとき作られたコメントの表現でもよい。   As shown in FIG. 3, according to an embodiment of the present invention, the second display area 304 has one or more thumbnail images 312. Each thumbnail image displays a representation of a particular type of information contained in the multimedia information stored by the multimedia document. For example, two thumbnail images 312-1 and 312-2 are displayed in the second display area 304 of the GUI 300 shown in FIG. The thumbnail image 312-1 displays text information corresponding to information included in the multimedia information stored by the multimedia document displayed by the GUI 300. The text displayed on the thumbnail image 312-1 represents a displayable representation of the CC text included in the multimedia information displayed by the GUI 300, for example. Alternatively, the text displayed in the thumbnail image 312-1 may represent a displayable depiction of the audio information transcript included in the multimedia information stored by the multimedia document with the content displayed by the GUI 300. Good. Various audio / text recording techniques can be used to generate a recording for audio information. The text displayed on the thumbnail image may be an expression of other types of information included in the multimedia information. For example, the text information may be an expression of a comment made when the annotation or the like added to the multimedia information is recorded or displayed.

サムネール312−2は、GUI300によって表示されるマルチメディア情報に含まれるビデオ情報の表現を表示する。図3に示す実施形態において、ビデオ情報は、マルチメディア文書によって格納されたマルチメディア情報に含まれるビデオ情報から抽出されたビデオ・キーフレームを用いて、表示される。このビデオ・キーフレームは、指定されたサンプリング・レートを用いて、様々な時点において、マルチメディア文書のビデオ情報から抽出することができる。ユーザ設定可能であってもよい特殊なレイアウト・スタイルが、フレームの読み易さを向上させるためにサムネール312−2に抽出されたキーフレームを表示するのに用いられる。   The thumbnail 312-2 displays a representation of video information included in the multimedia information displayed by the GUI 300. In the embodiment shown in FIG. 3, the video information is displayed using video keyframes extracted from the video information contained in the multimedia information stored by the multimedia document. This video keyframe can be extracted from the video information of the multimedia document at various times using a specified sampling rate. A special layout style that may be user configurable is used to display the extracted keyframes in thumbnail 312-2 to improve the readability of the frames.

表示されているマルチメディア情報に含まれる情報の種類に応じて、1以上のサムネール画像が第二の表示エリア304に表示されてもよい。第二の表示エリア304に表示される各サムネール画像312は、マルチメディア文書によって格納されたマルチメディア情報に含まれる特定の種類の情報の表現を表示する。本発明の一実施形態によれば、第二の表示エリア304に表示さえるサムネール数及び各サムネールによって表示される情報種類は、ユーザ設定可能である。   Depending on the type of information included in the displayed multimedia information, one or more thumbnail images may be displayed in the second display area 304. Each thumbnail image 312 displayed in the second display area 304 displays a representation of a particular type of information included in the multimedia information stored by the multimedia document. According to one embodiment of the present invention, the number of thumbnails displayed in the second display area 304 and the information type displayed by each thumbnail can be set by the user.

本発明の一実施形態によれば、第二の表示エリア304に表示される様々なサムネール画像は、時間的に同期されるか、あるいは、時系列に沿って互いに揃えられる。これは、マルチメディア情報に含まれ、略同時に生じた様々な種類の情報が次々に表示されることを意味する。例えば、サムネール画像312−1及び312−2は、サムネール画像31201に表示されたテキスト情報(CCテキスト情報、オーディオ情報の録音、又は、マルチメディア情報に含まれる他のいくつかの種類の情報のテキスト表現、を表し得る)、及び、特定の時点でマルチメディア情報に生じたサムネール312−2に表示されるビデオ・キーフレームは、互いに接近して(例えば、同じ水平軸に沿って)表示される。したがって、特定のタイムスタンプを持つ情報は、略同じタイムスタンプを持つ情報に隣接して表示される。これにより、ユーザは、単に第二の表示エリア304を水平方向にスキャンすることによって、GUI300によって表示されているマルチメディア情報に略同時に生じた様々な情報種類を判断することができる。   According to an embodiment of the present invention, the various thumbnail images displayed in the second display area 304 are synchronized in time or aligned with each other in time series. This means that various types of information included in the multimedia information and generated almost simultaneously are displayed one after another. For example, the thumbnail images 312-1 and 312-2 are text information displayed on the thumbnail image 31201 (CC text information, audio information recording, or text of some other type of information included in the multimedia information). Video keyframes displayed in thumbnail 312-2 that occurred in the multimedia information at a particular point in time are displayed close together (eg, along the same horizontal axis). . Therefore, information having a specific time stamp is displayed adjacent to information having substantially the same time stamp. As a result, the user can determine various information types generated almost simultaneously in the multimedia information displayed by the GUI 300 by simply scanning the second display area 304 in the horizontal direction.

本発明の教えるところによれば、表示レンズ又は窓314(以下、「サムネール表示エリア・レンズ314」と称す)が第二の表示エリア304に表示される。サムネール表示エリア・レンズ314は、第二の表示エリア304の一部を覆う又は強調する。本発明の教えるところによれば、第二の表示エリア304のうちサムネール表示エリア・レンズ314によって覆われたエリアに対応するマルチメディア情報は、第三の表示エリア306に表示される。   According to the teachings of the present invention, a display lens or window 314 (hereinafter referred to as “thumbnail display area / lens 314”) is displayed in the second display area 304. The thumbnail display area lens 314 covers or emphasizes a part of the second display area 304. According to the teaching of the present invention, the multimedia information corresponding to the area covered by the thumbnail display area / lens 314 in the second display area 304 is displayed in the third display area 306.

図3に示す実施形態において、サムネール表示エリア・レンズ314は、第二の表示エリア304の上部の位置し、マルチメディア文書の上部(スタート部分)を強調している。ユーザは、レンズ314を第二の表示エリア304に沿ってスライド又は移動させることによって、サムネール表示エリア・レンズ314の位置を変えることができる。例えば、図3において、サムネール表示エリア・レンズ314は、第二の表示エリア304に沿って縦に動かすことができる。   In the embodiment shown in FIG. 3, the thumbnail display area lens 314 is located above the second display area 304 and highlights the top (starting portion) of the multimedia document. The user can change the position of the thumbnail display area lens 314 by sliding or moving the lens 314 along the second display area 304. For example, in FIG. 3, the thumbnail display area lens 314 can be moved vertically along the second display area 304.

サムネール表示エリア・レンズ314の位置を第二の表示エリア304に沿って第二の表示エリア304の第一の位置から第二の位置へ変更すると、第三の表示エリア306に表示されたマルチメディア情報は、第三の表示エリア306に表示されたマルチメディア情報が第二の表示エリア304のうちのサムネール表示エリア・レンズ314によって強調されているエリアと対応し続けるように、自動的に更新される。したがって、ユーザは、サムネール表示エリア・レンズ314を用いて、GUI300によって表示されたマルチメディア文書のコンテンツをナビゲート及びスクロールすることができる。このように、サムネール表示エリア・レンズ314は、コンテキストを提供すると共に、第三の表示エリア306に表示されているマルチメディア情報のマルチメディア文書全体の中での位置を示す。   When the position of the thumbnail display area / lens 314 is changed from the first position of the second display area 304 to the second position along the second display area 304, the multimedia displayed in the third display area 306 is displayed. The information is automatically updated so that the multimedia information displayed in the third display area 306 continues to correspond to the area highlighted by the thumbnail display area lens 314 in the second display area 304. The Thus, the user can navigate and scroll through the contents of the multimedia document displayed by the GUI 300 using the thumbnail display area lens 314. As such, the thumbnail display area lens 314 provides context and indicates the position of the multimedia information displayed in the third display area 306 within the entire multimedia document.

図4は、本発明の一実施形態に係るサムネール表示エリア・レンズ314の簡略化された拡大図である。図4に示すように、サムネール表示エリア・レンズ314は、第一の辺318と第二の辺320によって区切られている。サムネール表示エリア・レンズ314は、第二の表示エリア304のうち辺318と辺320の間のエリアを強調する。サムネール表示エリア・レンズ314の第二の表示エリア304上での位置に基づいて、辺318はマルチメディア文書における特定の時刻tに対応し、辺320はマルチメディア文書における特定の時刻t(t>t)に対応する。例えば、サムネール表示エリア・レンズ314が(図3に示すように)第二の表示エリア304の先頭に位置するとき、tは表示されているマルチメディア文書の開始時刻に対応し、サムネール表示エリア・レンズ314が第二の表示エリア304の終端に位置するとき、tはそのマルチメディア文書の終了時刻に対応する。したがって、サムネール表示エリア・レンズ314は、第二の表示エリア304のうち時刻tと時刻tの間の部分を強調する。本発明の一実施形態によれば、(サムネール表示エリア・レンズ314によって強調された又は覆われた)時間区間t〜tに対応するマルチメディア情報は、第三の表示エリア306に表示される。したがって、サムネール表示エリア・レンズ314の位置がユーザ入力に応じて第二の表示エリア304に沿って変更されると、第三の表示エリア306に表示された情報は、第三の表示エリア306に表示されるマルチメディア情報が第二の表示エリア304のうちサムネール表示エリア・レンズ314によって強調されるエリアに対応し続けるように、更新される。 FIG. 4 is a simplified enlarged view of a thumbnail display area lens 314 according to one embodiment of the present invention. As shown in FIG. 4, the thumbnail display area lens 314 is divided by a first side 318 and a second side 320. The thumbnail display area / lens 314 emphasizes an area between the side 318 and the side 320 in the second display area 304. Based on the position of the thumbnail display area / lens 314 on the second display area 304, the side 318 corresponds to a specific time t 1 in the multimedia document, and the side 320 corresponds to a specific time t 2 ( t 2 > t 1 ). For example, when the thumbnail display area lens 314 is positioned at the beginning of the second display area 304 (as shown in FIG. 3), t 1 corresponds to the start time of the displayed multimedia document, and the thumbnail display area when lens 314 is located at the end of the second display area 304, t 2 corresponds to the end time of the multimedia document. Therefore, the thumbnail display area / lens 314 emphasizes the portion of the second display area 304 between time t 1 and time t 2 . According to one embodiment of the present invention, multimedia information corresponding to the time interval t 2 -t 1 (highlighted or covered by the thumbnail display area lens 314) is displayed in the third display area 306. The Accordingly, when the position of the thumbnail display area / lens 314 is changed along the second display area 304 according to the user input, the information displayed in the third display area 306 is transferred to the third display area 306. The displayed multimedia information is updated so as to continue to correspond to the area highlighted by the thumbnail display area / lens 314 in the second display area 304.

図3及び4に示すように、サムネール表示エリア・レンズ314は、第二の表示エリア304のうちサムネール表示エリア・レンズ314によって強調される部分の一部を更に強調するサブレンズ316を有する。本発明の一実施形態によれば、第二の表示エリア304のうちサブレンズ316によって強調される又は覆われる部分は、第三の表示エリア306のうちレンズ322によって強調される又は覆われる部分に対応する。サブレンズ316は、サムネール表示エリア・レンズ314の辺318と辺320の間で、第二の表示エリア304に沿って、動かすことができる。サブレンズ316がサムネール表示エリア・レンズ314の範囲内の第一の位置から第二の位置へ動かされると、第三の表示エリア306におけるレンズ322の位置も、サブレンズ316の位置変更に対応して、自動的に変更される。さらに、レンズ322の位置が第三の表示エリア306上で第一の位置から第二の位置へ変更されると、サブレンズ316の位置も、レンズ322の位置変更に対応して、自動的に変更される。レンズ322に関する更なる詳細を以下に説明する。   As shown in FIGS. 3 and 4, the thumbnail display area / lens 314 includes a sub lens 316 that further emphasizes a part of the second display area 304 that is emphasized by the thumbnail display area / lens 314. According to an embodiment of the present invention, a portion of the second display area 304 that is emphasized or covered by the sub lens 316 is a portion of the third display area 306 that is emphasized or covered by the lens 322. Correspond. The sub lens 316 can be moved along the second display area 304 between the side 318 and the side 320 of the thumbnail display area lens 314. When the sub lens 316 is moved from the first position within the range of the thumbnail display area / lens 314 to the second position, the position of the lens 322 in the third display area 306 also corresponds to the position change of the sub lens 316. Automatically changed. Further, when the position of the lens 322 is changed from the first position to the second position on the third display area 306, the position of the sub lens 316 is automatically changed in accordance with the position change of the lens 322. Be changed. Further details regarding the lens 322 are described below.

上述のように、第二の表示エリア304のうちサムネール表示エリア・レンズ314によって強調された部分に対応したマルチメディア情報は、第三の表示エリア306に表示される。したがって、時刻tと時刻tの間に生じた(マルチメディア文書のうちサムネール表示エリア・レンズ314によって強調された時間区間に対応する)マルチメディア情報の表現が、第三の表示エリア306に表示される。このように、第三の表示エリア306は、マルチメディア文書のうちサムネール表示エリア・レンズ314によって強調された部分に対応するマルチメディア文書によって格納されたマルチメディア情報の拡大表現を表示する。 As described above, the multimedia information corresponding to the portion highlighted by the thumbnail display area / lens 314 in the second display area 304 is displayed in the third display area 306. Therefore, the representation of the multimedia information that occurred between time t 1 and time t 2 (corresponding to the time interval highlighted by the thumbnail display area lens 314 in the multimedia document) is displayed in the third display area 306. Is displayed. Thus, the third display area 306 displays an expanded representation of the multimedia information stored by the multimedia document corresponding to the portion of the multimedia document highlighted by the thumbnail display area lens 314.

図3に示すように、第三の表示エリア306は、1以上のパネル324を有する。各パネルは、サムネール表示エリア・レンズ314によって強調された時間区間中に生じたマルチメディア情報に含まれる特定の種類の情報の表現を表示する。例えば、図3に示したGUI300においては、第三の表示エリア306に2つのパネル324−1及び324−2が表示されている。本発明の一実施形態によれば、第三の表示エリア306の各パネル324は、第二の表示エリア304に表示されたサムネール画像312に対応し、そのサムネール画像のうちサムネール表示エリア・レンズ314によって覆われた部分に対応する情報を表示する。   As shown in FIG. 3, the third display area 306 has one or more panels 324. Each panel displays a representation of a particular type of information contained in the multimedia information that occurred during the time interval highlighted by the thumbnail display area lens 314. For example, in the GUI 300 shown in FIG. 3, two panels 324-1 and 324-2 are displayed in the third display area 306. According to one embodiment of the present invention, each panel 324 of the third display area 306 corresponds to the thumbnail image 312 displayed in the second display area 304, and among the thumbnail images, the thumbnail display area lens 314. The information corresponding to the part covered by is displayed.

サムネール画像312と同様に、パネル324も互いに時間的に揃えられる又は同期される。したがって、マルチメディア情報に含まれ、略同時に生じた様々な種類の情報が第三の表示エリア306に次々に表示される。例えば、図3に示したパネル324−1及び324−2は、パネル324−1に表示されたテキスト情報(CCテキスト情報、オーディオ情報の録音、又は、マルチメディア情報に含まれる他のいくつかの種類の情報のテキスト表現、を表し得る)、及び、略同じ時点でマルチメディア情報に生じたパネル324−2に表示されるビデオ・キーフレームは、互いに接近して(例えば、同じ水平軸に沿って)表示される。したがって、特定のタイムスタンプを持つ情報は、略同じタイムスタンプを持つ他の種類の情報に隣接して表示される。これにより、ユーザは、単に第三の表示エリア306を水平方向にスキャンすることによって、マルチメディア情報に略同時に生じた様々な情報種類を判断することができる。   Similar to the thumbnail image 312, the panels 324 are aligned or synchronized in time with each other. Accordingly, various types of information included in the multimedia information and generated almost simultaneously are displayed one after another in the third display area 306. For example, the panels 324-1 and 324-2 shown in FIG. 3 may include text information (CC text information, audio information recording, or some other information included in the multimedia information displayed on the panel 324-1. Video keyframes displayed on panel 324-2 that occurred in the multimedia information at approximately the same time point close to each other (eg, along the same horizontal axis). Displayed). Therefore, information having a specific time stamp is displayed adjacent to other types of information having substantially the same time stamp. As a result, the user can determine various information types generated in the multimedia information almost simultaneously by simply scanning the third display area 306 in the horizontal direction.

GUI300に示されたパネル324−1は、サムネール画像312−1に対応し、サムネール画像312−1のうちサムネール表示エリア・レンズ314によって強調された又は覆われたエリアに対応するテキスト情報を表示する。パネル324−1によって表示されるテキスト情報は、マルチメディア情報に含まれるCC情報から抽出されたテキストに対応してもよく、或いは、マルチメディア情報に含まれるオーディオ情報の録音又はマルチメディア情報に含まれる他のいくつかの種類の情報のテキスト表現を表してもよい。本発明の一実施形態によれば、本発明は、ストーリ自動セグメント化及びニュース放送からクローズド・キャプション(CC)テキストとしてしばしば提供される他の特徴を利用する。放送の一部としてCCテキストを提供するニュース局のほとんどは、CCテキストに特殊な構文を用いる(例えば、「>>>」デリミタは、話の筋又はテーマの変化を示し、「>>」デリミタは話し手の変更を示す、など)。この種の情報がマルチメディア情報に含まれるCCテキスト情報に存在するものとすると、本発明は、パネル324−1に表示されたテキストにこれら特徴を組み込む。例えば、「>>>」デリミタが話の筋又はテーマの変化を示すために表示されてもよく、「>>」デリミタが話し手の変更を示すために表示されてもよく、異なる話を明確に区別するために、異なる話の筋に関連するテキスト部分間に追加的スペースが表示されてもよい。これにより、パネル324−1に表示されたテキスト情報の読み易さが向上する。   The panel 324-1 shown in the GUI 300 corresponds to the thumbnail image 312-1 and displays text information corresponding to the area highlighted or covered by the thumbnail display area lens 314 in the thumbnail image 312-1. . The text information displayed by the panel 324-1 may correspond to text extracted from the CC information included in the multimedia information, or may be included in the audio information recording or the multimedia information included in the multimedia information. It may represent textual representations of several other types of information. According to one embodiment of the present invention, the present invention utilizes story auto-segmentation and other features often provided as closed caption (CC) text from news broadcasts. Most news stations that provide CC text as part of the broadcast use a special syntax for CC text (eg, the “>>” delimiter indicates a storyline or theme change, and the “>>” delimiter Indicates a speaker change, etc.). Assuming this type of information is present in the CC text information included in the multimedia information, the present invention incorporates these features into the text displayed on panel 324-1. For example, a “>>” delimiter may be displayed to indicate a storyline or theme change, and a “>>” delimiter may be displayed to indicate a speaker change, clearly identifying different stories. To distinguish, additional space may be displayed between portions of text associated with different story lines. This improves the readability of the text information displayed on the panel 324-1.

GUI300に表示されたパネル324−2は、サムネール画像312−2に対応し、サムネール画像312−2のうちサムネール表示エリア・レンズ314によって強調された又は覆われたエリアに対応するビデオ情報の表現を表示する。したがって、パネル324−2は、マルチメディア文書によって格納されたマルチメディア情報に含まれ、サムネール表示エリア・レンズ314に関する時刻tと時刻tの間に生じたビデオ情報の表現を表示する。図3に示す実施形態では、マルチメディア情報に含まれたビデオ情報から抽出されたビデオ・キーフレームがパネル324−2に表示される。フレームの読み易さを向上させるために、抽出されたキーフレームを表示するのにユーザ設定可能な特殊なレイアウト・スタイルが用いられる。 The panel 324-2 displayed on the GUI 300 corresponds to the thumbnail image 312-2, and represents a representation of the video information corresponding to the area highlighted or covered by the thumbnail display area lens 314 in the thumbnail image 312-2. indicate. Therefore, the panel 324-2 is included in the multimedia information stored by the multimedia document, displaying a representation of video information occurring between times t 1 and time t 2 about Thumbnail Display Area lens 314. In the embodiment shown in FIG. 3, video keyframes extracted from video information included in the multimedia information are displayed on panel 324-2. In order to improve the readability of the frame, a special user-configurable layout style is used to display the extracted keyframes.

ビデオ・キーフレームをパネル324−2に表示するのには様々な異なる手法を用いることができる。本発明の一実施形態によれば、時刻tと時刻tの間の時間区間が所定期間のサブ区間に分割される。各サブ区間は、そのサブ区間に関する開始時刻及び終了時刻によって特徴付けられる。本発明の一実施形態によれば、最初のサブ区間の開始時刻は時刻tに対応し、最後のサブ区間の終了時刻は時刻tに対応する。次いで、サーバ104は、各サブ区間について、そのサブ区間に関連した開始時刻と終了時刻の間に生じたマルチメディア文書によって格納されたビデオ情報から1以上のビデオ・キーフレームを抽出する。例えば、本発明の一実施形態によれば、各サブ区間について、サーバ104は、そのサブ区間に関連した開始時刻と終了時刻の間に1秒間隔でビデオ・キーフレームを抽出する。 A variety of different techniques can be used to display the video keyframes on panel 324-2. According to an embodiment of the present invention, the time interval between times t 1 and time t 2 is divided into sub-sections of a predetermined time period. Each subsection is characterized by a start time and an end time for that subsection. According to an embodiment of the present invention, the start time of the first sub-interval corresponds to the time t 1, the end time of the last sub-section corresponding to the time t 2. The server 104 then extracts, for each subsection, one or more video keyframes from the video information stored by the multimedia document that occurred between the start time and end time associated with that subsection. For example, according to one embodiment of the present invention, for each sub-interval, the server 104 extracts video key frames at 1 second intervals between the start time and end time associated with that sub-interval.

次いで、サーバ104は、各サブ区間に対して、そのサブ区間について抽出されたビデオ・キーフレームからパネル324−2に表示される1以上のキーフレームを選択する。各サブ区間についてパネル324−2に表示されるものとして選択されるキーフレーム数は、ユーザが設定可能である。各サブ区間について、抽出されたビデオ・キーフレームから表示されるビデオ・キーフレームを選択する手法には様々な異なる方法が用いることができる。例えば、一サブ区間について抽出されたビデオ・キーフレーム数が24で、(図3に示すように)各サブ区間について6つのビデオ・キーフレームが表示されるものとした場合、サーバ104は、サブ区間について抽出されたビデオ・キーフレームから最初の2つのビデオ・キーフレームと、真ん中の2つのビデオ・キーフレームと、最後の2つのビデオ・キーフレームとを選択する。   Server 104 then selects, for each subsection, one or more keyframes displayed on panel 324-2 from the video keyframes extracted for that subsection. The user can set the number of key frames selected to be displayed on the panel 324-2 for each sub-section. For each sub-interval, various different methods can be used to select a video keyframe to be displayed from the extracted video keyframes. For example, if the number of video keyframes extracted for one sub-section is 24 and six video keyframes are displayed for each sub-section (as shown in FIG. 3), the server 104 The first two video keyframes, the middle two video keyframes and the last two video keyframes are selected from the video keyframes extracted for the interval.

別の実施形態において、一サブ区間について表示されるビデオ・キーフレームは、サブ区間について抽出されたキーフレーム群におけるそれらキーフレームの位置順序に基づいて選択される。例えば、あるサブ区間について抽出されたビデオ・キーフレーム数が24で、各サブ区間について6つのビデオ・キーフレームが表示されるものとした場合に、1番目、5番目、9番目、13番目、17番目、及び、21番目、のキーフレームが選択されてもよい。この実施形態では、固定数のキーフレームがスキップされる。   In another embodiment, the video keyframes displayed for a sub-interval are selected based on the position order of those keyframes in the keyframe group extracted for the subinterval. For example, when the number of video key frames extracted for a certain sub-section is 24 and six video key frames are displayed for each sub-section, the first, fifth, ninth, thirteenth, The 17th and 21st key frames may be selected. In this embodiment, a fixed number of key frames are skipped.

更に別の実施形態において、一サブ区間について表示されるビデオ・キーフレームは、サブ区間について抽出されたキーフレーム群においてそれらキーフレームに関連する時刻値に基づいて選択される。例えば、一サブ区間について抽出されたビデオ・キーフレーム群が1秒のサンプリング・レートで抽出された24のキーフレームを有し、各サブ区間について6つのビデオ・キーフレームが表示されるものとした場合、最初のキーフレームが選択され、次に、前に選択されたキーフレームから4秒後に生じたキーフレームが選択される。   In yet another embodiment, the video keyframes displayed for a subinterval are selected based on the time values associated with those keyframes in the keyframe group extracted for the subinterval. For example, assume that a group of video key frames extracted for one sub-section has 24 key frames extracted at a sampling rate of 1 second, and six video key frames are displayed for each sub-section. The first key frame is selected, and then the key frame that occurs 4 seconds after the previously selected key frame is selected.

本発明の代替的実施形態として、サーバ104は、キーフレームのコンテンツの差に基づいて、キーフレーム群からキーフレームを選択してもよい。各サブ区間について、サーバ104は、そのサブ区間について抽出されたキーフレームのコンテンツにおける差を判断するために特殊な画像処理手法を用いることができる。各サブ区間について6つのビデオ・キーフレームが表示されるものとした場合、サーバ104は、この画像処理手法の結果に基づいて、抽出されたキーフレーム群から6つのキーフレームを選択する。例えば、6つの最も異なるキーフレームがパネル324−2に表示されるものとして選択されてもよい。当業者には既知の様々な他の手法もビデオ・キーフレームの選択を実行するのに用いることができるのは明らかである。   As an alternative embodiment of the present invention, the server 104 may select a key frame from a group of key frames based on the difference in key frame content. For each sub-interval, the server 104 can use a special image processing technique to determine the difference in the content of the key frame extracted for that sub-interval. When six video key frames are displayed for each sub-interval, the server 104 selects six key frames from the extracted key frame group based on the result of this image processing method. For example, the six most different key frames may be selected as displayed on panel 324-2. It will be apparent that various other techniques known to those skilled in the art can also be used to perform video keyframe selection.

選択されたキーフレームは、次いで、パネル324−2に表示される。選択されたキーフレームをパネル324−2に表示させるのに様々な異なる形式を用いることができる。例えば、図3に示すように、各サブ区間について、選択されたキーフレームは、左から右へ、上から下へ、置かれる。   The selected key frame is then displayed on panel 324-2. A variety of different formats can be used to display the selected keyframe on panel 324-2. For example, as shown in FIG. 3, for each sub-section, the selected key frame is placed from left to right and from top to bottom.

本発明の代替的実施形態では、マルチメディア文書全体が所定期間のサブ区間に分割される。各サブ区間は、そのサブ区間に関する開始時刻及び終了時刻によって特徴付けられる。本発明の一実施形態によれば、最初のサブ区間の開始時刻はそのマルチメディア文書の開始時刻に対応し、最後のサブ区間の終了時刻はそのマルチメディア文書の終了時刻に対応する。上述のように、サーバ104は、各サブ区間について、そのサブ区間に関連した開始時刻及び終了時刻に基づいて、マルチメディア文書によって格納されたビデオ情報から1以上のビデオ・キーフレームを抽出する。サーバ104は、次いで、各サブ区間について表示する1以上のキーフレームを選択する。次いで、サムネール表示エリア・レンズ314の位置に応じて、表示するものとして選択され、サムネール表示エリア・レンズ314に関連する時刻tと時刻tの間に生じたキーフレームがパネル324−2に表示される。 In an alternative embodiment of the invention, the entire multimedia document is divided into sub-intervals of a predetermined period. Each subsection is characterized by a start time and an end time for that subsection. According to an embodiment of the present invention, the start time of the first subsection corresponds to the start time of the multimedia document, and the end time of the last subsection corresponds to the end time of the multimedia document. As described above, the server 104 extracts, for each subsection, one or more video keyframes from the video information stored by the multimedia document based on the start time and end time associated with that subsection. Server 104 then selects one or more keyframes to display for each subsection. Next, depending on the position of the thumbnail display area / lens 314, a key frame generated between time t 1 and time t 2 related to the thumbnail display area / lens 314 is displayed on the panel 324-2. Is displayed.

本発明の代替的実施形態として、パネル324−2にビデオ情報を表示するのに様々な他の手法も用いることができることは明らかである。本発明の一実施形態によれば、ユーザは、第三の表示エリア306にビデオ情報を表示するのに用いられる手法を設定することができる。   Obviously, as alternative embodiments of the present invention, various other approaches may be used to display video information on panel 324-2. According to one embodiment of the present invention, the user can set the technique used to display video information in the third display area 306.

図3に示されたGUI300において、各サブ区間は8秒長であり、複数のサブ区間に対応するビデオ・キーフレームがパネル324−2に表示される。各サブ区間から6つのビデオ・キーフレームが表示される。各サブ区間について、表示されるキーフレームは、左から右、上から下、へ置かれる。   In the GUI 300 shown in FIG. 3, each sub-section is 8 seconds long, and video key frames corresponding to a plurality of sub-sections are displayed on the panel 324-2. Six video key frames from each sub-section are displayed. For each sub-section, the displayed key frames are placed from left to right and from top to bottom.

本発明の代替的実施形態として、第三の表示エリア306に表示されるパネル数は、第二の表示エリア304に表示されるサムネール画像数より多くても少なくてもよいことは明らかである。本発明の一実施形態によれば、第三の表示エリア306に表示されるパネル数は、ユーザが設定可能である。   As an alternative embodiment of the present invention, it will be appreciated that the number of panels displayed in the third display area 306 may be greater or less than the number of thumbnail images displayed in the second display area 304. According to one embodiment of the present invention, the number of panels displayed in the third display area 306 can be set by the user.

本発明の教えるところによれば、概要領域306の一部を覆う又は強調する表示レンズ又は窓322(以下、「パネル表示エリア・レンズ322」と呼ぶ)が表示される。本発明の教えるところによれば、第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調されるエリアに対応するマルチメディア情報は、第四の表示エリア308に表示される。ユーザは、レンズ322を第三の表示エリア306に沿ってスライド又は移動させることによって、パネル表示エリア・レンズ322の位置を変えることができる。パネル表示エリア・レンズ322の位置を第三の表示エリア306の第一の位置から第二の位置へ変更すると、第四の表示エリア308に表示されたマルチメディア情報は、第四の表示エリア308に表示されたマルチメディア情報が第三の表示エリア306のうちのパネル表示エリア・レンズ322によって強調されているエリアと対応し続けるように、自動的に更新される。したがって、ユーザは、パネル表示エリア・レンズ322を用いて、第四の表示エリア308に表示されるマルチメディア情報を変えることができる。   According to the teachings of the present invention, a display lens or window 322 (hereinafter referred to as a “panel display area lens 322”) that covers or highlights a portion of the overview area 306 is displayed. According to the teachings of the present invention, multimedia information corresponding to the area highlighted by the panel display area lens 322 in the third display area 306 is displayed in the fourth display area 308. The user can change the position of the panel display area lens 322 by sliding or moving the lens 322 along the third display area 306. When the position of the panel display area / lens 322 is changed from the first position of the third display area 306 to the second position, the multimedia information displayed in the fourth display area 308 is changed to the fourth display area 308. The multimedia information displayed on the screen is automatically updated so as to continue to correspond to the area highlighted by the panel display area / lens 322 in the third display area 306. Therefore, the user can change the multimedia information displayed in the fourth display area 308 by using the panel display area / lens 322.

上述のように、パネル表示エリア・レンズ322の位置が変更されると、第二の表示エリア304のうちサブレンズ316によって強調されたエリアが、第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調されたエリアに対応し続けるように、サブレンズ316の位置も変更される。同様に、上述のように、サブレンズ316の位置が変更されると、第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調されたエリアが、サブレンズ316の変更後の位置に対応し続けるように、第三の表示エリア306上でのパネル表示エリア・レンズ322の位置も変更される。   As described above, when the position of the panel display area / lens 322 is changed, the area highlighted by the sub-lens 316 in the second display area 304 is the panel display area / lens in the third display area 306. The position of the sub lens 316 is also changed to continue to correspond to the area highlighted by 322. Similarly, as described above, when the position of the sub lens 316 is changed, the area highlighted by the panel display area / lens 322 in the third display area 306 corresponds to the position after the change of the sub lens 316. In order to continue, the position of the panel display area / lens 322 on the third display area 306 is also changed.

図5Aは、本発明の一実施形態に係るパネル表示エリア・レンズ322の簡略化された拡大図である。図5Aに示すように、パネル表示エリア・レンズ322は、第一の辺326と第二の辺328によって区切られている。パネル表示エリア・レンズ322は、第三の表示エリア306のうち辺326と辺328の間のエリアを強調する。パネル表示エリア・レンズ322の第三の表示エリア306上での位置に基づいて、辺326はマルチメディア文書における特定の時刻tに対応し、辺328はマルチメディア文書における特定の時刻t(t≦t<t≦t)に対応する。例えば、パネル表示エリア・レンズ322が第三の表示エリア306の先頭に位置するとき、tはtと等しく、パネル表示エリア・レンズ322が第三の表示エリア306の終端に位置するとき、tはtと等しい。したがって、パネル表示エリア・レンズ322は、第三の表示エリア306のうち時刻tと時刻tの間の部分を強調する。本発明の一実施形態によれば、(パネル表示エリア・レンズ322によって強調された又は覆われた)時間区間t〜tに対応するマルチメディア情報は、第四の表示エリア308に表示される。パネル表示エリア・レンズ322の位置がユーザ入力に応じて第三の表示エリア306に沿って変更されると、第四の表示エリア308に表示された情報は、第四の表示エリア308に表示されるマルチメディア情報が第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調されるエリアに対応し続けるように、更新される。このように、パネル表示エリア・レンズ322は、コンテキストを提供すると共に、第四の表示エリア308に表示されているマルチメディア情報のマルチメディア文書全体の中での位置を示す。 FIG. 5A is a simplified enlarged view of a panel display area lens 322 according to one embodiment of the present invention. As shown in FIG. 5A, the panel display area lens 322 is divided by a first side 326 and a second side 328. The panel display area / lens 322 emphasizes an area between the side 326 and the side 328 in the third display area 306. Based on the position of the panel display area lens 322 on the third display area 306, the side 326 corresponds to a specific time t 3 in the multimedia document, and the side 328 corresponds to a specific time t 4 ( t 1 ≦ t 3 <t 4 ≦ t 2 ). For example, when the panel display area lens 322 is positioned at the beginning of the third display area 306, t 3 is equal to t 1, when the panel display area lens 322 is located at the end of the third display area 306, t 2 is equal to t 4. Therefore, the panel display area / lens 322 emphasizes the portion of the third display area 306 between time t 3 and time t 4 . According to one embodiment of the present invention, multimedia information corresponding to time intervals t 3 -t 4 (highlighted or covered by the panel display area lens 322) is displayed in the fourth display area 308. The When the position of the panel display area / lens 322 is changed along the third display area 306 in response to a user input, the information displayed in the fourth display area 308 is displayed in the fourth display area 308. The multimedia information is updated so as to continue to correspond to the area highlighted by the panel display area / lens 322 in the third display area 306. Thus, the panel display area lens 322 provides context and indicates the position of the multimedia information displayed in the fourth display area 308 within the entire multimedia document.

本発明の一実施形態によれば、パネル表示エリア・レンズ322によって強調されたテキストの特定の行(又はテキスト最終行の中の1以上の単語)がレンズ322の一部に表示される。例えば、図5A及び3に示すように、パネル324−1においてパネル表示エリア・レンズ322によって強調されたテキスト最終行330:「Environment is a national」は、パネル表示エリア・レンズ322上に太字で表示される。   According to one embodiment of the present invention, a particular line of text (or one or more words in the last line of text) highlighted by the panel display area lens 322 is displayed on a portion of the lens 322. For example, as shown in FIGS. 5A and 3, the last line 330 of text highlighted by the panel display area lens 322 on the panel 324-1: “Environment is a national” is displayed in bold on the panel display area lens 322. Is done.

本発明の一実施形態によれば、パネル表示エリア・レンズ322には、マルチメディア文書のブラウジング及びナビゲーションを容易にするために、特殊な特徴を取り付けることができる。図5Aに示すように、本発明の一実施形態によれば、「再生/一時停止ボタン」332及び「ロック/解除ボタン」334がパネル表示エリア・レンズ322上に設けられる。再生/一時停止ボタンにより、ユーザは、パネル表示エリア・レンズ322からのビデオ情報の再生を制御することができる。ロック/解除ボタン334により、ユーザは、ビデオ再生の位置を第四の表示エリア308のエリア340−1からパネル表示エリア・レンズ322上部の縮小ウィンドウに切り替えることができる。   According to one embodiment of the present invention, the panel display area lens 322 can be equipped with special features to facilitate browsing and navigation of multimedia documents. As shown in FIG. 5A, according to one embodiment of the present invention, a “play / pause button” 332 and a “lock / release button” 334 are provided on the panel display area lens 322. The play / pause button allows the user to control the playback of video information from the panel display area lens 322. The lock / release button 334 allows the user to switch the video playback position from the area 340-1 in the fourth display area 308 to a reduced window above the panel display area / lens 322.

図5Bは、ロック/解除ボタン334が起動された又は「ロックされた」(すなわち、ビデオ再生がパネル表示エリア・レンズ322上にロックされた)本発明の一実施形態に係るパネル表示エリア・レンズ322の簡略化された一例である。図5Bに示すように、ロック・モードでは、ビデオ情報がレンズ322上のウィンドウ336で再生される。図5bに示す実施形態において、パネル表示エリア・レンズ322のうちパネル342−2と重なる部分のサイズは、ウィンドウ336を収容するために時刻t〜tを越えて拡大される。本発明の一実施形態によれば、ウィンドウ336に表示されるビデオ・コンテンツは、第四の表示エリア308のエリア340−1に表示されるコンテンツに対応する。 FIG. 5B illustrates a panel display area lens according to one embodiment of the present invention where the lock / release button 334 is activated or “locked” (ie, video playback is locked onto the panel display area lens 322). 322 is a simplified example of 322. As shown in FIG. 5B, in the lock mode, video information is played in a window 336 on the lens 322. In the embodiment shown in FIG. 5 b, the size of the portion of the panel display area lens 322 that overlaps the panel 342-2 is enlarged beyond times t 3 -t 4 to accommodate the window 336. According to one embodiment of the present invention, the video content displayed in window 336 corresponds to the content displayed in area 340-1 of fourth display area 308.

本発明の一実施形態によれば、ウィンドウ336は、第三の表示エリア306のうちその下にある部分が見えるように、透明な境界線を有する。これは、ユーザが第三の表示エリア306を見ている間焦点位置を維持するのに役立つ。ユーザは、再生/一時停止ボタン332を用いて、ウィンドウ336に表示されたビデオを開始及び停止できる。ユーザは、ビデオをウィンドウ336で再生させたまま、パネル表示エリア・レンズ322の位置を変えることができる。パネル表示エリア・レンズ322の位置が変わると、パネル表示エリア・レンズ322の新しい位置に応じてウィンドウ336でのビデオ再生も変化する。ウィンドウ336におけるビデオ再生は、パネル表示エリア・レンズ322に関する新しい時刻の値t及びtに対応する。 According to an embodiment of the present invention, the window 336 has a transparent border so that a portion of the third display area 306 below it can be seen. This helps to maintain the focus position while the user is viewing the third display area 306. The user can start and stop the video displayed in window 336 using play / pause button 332. The user can change the position of the panel display area lens 322 while playing the video in the window 336. When the position of the panel display area / lens 322 changes, the video playback in the window 336 also changes according to the new position of the panel display area / lens 322. Video playback in window 336 corresponds to new time values t 3 and t 4 for panel display area lens 322.

図5Cは、代表ビデオ・キーフレームがパネル表示エリア・レンズ322上に表示された、本発明の一実施形態に係るパネル表示エリア・レンズ322の簡略化された一例である。この実施形態において、サーバ104は、パネル表示エリア・レンズ322によって強調された又は覆われたパネル324−2のビデオ・キーフレームを分析し、パネル表示エリア・レンズ322によって強調されたキーフレームを最も代表する特定のキーフレーム338を決定する。この特定のキーフレームは、次いで、パネル表示エリア・レンズ322のうちパネル324−2を覆う部分に表示される。図5Cに示した実施形態において、パネル表示エリア・レンズ322のうちパネル324−2を覆う部分のサイズは、キーフレーム338の表現を収容するために時刻t及びtを越えて拡大されている。 FIG. 5C is a simplified example of a panel display area lens 322 according to one embodiment of the present invention in which a representative video keyframe is displayed on the panel display area lens 322. In this embodiment, the server 104 analyzes the video keyframes of the panel 324-2 highlighted or covered by the panel display area lens 322, and the keyframes highlighted by the panel display area lens 322 are the best. A particular key frame 338 to represent is determined. This particular key frame is then displayed on the portion of the panel display area lens 322 that covers the panel 324-2. In the embodiment shown in FIG. 5C, the size of the portion covering the panel 324-2 of the panel display area lens 322 is enlarged beyond the time t 3 and t 4 in order to accommodate a representation of key frames 338 Yes.

上述のように、第三の表示エリア306のうちパネル表示エリア・レンズ322によって覆われた部分に対応するマルチメディア情報(すなわち、時間区間t〜tに生じたマルチメディア情報)が第四の表示エリア308に表示される。図3に示すように、第四の表示エリア308は、例えば、1以上のサブ表示エリア340(例えば、340−1、340−2、及び、340−3)を有する。本発明の一実施形態によれば、サブ領域340の1以上が、第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調された部分に対応するマルチメディア情報に含まれる特定種類の情報を表示する。 As described above, the multimedia information corresponding to the portion covered by the panel display area / lens 322 in the third display area 306 (that is, the multimedia information generated in the time interval t 3 to t 4 ) is the fourth. Are displayed in the display area 308. As illustrated in FIG. 3, the fourth display area 308 includes, for example, one or more sub display areas 340 (for example, 340-1, 340-2, and 340-3). According to an embodiment of the present invention, one or more of the sub-regions 340 includes a specific type of information included in multimedia information corresponding to a portion of the third display area 306 that is highlighted by the panel display area / lens 322. Is displayed.

例えば、図3に示すように、第三の表示エリア306においてパネル表示エリア・レンズ322によって強調されたビデオ情報に対応する(又は該ビデオ情報から始まる)ビデオ情報は、サブ表示エリア340−1に表示される。本発明の一実施形態によれば、時刻t(パネル表示エリア・レンズ322の上端に対応する時刻)から始まるビデオ情報は、サブ表示エリア340−1において再生される。代替的実施形態として、エリア340−1で再生されるビデオ情報は、時刻tから始まってもよく、或いは、tとtの間のユーザが設定可能な他の時刻から始まってもよい。サブ表示エリア340−1におけるビデオの再生は、コントロール・バー342を用いて、制御することができる。コントロール・バー342は、サブ表示エリア340−1において再生されているビデオを再生させる制御、一時停止させる制御、停止させる制御、巻き戻しさせる制御、早送りさせる制御、などの複数の制御を提供する。エリア340−1には現在時刻及び再生残り時間344も表示される。ビデオの名前を識別する情報346、ビデオが録画された日付348、及び、ビデオの種類350も表示される。 For example, as shown in FIG. 3, video information corresponding to (or starting from) the video information highlighted by the panel display area lens 322 in the third display area 306 is displayed in the sub display area 340-1. Is displayed. According to one embodiment of the present invention, video information starting at time t 3 (time corresponding to the upper end of the panel display area lens 322) is played in the sub display area 340-1. As an alternative embodiment, video information to be reproduced in the area 340-1 may begin at time t 4, or may start from the other time the user can set the between t 3 and t 4 . Video playback in the sub display area 340-1 can be controlled using the control bar 342. The control bar 342 provides a plurality of controls such as a control for playing back the video being played in the sub display area 340-1, a control for pausing, a control for stopping, a control for rewinding, and a control for fast-forwarding. In the area 340-1, the current time and the remaining reproduction time 344 are also displayed. Information 346 identifying the name of the video, date 348 when the video was recorded, and video type 350 are also displayed.

本発明の代替的実施形態では、ビデオ情報を再生する代わりに、パネル324−2においてパネル表示エリア・レンズ322によって強調されたビデオ・キーフレームからのビデオ・キーフレームがサブ表示エリア340−1に表示される。本発明の一実施形態によれば、エリア340−1に表示されるキーフレームは、パネル表示エリア・レンズ322によって強調されたキーフレームを最も代表するキーフレームを表す。   In an alternative embodiment of the present invention, instead of playing video information, video keyframes from the video keyframes highlighted by panel display area lens 322 in panel 324-2 are displayed in sub-display area 340-1. Is displayed. According to one embodiment of the present invention, the key frame displayed in area 340-1 represents the key frame most representative of the key frame highlighted by panel display area lens 322.

本発明の一実施形態によれば、第三の表示エリア306においてパネル表示エリア・レンズ322によって強調されたテキスト情報(例えば、CCテキスト、オーディオ情報の録音、マルチメディア情報に含まれる他の種類の情報のテキスト表現、など)がサブ表示エリア340−2に表示される。本発明の一実施形態によれば、サブ表示エリア340−2は、パネル324−1に表示され、パネル表示エリア・レンズ322によって強調されるテキスト情報を表示する。上述のように、サブ表示エリア340−3には様々な種類の情報を表示させることができる。   According to one embodiment of the present invention, text information (eg CC text, audio information recording, other types of audio information included in the multimedia information) highlighted in the third display area 306 by the panel display area lens 322. A text representation of information, etc.) is displayed in the sub display area 340-2. According to an embodiment of the present invention, the sub display area 340-2 displays text information displayed on the panel 324-1 and emphasized by the panel display area lens 322. As described above, various types of information can be displayed in the sub display area 340-3.

マルチメディア文書によって格納されたマルチメディア情報に関する追加的情報は、GUI300の第五の表示エリア310に表示することができる。例えば、図3に示すように、GUI300によって表示されたマルチメディア情報に含まれるテキスト情報に現れた単語が、第五の表示エリア310のエリア352に表示される。マルチメディア文書における各単語の頻度も各単語の横に表示される。例えば、「質問」という単語は、マルチメディア情報CCテキストにおいて7回登場する。マルチメディア情報に関する様々な他の種類の情報も第五の表示エリア310に表示することができる。   Additional information regarding the multimedia information stored by the multimedia document can be displayed in the fifth display area 310 of the GUI 300. For example, as shown in FIG. 3, words that appear in text information included in the multimedia information displayed by the GUI 300 are displayed in an area 352 of the fifth display area 310. The frequency of each word in the multimedia document is also displayed next to each word. For example, the word “question” appears seven times in the multimedia information CC text. Various other types of information regarding multimedia information can also be displayed in the fifth display area 310.

本発明の一実施形態によれば、GUI300は、ユーザがマルチメディア情報から抽出したテキスト情報(例えば、CCテキスト、オーディオ情報の録音、マルチメディア情報に含まれる他の種類の情報のテキスト表現、など)に登場する1以上の単語を検索することができるようにする機能を提供する。例えば、ユーザは、入力フィールド354に1以上の検索単語(query word)を入力することができ、「検索」ボタン356を選択すると、サーバ104はマルチメディア文書によって格納されたマルチメディア情報から抽出されたテキスト情報を分析し、フィールド354に入力された1以上の検索単語のすべての存在を特定する。このマルチメディア文書における1以上の単語の存在は、次いで、第二の表示エリア304、第三の表示エリア306、及び、第四の表示エリア308に表示されるときに、強調される。例えば、本発明の一実施形態によれば、検索単語のすべての存在が、サムネール画像312−1、パネル324−1、及び、サブ表示エリア340−2において、強調される。本発明の代替的実施形態として、1以上の検索単語の存在は、第二の表示エリア304、第三の表示エリア306に表示されたパネル、及び、第四の表示エリア308に表示されたサブ表示エリア、においても強調されてもよい。   In accordance with an embodiment of the present invention, the GUI 300 may include text information extracted from multimedia information by a user (eg, CC text, audio information recording, text representation of other types of information included in the multimedia information, etc. ) Is provided so that one or more words appearing in (1) can be searched. For example, the user can enter one or more search words in the input field 354 and selecting the “Search” button 356 causes the server 104 to be extracted from the multimedia information stored by the multimedia document. The text information is analyzed to identify all occurrences of one or more search words entered in field 354. The presence of one or more words in the multimedia document is then highlighted when displayed in the second display area 304, the third display area 306, and the fourth display area 308. For example, according to one embodiment of the present invention, the presence of all search words is highlighted in thumbnail image 312-1, panel 324-1, and sub-display area 340-2. As an alternative embodiment of the present invention, the presence of one or more search words is determined by the second display area 304, the panel displayed in the third display area 306, and the sub display displayed in the fourth display area 308. The display area may also be emphasized.

また、ユーザは、GUI300に表示されたマルチメディア情報において強調される1以上の単語を指定することもできる。例えば、ユーザは、エリア352から1以上の強調する単語を選択することができる。すると、エリア352においてユーザによって選択されたキーフレームのすべての存在は、第二の表示エリア304、第三の表示エリア306、および、第四の表示エリア308において、強調される。例えば、図6に示すように、ユーザがエリア352において「National」という単語を選択したものとすると、それに応じて、本発明の一実施形態によれば、第二の表示エリア304、第三の表示エリア306、及び、第四の表示エリア308において、「National」という単語のすべての存在が強調される。   The user can also specify one or more words that are highlighted in the multimedia information displayed on the GUI 300. For example, the user can select one or more emphasized words from area 352. Then, the presence of all key frames selected by the user in the area 352 is emphasized in the second display area 304, the third display area 306, and the fourth display area 308. For example, as shown in FIG. 6, if the user selects the word “National” in area 352, accordingly, according to one embodiment of the present invention, the second display area 304, the third In the display area 306 and the fourth display area 308, the presence of all the words “National” is highlighted.

本発明の一実施形態によれば、ユーザが選択した1以上の単語(又はフィールド354に入力された検索単語)を含むテキスト行360が第四の表示エリア308のサブ表示エリア340−3に表示される。各テキスト行について、その行がマルチメディア文書に生じた時刻362(又は、そのテキスト行に関連するタイムスタンプ)も表示される。テキスト行に関連するタイムスタンプは、一般的に、その行の最初の単語に関連するタイムスタンプに対応する。   According to one embodiment of the present invention, a text line 360 containing one or more words selected by the user (or a search word entered in field 354) is displayed in sub display area 340-3 of fourth display area 308. Is done. For each text line, the time 362 when the line occurred in the multimedia document (or the time stamp associated with the text line) is also displayed. The time stamp associated with the text line generally corresponds to the time stamp associated with the first word of the line.

各テキスト行について、選択された単語又は検索単語を囲む1以上の単語が表示される。本発明の一実施形態によれば、エリア340−3に表示された選択された単語を囲む単語の数はユーザが選択可能である。例えば、図6に示したGUI300において、ユーザは、コントロール364を用いて、エリア340−3に表示される周辺単語数を指定することができる。ユーザによって指定された数は、選択された単語の前に登場した単語数及び表示された選択単語の後に登場した単語数を示す。図6に示す実施形態において、コントロール364は、最小値「3」と最大値「10」の間で調節可能なスライダ・バーである。ユーザは、スライダ・バー364を調節することによって、表示される周辺単語数を指定することができる。例えば、スライダ・バーが「3」にセットされると、選択された単語の前に登場した3つの単語と、選択された単語の後に登場した3つの単語がエリア340−3に表示される。これら最小値及び最大値は、ユーザが設定可能である。   For each text line, one or more words surrounding the selected word or search word are displayed. According to one embodiment of the present invention, the number of words surrounding the selected word displayed in area 340-3 is selectable by the user. For example, in the GUI 300 shown in FIG. 6, the user can specify the number of surrounding words displayed in the area 340-3 using the control 364. The number designated by the user indicates the number of words that appear before the selected word and the number of words that appear after the displayed selected word. In the embodiment shown in FIG. 6, the control 364 is a slider bar that is adjustable between a minimum value “3” and a maximum value “10”. The user can specify the number of surrounding words to be displayed by adjusting the slider bar 364. For example, when the slider bar is set to “3”, three words appearing before the selected word and three words appearing after the selected word are displayed in area 340-3. These minimum and maximum values can be set by the user.

さらに、図6に示すGUI300は、検索単語又はユーザによって指定された他の単語の登場場所を示すサムネール画像312−1と312−2の間に挟まれたエリア358を有する。例えば、エリア358は、サムネール画像312−1に「National」という単語の場所を示すマーカを有する。すると、ユーザは、サムネール表示エリア・レンズ314又はパネル表示エリア・レンズ322を用いて、マルチメディア文書内で所望の場所へスクロールすることができる。図7は、本発明の一実施形態に係るエリア358を示す第二の表示エリア304の簡略化された拡大図を示す。図7に示すように、エリア358(又は、チャネル358)は、サムネール画像312−1において「National」という単語の存在を有する場所を示すマーカ360を有する。本発明の代替的実施形態として、チャネル358におけるマーカは、第二の表示エリア304に表示される他のサムネール画像におけるユーザ指定単語又はフレーズの場所も指定してもよい。代替的実施形態として、検索単語又はユーザによって指定された他の単語の存在場所は、(図20Aに示すように)サムネール画像312上に表示されてもよい。   Furthermore, the GUI 300 shown in FIG. 6 has an area 358 sandwiched between thumbnail images 312-1 and 312-2 showing the appearance locations of the search word or other words specified by the user. For example, the area 358 has a marker indicating the location of the word “National” in the thumbnail image 312-1. The user can then use the thumbnail display area lens 314 or the panel display area lens 322 to scroll to the desired location within the multimedia document. FIG. 7 shows a simplified enlarged view of the second display area 304 showing the area 358 according to one embodiment of the present invention. As shown in FIG. 7, area 358 (or channel 358) has a marker 360 that indicates where the thumbnail image 312-1 has the presence of the word “National”. As an alternative embodiment of the present invention, the marker in channel 358 may also specify the location of a user specified word or phrase in other thumbnail images displayed in second display area 304. As an alternative embodiment, the location of the search word or other words specified by the user may be displayed on the thumbnail image 312 (as shown in FIG. 20A).

図6に示すように、サムネール表示エリア・レンズ314の位置は図3に関して変えられている。サムネール表示エリア・レンズ314の位置が変えられると、第三の表示エリア306に表示されるマルチメディア情報は、第二の表示エリア304のうちのサムネール表示エリア・レンズ314によって強調された部分に対応するように、変化する。第四の表示エリア308に表示されるマルチメディア情報も、パネル表示エリア・レンズ322の新しい位置に応じて変化する。   As shown in FIG. 6, the position of the thumbnail display area lens 314 has been changed with respect to FIG. When the position of the thumbnail display area / lens 314 is changed, the multimedia information displayed in the third display area 306 corresponds to the portion highlighted in the thumbnail display area / lens 314 in the second display area 304. To change. The multimedia information displayed in the fourth display area 308 also changes according to the new position of the panel display area / lens 322.

本発明の一実施形態によれば、GUI300に表示されたユーザ指定の関心ある話題(topics of interest)に関連するマルチメディア情報は強調されるか注釈が付けられる。注釈又は強調は、ユーザに関連する又はユーザが関心ある情報を視覚的に示す。このように、GUI300は、ユーザがマルチメディア文書のうち該ユーザに関連する部分を容易に見つけることを可能にする便利なツールを提供する。   According to one embodiment of the present invention, multimedia information related to user-specified topics of interest displayed on the GUI 300 is highlighted or annotated. Annotations or highlights visually indicate information relevant to or of interest to the user. Thus, the GUI 300 provides a convenient tool that allows a user to easily find portions of a multimedia document that are relevant to the user.

本発明の一実施形態によれば、ユーザが関心ある又はユーザに関連する話題を指定する情報がユーザ・プロファイルに格納される。1以上の単語又はフレーズを関心ある各話題に関連付けることができる。特定のユーザ指定の関心ある話題に関連付けられた1以上の単語又はフレーズの存在は、該特定の話題に関する情報が存在することを示す。例えば、ユーザは、2つの関心ある話題:「George W.Bush(ジョージ・W・ブッシュ)」及び「Energy Crisis(エネルギ危機)」を指定することができる。話題「George Bush」に関連付けられる単語又はフレーズは、例えば、「President Bush(ブッシュ大統領)」、「the President(大統領)」、「Mr.Bush(ブッシュ氏)」などの単語及びフレーズを含む。話題「Energy Crisis」に関連付けられる単語又はフレーズは、例えば、「industrial pollution(産業公害)」、「natural pollution(自然汚染)」、「clean up the sources(水源浄化)」、「amount of pollution(汚染量)」、「air pollution(大気汚染)」、「electricity(電気)」、「power−generating plant(発電所)」、などを含む。単語又はフレーズの存在から考えられた関心ある話題の尤度を示す確率値が単語又はフレーズの各々に関連付けられてもよい。ユーザが関心ある話題を設定できるようにするツール、話題に関連付けられるキーワード及びフレーズを指定するツール、及び、キーワード又はフレーズに関連付けられる確率値を指定するツールなど様々なツールを設けることができる。   According to one embodiment of the present invention, information specifying topics of interest to or related to the user is stored in the user profile. One or more words or phrases can be associated with each topic of interest. The presence of one or more words or phrases associated with a particular user-specified topic of interest indicates that there is information about that particular topic. For example, the user can specify two topics of interest: “George W. Bush” and “Energy Crisis”. The words or phrases associated with the topic “George Bush” include, for example, words and phrases such as “Present Bush”, “the President”, “Mr. Bush”. Words or phrases associated with the topic “Energy Crisis” are, for example, “industrial pollution”, “natural pollution”, “clean up the sources”, “amount of pollution”. Quantity) "," air pollution "," electricity "," power-generating plant ", and the like. A probability value indicative of the likelihood of the topic of interest considered from the presence of the word or phrase may be associated with each word or phrase. Various tools can be provided, such as a tool that allows a user to set a topic of interest, a tool that specifies keywords and phrases associated with the topic, and a tool that specifies probability values associated with the keywords or phrases.

ユーザにとって関心ある話題をモデル化するのに当業者には既知の様々な他の手法も用いることができることは明らかである。これら手法とは、例えば、Bayesian networksやrelevance graphsなどを用いることである。ユーザ指定の話題に関連する部分を決定する手法、関心ある話題を定義する手法、及び、キーワード及び/又はキーフレーズと確率値を関連付ける手法は、ここにその全体が参考文献としてここに組み込まれる、米国特許出願第08/995,616号(出願日:1997年12月22日)に記載されている。   Obviously, various other techniques known to those skilled in the art can also be used to model topics of interest to the user. These techniques are, for example, using Bayesian networks, relevance graphs, or the like. Techniques for determining parts related to user-specified topics, techniques for defining topics of interest, and techniques for associating keywords and / or key phrases with probability values are hereby incorporated herein by reference in their entirety. US patent application Ser. No. 08 / 995,616 (filing date: December 22, 1997).

本発明の一実施形態によれば、マルチメディア文書においてユーザ指定の関心ある話題に関連する場所を特定するために、サーバ104は、マルチメディア文書を検索し、そのマルチメディア文書内でその関心ある話題に関連付けられた単語又はフレーズに関する場所を特定する。上述のように、特定のユーザ指定の関心ある話題に関連付けられた単語又はフレーズがマルチメディア文書に存在することは、そのユーザに関連する特定の話題が存在することを示す。マルチメディア文書に登場し、ユーザ指定の関心ある話題に関連付けられた単語及びフレーズは、GUI300によって表示されるとき、注釈が付けられる又は強調される。   In accordance with one embodiment of the present invention, to identify a location associated with a user-specified topic of interest in a multimedia document, server 104 retrieves the multimedia document and includes the interest within the multimedia document. Identify locations related to words or phrases associated with the topic. As described above, the presence of a word or phrase associated with a particular user-specified topic of interest in the multimedia document indicates that there is a particular topic associated with that user. Words and phrases that appear in multimedia documents and are associated with user-specified topics of interest are annotated or highlighted when displayed by the GUI 300.

図8は、ユーザが関心ある1以上の話題に関連するマルチメディア情報がGUI300に表示されるときに強調された(又は、注釈が付けられた)、本発明の一実施形態に係る簡略化されたGUI800の一例を示す。図8に示されたGUI800は、本発明の一実施形態の単なる例示であり、請求項記載の本発明の範囲を限定するものではない。当業者には、他の変形例、修正例、及び、代替例も明らかであろう。   FIG. 8 is a simplified illustration according to an embodiment of the present invention that is highlighted (or annotated) when multimedia information related to one or more topics of interest to the user is displayed on the GUI 300. An example of the GUI 800 is shown. The GUI 800 shown in FIG. 8 is merely illustrative of one embodiment of the present invention and is not intended to limit the scope of the present invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図8に示す実施形態において、ユーザは、関心ある話題802を4つ指定している。ラベル803は各話題を識別する。GUI800で指定された話題は、「Energy Crisis(エネルギ危機)」、「Assistive Tech(補助技術)」、「George W.Bush(ジョージ・W・ブッシュ)」、及び、「Nepal(ネパール)」を含む。本発明の教えるところによれば、指定された話題に関連するキーワード及びキーフレーズは、第二の表示エリア304、第三の表示エリア306、及び、第四の表示エリア308において、強調される。関心ある話題に関連するキーワード及び/又はキーフレーズを強調させる又はそれらに注釈を付けるのには様々な異なる手法を用いることができる。本発明の一実施形態によれば、ユーザ指定の話題に関する単語及びフレーズを強調させるのに異なる色及びスタイル(例えば、太字、下線、異なるフォントサイズ、など)を用いることができる。例えば、各話題に特定の色を割り当て、特定の話題に関連するコンテンツはその特定の話題に割り当てられた特定の色を用いて強調されてもよい。例えば、図8に示すように、関心ある話題:「Energy Crisis」に関連する単語及びフレーズを強調させるのに第一の色が用いられ、関心ある話題:「Assistive Tech」に関連する単語及びフレーズを強調させるのに第二の色が用いられ、関心ある話題:「George W.Bush」に関連する単語及びフレーズを強調させるのに第三の色が用いられ、関心ある話題:「Nepal」に関連する単語及びフレーズを強調させるのに第四の色が用いられる。   In the embodiment shown in FIG. 8, the user has specified four topics 802 of interest. A label 803 identifies each topic. Topics specified in the GUI 800 include “Energy Crisis”, “Assistive Technology”, “George W. Bush” and “Nepal”. . According to the teachings of the present invention, keywords and key phrases related to a specified topic are highlighted in the second display area 304, the third display area 306, and the fourth display area 308. A variety of different techniques can be used to highlight or annotate keywords and / or key phrases related to the topic of interest. According to one embodiment of the invention, different colors and styles (eg, bold, underline, different font sizes, etc.) can be used to highlight words and phrases related to user-specified topics. For example, a specific color may be assigned to each topic, and content related to the specific topic may be emphasized using a specific color assigned to the specific topic. For example, as shown in FIG. 8, the first color is used to highlight words and phrases related to the topic of interest: “Energy Crisis”, and words and phrases related to the topic of interest: “Assistive Tech”. The second color is used to highlight and the third color is used to highlight words and phrases related to the topic of interest: “George W. Bush” and the topic of interest: “Nepal” A fourth color is used to highlight related words and phrases.

本発明の一実施形態によれば、サーバ104はマルチメディア情報から抽出されたテキスト情報(例えば、CCテキスト情報、オーディオ情報の録音、又は、マルチメディア情報に含まれる他のいくつかの種類の情報のテキスト表現、など)を検索し、ユーザ話題に関連する単語又はフレーズの場所を探す。サーバ104が関心ある話題に関連付けられた単語又はフレーズをテキスト情報内に見つけると、その単語又はフレーズは、GUI800に表示されるとき、注釈が付けられる又は強調される。上述のように、この単語又はフレーズに注釈を付ける又は強調するのには複数の異なる手法を用いることができる。例えば、この単語又はフレーズは、例えば、強調されてもよく、太字にされてもよく、下線が引かれてもよく、サイドバー又はバルーンを用いて境界線が引かれてもよく、フォントが変えられてもよい。   According to one embodiment of the present invention, the server 104 may extract text information extracted from the multimedia information (eg, CC text information, audio information recording, or some other type of information included in the multimedia information). To find the location of a word or phrase related to the user topic. When the server 104 finds a word or phrase associated with the topic of interest in the text information, the word or phrase is annotated or highlighted when displayed on the GUI 800. As mentioned above, a number of different techniques can be used to annotate or emphasize this word or phrase. For example, the word or phrase may be highlighted, bolded, underlined, bordered using a sidebar or balloon, and the font changed. May be.

GUIによって表示され、ユーザ指定の関心ある話題に関連するキーフレーム(マルチメディア文書のビデオ情報を代表する)も強調されてもよい。本発明の一実施形態によれば、サーバ・システム104は、OCR技術を用いて、マルチメディア情報に含まれるビデオ情報から抽出されたキーフレームからテキストを抽出する。OCR技術によるテキスト出力は、次いで、1以上のユーザ指定の関心ある話題に関連付けられた単語又はフレーズと比較される。一致するものがあれば、一致した単語又はフレーズを含むキーフレーム(すなわち、OCR技術によって一致した単語又はフレームが抽出されたキーフレーム)は、そのキーフレームがGUI800においてGUI800の第二の表示エリア304、第三の表示エリア306、又は、第四の表示エリア308に表示されるとき、注釈が付けられる又は強調される。このキーフレームに注釈を付ける又は強調させるのには複数の異なる手法を用いることができる。例えば、特定の関心ある話題に関連するキーフレームの周囲に特殊な枠線が引かれてもよい。この枠線の色がその特定の関心ある話題に関連付けられた色に対応してもよい。また、キーフレームにおける合致テキストは、強調されてもよく、下線が引かれてもよく、あるいは、反転映像で表示されてもよい。上述のように、第二の表示エリア304に表示された注釈が付けられた又は強調されたキーフレーム(例えば、図3にサムネール画像312−2として表示されたキーフレーム)は、チャネル・エリア358に表示されるマーカによって識別できる。代替的実施形態として、このキーフレームは、サムネール画像312−2において、注釈が付けられてもよく、又は強調されてもよい。   Keyframes (representing video information in multimedia documents) displayed by the GUI and associated with user-specified topics of interest may also be highlighted. According to one embodiment of the present invention, the server system 104 uses OCR technology to extract text from key frames extracted from video information included in multimedia information. The text output by OCR technology is then compared to words or phrases associated with one or more user-specified topics of interest. If there is a match, the key frame containing the matched word or phrase (ie, the key frame from which the matched word or frame was extracted by the OCR technique) is displayed in the GUI 800 in the second display area 304 of the GUI 800. , When displayed in the third display area 306 or the fourth display area 308, annotated or highlighted. A number of different techniques can be used to annotate or highlight this key frame. For example, a special border may be drawn around a key frame associated with a particular topic of interest. The border color may correspond to the color associated with that particular topic of interest. In addition, the matching text in the key frame may be emphasized, underlined, or displayed in reverse video. As noted above, the annotated or highlighted keyframe displayed in the second display area 304 (eg, the keyframe displayed as the thumbnail image 312-2 in FIG. 3) is in the channel area 358. Can be identified by the marker displayed on the screen. As an alternative embodiment, this key frame may be annotated or highlighted in the thumbnail image 312-2.

本発明の一実施形態によれば、図8に示すように、各ユーザ話題について、関連度インジケータ804も表示される。特定の話題について、その話題に関する関連度インジケータは、そのマルチメディア文書の該特定の話題に対する関連性の度合(又は、関連性のスコア)を示す。例えば、図8に示すように、特定の話題に関連付けられた関連性インジケータに表示されたバーの数は、そのマルチメディア文書の該特定の話題に対する関連性の度合を示す。したがって、GUI800に表示されたマルチメディア文書は、ユーザ話題「Energy Crisis」に対して最も関連性を有し(4つのバーで示されている)、ユーザ話題「Nepal」に対して最も関連性を有しない(1つのバーで示されている)。各話題のマルチメディア文書に対する関連性の度合を示す様々な他の手法(例えば、関連性スコア、棒グラフ、異なる色、など)も用いることができる。   According to one embodiment of the present invention, as shown in FIG. 8, a relevance indicator 804 is also displayed for each user topic. For a particular topic, the relevance indicator for that topic indicates the degree of relevance (or relevance score) of that multimedia document for that particular topic. For example, as shown in FIG. 8, the number of bars displayed on the relevance indicator associated with a particular topic indicates the degree of relevance of that multimedia document to that particular topic. Accordingly, the multimedia document displayed on the GUI 800 is most relevant to the user topic “Energy Crisis” (shown by four bars) and most relevant to the user topic “Nepal”. Does not have (indicated by one bar). Various other techniques (eg, relevance scores, bar graphs, different colors, etc.) that indicate the degree of relevance to each topical multimedia document can also be used.

本発明の一実施形態によれば、特定の話題についての関連性スコアは、その特定の話題に関連付けられた単語及びフレーズがマルチメディア情報に登場する頻度に基づいて計算される。また、その特定の話題についての関連性スコアを計算するのにその特定の話題に関連付けられた単語又はフレーズに関する確率値を用いることもできる。また、ある話題に関連付けられた単語及びフレーズがマルチメディア文書に登場する頻度及びその単語又はフレーズに関連付けられた確率値に基づいてユーザ指定の関心ある話題に関する関連性スコアを決定するのには当業者には既知の様々な手法も用いることができる。また、マルチメディア文書のその関心ある話題に対する関連性の度合を計算するのには当業者には既知の様々な他の手法も用いることができる。   According to one embodiment of the present invention, the relevance score for a particular topic is calculated based on the frequency with which words and phrases associated with that particular topic appear in the multimedia information. It is also possible to use a probability value for a word or phrase associated with the particular topic to calculate a relevance score for that particular topic. It is also useful to determine the relevance score for a user-specified topic of interest based on the frequency with which words and phrases associated with a topic appear in the multimedia document and the probability value associated with that word or phrase. Various techniques known to those skilled in the art can also be used. Various other techniques known to those skilled in the art can also be used to calculate the degree of relevance of a multimedia document to its topic of interest.

既述のように、関連性インジケータは、そのユーザに対する関連性の度合又は関連性スコアを表示するのに用いられる。関連性インジケータに表示された情報に基づいて、ユーザは、マルチメディア文書によって格納されたマルチメディア情報の該ユーザが指定し得る話題に対する関連性を容易に判断することができる。   As described above, the relevance indicator is used to display the degree of relevance or relevance score for the user. Based on the information displayed on the relevance indicator, the user can easily determine the relevance of the multimedia information stored by the multimedia document to the topic that the user can specify.

図9は、本発明の一実施形態に関する関心ある話題を定義する簡略化されたユーザ・インターフェース900を示す。ユーザ・インターフェース900は、第一の表示エリア302から適切なコマンドを選択することによって呼び出すことができる。図9に示すGUI900は、本発明の一実施形態の単なる一例であり、請求項記載の本発明の範囲を制限するものではない。当業者には他の変形例、修正例、及び、代替例も明らかであろう。   FIG. 9 illustrates a simplified user interface 900 that defines topics of interest for one embodiment of the present invention. The user interface 900 can be invoked by selecting an appropriate command from the first display area 302. The GUI 900 shown in FIG. 9 is merely an example of an embodiment of the present invention and does not limit the scope of the present invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

ユーザは、フィールド902において関心ある話題を指定できる。この関心ある話題を識別するラベルをフィールド910において指定することができる。フィールド910において指定されたラベルは、その関心ある話題を識別するために、本発明の教えるところに従って生成されたGUIに表示される。フィールド902において指定された話題に関連付けられた単語及び/又はフレーズのリストがエリア908に表示される。ユーザは、このリストに新しいキーワードを追加したり、リスト中の1以上のキーワードを修正したり、この関心ある話題に関連付けられたキーワード・リストから1以上のキーワードを削除したり、することができる。ユーザは、フィールド904において、関心ある話題に関連付けられる新しいキーワード又はフレーズを指定することができる。「追加」ボタン906を選択すると、フィールド904において指定されたキーワード又はフレーズが前にある話題に関連付けられたキーワード・リストに追加される。ユーザは、エリア912において色を選択することによって、関心ある話題に関連する情報に注釈を付ける又は強調するのに用いられる色を指定することができる。例えば,図9に示す実施形態において、マルチメディア文書において「Assistive Technology」に関連する位置は、青色で注釈が付けられる又は強調される。   The user can specify the topic of interest in field 902. A label identifying the topic of interest can be specified in field 910. The label specified in field 910 is displayed on a GUI generated in accordance with the teachings of the present invention to identify the topic of interest. A list of words and / or phrases associated with the topic specified in field 902 is displayed in area 908. The user can add new keywords to the list, modify one or more keywords in the list, and delete one or more keywords from the keyword list associated with the topic of interest. . The user can specify a new keyword or phrase associated with the topic of interest in field 904. Selecting the “Add” button 906 adds the keyword or phrase specified in the field 904 to the keyword list associated with the previous topic. The user can specify the color used to annotate or highlight information related to the topic of interest by selecting a color in area 912. For example, in the embodiment shown in FIG. 9, the location associated with “Assistive Technology” in the multimedia document is annotated or highlighted in blue.

本発明の教えるところによれば、サーバ104によって生成されたGUIは、マルチメディア情報に含まれる様々な異なる種類の情報を表示できる。図10は、本発明の一実施形態に係る会議録画によって格納されたマルチメディア情報を表示する簡略化されたユーザ・インターフェース1000を示す。図10に示すGUI1000は本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではないことは明らかである。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   According to the teachings of the present invention, the GUI generated by the server 104 can display a variety of different types of information included in the multimedia information. FIG. 10 illustrates a simplified user interface 1000 that displays multimedia information stored by conference recording according to one embodiment of the present invention. It will be appreciated that the GUI 1000 shown in FIG. 10 is merely illustrative of one embodiment that incorporates the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

会議録画によって格納されたマルチメディア情報は、ビデオ情報及びオーディオ情報を有すると共に、おそらく、CCテキスト情報、スライド情報、及び、他の種類の情報も有する。スライド情報は、会議中に提示されたスライド(例えば、PowerPointプレゼンテーション・スライド)に関連する情報を含み得る。例えば、スライド情報は、会議において提示されたスライド画像を含む。図10に示すように、第二の表示エリア304は、3つのサムネール画像312−1、312−2、及び、312−3を有する。会議録画マルチメディア情報から抽出されたテキスト情報(例えば、CCテキスト情報、会議録画に含まれるオーディオ情報の録音、又は、会議録画に含まれる他の種類の情報のテキスト表現)がサムネール画像312−1に表示される。会議録画マルチメディア情報に含まれるビデオ情報から抽出されたビデオ・キーフレームは、サムネール画像312−2に表示される。マルチメディア情報に含まれるスライド情報から抽出されたスライドは、サムネール画像312−3に表示される。このサムネール画像は、互いに時系列に並べられる。サムネール画像312−4に表示される情報は、ユーザが会議録画中の様々な時点で提示されたプレゼンテーション・スライドを見ることができるという点で、ビデオ及びテキスト情報に対する追加的コンテキストを提供する。   The multimedia information stored by the conference recording has video information and audio information, and possibly CC text information, slide information, and other types of information. The slide information may include information related to slides presented during the meeting (eg, PowerPoint presentation slides). For example, the slide information includes a slide image presented at the meeting. As shown in FIG. 10, the second display area 304 includes three thumbnail images 312-1, 312-2, and 312-3. Text information extracted from the conference recording multimedia information (eg, CC text information, recording audio information included in the conference recording, or text representation of other types of information included in the conference recording) is a thumbnail image 312-1. Is displayed. Video key frames extracted from the video information included in the conference recording multimedia information are displayed in the thumbnail image 312-2. The slide extracted from the slide information included in the multimedia information is displayed on the thumbnail image 312-3. The thumbnail images are arranged in time series with each other. The information displayed in the thumbnail image 312-4 provides additional context for video and text information in that the user can view presentation slides presented at various times during the conference recording.

第三の表示エリア306は、3つのパネル324−1、324−2、及び324−3を有する。パネル324−1は、サムネール画像312−1のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応するテキスト情報を表示する。パネル324−2は、サムネール画像312−2のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応するビデオ・キーフレームを表示する。パネル324−3は、サムネール画像312−3のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応する1以上のスライドを表示する。これらパネルは、互いに時系列に並べられる。   The third display area 306 has three panels 324-1, 324-2, and 324-3. The panel 324-1 displays text information corresponding to a portion highlighted or covered by the thumbnail display area lens 314 in the thumbnail image 312-1. Panel 324-2 displays video keyframes corresponding to the portion of thumbnail image 312-2 that is highlighted or covered by thumbnail display area lens 314. The panel 324-3 displays one or more slides corresponding to a portion of the thumbnail image 312-3 highlighted or covered by the thumbnail display area lens 314. These panels are arranged in time series with each other.

第四の表示エリア308は、3つのサブ表示エリア340−1、340−2、及び340−3を有する。サブ表示エリア340−1は、パネル324−2のうちパネル表示エリア・レンズ322によって覆われた部分に対応するビデオ情報を表示する。上述のように、サブ表示エリア340−1は、パネル324−2の強調された部分に対応するキーフレームを表示し得る。別の方法として、パネル表示エリア・レンズ322の部分に基づくビデオがエリア340−1において再生されてもよい。本発明の一実施形態によれば、レンズ322に関連する時刻tは、第四の表示エリア308のエリア340−1においてそのビデオの再生を開始する時間として用いられる。例えば360度カメラを用いて記録された会議室のパノラマ・ショットも第四の表示エリア308のエリア340−1に表示される。パネル324−1においてパネル表示エリア・レンズ322によって強調されたテキスト情報は、第四の表示エリア308のエリア340−2に表示される。パネル324−3においてパネル表示エリア・レンズ322によって強調された1以上のスライドが第四の表示エリア308のエリア340−3に表示される。本発明の一実施形態によれば、ユーザは、特定のスライドをクリックすることによって、パネル324−3からそのスライドを選択することもできる。選択されたスライドは、次いで、第四の表示エリア308のエリア340−3に表示される。 The fourth display area 308 has three sub display areas 340-1, 340-2, and 340-3. The sub display area 340-1 displays video information corresponding to a portion of the panel 324-2 covered by the panel display area / lens 322. As described above, the sub-display area 340-1 may display a key frame corresponding to the highlighted portion of the panel 324-2. Alternatively, video based on the portion of the panel display area lens 322 may be played in area 340-1. According to one embodiment of the present invention, time t 3 associated with lens 322 is used as the time to start playing the video in area 340-1 of fourth display area 308. For example, a panoramic shot of a conference room recorded using a 360 degree camera is also displayed in the area 340-1 of the fourth display area 308. The text information emphasized by the panel display area / lens 322 in the panel 324-1 is displayed in the area 340-2 of the fourth display area 308. One or more slides highlighted by the panel display area / lens 322 in the panel 324-3 are displayed in the area 340-3 of the fourth display area 308. According to one embodiment of the present invention, the user can also select a slide from panel 324-3 by clicking on a particular slide. The selected slide is then displayed in area 340-3 of fourth display area 308.

本発明の一実施形態によれば、ユーザは、マルチメディア文書に含まれる情報のうちGUIに表示される情報の種類を指定することができる。例えば、ユーザは、「スライド」ボタン1004を選択状態にする又は非選択状態にすることによって、GUIに表示されるスライド関連情報(すなわち、サムネール画像312−3、パネル324−3、及び、第四の表示エリア308のエリア340―3に表示される情報)をオン/オフすることができる。ユーザがスライド情報を非選択状態とした場合、GUI1000はサムネール312−3及びパネル324−3を表示しない。ユーザがボタン1004を選択状態とした場合、GUI1000はサムネール312−3及びパネル324−3を表示する。このように、ボタン1004は、スライド情報の表示/非表示を切り替えるスイッチとして機能する。同様に、ユーザは、本発明の教えに従って生成されるGUIによって表示される他の種類の情報も制御することができる。例えば、GUI1000が表示するビデオ情報、テキスト情報、及び、他の種類の情報をオン/オフする機能を設けることができる。   According to an embodiment of the present invention, the user can specify the type of information displayed on the GUI among the information included in the multimedia document. For example, the user selects or deselects the “slide” button 1004 to display slide-related information (ie, thumbnail image 312-3, panel 324-3, and fourth) displayed on the GUI. Information displayed in the area 340-3 of the display area 308) can be turned on / off. When the user deselects the slide information, the GUI 1000 does not display the thumbnail 312-3 and the panel 324-3. When the user selects the button 1004, the GUI 1000 displays a thumbnail 312-3 and a panel 324-3. As described above, the button 1004 functions as a switch for switching between display / non-display of slide information. Similarly, the user can control other types of information displayed by the GUI generated in accordance with the teachings of the present invention. For example, a function for turning on / off video information, text information, and other types of information displayed by the GUI 1000 can be provided.

図11は、本発明の一実施形態に係り、マルチメディア文書によって格納されたマルチメディア情報を表示する簡略化されたユーザ・インターフェース1100を示す。図11に示すGUI1100は、本発明を組み込む一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではないことは明らかである。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 11 illustrates a simplified user interface 1100 that displays multimedia information stored by a multimedia document in accordance with one embodiment of the present invention. It will be appreciated that the GUI 1100 illustrated in FIG. 11 is merely illustrative of one embodiment that incorporates the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

含まれるコンテンツがGUI1100に表示されたマルチメディア文書は、ビデオ情報、オーディオ情報、又は、CCテキスト情報、スライド情報、及び、ホワイトボード情報を有する。ホワイトボード情報は、ホワイトボード上に書かれたテキスト及び図の画像を含み得る。図11に示すように、第二の表示エリア304は、4つのサムネール画像312−1、312−2、312−3、及び312−4を有する。マルチメディア文書から抽出されたテキスト情報(例えば、CCテキスト情報、又は、会議録画に含まれたオーディオ情報の録音、又は、マルチメディア情報に含まれる他の種類のテキスト表現)がサムネール画像312−1に表示される。マルチメディア文書に含まれるビデオ情報から抽出されたビデオ・キーフレームはサムネール画像312−2に表示される。マルチメディア情報に含まれるスライド情報から抽出されたスライドはサムネール画像312−3に表示される。マルチメディア文書に含まれるホワイトボード情報から抽出されたホワイトボード画像はサムネール画像312−4に表示される。これらサムネール画像は、互いに時系列に並べられる。   The multimedia document in which the included content is displayed on the GUI 1100 includes video information, audio information, CC text information, slide information, and whiteboard information. Whiteboard information may include text and graphic images written on the whiteboard. As shown in FIG. 11, the second display area 304 includes four thumbnail images 312-1, 312-2, 312-3, and 312-4. Text information extracted from the multimedia document (e.g., CC text information, or recording of audio information included in the conference recording, or other type of text representation included in the multimedia information) is the thumbnail image 312-1. Is displayed. Video key frames extracted from the video information contained in the multimedia document are displayed in the thumbnail image 312-2. The slide extracted from the slide information included in the multimedia information is displayed in the thumbnail image 312-3. The whiteboard image extracted from the whiteboard information included in the multimedia document is displayed in the thumbnail image 312-4. These thumbnail images are arranged in time series with each other.

第三の表示エリア306は、4つのパネル324−1、324−2、324−3、及び324−4を有する。パネル324−1は、サムネール画像312−1のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応するテキスト情報を表示する。パネル324−2は、サムネール画像312−2のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応するビデオ・キーフレームを表示する。パネル324−3は、サムネール画像312−3のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応する1以上のスライドを表示する。パネル324−4は、サムネール画像312−4のうちサムネール表示エリア・レンズ314によって強調された又は覆われた部分に対応する1以上のホワイトボード画像を表示する。これらパネルは互いに時系列に並べられる。   The third display area 306 has four panels 324-1, 324-2, 324-3, and 324-4. The panel 324-1 displays text information corresponding to a portion highlighted or covered by the thumbnail display area lens 314 in the thumbnail image 312-1. Panel 324-2 displays video keyframes corresponding to the portion of thumbnail image 312-2 that is highlighted or covered by thumbnail display area lens 314. The panel 324-3 displays one or more slides corresponding to a portion of the thumbnail image 312-3 highlighted or covered by the thumbnail display area lens 314. The panel 324-4 displays one or more whiteboard images corresponding to a portion of the thumbnail image 312-4 highlighted or covered by the thumbnail display area lens 314. These panels are arranged in time series with each other.

第四の表示エリア308は、3つのサブ表示エリア340−1、340−2、及び340−3を有する。エリア340−1は、パネル324−2のうちパネル表示エリア・レンズ322によって覆われた部分に対応するビデオ情報を表示する。上述のように、サブ表示エリア340−1は、パネル324−2の強調された部分に対応するキーフレームを表示してもよく、対応するビデオを再生してもよい。本発明の一実施形態によれば、レンズ322に関連する(上述の)時刻tは、第四の表示エリア308のエリア340−1におけるそのビデオの再生の開始時刻として用いられる。マルチメディア文書が記録された場所の(例えば、360度カメラを用いて記録された)パノラマ・ショット1102も第四の表示エリア308のエリア340−1に表示される。パネル324−1においてパネル表示エリア・レンズ322によって強調されたテキスト情報は、第四の表示エリア308のエリア340−2に表示される。パネル324−3においてパネル表示エリア・レンズ322によって強調されたスライド、又は、パネル324−4においてパネル表示エリア・レンズ322によって強調されたホワイトボード画像が第四の表示エリア308のエリア340−3に表示されてもよい。図11に示す実施形態において、パネル324−4のうちパネル表示エリア・レンズ322によって覆われた部分に対応するホワイトボード画像は、エリア340−3に表示される。本発明の一実施形態によれば、ユーザは、パネル324−3の特定のスライド又はパネル324−4の特定のホワイトボード画像をクリックすることによって、そのスライド又はホワイトボード画像を選択することができる。選択されたスライド又はホワイトボード画像は、次いで、第四の表示エリア308のエリア340−3に表示される。 The fourth display area 308 has three sub display areas 340-1, 340-2, and 340-3. The area 340-1 displays video information corresponding to a portion of the panel 324-2 covered with the panel display area / lens 322. As described above, the sub display area 340-1 may display a key frame corresponding to the highlighted portion of the panel 324-2, and may play a corresponding video. According to one embodiment of the present invention, time t 3 (described above) associated with lens 322 is used as the start time for playback of the video in area 340-1 of fourth display area 308. A panorama shot 1102 at the location where the multimedia document was recorded (eg, recorded using a 360 degree camera) is also displayed in area 340-1 of fourth display area 308. The text information emphasized by the panel display area / lens 322 in the panel 324-1 is displayed in the area 340-2 of the fourth display area 308. The slide emphasized by the panel display area / lens 322 in the panel 324-3 or the whiteboard image emphasized by the panel display area / lens 322 in the panel 324-4 is displayed in the area 340-3 of the fourth display area 308. It may be displayed. In the embodiment shown in FIG. 11, the whiteboard image corresponding to the portion of the panel 324-4 covered by the panel display area / lens 322 is displayed in the area 340-3. According to one embodiment of the present invention, a user can select a slide or whiteboard image by clicking on a specific slide on panel 324-3 or a specific whiteboard image on panel 324-4. . The selected slide or whiteboard image is then displayed in area 340-3 of fourth display area 308.

上述のように、本発明の一実施形態によれば、ユーザは、マルチメディア文書からの情報のうちGUIに表示される情報の種類を指定することができる。例えば、ユーザは、GUIによって表示される特定の種類の情報をオン/オフさせることができる。ユーザは、「WB」ボタン1104を用いて、GUI1000によって表示されるホワイトボード関連情報(すなわち、サムネール画像312−4、パネル324−4、及び、第四の表示エリア308のエリア340−3)をオン/オフさせることができる。   As described above, according to an embodiment of the present invention, the user can specify the type of information displayed on the GUI among the information from the multimedia document. For example, the user can turn on / off certain types of information displayed by the GUI. The user uses the “WB” button 1104 to display the whiteboard related information (that is, the thumbnail image 312-4, the panel 324-4, and the area 340-3 of the fourth display area 308) displayed by the GUI 1000. Can be turned on / off.

図12は、本発明の一実施形態に係るマルチメディア文書のコンテンツを表示する簡略化されたユーザ・インターフェース1200を示す。図12に示すGUI1200は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではないことは明らかである。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 12 illustrates a simplified user interface 1200 that displays the contents of a multimedia document according to an embodiment of the present invention. It is clear that the GUI 1200 shown in FIG. 12 is merely illustrative of one embodiment incorporating the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図12に示すように、第三の表示エリア306の上部及び下部にはプレビュー・エリア1202及び1204が設けられる。本実施形態において、パネル表示エリア・レンズ322は、第三の表示エリア306に沿って、プレビュー・エリア1202の端1206とプレビュー・エリア1204の端1208との間で動かすことができる。プレビュー・エリア1202及び1204により、ユーザは、パネル表示エリア・レンズ322を用いてマルチメディア文書をスクロールさせているとき、第三の表示エリア306に表示されたコンテンツをプレビューすることができる。例えば、ユーザがパネル表示エリア・レンズ322を用いてマルチメディア文書をスクロール・ダウンさせているとき、ユーザはプレビュー1204において次に来るコンテンツを見ることができ、第三の表示エリア306を去っていくコンテンツをプレビュー1202において見ることができる。ユーザがパネル表示エリア・レンズ322を用いてマルチメディア文書をスクロール・アップさせているとき、ユーザはプレビュー1202において次に来るコンテンツを見ることができ、第三の表示エリア306を去っていくコンテンツをプレビュー1204において見ることができる。本発明の一実施形態によれば、ユーザは、各プレビュー領域のサイズ(又は長さ)を変更及びカスタマイズすることができる。例えば、図12に示すGUI1200において、ユーザがプレビュー領域1204のサイズを変更するのに用いるハンドル1210が設けられる。本発明の一実施形態によれば、プレビュー・エリアもまた第二の表示エリア304に設けられてもよい。   As shown in FIG. 12, preview areas 1202 and 1204 are provided above and below the third display area 306. In this embodiment, the panel display area lens 322 can be moved along the third display area 306 between the end 1206 of the preview area 1202 and the end 1208 of the preview area 1204. Preview areas 1202 and 1204 allow the user to preview the content displayed in the third display area 306 when scrolling through the multimedia document using the panel display area lens 322. For example, when the user is scrolling down a multimedia document using the panel display area lens 322, the user can see the next content in the preview 1204 and leave the third display area 306. The content can be viewed in preview 1202. When the user is scrolling up the multimedia document using the panel display area lens 322, the user can see the next content in the preview 1202 and the content leaving the third display area 306. It can be seen in the preview 1204. According to an embodiment of the present invention, the user can change and customize the size (or length) of each preview area. For example, in the GUI 1200 shown in FIG. 12, a handle 1210 used by the user to change the size of the preview area 1204 is provided. According to one embodiment of the invention, a preview area may also be provided in the second display area 304.

図13は、本発明の一実施形態に係り、マルチメディア文書のコンテンツを表示する簡略化されたユーザ・インターフェース1300を示す。図13に示すGUI1300は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではないことは明らかである。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 13 illustrates a simplified user interface 1300 for displaying the contents of a multimedia document according to one embodiment of the present invention. It will be appreciated that the GUI 1300 shown in FIG. 13 is merely illustrative of an embodiment incorporating the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図13に示すように、第三の表示エリア306のパネル324−1に、テキスト情報が圧縮された形式で、すなわち行間の余白が削除されて、表示される。これにより、テキスト情報の読み易さが向上する。パネル324−1に表示されたテキスト行は、次いで、パネル324−2に表示されるビデオ・フレームを決定するのに用いられる。本発明の一実施形態によれば、パネル324−1に表示されるテキストの各行にタイムスタンプが関連付けられる。一テキスト行に関連付けられるタイムスタンプは、そのテキストがGUI1300によって表示されているマルチメディア文書に登場した時刻を表す。一実施形態において、一テキスト行に関連付けられたタイムスタンプは、そのテキスト行の最初の単語に関連付けられたタイムスタンプと一致する。次いで、パネル324−1に表示されたテキスト行は、各グループが所定の行数を有するように、グループ分けされる。   As shown in FIG. 13, the text information is compressed and displayed on the panel 324-1 of the third display area 306, that is, the margin between lines is deleted. Thereby, the readability of text information improves. The text line displayed on panel 324-1 is then used to determine the video frame displayed on panel 324-2. According to one embodiment of the present invention, a time stamp is associated with each line of text displayed on panel 324-1. The time stamp associated with one text line represents the time when the text appeared in the multimedia document displayed by the GUI 1300. In one embodiment, the time stamp associated with a text line matches the time stamp associated with the first word of that text line. The text lines displayed on panel 324-1 are then grouped so that each group has a predetermined number of lines.

次いで、行グループの各々について、そのグループの行に関連付けられたタイムスタンプに応じて、マルチメディア文書によって格納されたビデオ情報からビデオ・キーフレームが抽出される。本発明の一実施形態によれば、サーバ104は、行グループの各々に関連付けられる開始時刻及び終了時刻を決定する。あるグループについての開始時刻は、そのグループの最初の(最も古い)行に関連付けられた時刻と一致し、あるグループについての終了時刻は、そのグループの最後の(最も新しい)行に関連付けられた時刻と一致する。特定のテキスト行グループに対応するパネル324−2に表示されるキーフレームを決定するために、サーバ104は、ビデオ情報のうちその特定のグループに関連付けられた開始時刻と終了時刻との間に登場した部分から1以上のビデオ・キーフレームを抽出する。次いで、抽出されたビデオ・キーフレームからその特定のグループについてパネル324−2に表示される1以上のキーフレームが選択される。この1以上の選択されたキーフレームは、次いで、そのキーフレームが抽出されたパネル324−1に表示された行グループに隣接して、パネル324−1に表示される。   Then, for each row group, video keyframes are extracted from the video information stored by the multimedia document in response to the time stamp associated with the group row. According to one embodiment of the invention, the server 104 determines a start time and an end time associated with each of the row groups. The start time for a group matches the time associated with the first (oldest) row of the group, and the end time for a group is the time associated with the last (newest) row of the group Matches. To determine the keyframe displayed on panel 324-2 corresponding to a particular text line group, server 104 appears between the start time and end time associated with that particular group of video information. One or more video keyframes are extracted from the obtained portion. One or more key frames are then selected from the extracted video key frames to be displayed on panel 324-2 for that particular group. The one or more selected key frames are then displayed on panel 324-1 adjacent to the row group displayed on panel 324-1 from which the key frame was extracted.

例えば、図13において、パネル324−1に表示される行は、各グループが4テキスト行を有するように、グループに分割される。各グループについて、そのグループの1番目の行に関連付けられたタイムスタンプがそのグループについての開始時刻と一致し、そのグループの4番目の行に関連付けられたタイムスタンプがその行グループについての終了時刻と一致する。図13に示す実施形態では、パネル324−1に表示される4テキスト行から成る各グループの各々について、3つのビデオ・キーフレームがパネル324−2に表示される。本発明の一実施形態によれば、特定の行グループに対応するこれら3つのビデオ・キーフレームは、その特定のグループの開始時刻と終了時刻の間のビデオ情報から抽出されたキーフレーム群のうちの最初、真ん中、及び最後のキーフレームに対応する。上述のように、パネル324−2に表示されるビデオ・キーフレームを選択するのには様々な他の手法も用いることができる。パネル324−1に表示される行グループの各々について、その行グループに対応するキーフレームは、それらキーフレームが時間的に行グループと揃うように、表示される。図13に示す実施形態において、ある行グループについてのキーフレームの高さは、その行グループの垂直高さとほぼ等しい。   For example, in FIG. 13, the lines displayed on panel 324-1 are divided into groups such that each group has 4 text lines. For each group, the timestamp associated with the first row of the group matches the start time for the group, and the timestamp associated with the fourth row of the group is the end time for the row group. Match. In the embodiment shown in FIG. 13, three video key frames are displayed on panel 324-2 for each group of four text lines displayed on panel 324-1. According to one embodiment of the present invention, these three video keyframes corresponding to a particular row group are keyframes extracted from video information between the start time and end time of that particular group. Corresponds to the first, middle, and last keyframes. As described above, various other techniques can be used to select the video keyframes displayed on panel 324-2. For each row group displayed on panel 324-1, the key frames corresponding to that row group are displayed such that the key frames are aligned with the row group in time. In the embodiment shown in FIG. 13, the height of the key frame for a row group is approximately equal to the vertical height of that row group.

一グループに含まれるテキスト行の行数は、ユーザが設定可能である。同様に、特定の行グループについて抽出されるビデオ・キーフレーム数もユーザが設定可能である。さらに、各行グループについてパネル324−2に表示されるビデオ・キーフレームも本発明のユーザが設定することができる。   The number of text lines included in one group can be set by the user. Similarly, the number of video keyframes extracted for a particular row group can be set by the user. In addition, the user of the present invention can also set the video keyframes displayed on panel 324-2 for each row group.

抽出されたキーフレームがパネル324−2にどのように表示されるかもユーザが設定可能である。特定の行グループとその特定の行グループについて表示されるビデオ・キーフレームとの間の関係を示すのに様々な手法を用いることができる。例えば、本発明の一実施形態によれば、パネル324−1に表示される特定の行グループ及びパネル324−2に表示される対応するビデオ・キーフレームは、その関係を示すために、同じ色で色分け又は表示されてもよい。この関係を示すのには当業者には既知の様々な他の手法も用いることができる。   The user can also set how the extracted key frame is displayed on the panel 324-2. Various techniques can be used to indicate the relationship between a particular row group and the video keyframes displayed for that particular row group. For example, according to one embodiment of the present invention, the particular row group displayed on panel 324-1 and the corresponding video keyframe displayed on panel 324-2 are the same color to indicate the relationship. May be color-coded or displayed. Various other techniques known to those skilled in the art can also be used to indicate this relationship.

(本発明の一実施形態に係るGUI生成手法)
以下、本発明の一実施形態に係るGUI(例えば、図3に示したGUI300)生成手法について説明する。便宜上、GUIに表示されるマルチメディア情報は、ビデオ情報、オーディオ情報、及び、CCテキスト情報を有するものとする。GUI300を生成するタスクを分解すると、(a)マルチメディア情報から抽出されたテキスト情報を表示するサムネール312−1を第二の表示エリア304に表示するタスク、(b)マルチメディア情報に含まれるビデオ情報から抽出されたビデオ・キーフレームを表示するサムネール312−2を表示するタスク、(c)第二の表示エリア304の一部を強調し、この第二の表示エリア304の強調された部分に対応する情報を第三の表示エリア306に表示するサムネール表示エリア・レンズ314、及び、第三の表示エリア306の一部を強調し、この第三の表示エリア306の強調された部分に対応する情報を第四の表示エリア308に表示するパネル表示エリア・レンズ322、を表示するタスク、及び、(d)第五の表示エリア310に情報を表示するタスク、に分けることができる。
(GUI generation method according to an embodiment of the present invention)
Hereinafter, a GUI (for example, GUI 300 illustrated in FIG. 3) generation method according to an embodiment of the present invention will be described. For convenience, it is assumed that the multimedia information displayed on the GUI includes video information, audio information, and CC text information. When the task for generating the GUI 300 is disassembled, (a) a task for displaying a thumbnail 312-1 for displaying text information extracted from the multimedia information in the second display area 304, and (b) a video included in the multimedia information. A task for displaying a thumbnail 312-2 for displaying video keyframes extracted from the information, (c) highlighting a part of the second display area 304, and highlighting the highlighted part of the second display area 304 The thumbnail display area / lens 314 for displaying the corresponding information in the third display area 306 and a part of the third display area 306 are emphasized, and the third display area 306 corresponds to the highlighted part. A task for displaying a panel display area / lens 322 for displaying information in the fourth display area 308, and (d) a fifth display. It can be divided into the rear 310 task for displaying information, the.

図14は、本発明の一実施形態に係るサムネール312−1を第二の表示エリア304に表示する方法を示す簡略化された高レベル・フローチャート1400である。図14に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図14に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 14 is a simplified high-level flowchart 1400 illustrating a method for displaying thumbnail 312-1 in second display area 304 according to one embodiment of the present invention. The method illustrated in FIG. 14 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method illustrated in FIG. 14 is merely illustrative of an embodiment incorporating the present invention and is not intended to limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図14に示すように、本方法は、サーバ104がGUIに表示されたマルチメディア情報にアクセスしたときに開始される(ステップ1402)。既述のように、マルチメディア情報は、サーバ104がアクセス可能なマルチメディア文書に格納され得る。ステップ1402の一部として、サーバ104はマルチメディア文書を識別する情報(例えば、そのマルチメディア文書のファイル名)及びそのマルチメディア文書の場所(例えば、ディレクトリ・パス)を受信してもよい。本発明のユーザがマルチメディア文書識別情報を提供してもよい。その場合、サーバ104は、提供された情報に基づいてマルチメディア文書にアクセスすることができる。別の方法として、サーバ104は、GUIに表示されるマルチメディア情報をマルチメディア情報源からストリーミング媒体信号、ケーブル信号、などの形で受信してもよい。その場合、サーバ・システム104は、マルチメディア情報信号をマルチメディア文書として格納し、その後、格納された文書を用いて本発明の教えるところに従ったGUIを生成する。   As shown in FIG. 14, the method begins when the server 104 accesses multimedia information displayed on the GUI (step 1402). As already mentioned, the multimedia information may be stored in a multimedia document accessible by the server 104. As part of step 1402, server 104 may receive information identifying a multimedia document (eg, the filename of the multimedia document) and the location of the multimedia document (eg, a directory path). The user of the present invention may provide multimedia document identification information. In that case, the server 104 can access the multimedia document based on the provided information. Alternatively, the server 104 may receive multimedia information displayed on the GUI in the form of streaming media signals, cable signals, etc. from multimedia information sources. In that case, the server system 104 stores the multimedia information signal as a multimedia document, and then uses the stored document to generate a GUI according to the teachings of the present invention.

次いで、サーバ104は、ステップ1402でアクセスしたマルチメディア情報からテキスト情報を抽出する(ステップ1404)。ステップ1402でアクセスしたマルチメディア情報がCCテキスト情報を含む場合、このテキスト情報は、マルチメディア情報から抽出されたCCテキスト情報に対応する。ステップ1402でアクセスしたマルチメディア情報がCCテキスト情報を含まない場合、ステップ1404において、ステップ1402にアクセスされたマルチメディア情報に含まれるオーディオ情報が録音され、そのオーディオ情報のテキスト録音が生成される。このテキスト録音は、ステップ1404で抽出されたテキスト情報を表す。また、ステップ1404で抽出されたテキスト情報は、マルチメディア情報に含まれる他の種類の情報のテキスト表現であってもよい。   Next, the server 104 extracts text information from the multimedia information accessed in Step 1402 (Step 1404). If the multimedia information accessed in step 1402 includes CC text information, this text information corresponds to the CC text information extracted from the multimedia information. If the multimedia information accessed in step 1402 does not include CC text information, in step 1404, the audio information included in the multimedia information accessed in step 1402 is recorded, and a text recording of the audio information is generated. This text recording represents the text information extracted in step 1404. Further, the text information extracted in step 1404 may be a text representation of other types of information included in the multimedia information.

ステップ1404で決定されたテキスト情報は、各行が1以上の単語を有する行の集合を含む。各単語には、その単語がマルチメディア情報に登場した時刻を示すタイムスタンプが関連付けられる。各単語についてのタイムスタンプ情報は、CCテキスト情報に含まれる。別の方法として、そのテキストがオーディオ情報の録音を表す場合、この各単語についてのタイムスタンプ情報は、オーディオ録音処理中に決定されてもよい。別の方法として、そのテキスト情報がマルチメディア情報に含まれる他の種類の情報のテキスト表現を表す場合、その他の種類の情報に関連付けられるタイムスタンプが決定されてもよい。   The text information determined in step 1404 includes a set of rows where each row has one or more words. Each word is associated with a time stamp indicating the time when the word appeared in the multimedia information. Time stamp information for each word is included in the CC text information. Alternatively, if the text represents a recording of audio information, the time stamp information for each word may be determined during the audio recording process. Alternatively, if the text information represents a text representation of another type of information included in the multimedia information, a time stamp associated with the other type of information may be determined.

ステップ1404の一部として、各行に、その行に含まれる単語に基づいて、開始時刻及び終了時刻が割り当てられる。ある行の開始時刻は、その行に登場する最初の単語に関連付けられたタイムスタンプに一致し、ある行の終了時刻は、その行に登場する最後の単語に関連付けられたタイムスタンプに一致する。   As part of step 1404, each line is assigned a start time and an end time based on the words contained in that line. The start time of a line matches the time stamp associated with the first word appearing on that line, and the end time of a line matches the time stamp associated with the last word appearing on that line.

タイミング情報などのステップ1404で決定されたテキスト情報は、次いで、サーバ104がアクセスできるメモリ・ロケーションに格納される(ステップ1406)。一実施形態において、テキスト情報を格納するのに行オブジェクトの連結リストを含むデータ構造(又は、メモリ構造)が用いられる。各行オブジェクトは、その行に含まれる単語の連結リストを有する。また、単語及び行に関連付けられたテキスト情報も、このデータ構造に格納される。このデータ構造に格納された情報は、次いで、GUI300を生成するのに用いられる。   The text information determined in step 1404, such as timing information, is then stored in a memory location accessible by the server 104 (step 1406). In one embodiment, a data structure (or memory structure) that includes a linked list of row objects is used to store text information. Each line object has a linked list of words contained in that line. Also, text information associated with words and lines is stored in this data structure. The information stored in this data structure is then used to generate the GUI 300.

次いで、サーバ104は、そのテキスト情報を描画するパネル(以下、「テキスト・キャンバス」と呼ぶ)の長さ又は高さをピクセル単位で決定する(ステップ1408)。テキスト・キャンバスの長さを決定するために、マルチメディア情報の(又は、マルチメディア文書を格納するマルチメディア文書の)持続時間(「duration」)が秒単位で決定される。また、1秒あたりのピクセル(「pps」)値も定義される。この「pps」は、テキスト・キャンバスに描画されるテキストの行間の距離を決定する。このように、ppsの値は、ユーザがテキスト行が表示されるとき互いにどのくらい接近していて欲しいかとそのテキストを表示するのに用いられるフォントのサイズとに依存する。本発明の一実施形態によれば、6ポイントのフォントを用いると、pps値=5が指定される。テキスト・キャンバスのピクセル単位での全高(「textCanvasHeight」)は以下のように決定される。
textCanvasHeight=duration*pps
例えば、マルチメディア情報の持続時間(duration)が1時間(すなわち、3,600秒)で、pps値が5の場合、テキスト・キャンバス(textCanvasHeight)の高さは18,000ピクセル(=3,600*5)となる。
Next, the server 104 determines the length or height of a panel (hereinafter referred to as “text canvas”) for drawing the text information in units of pixels (step 1408). In order to determine the length of the text canvas, the duration (“duration”) of the multimedia information (or of the multimedia document storing the multimedia document) is determined in seconds. Also defined is the pixel per second (“pps”) value. This “pps” determines the distance between lines of text drawn on the text canvas. Thus, the value of pps depends on how close the user wants the text lines to be when they are displayed and the size of the font used to display the text. According to one embodiment of the invention, using a 6 point font, a pps value = 5 is specified. The total height in pixels of the text canvas (“textCanvasHeight”) is determined as follows.
textCanvasHeight = duration * pps
For example, if the multimedia information has a duration of 1 hour (ie, 3,600 seconds) and a pps value of 5, the height of the text canvas (textCanvasHeight) is 18,000 pixels (= 3,600). * 5)

次いで、テキスト・キャンバスにおけるピクセル位置を秒に変換し、秒をテキスト・キャンバスのピクセル位置に変換する乗数が計算される(ステップ1410)。所定の時間値(秒単位)をテキスト・キャンバスの特定のピクセル位置に変換する乗数「pix_m」が計算される。乗数pix_mは、特定の時間値に対応するテキスト・キャンバスのピクセル位置を決定するのに用いることができる。pix_mの値は、以下のように決定される。
pix_m=textCanvasHeight/duration
例えば、duration=3,600秒、且つ、textCanvasHeight=18,000ピクセルの場合、pix_m=18,000/3,600=5となる。
A multiplier is then calculated that converts pixel positions in the text canvas into seconds and converts seconds into pixel positions in the text canvas (step 1410). A multiplier “pix_m” is calculated that converts a given time value (in seconds) to a particular pixel location on the text canvas. The multiplier pix_m can be used to determine the pixel location of the text canvas corresponding to a particular time value. The value of pix_m is determined as follows.
pix_m = textCanvasHeight / duration
For example, when duration = 3,600 seconds and text CanvasHeight = 18,000 pixels, pix_m = 18,000 / 3,600 = 5.

テキスト・キャンバスの特定のピクセル位置を対応する時間値に変換する乗数sec_mが計算される。乗数sec_mは、テキスト・キャンバスのピクセル位置に対応する時間値を決定するのに用いることができる。sec_mの値は、以下のように決定される。
sec_m=duration/textCanvasHeight
例えば、duration=3,600秒、且つ、textCanvasHeight=18,000ピクセルの場合、sec_m=3,600/18,000=0.2となる。
A multiplier sec_m is calculated that converts a particular pixel location on the text canvas into a corresponding time value. The multiplier sec_m can be used to determine a time value corresponding to the pixel position of the text canvas. The value of sec_m is determined as follows.
sec_m = duration / textCanvasHeight
For example, when duration = 3,600 seconds and text CanvasHeight = 18,000 pixels, sec_m = 3,600 / 18,000 = 0.2.

ステップ1410において計算された乗数は、次いで、ピクセルを秒に、秒をピクセルに、変換するのに用いることができる。例えば、マルチメディア情報において時刻t=1,256秒に発生したあるイベントのテキスト・キャンバスにおけるピクセル位置は、テキスト・キャンバスの上から1,256*pix_m=1,256*5=6,280ピクセルのところである。テキスト・キャンバスにおいてピクセル位置p=231に対応する秒数は、231*sec_m=231*0.2=46.2秒である。   The multiplier calculated in step 1410 can then be used to convert pixels to seconds and seconds to pixels. For example, the pixel position on the text canvas of an event that occurred at time t = 1,256 seconds in the multimedia information is 1,256 * pix_m = 1,256 * 5 = 6,280 pixels from the top of the text canvas. By the way. The number of seconds corresponding to pixel location p = 231 in the text canvas is 231 * sec_m = 231 * 0.2 = 46.2 seconds.

ステップ1408において決定されたテキスト・キャンバスの高さと、ステップ1410において生成された乗数とに基づいて、ステップ1404で抽出されたテキスト情報の単語について位置座標(水平座標X及び垂直座標Y)が計算される(ステップ1412)。既述のように、単語及び行に関連する情報、及び、それらに関連付けられたタイムスタンプは、サーバ104がアクセス可能なデータ構造に格納され得る。各単語について計算された位置座標値もこのデータ構造に格納されてもよい。   Based on the height of the text canvas determined in step 1408 and the multiplier generated in step 1410, the position coordinates (horizontal coordinate X and vertical coordinate Y) are calculated for the word of the text information extracted in step 1404. (Step 1412). As described above, information related to words and lines, and time stamps associated with them, can be stored in a data structure accessible to server 104. The position coordinate values calculated for each word may also be stored in this data structure.

ある単語についてのY(垂直)座標(W)は、その単語に関連付けられた秒単位のタイムスタンプ(W)にステップ1410で決定された乗数pix_mを掛けることによって計算される。したがって、
(ピクセル単位)=W*pix_m
となる。例えば、特定の単語がW=539秒を有する(すなわち、その単語はマルチメディア情報に入って539秒後に登場した)場合、テキスト・キャンバスの上からW=539*5=2,695ピクセルである。
The Y (vertical) coordinate (W y ) for a word is calculated by multiplying the timestamp in seconds (W t ) associated with that word by the multiplier pix_m determined in step 1410. Therefore,
W y (pixel unit) = W t * pix_m
It becomes. For example, if a particular word has W t = 539 seconds (ie, the word appeared 539 seconds after entering the multimedia information), W y = 539 * 5 = 2,695 pixels from the top of the text canvas It is.

ある単語についてのX(水平)座標(W)は、その単語の行内位置及びその行での前の単語の幅に基づいて計算される。例えば、ある特定の行(L)が4つの単語を有する場合、すなわち、L:Wの場合、
のW=0
のW=(WのW)+(Wの幅)+(単語の間隔)
のW=(WのW)+(Wの幅)+(単語の間隔)
のW=(WのW)+(Wの幅)+(単語の間隔)
次いで、テキスト情報の単語がステップ1412で単語について計算されたX及びY座標によって決定されたテキスト・キャンバス上の位置に描画される(ステップ1414)。
The X (horizontal) coordinate (W x ) for a word is calculated based on the in-line position of that word and the width of the previous word in that line. For example, if a particular row (L) has 4 words, ie L: W 1 W 2 W 3 W 4 ,
W x of W 1 = 0
W 2 of the W x = (W 1 of the W x) + (width of W 1) + (interval of the word)
W 3 W x = (W 2 W x ) + (W 2 width) + (word spacing)
W 4 of W x = (W 3 of W x) + (width of W 3) + (interval of the word)
The word of text information is then drawn at the position on the text canvas determined by the X and Y coordinates calculated for the word in step 1412 (step 1414).

次いで、サーバ104は、GUI300の第二の表示エリア304にテキスト情報を表示するサムネール312−1の高さを決定する(ステップ1416)。サムネール312−1の高さ(ThmbnailHeight)は、マルチメディア情報を表示するのに用いられるGUIウィンドウの高さと、このGUIウィンドウ内の第二の表示エリア304の高さとに依存する。ThumbnailHeightの値は、サムネール312−1が第二の表示エリア304のGUIにフィットするように、セットされる。   Next, the server 104 determines the height of the thumbnail 312-1 for displaying text information in the second display area 304 of the GUI 300 (step 1416). The height of the thumbnail 312-1 depends on the height of the GUI window used to display multimedia information and the height of the second display area 304 in the GUI window. The value of ThumbnailHeight is set so that the thumbnail 312-1 fits the GUI of the second display area 304.

次いで、サムネール312−1の高さがThumbnailHeightに等しくなり、サムネールが第二の表示エリア304のサイズ制約内に完全にフィットするように、テキスト・キャンバスを縮小することによって、サムネール312−1が生成される(ステップ1418)。次いで、テキスト・キャンバスの縮小版を表すサムネール312−1は、GUI300の第二の表示エリア304に表示される(ステップ1420)。   The thumbnail 312-1 is then generated by reducing the text canvas so that the height of the thumbnail 312-1 is equal to ThumbnailHeight and the thumbnail fits perfectly within the size constraints of the second display area 304. (Step 1418). Next, a thumbnail 312-1 representing a reduced version of the text canvas is displayed in the second display area 304 of the GUI 300 (step 1420).

次いで、サムネール312−1におけるピクセル位置を秒に変換し、秒をサムネール312−1におけるピクセル位置に変換する乗数が計算される(ステップ1422)。所定の時間値(秒単位)をサムネール312−1における特定のピクセル位置に変換する乗数「tpix_m」が計算される。乗数tpix_mは、特定の時間値に対応するサムネールにおけるピクセル位置を決定するのに用いることができる。tpix_mの値は、以下のように決定される。
tpix_m=ThumbnailHeight/duration
例えば、duration=3,600秒、且つ、ThumbnailHeight=900の場合、tpix_m=900/3,600=0.25となる。
A multiplier is then calculated that converts the pixel position in thumbnail 312-1 to seconds and converts the seconds to pixel positions in thumbnail 312-1 (step 1422). A multiplier “tpix_m” is calculated that converts a given time value (in seconds) to a particular pixel location in the thumbnail 312-1. The multiplier tpix_m can be used to determine the pixel position in the thumbnail corresponding to a particular time value. The value of tpix_m is determined as follows.
tpix_m = ThumbnailHeight / duration
For example, when duration = 3,600 seconds and ThumbnailHeight = 900, tpix_m = 900/3, 600 = 0.25.

サムネール312−1における特定のピクセル位置を対応する時間値に変換する乗数「tsec_m」が計算される。乗数tsec_mは、サムネール312−1における特定のピクセル位置についての時間値を決定するのに用いることができる。tsec_mの値は、以下のように決定される。
tsec_m=duration/ThumbnailHeight
例えば、duration=3,600秒、且つ、ThumbnailHeight=900の場合、tsec_m=3,600/900=4となる。
A multiplier “tsec_m” is calculated that converts a particular pixel location in the thumbnail 312-1 to a corresponding time value. The multiplier tsec_m can be used to determine the time value for a particular pixel location in the thumbnail 312-1. The value of tsec_m is determined as follows.
tsec_m = duration / ThumbnailHeight
For example, when duration = 3,600 seconds and ThumbnailHeight = 900, tsec_m = 3,600 / 900 = 4.

乗数tpix_m及びtsec_mは、次いで、ピクセルを秒に、秒をサムネール312−1におけるピクセルに、変換するのに用いることができる。例えば、マルチメディア情報において時刻t=1,256秒に発生した単語のサムネール312−1におけるピクセル位置は、サムネール312−1の上から1,256*tpix_m=1,256*0.25=314ピクセルのところである。サムネール312−1においてピクセル位置p=231によって表される秒数は、231*tsec_m=231*4=924秒である。   Multipliers tpix_m and tsec_m can then be used to convert pixels to seconds and seconds to pixels in thumbnail 312-1. For example, the pixel position in the thumbnail 312-1 of the word that occurred at time t = 1,256 seconds in the multimedia information is 1,256 * tpix_m = 1,256 * 0.25 = 314 pixels from the top of the thumbnail 312-1. It is the place. The number of seconds represented by pixel position p = 231 in thumbnail 312-1 is 231 * tsec_m = 231 * 4 = 924 seconds.

図15は、本発明の一実施形態に係るGUI300の第二の表示エリア304に、ビデオ情報から抽出されたビデオ・キーフレームを示すサムネール312−2を表示する方法を示す簡略化された高レベル・フローチャート1500である。図15に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図15に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 15 is a simplified high-level diagram illustrating a method of displaying a thumbnail 312-2 showing video keyframes extracted from video information in the second display area 304 of the GUI 300 according to one embodiment of the present invention. Flowchart 1500. The method shown in FIG. 15 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method illustrated in FIG. 15 is merely illustrative of an embodiment incorporating the present invention and is not intended to limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

便宜上、テキスト情報を表示するサムネール312−1は図14に示したフローチャートに従って既に表示されているものとする。図15に示すように、サーバ104は、マルチメディア情報に含まれるビデオ情報からキーフレーム群を抽出する(ステップ1502)。これらビデオ・キーフレームは、特定のサンプリング・レートでビデオ情報をサンプリングすることによって、ビデオ情報から抽出することができる。本発明の一実施形態によれば、キーフレームは、毎秒1フレームのサンプリング・レートで、ビデオ情報から抽出される。したがって、マルチメディア情報の持続時間が1時間(3,600秒)の場合、ステップ1502において、ビデオ情報から3,600のビデオ・キーフレームが抽出される。ステップ1502で抽出された各キーフレームには、マルチメディア情報においてそのキーフレームが登場する時刻を示すタイムスタンプが関連付けられる。   For convenience, it is assumed that the thumbnail 312-1 for displaying text information has already been displayed according to the flowchart shown in FIG. As shown in FIG. 15, the server 104 extracts a key frame group from the video information included in the multimedia information (step 1502). These video keyframes can be extracted from the video information by sampling the video information at a specific sampling rate. According to one embodiment of the invention, key frames are extracted from the video information at a sampling rate of 1 frame per second. Accordingly, if the multimedia information has a duration of 1 hour (3,600 seconds), in step 1502, 3,600 video key frames are extracted from the video information. Each key frame extracted in step 1502 is associated with a time stamp indicating the time at which the key frame appears in the multimedia information.

ステップ1502で抽出されたビデオ・キーフレーム及びそれらに関連付けられたタイムスタンプ情報は、サーバ104がアクセス可能なデータ構造(又は、メモリ構造)に格納される(ステップ1504)。このデータ構造に格納された情報は、次いで、サムネール312−2を生成するのに用いられる。   The video keyframes extracted in step 1502 and the time stamp information associated with them are stored in a data structure (or memory structure) accessible to the server 104 (step 1504). The information stored in this data structure is then used to generate thumbnail 312-2.

次いで、ステップ1504で抽出されたビデオ・キーフレームは、グループ分けされる(ステップ1506)。キーフレームをグループ分けするのにはユーザが設定可能な時間期間(「groupTime」)が用いられる。本発明の一実施形態によれば、groupTimeは8秒にセットされる。この実施形態において、各グループは、8秒間の時間期間窓内で抽出されたビデオ・キーフレームを有する。例えば、マルチメディア情報の持続時間が1時間(3,600秒)であり、毎秒1フレームのサンプリング・レートを用いてビデオ情報から3,600のビデオ・キーフレームが抽出される場合、groupTimeが8秒にセットされていれば、3,600のキーフレームが450グループに分割され、各グループが8つのビデオ・キーフレームを有することになる。   The video keyframes extracted at step 1504 are then grouped (step 1506). A time period (“groupTime”) that can be set by the user is used to group the key frames. According to one embodiment of the present invention, groupTime is set to 8 seconds. In this embodiment, each group has video keyframes extracted within an 8 second time period window. For example, if the duration of the multimedia information is 1 hour (3,600 seconds) and 3,600 video key frames are extracted from the video information using a sampling rate of 1 frame per second, the groupTime is 8 If set to seconds, 3,600 key frames are divided into 450 groups, each group having 8 video key frames.

各フレーム・グループについて、開始時刻及び終了時刻が計算される(ステップ1508)。ある特定のフレーム・グループについて、その特定のグループの開始時刻はそのグループの最初のビデオ・キーフレーム(すなわち、そのグループの中で最も古いタイムスタンプを持つキーフレーム)に関連付けられたタイムスタンプであり、その特定のグループの終了時刻はそのグループの最後のビデオ・キーフレーム(すなわち、そのグループの中で最も新しいタイムスタンプを持つキーフレーム)に関連付けられたタイムスタンプである。   For each frame group, a start time and an end time are calculated (step 1508). For a particular frame group, the start time of that particular group is the timestamp associated with the first video keyframe of that group (ie, the keyframe with the oldest timestamp in the group) The end time of that particular group is the time stamp associated with the last video key frame of that group (ie, the key frame with the latest time stamp in the group).

キーフレーム・グループの各々について、サーバ104は、そのキーフレーム・グループのうちの1以上のキーフレームを描画するキーフレーム・キャンバス上のピクセル・セグメントを決定する(ステップ1510)。テキスト・キャンバスと同様に、キーフレーム・キャンバスは、ビデオ情報から抽出されたキーフレームが描画されるパネルである。キーフレーム・キャンバスの高さ(「keyframeCanvasHeight」)は、上述のテキスト・キャンバスの高さ(「textCanvasHeight」)と同じである(すなわち、keyframeCanvasHeight=textCanvasHeight)。結果として、(上述の)乗数pix_m及びsec_mを用いて、時間値をキーフレーム・キャンバスにおけるピクセル位置に変換し、キーフレーム・キャンバスにおける特定のピクセル位置を時間値に変換することができる。   For each keyframe group, server 104 determines a pixel segment on the keyframe canvas that renders one or more keyframes of the keyframe group (step 1510). Similar to the text canvas, the keyframe canvas is a panel on which keyframes extracted from video information are drawn. The height of the keyframe canvas (“keyframeCanvasHeight”) is the same as the height of the text canvas described above (“textCanvasHeight”) (ie, keyframeCanvasHeight = textCanvasHeight). As a result, the multipliers pix_m and sec_m (described above) can be used to convert time values to pixel positions on the keyframe canvas and specific pixel positions on the keyframe canvas to time values.

キーフレーム・キャンバス上においてある特定のグループからのキーフレームを描画するピクセル・セグメントは、その特定のグループに関連付けられた開始時刻及び終了時刻に基づいて計算される。キーフレーム・キャンバスにおけるある特定のキーフレーム・グループ用のピクセル・セグメントの開始垂直(Y)ピクセル座標(「segmentStart」)及び終了垂直(Y)座標(「segmentEnd」)は、以下のように計算される。
segmentStart=(グループの開始時刻)*pix_m
segmentEnd=(グループの終了時刻)*pix_m
したがって、テキスト・キャンバスの各セグメントのピクセル単位での高さ(「segmentHeight」)は、
segmentHeight=segmentEnd−segmentStart
となる。
Pixel segments that draw keyframes from a particular group on the keyframe canvas are calculated based on the start and end times associated with that particular group. The starting vertical (Y) pixel coordinates (“segmentStart”) and ending vertical (Y) coordinates (“segmentEnd”) of a pixel segment for a particular keyframe group in the keyframe canvas are calculated as follows: The
segmentStart = (start time of group) * pix_m
segmentEnd = (group end time) * pix_m
Thus, the height in pixels of each segment of the text canvas (“segmentHeight”) is
segmentHeight = segmentEnd-segmentstart
It becomes.

次いで、テキスト・キャンバス上の各ピクセル・セグメントに描画される各フレーム・グループからのキーフレーム数が決定される(ステップ1512)。ある特定のグループについてキーフレーム・キャンバス上に描画されるキーフレーム数は、その特定のグループに対応するセグメントの高さ(「segmentHeight」)に依存する。segmentHeightの値が小さい場合、GUIに表示されたときに描画されたキーフレームがユーザにとって理解しやすいように、少数のキーフレームのみをそのセグメントに描画してもよい。segmentHeightの値は、ppsの値に依存する。ppsが小さい場合、segmentHeightも小さくなる。したがって、セグメントあたりに描画されるキーフレームが多くなるほど、大きなppsの値が選択される。   Next, the number of key frames from each frame group to be drawn in each pixel segment on the text canvas is determined (step 1512). The number of keyframes drawn on a keyframe canvas for a particular group depends on the height of the segment corresponding to that particular group (“segmentHeight”). When the value of segmentHeight is small, only a small number of key frames may be drawn on the segment so that the user can easily understand the key frames drawn when displayed on the GUI. The value of segmentHeight depends on the value of pps. When pps is small, segmentHeight is also small. Therefore, as the number of key frames drawn per segment increases, a larger value of pps is selected.

本発明の一実施形態によれば、segmentHeightが40ピクセルに等しく、各キーフレーム・グループが8つのキーフレームを含む場合、それら8つのキーフレームのうちの6つがテキスト・キャンバス上の各セグメントに描画される。一セグメントに描画されるキーフレーム数は、一般的に、すべてのキーフレーム・グループについて同じである。例えば、図3に示す実施形態では、テキスト・キャンバス上の各セグメントに6つのキーフレームが描画される。   According to one embodiment of the present invention, if segmentHeight is equal to 40 pixels and each keyframe group contains 8 keyframes, 6 of those 8 keyframes are drawn on each segment on the text canvas. Is done. The number of key frames drawn in a segment is generally the same for all key frame groups. For example, in the embodiment shown in FIG. 3, six key frames are drawn for each segment on the text canvas.

テキスト・キャンバスの各セグメントに描画されるキーフレーム数が決定されると、各キーフレーム・グループについて、サーバ104は、キーフレーム・グループのキーフレームからキーフレーム・キャンバス上に描画される1以上のキーフレームを特定する(ステップ1514)。ある特定のフレーム・グループについて一セグメントに表示されるビデオ・キーフレームを選択するのには様々な異なる手法を用いることができる。一手法によれば、各ビデオ・キーフレーム・グループが8つのキーフレームを有し、キーフレーム・キャンバス上の各セグメントに6つのビデオ・キーフレームが表示される場合、サーバ104は、各ビデオ・キーフレーム・グループから最初の2つのビデオ・キーフレーム、真ん中の2つのビデオ・キーフレーム、及び、最後の2つのビデオ・キーフレームをキーフレーム・キャンバス上に描画されるものとして選択する。上述のように、キーフレーム・グループから表示される1以上のキーフレームを選択するのに様々な他の手法も用いることができる。例えば、キーフレームは、キーフレーム・グループにおけるキーフレームのシーケンシャル位置に基づいて選択されてもよく、キーフレームに関連付けられた時間値に基づいて選択されてもよく、或いは、他の基準に基づいて選択されてもよい。   Once the number of keyframes to be drawn on each segment of the text canvas is determined, for each keyframe group, the server 104 can generate one or more drawn on the keyframe canvas from the keyframe group keyframes. A key frame is specified (step 1514). A variety of different techniques can be used to select video keyframes that are displayed in a segment for a particular frame group. According to one approach, if each video keyframe group has 8 keyframes and 6 video keyframes are displayed for each segment on the keyframe canvas, the server 104 Select the first two video keyframes, the middle two video keyframes, and the last two video keyframes from the keyframe group as drawn on the keyframe canvas. As described above, various other techniques can also be used to select one or more key frames to be displayed from a key frame group. For example, the key frame may be selected based on the sequential position of the key frame in the key frame group, may be selected based on the time value associated with the key frame, or based on other criteria. It may be selected.

別の手法によれば、サーバ104は、特殊な画像処理技術を用いて、各キーフレーム・グループにおけるキーフレーム間の類似性又は非類似性を判断してもよい。各グループから6つのビデオ・キーフレームが表示される場合、サーバ104は、画像処理技術の結果に基づいて、各キーフレーム・グループから6つのキーフレームを選択する。本発明の一実施形態によれば、各グループの最も類似していない6つのキーフレームがキーフレーム・キャンバス上に描画されるものとして選択される。ビデオ・キーフレームの選択を実行するのには当業者には既知の様々な他の手法も用いることができることは明らかである。   According to another approach, the server 104 may determine the similarity or dissimilarity between key frames in each key frame group using special image processing techniques. If six video key frames are displayed from each group, the server 104 selects six key frames from each key frame group based on the results of the image processing technique. According to one embodiment of the present invention, the six least similar key frames of each group are selected for rendering on the key frame canvas. Obviously, various other techniques known to those skilled in the art can also be used to perform the selection of video keyframes.

ステップ1514においてキーフレーム・グループから特定されたキーフレームは、キーフレーム・キャンバス上でそれらの対応するセグメントに描画される(ステップ1516)。ある特定のセグメントに選択されたキーフレームを描画するのに様々な異なる形式を用いることができる。例えば、図3に示すように、各セグメントについて、選択されたキーフレームは、3フレームを一行として、左から右、上から下へ、並べられる。キーフレーム・キャンバス上にキーフレームを描画する当業者には既知の様々な他の手法も用いることができる。キーフレーム・キャンバス上に描画される各個々のキーフレームのサイズは、そのキーフレームが描画されるセグメントの高さ(segmentHeight)及びそのセグメントに描画されるキーフレーム数に依存する。既述のように、一セグメントの高さは、ppsの値に依存する。したがって、キーフレーム・キャンバス上に描画される各個々のキーフレームのサイズもppsの値に依存する。   The key frames identified from the key frame group in step 1514 are drawn into their corresponding segments on the key frame canvas (step 1516). A variety of different formats can be used to draw the selected keyframe on a particular segment. For example, as shown in FIG. 3, for each segment, the selected key frames are arranged from left to right and from top to bottom, with 3 frames as one line. Various other techniques known to those skilled in the art for drawing key frames on a key frame canvas can also be used. The size of each individual key frame drawn on the key frame canvas depends on the height of the segment on which the key frame is drawn (segmentHeight) and the number of key frames drawn on the segment. As described above, the height of one segment depends on the value of pps. Therefore, the size of each individual key frame drawn on the key frame canvas also depends on the value of pps.

サーバ104は、次いで、GUI300にビデオ・キーフレームを表示するサムネール312−2の高さ(又は長さ)を決定する(ステップ1518)。本発明の教えるところによれば、サムネール312−2の高さは、テキスト情報を表示するサムネール312−1の高さと同じにセットされる(すなわち、サムネール312−2の高さは、ThumbnailHeightにセットされる)。   The server 104 then determines the height (or length) of the thumbnail 312-2 that displays the video keyframe on the GUI 300 (step 1518). According to the teachings of the present invention, the height of the thumbnail 312-2 is set to be the same as the height of the thumbnail 312-1 that displays the text information (i.e., the height of the thumbnail 312-2 is set to ThumbHeight). )

次いで、サムネール312−2の高さがThumbnailHeightに等しくなり、サムネール312−2が第二の表示エリア304のサイズ制約内に完全にフィットするように、キーフレーム・キャンバスを縮小することによって、サムネール312−2が生成される(ステップ1520)。キーフレーム・キャンバスの縮小版を表すサムネール312−2は、次いで、GUI300の第二の表示エリア304に表示される(ステップ1522)。サムネール312−2は、GUI300において、サムネール画像312−1の隣りに表示され、時系列に並べられるか、又は、(図3に示すように)サムネール312−1と同期される。したがって、サムネール312−2の上端は、サムネール312−1の上端と揃えられる。   The thumbnail 312 is then reduced by reducing the keyframe canvas so that the height of the thumbnail 312-2 is equal to ThumbnailHeight and the thumbnail 312-2 fits perfectly within the size constraints of the second display area 304. -2 is generated (step 1520). A thumbnail 312-2 representing a reduced version of the keyframe canvas is then displayed in the second display area 304 of the GUI 300 (step 1522). The thumbnail 312-2 is displayed in the GUI 300 next to the thumbnail image 312-1 and arranged in time series or synchronized with the thumbnail 312-1 (as shown in FIG. 3). Therefore, the upper end of the thumbnail 312-2 is aligned with the upper end of the thumbnail 312-1.

サムネール312−2におけるピクセル位置を秒に変換し、秒をサムネール312−2におけるピクセル位置に変換するサムネール312−2用の乗数が計算される(ステップ1524)。サムネール312−2は、サムネール312−1と同じ長さであり、サムネール312−1と揃えられているため、サムネール312−1について計算された乗数「tpix_m」及び「tsec_m」は、サムネール312−2にも用いることができる。すると、これら乗数を用いて、ピクセルを秒に、秒をサムネール312−2におけるピクセルに、変換することができる。   A multiplier is calculated for the thumbnail 312-2 that converts the pixel location in the thumbnail 312-2 to seconds and converts the seconds to pixel locations in the thumbnail 312-2 (step 1524). Since the thumbnail 312-2 has the same length as the thumbnail 312-1 and is aligned with the thumbnail 312-1, the multipliers “tpix_m” and “tsec_m” calculated for the thumbnail 312-1 are the thumbnail 312-2. Can also be used. These multipliers can then be used to convert pixels to seconds and seconds to pixels in thumbnail 312-2.

図15に表示された方法によれば、サムネール312−2に表示される各個々のビデオ・キーフレームのサイズは、他の基準に加えて、サムネール312−2の長さ及びビデオ情報の長さにも依存する。サムネール312−2の長さが固定されているものとすると、サムネール312−2に表示される各個々のビデオ・キーフレームの高さは、ビデオ情報の長さに逆比例する。したがって、ビデオ情報の長さを増えるほど、サムネール312−2に表示される各キーフレームのサイズは減少する。結果として、マルチメディア文書が長くなるほど、各キーフレームのサイズは、サムネール312−2に表示されるビデオ・キーフレームがもはやユーザにとって認識できないほど小さいなり得る。これを回避するために、サムネール312−2をユーザにとってより読み易く、認識できるように、サムネール312−2にビデオ・キーフレームを表示する様々な手法を用いることができる。   According to the method displayed in FIG. 15, the size of each individual video keyframe displayed in thumbnail 312-2 is the length of thumbnail 312-2 and the length of video information, in addition to other criteria. Also depends on. Assuming that the length of the thumbnail 312-2 is fixed, the height of each individual video keyframe displayed on the thumbnail 312-2 is inversely proportional to the length of the video information. Therefore, as the length of the video information increases, the size of each key frame displayed in the thumbnail 312-2 decreases. As a result, the longer the multimedia document, the smaller the size of each keyframe can be so that the video keyframe displayed in thumbnail 312-2 is no longer visible to the user. To avoid this, various techniques for displaying video keyframes on thumbnail 312-2 can be used to make thumbnail 312-2 more readable and recognizable to the user.

図16は、本発明の一実施形態に係り、サムネール312−2を表示する別の方法を示す簡略化された高レベル・フローチャート1600である。図16に示す方法は、キーフレーム・キャンバスに描画され、サムネール312−2に表示されるビデオ・キーフレームの数を減らすことによって、サムネール312−2に表示される情報の理解しやすさ及び使いやすさを維持する。図16に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図16に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 16 is a simplified high-level flowchart 1600 illustrating another method for displaying thumbnail 312-2 according to one embodiment of the present invention. The method shown in FIG. 16 reduces the number of video keyframes drawn on the keyframe canvas and displayed in the thumbnail 312-2, thereby making the information displayed in the thumbnail 312-2 easier to understand and use. Maintain ease. The method shown in FIG. 16 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method shown in FIG. 16 is merely illustrative of an embodiment incorporating the present invention and is not intended to limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図16に示すように、ステップ1602、1604、1606、及び1608は、図15に示した上述のステップ1502、1504、1506、及び1508と同じである。ステップ1608の後、キーフレーム・キャンバスにそのビデオ・キーフレームが描画される1以上のグループがステップ1606で決定されたグループから選択される(ステップ1609)。ステップ1609においてグループを選択するのには様々な異なる手法を用いることができる。一手法によれば、ステップ1606で決定されたグループは、ユーザが設定可能な「SkipCount」値に基づいて、選択される。例えば、SkipCountが4にセットされた場合、ステップ1609において4グループおきに選択される(すなわち、4グループがスキップされる)。SkipCountの値は、マルチメディア情報の長さに基づいて調節可能である。本発明の一実施形態によれば、SkipCountの値はマルチメディア情報の長さに直接比例する。すなわち、SkipCountはマルチメディア文書が長いほど高い値にセットされる。   As shown in FIG. 16, steps 1602, 1604, 1606, and 1608 are the same as the above-described steps 1502, 1504, 1506, and 1508 shown in FIG. After step 1608, one or more groups whose video keyframes are drawn on the keyframe canvas are selected from the groups determined in step 1606 (step 1609). A variety of different techniques can be used to select groups in step 1609. According to one approach, the group determined in step 1606 is selected based on a “SkipCount” value that can be set by the user. For example, if SkipCount is set to 4, every 4 groups are selected in step 1609 (ie, 4 groups are skipped). The value of SkipCount can be adjusted based on the length of the multimedia information. According to one embodiment of the present invention, the value of SkipCount is directly proportional to the length of the multimedia information. That is, SkipCount is set to a higher value as the multimedia document is longer.

ステップ1609において選択された各グループについて、サーバ104は、そのグループからキーフレーム・キャンバス上に描画される1以上のキーフレームを特定する(ステップ1610)。上述のように、キーフレーム・キャンバス上に描画されるキーフレームを選択するのには様々な手法を用いることができる。   For each group selected in step 1609, the server 104 identifies one or more key frames to be drawn on the key frame canvas from that group (step 1610). As described above, various methods can be used to select a key frame to be drawn on the key frame canvas.

次いで、キーフレーム・キャンバスは、複数の等しいサイズの行部分に分割される。行部分の数は、ステップ1609で選択されたグループ数に等しい(ステップ1612)。本発明の一実施形態によれば、各行部分の高さは、ステップ1609で選択されたグループ数で除算されたキーフレーム・キャンバスの高さ(「keyframeCanvasHeight」)に略等しい。   The keyframe canvas is then divided into a plurality of equally sized row portions. The number of row parts is equal to the number of groups selected in step 1609 (step 1612). According to one embodiment of the present invention, the height of each row portion is approximately equal to the height of the keyframe canvas divided by the number of groups selected in step 1609 (“keyframeCanvasHeight”).

次いで、ステップ1609で選択された各グループについて、そのグループからの1以上のビデオ・キーフレームを描画するキーフレーム・キャンバスの行部分が特定される(ステップ1614)。本発明の一実施形態によれば、行部分は、年代順に、グループに関連付けられる。例えば、最初の行は、最も古い開始時刻を持つグループに関連付けられ、2番目の行は、2番目に古い開始時刻を持つグループに関連付けられる、等々。   Next, for each group selected in step 1609, the row portion of the keyframe canvas that renders one or more video keyframes from that group is identified (step 1614). According to one embodiment of the invention, row portions are associated with groups in chronological order. For example, the first row is associated with the group with the oldest start time, the second row is associated with the group with the second oldest start time, and so on.

次いで、ステップ1609で選択された各グループについて、そのグループからの1以上のキーフレーム(ステップ1610で特定された)が、ステップ1614でそのグループ用の決定されたキーフレーム・キャンバス上の行部分に描画される(ステップ1616)。各グループについて選択されたキーフレームのサイズは、キーフレーム・キャンバスの行部分にフィットするように縮小される。本発明の一実施形態によれば、各行部分の高さは選択されたキーフレームの高さより大きく、選択されたキーフレームの高さは行部分にフィットするように増加される。これにより、選択されたキーフレームのサイズが増加し、それらはキーフレーム・キャンバス上に描画されたときにより見易くなる。このように、ステップ1609で選択されたグループからのキーフレームはキーフレーム・キャンバス上に描画される。   Then, for each group selected in step 1609, one or more keyframes from that group (identified in step 1610) are placed in the row portion on the keyframe canvas determined for that group in step 1614. Drawing is performed (step 1616). The size of the key frame selected for each group is reduced to fit the row portion of the key frame canvas. According to one embodiment of the present invention, the height of each row portion is greater than the height of the selected key frame, and the height of the selected key frame is increased to fit the row portion. This increases the size of the selected keyframes, making them easier to see when drawn on the keyframe canvas. In this way, key frames from the group selected in step 1609 are drawn on the key frame canvas.

次いで、キーフレーム・キャンバスは、ステップ1618、1620、及び1622に従って縮小され、第二の表示エリア304に表示されるサムネール312−2を形成する。キーフレーム・キャンバス上に描画されるキーフレームの高さは本発明の一実施形態によれば増加されるため、上述のように、キーフレームもサムネール312−2に表示されたときにより認識しやすくなる。次いで、ステップ1624に従って、乗数が計算される。ステップ1618、1620、1622、及び1624は、図15に示した上述のステップ1518、1520、1522、及び1524に類似している。上述のように、グループの一部を選択することによって、キーフレーム・キャンバス上に描画され、サムネール312−2に表示されるキーフレームの数が減らされる。これにより、サムネール312−2に表示される各個々のビデオ・キーフレームの高さが増加するため、それらが表示されたときにより認識しやすくなる。   The keyframe canvas is then reduced according to steps 1618, 1620, and 1622 to form a thumbnail 312-2 that is displayed in the second display area 304. Since the height of the key frame drawn on the key frame canvas is increased according to an embodiment of the present invention, as described above, the key frame is also more easily recognized when displayed on the thumbnail 312-2. Become. The multiplier is then calculated according to step 1624. Steps 1618, 1620, 1622, and 1624 are similar to steps 1518, 1520, 1522, and 1524 described above shown in FIG. As described above, selecting a portion of a group reduces the number of keyframes that are drawn on the keyframe canvas and displayed in thumbnail 312-2. This increases the height of each individual video keyframe displayed in thumbnail 312-2, making it easier to recognize when they are displayed.

図17は、本発明の一実施形態に従って、サムネール表示エリア・レンズ314を表示し、サムネール表示エリア・レンズ314によって強調された情報を第三の表示エリア306に表示し、パネル表示エリア・レンズ322を表示し、パネル表示エリア・レンズ322によって強調された情報を第四の表示エリア308に表示し、情報を第五の表示エリア310に表示する方法を示す簡略化された高レベル・フローチャート1700である。図17に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図17に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 17 shows a thumbnail display area lens 314 according to an embodiment of the present invention, information displayed by the thumbnail display area lens 314 is displayed in the third display area 306, and a panel display area lens 322 is displayed. In a simplified high-level flowchart 1700 showing how to display the information highlighted by the panel display area lens 322 in the fourth display area 308 and display the information in the fifth display area 310. is there. The method illustrated in FIG. 17 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method illustrated in FIG. 17 is merely illustrative of an embodiment incorporating the present invention and is not intended to limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図17に示すように、サーバ104は、まず、GUI300の第三の表示エリア306に表示される各パネルのピクセル単位での高さ(「PanelHeight」)を決定する(ステップ1702)。PanelHeightの値は、第三の表示エリア306の高さ(又は長さ)に依存する。パネルは互いに揃えられるため、各パネルの高さはPanelHeightにセットされる。本発明の一実施形態によれば、PanelHeightはThumbnailHeightと同じ値にセットされる。しかし、本発明の代替的実施形態として、PanelHeightの値はThumbnailHeightの値と異なってもよい。   As shown in FIG. 17, the server 104 first determines the height (“PanelHeight”) of each panel displayed in the third display area 306 of the GUI 300 (step 1702). The value of PanelHeight depends on the height (or length) of the third display area 306. Since the panels are aligned with each other, the height of each panel is set to PanelHeight. According to one embodiment of the present invention, PanelHeight is set to the same value as ThumbnailHeight. However, as an alternative embodiment of the present invention, the value of PanelHeight may be different from the value of ThumbnailHeight.

次いで、(図14に示すフローチャートで生成された)テキスト・キャンバスのうちPanelHeightと等しい一セクションが特定される(ステップ1704)。このステップ1704で特定されたテキスト・キャンバスのセクションは、そのセクションの開始ピクセル位置をマーキングする垂直ピクセル座標(Pstart)と、そのセクションの終了ピクセル位置をマーキングする垂直ピクセル座標(Pend)とによって特徴付けられる。 Next, a section of the text canvas (generated in the flowchart shown in FIG. 14) equal to PanelHeight is identified (step 1704). The section of the text canvas identified in this step 1704 is determined by the vertical pixel coordinate (P start ) marking the start pixel position of the section and the vertical pixel coordinate (P end ) marking the end pixel position of the section. Characterized.

次いで、ステップ1704で特定されたテキスト・キャンバスのセクションの(ピクセル位置Pstart及びPendによってマーキングされた)境界線に対応する時間値が決定される(ステップ1706)。この対応する時間値を計算するのに乗数sec_mが用いられる。ピクセル位置Pstartに対応する時刻t(秒)は以下のように計算される。
=Pstart*sec_m
ピクセル位置Pendに対応する時刻t(秒)は以下のように計算される。
=Pend*sec_m
次いで、キーフレーム・キャンバスのうち、テキスト・キャンバスのうち上記選択されたセクションに対応する一セクションが特定される(ステップ1708)。キーフレーム・キャンバスの高さはキーフレーム・キャンバスの高さと同じであるため、キーフレーム・キャンバスの選択されたセクションも、時刻t及び時刻tに対応するキーフレーム・キャンバスにおけるピクセル位置PstartとPendの間に位置する。
Next, a time value corresponding to the border (marked by pixel locations P start and P end ) of the section of the text canvas identified at step 1704 is determined (step 1706). The multiplier sec_m is used to calculate this corresponding time value. The time t 1 (seconds) corresponding to the pixel position P start is calculated as follows.
t 1 = P start * sec_m
The time t 2 (seconds) corresponding to the pixel position P end is calculated as follows.
t 2 = P end * sec_m
Next, a section corresponding to the selected section of the text canvas among the keyframe canvas is identified (step 1708). Since the height of the keyframe canvas is the same as the height of the keyframe canvas, the selected section of the keyframe canvas also has a pixel position P start in the keyframe canvas corresponding to time t 1 and time t 2. And Pend .

テキスト・キャンバスのうちステップ1704で特定された部分が、第三の表示エリア306のパネル324−1に表示される(ステップ1710)。キーフレーム・キャンバスのうちステップ1708で特定された部分は、第三の表示エリア306のパネル324−2に表示される(ステップ1712)。   The part specified in step 1704 of the text canvas is displayed on the panel 324-1 of the third display area 306 (step 1710). The portion of the key frame canvas specified in step 1708 is displayed on the panel 324-2 of the third display area 306 (step 1712).

第三の表示エリア306の一部を覆うパネル表示エリア・レンズ322が表示される(ステップ1714)。パネル表示エリア・レンズ322は、時刻tとt(t≦t<t≦t)の間に第三の表示エリア306に表示されたパネル324−1及び324−2の一部を強調するように又は覆うように、表示される。パネル表示エリア・レンズ322の上端は時刻tに対応し、パネル表示エリア・レンズ322の下端は時刻tに対応する。パネル表示エリア・レンズ322の(ピクセルで表された)高さは、(テキスト・キャンバスにおいてtに対応する垂直ピクセル位置)−(テキスト・キャンバスにおいてtに対応する垂直ピクセル位置)、に等しい。パネル表示エリア・レンズ322の幅は、(図3に示すように)第三の表示エリア306の幅に略等しい。 A panel display area / lens 322 covering a part of the third display area 306 is displayed (step 1714). Panel Display Area lenses 322, time t 3 and t 4 (t 1 ≦ t 3 <t 4 ≦ t 2) one third panel is displayed on the display area 306 of between 324 - and 324-2 The part is displayed so as to emphasize or cover the part. The upper end of the panel display area lens 322 corresponds to the time t 3, the lower end of the panel display area lens 322 corresponding to the time t 4. The height (in pixels) of the panel display area lens 322 is equal to (vertical pixel position corresponding to t 4 in the text canvas) − (vertical pixel position corresponding to t 3 in the text canvas). . The width of the panel display area lens 322 is approximately equal to the width of the third display area 306 (as shown in FIG. 3).

次いで、サムネール312−1のうちパネル324−1に表示されたテキスト・キャンバスの一部に対応する部分と、サムネール312−2のうちパネル324−2に表示されたキーフレーム・キャンバスの一部に対応する部分とが決定される(ステップ1716)。サムネール312−1のうちパネル324−1に表示されたテキスト・キャンバスの一部に対応する部分は、そのサムネールの一部の開始ピクセル位置をマーキングする垂直ピクセル座標(TNstart)と、そのサムネールの一部の終了ピクセル位置をマーキングする垂直ピクセル位置(TNend)とによって特徴付けられる。ピクセル位置TNstart及びTNendを決定するのには乗数tpix_mが用いられる。
TNstart=t*tpix_m
TNend=t*tpix_m
サムネール312−1及び312−2は、同じ長さで、互いに時系列に並べられているため、サムネール312−2のうちパネル324−2に表示されるキーフレーム・キャンバスの一部に対応する部分もサムネール312−2上のピクセル位置TNstartとTNendの間に位置する。
Next, a part of the thumbnail 312-1 corresponding to a part of the text canvas displayed on the panel 324-1 and a part of the key frame canvas displayed on the panel 324-2 of the thumbnail 312-2. The corresponding part is determined (step 1716). A portion of the thumbnail 312-1 corresponding to a part of the text canvas displayed on the panel 324-1 includes a vertical pixel coordinate (TN start ) that marks the start pixel position of a part of the thumbnail, and the thumbnail of the thumbnail. Characterized by a vertical pixel location (TN end ) marking some end pixel locations. The multiplier tpix_m is used to determine the pixel positions TN start and TN end .
TN start = t 1 * tpix_m
TN end = t 2 * tpix_m
Since the thumbnails 312-1 and 312-2 are the same length and are arranged in time series with each other, the portion of the thumbnail 312-2 corresponding to a part of the key frame canvas displayed on the panel 324-2 Is also located between the pixel position TN start and TN end on the thumbnail 312-2.

次いで、サムネール312−1及び312−2のうち、パネル324−1に表示されるテキスト・キャンバスの一部に対応する部分、及び、パネル324−2に表示されるキーフレーム・キャンバスの一部に対応する部分、を覆うサムネール表示エリア・レンズ314が表示される(ステップ1718)。サムネール312−1及び312−2のうちこれらサムネールのピクセル位置TNstartとTNendの間の部分を覆うサムネール表示エリア・レンズ314が表示される。サムネール表示エリア・レンズ314のピクセル単位での高さは、(TNend−TNstart)に等しい。サムネール表示エリア・レンズ314の幅は、(図3に示すように)第二の表示エリア306の幅に略等しい。 Next, in the thumbnails 312-1 and 312-2, a part corresponding to a part of the text canvas displayed on the panel 324-1 and a part of the key frame canvas displayed on the panel 324-2. A thumbnail display area / lens 314 covering the corresponding portion is displayed (step 1718). A thumbnail display area lens 314 that covers a portion of the thumbnails 312-1 and 312-2 between the thumbnail pixel positions TN start and TN end is displayed. The height of the thumbnail display area lens 314 in pixels is equal to (TN end −TN start ). The width of the thumbnail display area lens 314 is approximately equal to the width of the second display area 306 (as shown in FIG. 3).

次いで、第二の表示エリア304のうちパネル表示エリア・レンズ322によって強調された第三の表示エリア306の一部に対応する部分が決定される(ステップ1720)。ステップ1720において、サーバ104は、tとtの間の時間期間に対応するサムネール31201の一部及びサムネール312−2の一部を決定する。サムネール312−1のうちtとtの間の時間窓に対応する部分は、時刻tに対応し、そのサムネールの一部の開始垂直ピクセル位置をマーキングする垂直ピクセル座標(TNSubstart)と、時刻tに対応し、そのサムネールの一部の終了ピクセル位置をマーキングする垂直ピクセル位置(TNSubend)とによって特徴付けられる。ピクセル位置TNSubstart及びTNSubendを決定するのには乗数tpix_mが用いられる。
TNSubstart=t*tpix_m
TNSubend=t*tpix_m
サムネール312−1及び312−2は、同じ長さで、互いに時系列に並べられているため、サムネール312−2のうちtとtの間の時間期間に対応する部分もサムネール312−2上のピクセル位置TNSubstartとTNSubendの間に位置する。
Next, a portion of the second display area 304 corresponding to a part of the third display area 306 highlighted by the panel display area / lens 322 is determined (step 1720). In step 1720, server 104 determines a portion of the part of the thumbnail 31201 corresponding to the time period between t 3 and t 4 and thumbnail 312-2. The portion corresponding to the time window between t 3 and t 4 of the thumbnail 312-1, corresponds to the time t 3, the vertical pixel coordinate of marking a portion of the starting vertical pixel position of the thumbnail (TNSub start) , Corresponding to time t 4 and characterized by a vertical pixel position (TNSub end ) marking the end pixel position of a portion of that thumbnail. The multiplier tpix_m is used to determine the pixel location TNSub start and TNSub end .
TNSub start = t 3 * tpix_m
TNSub end = t 4 * tpix_m
Thumbnail 312-1 and 312-2, the same length, because it is arranged in time series to each other, also the part corresponding to the time period between t 3 and t 4 of the thumbnail 312-2 thumbnail 312-2 It is located between the upper pixel positions TNsub start and TNSub end .

次いで、サムネール312−1及び312−2のうちtとtの間の時間窓に対応する(すなわち、第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調された部分に対応する)部分を覆うサブレンズ316が表示される(ステップ1722)。サブレンズ316は、サムネール312−1及び312−2のうちピクセル位置TNSubstartとTNSubendの間の部分を覆うように表示される。サブレンズ316のピクセル単位での高さは、(TNSubend−TNSubstart)に等しい。サブレンズ316の幅は、(図3に示すように)第二の表示エリア304の幅と略等しい。 Then, corresponding to the time window between t 3 and t 4 of the thumbnail 312-1 and 312-2 (i.e., corresponding to the highlighted portion by a panel display area lens 322 of the third display area 306 ) A sub-lens 316 covering the portion is displayed (step 1722). The sub lens 316 is displayed so as to cover a portion between the pixel positions TNSub start and TNSub end of the thumbnails 312-1 and 312-2. Height in pixels of the sub-lens 316 is equal to (TNSub end -TNSub start). The width of the sub lens 316 is substantially equal to the width of the second display area 304 (as shown in FIG. 3).

第三の表示エリア306のうちパネル表示エリア・レンズ322によって強調された部分に対応するマルチメディア情報が、第四の表示エリア308に表示される(ステップ1724)。例えば、時刻tに始まるビデオ情報がGUI300の第四の表示エリア308のエリア340−1において再生される。代替的実施形態として、このビデオ再生の開始時刻は、tとtを含むtとtの間の任意の時刻にセットされてもよい。tとtの間の時間窓に対応するテキスト銃砲が第四の表示エリア308のエリア340−2に表示される。 The multimedia information corresponding to the portion highlighted by the panel display area / lens 322 in the third display area 306 is displayed in the fourth display area 308 (step 1724). For example, video information starting at time t 3 is reproduced in the area 340-1 of the fourth display area 308 of the GUI 300. As an alternative embodiment, the start time of the video playback may be set to any time between t 3 and t 4 including t 3 and t 4. A text gun corresponding to the time window between t 3 and t 4 is displayed in area 340-2 of the fourth display area 308.

次いで、このマルチメディア情報が分析され、この分析の結果が第五の表示エリア310に表示される(ステップ1726)。例えば、マルチメディア情報から抽出されたテキスト情報が分析され、そのテキスト情報に往生する単語と個々の単語の頻度を識別する。これら単語及びそれらの頻度は、第五の表示エリア310にプリントされてもよい(例えば、図3に示すように、第五の表示エリア310のエリア352にプリントされた情報)。上述のように、マルチメディア情報から抽出された情報は、サーバ104がアクセス可能なデータ構造に格納することができる。例えば、マルチメディア情報から抽出されたテキスト情報及びビデオ・キーフレーム情報がサーバ104がアクセス可能なデータ構造に1以上のデータ構造に格納されてもよい。サーバ104はこれらデータ構造に格納された情報を用いて、マルチメディア情報を分析することができる。   Next, the multimedia information is analyzed, and the result of the analysis is displayed in the fifth display area 310 (step 1726). For example, text information extracted from the multimedia information is analyzed to identify the frequencies of words and individual words that are transferred to the text information. These words and their frequencies may be printed in the fifth display area 310 (for example, information printed in the area 352 of the fifth display area 310 as shown in FIG. 3). As described above, information extracted from the multimedia information can be stored in a data structure accessible to the server 104. For example, text information and video keyframe information extracted from multimedia information may be stored in one or more data structures in a data structure accessible by the server 104. The server 104 can analyze the multimedia information using the information stored in these data structures.

(マルチメディア情報ナビゲーション)
上述のように、本発明のユーザは、マルチメディア文書によって格納され、サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322を用いてGUI300に表示されたマルチメディア情報をナビゲート及びスクロールすることができる。例えば、ユーザは、サムネール表示エリア・レンズ314を第二の表示エリア304の長さに沿って動かすことによって、サムネール表示エリア・レンズ314の位置を変えることができる。サムネール表示エリア・レンズ314の位置を第二の表示エリア304に沿って第二の表示エリア304の第一の位置から第二の位置へ変更すると、第三の表示エリア306に表示されたマルチメディア情報は、第三の表示エリア306に表示されたマルチメディア情報が第二の表示エリア304のうちの第二の位置におけるサムネール表示エリア・レンズ314によって強調されているエリアと対応し続けるように、自動的に更新される。同様に、ユーザは、パネル表示エリア・レンズ322を第三の表示エリア306の長さに沿って動かすことによって、パネル表示エリア・レンズ322の位置を変えることができる。パネル表示エリア・レンズ322の位置を変更すると、サブレンズ316の位置とおそらくはサムネール表示エリア・レンズ314の位置も、パネル表示エリア・レンズ322の新しい位置に対応し続けるように、更新される。第四の表示エリア308に表示される情報も、パネル表示エリア・レンズ322の新しい位置に対応するように、更新される。
(Multimedia information navigation)
As described above, the user of the present invention can navigate and scroll through the multimedia information stored by the multimedia document and displayed on the GUI 300 using the thumbnail display area lens 314 and the panel display area lens 322. it can. For example, the user can change the position of the thumbnail display area lens 314 by moving the thumbnail display area lens 314 along the length of the second display area 304. When the position of the thumbnail display area / lens 314 is changed from the first position of the second display area 304 to the second position along the second display area 304, the multimedia displayed in the third display area 306 is displayed. The information continues to correspond to the area where the multimedia information displayed in the third display area 306 is highlighted by the thumbnail display area lens 314 in the second position of the second display area 304. Updated automatically. Similarly, the user can change the position of the panel display area lens 322 by moving the panel display area lens 322 along the length of the third display area 306. When the position of the panel display area / lens 322 is changed, the position of the sub-lens 316 and possibly the position of the thumbnail display area / lens 314 are also updated so as to continue to correspond to the new position of the panel display area / lens 322. The information displayed in the fourth display area 308 is also updated to correspond to the new position of the panel display area / lens 322.

図18は、本発明の一実施形態に従って、サムネール表示エリア・レンズ314の位置の変更に応じて、第三の表示エリア306に表示される情報を自動的に更新する方法を示す簡略化された高レベル・フローチャート1800である。図18に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図18に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 18 is a simplified diagram illustrating a method for automatically updating information displayed in the third display area 306 in response to a change in the position of the thumbnail display area lens 314 according to one embodiment of the present invention. High level flowchart 1800. The method shown in FIG. 18 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method shown in FIG. 18 is merely illustrative of an embodiment incorporating the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図18に示すように、本方法は、サーバ104が、サムネール表示エリア・レンズ314の第二の表示エリア304上での第一の位置から第二の位置への位置の変更を検知したとき、開始される(ステップ1802)。次いで、サーバ104は、第二の表示エリア304のうち第二の位置におけるサムネール表示エリア・レンズ314によって強調された部分を決定する(ステップ1804)。ステップ1804の一部として、サーバ104は、サムネール312−1において、第二の位置におけるサムネール表示エリア・レンズ314の端に対応するピクセル位置(TNstart及びTNend)を決定する。TNstartは、サムネール312−1における開始垂直ピクセル位置をマーキングし、TNendは、サムネール312−1における終了垂直ピクセル位置をマーキングする。サムネール312−1及び312−2は、同じ長さで、互いに時系列に並べられているため、サムネール312−2のうちサムネール表示エリア・レンズ314の第二の位置に対応する部分もピクセル位置TNstartとTNendの間に位置する。 As shown in FIG. 18, when the server 104 detects a change in the position of the thumbnail display area / lens 314 from the first position on the second display area 304 to the second position, It starts (step 1802). Next, the server 104 determines a portion of the second display area 304 that is highlighted by the thumbnail display area lens 314 at the second position (step 1804). As part of step 1804, the server 104 determines in the thumbnail 312-1 the pixel location (TN start and TN end ) corresponding to the end of the thumbnail display area lens 314 at the second location. TN start marks the starting vertical pixel position in the thumbnail 312-1 and TN end marks the ending vertical pixel position in the thumbnail 312-1. Since the thumbnails 312-1 and 312-2 have the same length and are arranged in time series, the portion of the thumbnail 312-2 corresponding to the second position of the thumbnail display area lens 314 is also the pixel position TN. Located between start and TN end .

次いで、サーバ104は、サムネール表示エリア・レンズ314の第二の位置に対応する時間値を決定する(ステップ1806)。ピクセル位置TNstartに対応する時間値tが決定され、ピクセル位置TNendに対応する時間値tが決定される。これら時間値を決定するのには乗数tsec_mが用いられる。
=TNstart*tsec_m
=TNend*tsec_m
次いで、サーバ104は、テキスト・キャンバス及びキーフレーム・キャンバスにおけるステップ1806で決定された時間値に対応するピクセル位置を決定する(ステップ1808)。テキスト・キャンバスにおけるピクセル位置Pstartは時刻tに基づいて決定され、キーフレーム・キャンバスにおけるピクセル位置TNendは時刻tに基づいて決定される。これらピクセル位置を決定するのには乗数pix_mが用いられる。
start=t*tpix_m
end=t*tpix_m
テキスト・キャンバス及びキーフレーム・キャンバスは同じ長さであるため、時刻値t及びtはキーフレームにおけるピクセル位置Pstart及びPendに対応する。
The server 104 then determines a time value corresponding to the second position of the thumbnail display area lens 314 (step 1806). A time value t 1 corresponding to the pixel position TN start is determined, and a time value t 2 corresponding to the pixel position TN end is determined. The multiplier tsec_m is used to determine these time values.
t 1 = TN start * tsec_m
t 2 = TN end * tsec_m
Server 104 then determines the pixel location corresponding to the time value determined in step 1806 in the text canvas and keyframe canvas (step 1808). The pixel position P start in the text canvas is determined based on time t 1 , and the pixel position TN end in the keyframe canvas is determined based on time t 2 . A multiplier pix_m is used to determine these pixel positions.
P start = t 1 * tpix_m
P end = t 2 * tpix_m
Since the text canvas and the keyframe canvas are the same length, the time values t 1 and t 2 correspond to the pixel positions P start and P end in the key frame.

テキスト・キャンバスのうちピクセル位置PstartとPendの間のセクションがパネル324−1に表示される(ステップ1810)。このテキスト・キャンバスのうちパネル324−1に表示されたセクションは、サムネール312−1のうち第二の位置におけるサムネール表示エリア・レンズ314によって強調された部分に対応する。 A section of the text canvas between pixel positions P start and P end is displayed on panel 324-1 (step 1810). The section of the text canvas displayed on panel 324-1 corresponds to the portion of thumbnail 312-1 that is highlighted by thumbnail display area lens 314 at the second position.

キーフレーム・キャンバスのうちピクセル位置PstartとPendの間のセクションがパネル324−2に表示される(ステップ1812)。このキーフレーム・キャンバスのうちパネル324−2に表示されたセクションは、サムネール312−2のうち第二の位置におけるサムネール表示エリア・レンズ314によって強調された部分に対応する。 Section between the pixel position P start and P end The one keyframe canvas is displayed on the panel 324-2 (step 1812). The section of the key frame canvas displayed on the panel 324-2 corresponds to the portion of the thumbnail 312-2 that is highlighted by the thumbnail display area lens 314 at the second position.

サムネール表示エリア・レンズ314が第一の位置から第二の位置へ動かされると、サブレンズ316もサムネール表示エリア・レンズ314に沿って動く。その際、サーバ104は、第二の表示エリア304のうち第二の位置におけるサブレンズ316によって強調された部分を決定する(ステップ1814)。ステップ1814の一部として、サーバ104は、サムネール312−1のうち、第二の位置におけるサブレンズ316の端に対応するピクセル位置(TNSubstart及びTNSubend)を決定する。TNSubstartはサムネール312−1における開始垂直ピクセル位置をマーキングし、TNSubendはサムネール312−1における終了垂直ピクセル位置をマーキングする。サムネール312−1及び312−2は、同じ長さであり、互いに時系列に並べられるため、サムネール312−1のうちサブレンズ316の第二の位置に対応する部分もピクセル位置TNSubstartとTNSubendの間に位置する。 When the thumbnail display area lens 314 is moved from the first position to the second position, the sub lens 316 also moves along the thumbnail display area lens 314. At that time, the server 104 determines a portion emphasized by the sub lens 316 in the second position in the second display area 304 (step 1814). As part of step 1814, the server 104 determines a pixel location (TNSub start and TNSub end ) corresponding to the end of the sub-lens 316 at the second location in the thumbnail 312-1. TNSub start marks the starting vertical pixel position in thumbnail 312-1 and TNSub end marks the ending vertical pixel position in thumbnail 312-1. Since the thumbnails 312-1 and 312-2 have the same length and are arranged in time series with each other, the portion of the thumbnail 312-1 corresponding to the second position of the sub lens 316 also has pixel positions TNSub start and TNSub end. Located between.

次いで、サーバ104は、サブレンズ316の第二の位置に対応する時間値を決定する(ステップ1816)。ピクセル位置TNSubstartに対応する時間値tが決定され、ピクセル位置TNSubendに対応する時間値tが決定される。これら時間値を決定するのには乗数tsec_mが用いられる。
=TNSubstart*tsec_m
=TNSubend*tsec_m
次いで、サーバ104は、テキスト・キャンバス及びキーフレーム・キャンバスにおいてステップ1816で決定された時間値にそれぞれ対応するピクセル位置を決定する(ステップ1818)。テキスト・キャンバスにおけるピクセル位置PSubstartは、時刻tに基づいて計算され、キーフレーム・キャンバスにおけるピクセル位置PSubendは、時刻tに基づいて計算される。これらの位置を決定するのには乗数pix_mが以下のように用いられる。
PSubstart=t*tpix_m
PSubend=t*tpix_m
テキスト・キャンバス及びキーフレーム・キャンバスは同じ長さであるため、時刻値t及びtはキーフレーム・キャンバスにおけるピクセル位置PSubstart及びPSubendに対応する。
Next, the server 104 determines a time value corresponding to the second position of the sub-lens 316 (step 1816). A time value t 3 corresponding to the pixel position TNSub start is determined, and a time value t 4 corresponding to the pixel position TNSub end is determined. The multiplier tsec_m is used to determine these time values.
t 3 = TNSub start * tsec_m
t 4 = TNSub end * tsec_m
Server 104 then determines pixel locations corresponding to the time values determined in step 1816 in the text canvas and keyframe canvas, respectively (step 1818). The pixel position Psub start in the text canvas is calculated based on time t 3 , and the pixel position Psub end in the keyframe canvas is calculated based on time t 4 . The multiplier pix_m is used to determine these positions as follows.
Psub start = t 3 * tpix_m
Psub end = t 4 * tpix_m
Since the text canvas and the keyframe canvas are the same length, the time values t 1 and t 2 correspond to the pixel positions Psub start and Psub end in the key frame canvas.

第三の表示エリア306のうちピクセル位置PSubstartとPSubendの間の部分を覆うパネル表示エリア・レンズ322が第三の表示エリア306上に描画される(ステップ1820)。次いで、第四の表示エリア308に表示されたマルチメディア情報は、パネル表示エリア・レンズ322の新しい位置に対応するように、更新される(ステップ1822)。 A panel display area / lens 322 covering a portion of the third display area 306 between the pixel positions Psub start and Psub end is drawn on the third display area 306 (step 1820). The multimedia information displayed in the fourth display area 308 is then updated to correspond to the new position of the panel display area lens 322 (step 1822).

図19は、本発明の一実施形態に従って、パネル表示エリア・レンズ322の位置の変更に応じて、第四の表示エリア308に表示される情報及びサムネール表示エリア・レンズ314及びサブレンズ316の位置を自動的に更新する方法を示す簡略化された高レベル・フローチャート1900である。図19に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図19に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 19 shows the information displayed in the fourth display area 308 and the positions of the thumbnail display area / lens 314 and the sub-lens 316 according to the change of the position of the panel display area / lens 322 according to the embodiment of the present invention. 6 is a simplified high-level flowchart 1900 illustrating a method for automatically updating. The method shown in FIG. 19 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method illustrated in FIG. 19 is merely illustrative of an embodiment incorporating the present invention and is not intended to limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図19に示すように、本方法は、サーバ104が、パネル表示エリア・レンズ322の第三の表示エリア306上での第一の位置から第二の位置への位置の変更を検知したとき、開始される(ステップ1902)。次いで、サーバ104は、第二の位置におけるパネル表示エリア・レンズ322に対応する時間値を決定する(ステップ1904)。ステップ1904において、サーバ104は、第二の位置におけるパネル表示エリア・レンズ322の上端及び下端のピクセル位置を決定する。次いで、乗数sec_mを用いて、これらピクセル位置を時間値に変換する。第二の位置におけるパネル表示エリア・レンズ322の上端に対応する時間値tが決定され、パネル表示エリア・レンズ322の下端に対応する時間値tが決定される。
=(パネル表示エリア・レンズ322の上端のピクセル位置)*sec_m
=(パネル表示エリア・レンズ322の下端のピクセル位置)*sec_m
次いで、サーバ104は、第二の表示エリア304において、ステップ1904で決定された時間値に対応するピクセル位置を決定する(ステップ1906)。第二の表示エリア304のサムネール(312−1又は312−2のいずれか;なぜならそれらは同じ長さで揃えられているため)のピクセル位置TNSubstartは時刻tに基づいて決定され、サムネールのピクセル位置TNSubendは時刻tに基づいて決定される。乗数tpix_mを用いて、これらピクセル位置は以下のように決定される。
TNSubstart=t*tpix_m
TNSubend=t*tpix_m
次いで、サブレンズ316が、第二の表示エリア304のサムネール312のうちステップ1906で決定されたピクセル位置の間の部分を強調するように、更新される(ステップ1908)。ステップ1908の一部として、ピクセル位置TNSubstart及びTNSubendがパネル表示エリア・レンズ322が第一の位置にあったときのサムネール表示エリア・レンズ314の境界の外に位置する場合、サムネール表示エリア・レンズ314の位置も更新されてもよい。例えば、ユーザがパネル表示エリア・レンズ322を用いて第三の表示エリア306をPanelHeightを越えてスクロールした場合、それに応じてサムネール表示エリア・レンズ314の位置が更新される。パネル表示エリア・レンズ322の第二の位置がPanelHeight内に位置する場合、サブレンズ316のみがパネル表示エリア・レンズ322の第二の位置に対応するように動かされ、サムネール表示エリア・レンズ314は動かされない。
As shown in FIG. 19, when the server 104 detects a change in the position of the panel display area / lens 322 on the third display area 306 from the first position to the second position, It is started (step 1902). Next, the server 104 determines a time value corresponding to the panel display area / lens 322 at the second position (step 1904). In step 1904, the server 104 determines the pixel positions of the upper and lower ends of the panel display area lens 322 at the second position. These pixel positions are then converted into time values using a multiplier sec_m. A time value t 3 corresponding to the upper end of the panel display area / lens 322 in the second position is determined, and a time value t 4 corresponding to the lower end of the panel display area / lens 322 is determined.
t 3 = (panel display area / pixel position of the upper end of the lens 322) * sec_m
t 4 = (panel display area / pixel position of the lower end of the lens 322) * sec_m
Next, the server 104 determines a pixel position corresponding to the time value determined in Step 1904 in the second display area 304 (Step 1906). (Either 312-1 or 312-2; since they because it is aligned with the same length) the second thumbnail of the display area 304 pixel locations TNSub start of is determined on the basis of the time t 3, thumbnails pixel position TNSub end is determined on the basis of the time t 4. Using the multiplier tpix_m, these pixel positions are determined as follows.
TNSub start = t 3 * tpix_m
TNSub end = t 4 * tpix_m
The sub-lens 316 is then updated to highlight the portion of the thumbnail 312 of the second display area 304 between the pixel locations determined in step 1906 (step 1908). As part of step 1908, if the pixel positions TNSub start and TNSub end are outside the border of the lens 314 when the panel display area lens 322 is in the first position, the thumbnail display area The position of the lens 314 may also be updated. For example, when the user scrolls the third display area 306 beyond the PanelHeight using the panel display area / lens 322, the position of the thumbnail display area / lens 314 is updated accordingly. When the second position of the panel display area / lens 322 is located within the panel height, only the sub lens 316 is moved so as to correspond to the second position of the panel display area / lens 322, and the thumbnail display area / lens 314 is moved. Not moved.

上述のように、パネル表示エリア・レンズ322を用いて、第三の表示エリア306に表示された情報をスクロールすることができる。例えば、ユーザは、パネル表示エリア・レンズ322を第三の表示エリア306の下端まで動かし、第三の表示エリア306のコンテンツが自動的に上方にスクロールされるようにすることができる。同様に、ユーザは、パネル表示エリア・レンズ322を第三の表示エリア306の上端まで動かし、第三の表示エリア306のコンテンツが自動的に下方にスクロールされるようにすることができる。サムネール表示エリア・レンズ314及びサブレンズ316の位置は、スクロールの発生に応じて、更新される。   As described above, the information displayed in the third display area 306 can be scrolled using the panel display area / lens 322. For example, the user can move the panel display area / lens 322 to the lower end of the third display area 306 so that the contents of the third display area 306 are automatically scrolled upward. Similarly, the user can move the panel display area / lens 322 to the upper end of the third display area 306 so that the contents of the third display area 306 are automatically scrolled downward. The positions of the thumbnail display area / lens 314 and the sub-lens 316 are updated according to the occurrence of scrolling.

次いで、パネル表示エリア・レンズ322の第二の位置に対応するマルチメディア情報が第四の表示エリア308に表示される(ステップ1910)。例えば、パネル表示エリア・レンズ322の第二の位置に対応するビデオ情報が第四の表示エリア308のエリア340−1に表示され、パネル表示エリア・レンズ322の第二の位置に対応するテキスト情報が第三の表示エリア306のエリア340−2に表示される。   Next, multimedia information corresponding to the second position of the panel display area / lens 322 is displayed in the fourth display area 308 (step 1910). For example, video information corresponding to the second position of the panel display area / lens 322 is displayed in the area 340-1 of the fourth display area 308, and text information corresponding to the second position of the panel display area / lens 322 is displayed. Is displayed in the area 340-2 of the third display area 306.

本発明の一実施形態によれば、ステップ1910において、サーバ104は、t又はtと等しい値或いはtとtの間の値を持つ時刻「t」を選択する。時刻「t」は、「ロケーション・タイム」と呼ぶことができる。このロケーション・タイムは、ユーザが設定可能としてもよい。本発明の一実施形態によれば、ロケーション・タイムはtにセットされる。次いで、このロケーション・タイムは、第四の表示エリア308のエリア340−1におけるビデオ情報再生の開始時刻として用いられる。 According to one embodiment of the present invention, in step 1910, server 104 selects a time “t” having a value equal to t 3 or t 4 or a value between t 3 and t 4 . Time “t” may be referred to as “location time”. This location time may be settable by the user. According to an embodiment of the present invention, location-time is set to t 4. Next, this location time is used as the start time of video information reproduction in the area 340-1 of the fourth display area 308.

本発明の一実施形態によれば、GUI300は、2つのモード:「完全更新」モード及び「部分更新」モードで作動できる。GUIのユーザは、GUIの作動モードを選択することができる。   According to one embodiment of the present invention, the GUI 300 can operate in two modes: a “full update” mode and a “partial update” mode. The user of the GUI can select the operation mode of the GUI.

GUI300が「完全更新」モードで作動しているとき、サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322の位置は、第四の表示エリア308のエリア340−1におけるビデオ再生の位置を反映するように、自動的に更新される。したがって、「完全更新」モードにおいて、サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322は、第四の表示エリア308で再生されたビデオの位置を保持又は反映する。このビデオは、第四の表示エリア308のエリア342に示されたコントロールを用いて、再生又は逆再生することができ、サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322の位置もそれに応じて変化する。また、第三の表示エリア306のパネル324に表示されたマルチメディア情報も、サムネール表示エリア・レンズ314の位置に対応し、ビデオの現在位置を反映するように、自動的に更新される(上方へシフトされる)。   When the GUI 300 is operating in the “full update” mode, the positions of the thumbnail display area / lens 314 and the panel display area / lens 322 reflect the position of video playback in the area 340-1 of the fourth display area 308. So that it is automatically updated. Accordingly, in the “full update” mode, the thumbnail display area lens 314 and the panel display area lens 322 hold or reflect the position of the video played in the fourth display area 308. This video can be played back or played back using the controls shown in area 342 of the fourth display area 308, with the thumbnail display area / lens 314 and panel display area / lens 322 positions accordingly. Change. Also, the multimedia information displayed on the panel 324 of the third display area 306 is automatically updated so as to reflect the current position of the video corresponding to the position of the thumbnail display area / lens 314 (upward). Shifted to).

GUI300が「部分更新」モードで作動しているとき、サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322の位置は、第四の表示エリア308のエリア340−1におけるビデオ再生の位置を反映するように更新されない。このモードでは、サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322の位置は、第四の表示エリア308のエリア340−1でビデオが再生されているとき、静止したままである。サムネール表示エリア・レンズ314の位置が変化しないため、第三の表示エリア306に表示されたマルチメディア情報も更新されない。このモードでは、第四の表示エリア308のエリア340−1でのビデオ再生の現在位置を反映するための「ロケーション・ポインタ」が第二の表示エリア304及び第三の表示エリア306に表示されてもよい。ロケーション・ポインタの位置は、ビデオの位置を反映するように、継続的に更新される。   When the GUI 300 is operating in the “partial update” mode, the positions of the thumbnail display area / lens 314 and the panel display area / lens 322 reflect the position of video playback in the area 340-1 of the fourth display area 308. Will not be updated. In this mode, the positions of the thumbnail display area / lens 314 and the panel display area / lens 322 remain stationary when the video is played in the area 340-1 of the fourth display area 308. Since the position of the thumbnail display area / lens 314 does not change, the multimedia information displayed in the third display area 306 is not updated. In this mode, a “location pointer” for reflecting the current video playback position in the area 340-1 of the fourth display area 308 is displayed in the second display area 304 and the third display area 306. Also good. The location pointer location is continuously updated to reflect the video location.

(レンジ)
本発明の一実施形態によれば、本発明は、マルチメディア情報のうちGUIに表示される部分を選択又は指定する手法を提供する。各部分を「レンジ(range)」と呼ぶ。レンジは、本発明のユーザによって手動で指定されてもよく、或いは、代替的に、本発明のユーザによって提供されたレンジ基準に基づいて本発明によって自動的に選択されてもよい。
(range)
According to an embodiment of the present invention, the present invention provides a technique for selecting or designating a portion of multimedia information displayed on a GUI. Each part is called a “range”. The range may be manually specified by the user of the present invention, or alternatively may be automatically selected by the present invention based on the range criteria provided by the user of the present invention.

レンジは、マルチメディア情報のうち開始時刻(R)と終了時刻(R)の間の部分を指す。したがって、各レンジは、そのレンジの時間的境界を定義するR及びRによって特徴付けられる。レンジは、マルチメディア情報のうち、そのレンジに関連付けられた時刻R及びRの間に発生した部分を含む又は識別する。 The range refers to a portion of the multimedia information between the start time (R S ) and the end time (R E ). Thus, each range is characterized by R S and R E that define the temporal boundaries of that range. A range includes or identifies the portion of multimedia information that occurred between times R S and R E associated with that range.

図20Aは、本発明の一実施形態に係るレンジを表示する簡略化されたユーザ・インターフェース2000を示す。図20Aに示すGUI2000は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない、ことは明らかである。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 20A illustrates a simplified user interface 2000 that displays a range according to one embodiment of the present invention. It will be appreciated that the GUI 2000 shown in FIG. 20A is merely illustrative of one embodiment that incorporates the present invention and does not limit the scope of the claimed invention. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図20Aに示すように、GUI2000は、ユーザが1以上のレンジを手動で指定するか又はGUI2000が自動的にレンジを生成するように設定するかを可能にする様々な機能(ボタン、タブ、など)を提供する。図20Aに示す実施形態において、ユーザは、「New」ボタン2002を選択することによって、レンジを手動で指定することができる。ボタン2002を選択した後、ユーザは、サムネールのうち第二の表示エリア2004に表示された部分を選択することによって、レンジを指定することができる。サムネールの様々な部分を選択することによって、1以上のレンジを指定することができる。例えば、図20Aには、6つのレンジ2006−1、2006−2、2006−3、2006−4、2006−5、及び、2006−6が表示されている。ユーザは、サムネール2008−2の一部分を選択又はマーキングすることによって、これらレンジの1以上を手動で指定することができる。   As shown in FIG. 20A, the GUI 2000 has various functions (buttons, tabs, etc.) that allow the user to manually specify one or more ranges or set the GUI 2000 to automatically generate ranges. )I will provide a. In the embodiment shown in FIG. 20A, the user can manually specify the range by selecting the “New” button 2002. After selecting the button 2002, the user can specify a range by selecting a portion displayed in the second display area 2004 of the thumbnail. By selecting different parts of the thumbnail, one or more ranges can be specified. For example, six ranges 2006-1, 2006-2, 2006-3, 2006-4, 2006-5, and 2006-6 are displayed in FIG. 20A. The user can manually specify one or more of these ranges by selecting or marking a portion of thumbnail 2008-2.

代替的実施形態として、サムネールの一部分を選択する代わりに、ユーザは、サムネール内のある位置をクリックすることによって、レンジを指定することもできる。次いで、現在クリックされた位置の前後に所定のバッファ時間を加えることによって、レンジが自動的に生成される。このように、レンジは、1回のクリックで指定することができる。この手法を用いて、複数のレンジを指定することができる。   As an alternative embodiment, instead of selecting a portion of the thumbnail, the user can specify a range by clicking on a location in the thumbnail. The range is then automatically generated by adding a predetermined buffer time before and after the currently clicked position. Thus, the range can be specified with a single click. Using this technique, a plurality of ranges can be specified.

図20Aにおいて、各指定されたレンジは、サムネール2008−2上に表示されたバーによって示される。また、レンジをユニークに識別する識別子又はラベルが各レンジに関連付けられてもよい。図20Aにおいて、各レンジは、レンジの左上に表示されたレンジに関連付けられた番号によって識別される。これら番号は、レンジに対するラベルとして機能する。したがって、あるレンジについて格納された情報は、そのレンジの開始時刻(R)と、そのレンジの終了時刻(R)と、そのレンジを識別するラベル又は識別子とを含み得る。また、レンジに対応する情報を格納したマルチメディア文書を識別する情報もレンジについて格納されてもよい。 In FIG. 20A, each designated range is indicated by a bar displayed on thumbnail 2008-2. Also, an identifier or label that uniquely identifies the range may be associated with each range. In FIG. 20A, each range is identified by a number associated with the range displayed at the top left of the range. These numbers serve as labels for the ranges. Thus, information stored for a range may include the start time (R S ) of the range, the end time (R E ) of the range, and a label or identifier that identifies the range. Information identifying a multimedia document storing information corresponding to the range may also be stored for the range.

サムネール2008−2の一部分を選択して指定された各レンジは、上端(Rtop)及び下端(Rbottom)を境界とする。あるレンジについてのR及びR時刻は、Rtop及びRbottomのピクセル位置から以下のように決定されてもよい。
=Rtop*tsec_m
=Rbottom*tsec_m
レンジを指定するのに他の手法も用いることができることは明らかである。例えば、本発明の代替的実施形態として、ユーザは、レンジの開始時刻(R)及び終了時刻(R)を提供することによって、レンジを指定してもよい。
Each range designated by selecting a part of the thumbnail 2008-2 has an upper end (R top ) and a lower end (R bottom ) as boundaries. The R S and R E times for a range may be determined from the pixel locations of R top and R bottom as follows:
R S = R top * tsec_m
R E = R bottom * tsec_m
Obviously, other techniques can be used to specify the range. For example, as an alternative embodiment of the present invention, a user may specify a range by providing a start time (R S ) and end time (R E ) of the range.

図20Aに示すGUI2000において、GUIに表示されたレンジに関連する情報は、エリア2010に表示される。エリア2010において各レンジについて表示された情報は、そのレンジを識別するラベル又は識別子2012、そのレンジの開始時刻(R)、そのレンジの終了時刻(R)、そのレンジのタイム・スパン2018、及び、マルチメディア情報のうちそのレンジに関連付けられた部分から抽出されたビデオ・キーフレーム群2019、を含む。あるレンジについてのタイム・スパンは、そのレンジに関連付けられた終了時刻Rと開始時刻Rの差を求めることによって計算される(すなわち、あるレンジについてのタイム・スパン=R−Rである)。図20Aに示す実施形態において、各レンジに対応するマルチメディア情報から抽出された最初、最後、及び真ん中のキーフレームが表示される。あるレンジについて表示されるキーフレームを選択するのには様々な他の手法も用いることができる。図20Aに示した情報は、本発明の範囲を制限することを意図したものではない。本発明の代替的実施形態として、レンジについて様々な他の種類の情報も表示することができる。 In the GUI 2000 shown in FIG. 20A, information related to the range displayed on the GUI is displayed in the area 2010. Information displayed for each range in area 2010 includes a label or identifier 2012 that identifies the range, a start time (R S ) for the range, an end time (R E ) for the range, a time span 2018 for the range, And a video key frame group 2019 extracted from a portion of the multimedia information associated with the range. The time span for a range is calculated by determining the difference between the end time R E and the start time R S associated with that range (ie, time span for a range = R E −R S is there). In the embodiment shown in FIG. 20A, the first, last, and middle keyframes extracted from the multimedia information corresponding to each range are displayed. Various other techniques can also be used to select the keyframes displayed for a range. The information shown in FIG. 20A is not intended to limit the scope of the present invention. As alternative embodiments of the present invention, various other types of information about the range can also be displayed.

本発明の教えるところによれば、GUI2000に表示されたレンジについて、様々なオペレーションを実行することができる。ユーザは、レンジに関連付けられたR及びR時刻を変更することによって、レンジを編集することができる。レンジの編集は、そのレンジのタイム・スパン(すなわち、(R−R)の値)を変更し得る。図20Aに示すGUI2000において、ユーザは、「Edit(編集)」ボタン2020を選択することによって、表示されたレンジを修正又は編集することができる。「Edit」ボタン2020を選択した後、ユーザは、特定のレンジを表すバーの上端及び/又は下端をドラッグすることによって、そのレンジを編集することができる。上端位置を変更すると、そのレンジの開始時刻(R)が修正され、下端位置が変更されると、そのレンジの終了時刻(R)が修正される。 According to the teachings of the present invention, various operations can be performed on the range displayed on the GUI 2000. The user can edit the range by changing the R S and R E times associated with the range. Editing a range can change the time span of that range (ie, the value of (R E −R S )). In the GUI 2000 shown in FIG. 20A, the user can correct or edit the displayed range by selecting an “Edit” button 2020. After selecting the “Edit” button 2020, the user can edit that range by dragging the top and / or bottom of the bar representing the particular range. When the upper end position is changed, the start time (R S ) of the range is corrected, and when the lower end position is changed, the end time (R E ) of the range is corrected.

また、ユーザは、エリア2010においてレンジを選択し、それから「Edit」ボタン2020を選択することによって、そのレンジを編集することもできる。このシナリオの場合、「Edit」ボタン2020を選択することによって、ユーザにダイアログ・ボックス(例えば、図20Bに示すダイアログ・ボックス2050)が表示される。次いで、ユーザは、選択されたレンジに関連付けられたR及びR値をフィールド2052及び2054にそれぞれ値を入力することによって変更することができる。選択されたレンジのタイム・スパンは、ダイアログ・ボックスのエリア2056に表示される。 The user can also edit the range by selecting the range in area 2010 and then selecting the “Edit” button 2020. In this scenario, by selecting the “Edit” button 2020, a dialog box (for example, the dialog box 2050 shown in FIG. 20B) is displayed to the user. Then, the user can be changed by inputting each value of R S and R E value associated with the selected range in the field 2052 and 2054. The time span of the selected range is displayed in area 2056 of the dialog box.

また、ユーザは、表示されたレンジの位置をサムネール2008−2に沿って変えることによって、その表示されたレンジの位置を動かすことができる。レンジの移動により、そのレンジに関連付けられたR及びRは変更されるが、そのレンジのタイム・スパンは維持される。GUI2000において、ユーザは、まず「Move(移動)」ボタン2022を選択し、それからレンジを選択・移動することによって、レンジを動かすことができる。上述のように、レンジについてのタイム・スパンは、「Edit」ボタンを選択し、それからそのレンジを表すバーの端をドラッグすることによって、編集することができる。 In addition, the user can move the position of the displayed range by changing the position of the displayed range along the thumbnail 2008-2. Moving a range changes R S and R E associated with that range, but maintains the time span of that range. In the GUI 2000, the user can move the range by first selecting the “Move” button 2022, and then selecting and moving the range. As described above, the time span for a range can be edited by selecting the “Edit” button and then dragging the end of the bar representing that range.

ユーザは、以前指定したレンジを削除又は消去することができる。図20Aに示すGUI2000において、ユーザは、「Remove(削除)」ボタン2024を選択し、それから消去すべきレンジを選択することによって、表示されたレンジを消去することができる。「Clear(クリア)」ボタン2026を選択すると、GUI2000に表示されたマルチメディア情報について指定されているすべてのレンジが消去される。   The user can delete or delete a previously specified range. In the GUI 2000 shown in FIG. 20A, the user can delete the displayed range by selecting the “Remove” button 2024 and then selecting the range to be deleted. When the “Clear” button 2026 is selected, all ranges designated for the multimedia information displayed on the GUI 2000 are deleted.

上述のように、各レンジは、マルチメディア情報のうち、そのレンジに関連付けられた時刻RとRの間に発生した部分を指す。あるレンジに対応するマルチメディア情報は、「Play(再生)」ボタン2028を選択することによって、ユーザに出力される。「Play」ボタン2028を選択した後、ユーザは、GUI2000に表示され、該ユーザに対して出力されるべきマルチメディア情報を持つ特定のレンジを選択する。すると、マルチメディア情報のうち選択されたレンジに対応する部分がユーザに出力される。マルチメディア情報をユーザに出力するのには当業者には既知の様々な異なる手法を用いることができる。本発明の一実施形態によれば、選択されたレンジに関連付けられたマルチメディア情報に対応するビデオ情報がエリア2030においてユーザに対して再生される。選択されたレンジに対応するテキスト情報が、エリア2032に表示されてもよい。サムネール表示エリア・レンズ314及びパネル表示エリア・レンズ322の位置及び第三の表示エリア306に表示された情報は、エリア2030でユーザに対して出力された情報を持つ選択されたレンジに対応するように、自動的に更新される。 As described above, each range refers to a portion of multimedia information that occurs between times R S and R E associated with the range. Multimedia information corresponding to a certain range is output to the user by selecting a “Play” button 2028. After selecting the “Play” button 2028, the user selects a specific range that has multimedia information to be displayed on the GUI 2000 and to be output to the user. Then, the portion corresponding to the selected range in the multimedia information is output to the user. Various different techniques known to those skilled in the art can be used to output multimedia information to the user. According to one embodiment of the present invention, video information corresponding to multimedia information associated with the selected range is played to the user in area 2030. Text information corresponding to the selected range may be displayed in area 2032. The position of the thumbnail display area / lens 314 and panel display area / lens 322 and the information displayed in the third display area 306 correspond to the selected range having information output to the user in area 2030. Automatically updated.

また、ユーザは、エリア2010においてレンジを選択し、それから「Paly」ボタン2020を選択することによって、選択されたレンジに対応した情報を再生させることができる。すると、選択されたレンジに対応するマルチメディア情報がエリア2030に表示される。   In addition, the user can reproduce information corresponding to the selected range by selecting a range in the area 2010 and then selecting a “Pally” button 2020. Then, multimedia information corresponding to the selected range is displayed in area 2030.

また、ユーザは、「Preview(プレビュー)」ボタン2034を選択することによって、GUI2000によって表示されているマルチメディア情報について指定されているすべてのレンジに関連付けられた情報を順に出力するようにGUI2000に命令することもできる。「Preview」ボタン2034を選択すると、表示されているレンジに対応したマルチメディア情報が、順に、ユーザに対して出力される。例えば、図20Aに示すように6つのレンジが表示されている場合、ラベル「1」で識別されたレンジに対応したマルチメディア情報が最初に出力され、次に、ラベル「2」で識別されたレンジに対応したマルチメディア情報が続き、これが、6つのレンジすべてに対応するマルチメディア情報がユーザに出力されるまで、続く。レンジがユーザに出力される順序は、ユーザが設定可能としてもよい。   The user also instructs the GUI 2000 to sequentially output information associated with all ranges specified for the multimedia information displayed by the GUI 2000 by selecting a “Preview” button 2034. You can also When the “Preview” button 2034 is selected, multimedia information corresponding to the displayed range is sequentially output to the user. For example, when six ranges are displayed as shown in FIG. 20A, multimedia information corresponding to the range identified by the label “1” is output first, and then identified by the label “2”. The multimedia information corresponding to the range continues until this multimedia information corresponding to all six ranges is output to the user. The order in which the ranges are output to the user may be settable by the user.

また、あるレンジに関連付けられたマルチメディア情報は、メモリに保存することもできる。例えば、図20Aに示した実施形態において、ユーザは、「Save(保存)」ボタン2036を選択し、それから保存すべき1以上のレンジを選択することができる。すると、ユーザによって保存するものとして選択されたレンジに対応するマルチメディア情報は、メモリ(例えば、ハードディスク、ストレージ・ユニット、フロッピー(登録商標)ディスク、など)に保存される。   Also, multimedia information associated with a range can be stored in memory. For example, in the embodiment shown in FIG. 20A, the user can select a “Save” button 2036 and then select one or more ranges to save. Then, the multimedia information corresponding to the range selected to be saved by the user is saved in a memory (for example, a hard disk, a storage unit, a floppy disk, etc.).

また、レンジについて様々な他のオペレーションも実行することができる。例えば、本発明の一実施形態によれば、1以上のレンジに対応するマルチメディア情報を紙媒体上に印刷することができる。マルチメディア情報を紙媒体上に印刷する手法を記載した詳細は、2001年11月19日に出願され、そのコンテンツ全体がここに参考文献として組み込まれる米国特許出願第10/001,895号(弁護士整理番号:15358−006500US)に記載されている。   Various other operations on the range can also be performed. For example, according to an embodiment of the present invention, multimedia information corresponding to one or more ranges can be printed on a paper medium. Details describing a technique for printing multimedia information on paper media have been filed on November 19, 2001, the entire contents of which are hereby incorporated by reference, US patent application Ser. No. 10 / 001,895 (lawyer). (Reference number: 15358-006500 US).

また、あるレンジに関連付けられたマルチメディア情報をユーザ指定の受取人に伝達することもできる。例えば、ユーザは、特定のレンジを選択し、そのレンジに対応するマルチメディア情報をユーザ指定の受取人へ伝達することを要求することができる。すると、そのレンジに対応するマルチメディア情報は、その受取人に伝達される。このレンジ情報を受取人へ伝達するのには当業者には既知の様々な通信技術(例えば、ファクシミリ、電子メール、無線通信、などの通信技術)を用いることができる。   Also, multimedia information associated with a certain range can be transmitted to a user-specified recipient. For example, a user can select a particular range and request that multimedia information corresponding to that range be communicated to a user-specified recipient. The multimedia information corresponding to the range is then transmitted to the recipient. Various communication techniques known to those skilled in the art (for example, communication techniques such as facsimile, e-mail, wireless communication, etc.) can be used to transmit the range information to the recipient.

また、あるレンジに対応するマルチメディア情報は、検索プログラム、ブラウザ、グラフィック・アプリケーション、MIDIアプリケーション、などの別のアプリケーション・プログラムへの入力として提供されてもよい。ユーザは、特定のレンジを選択し、それから情報の提供先となるアプリケーションを特定することができる。ユーザの選択に応答して、次いで、そのレンジに対応するマルチメディア情報がそのアプリケーションへの入力として提供される。   In addition, multimedia information corresponding to a certain range may be provided as input to another application program such as a search program, a browser, a graphic application, a MIDI application, or the like. The user can select a specific range and then specify the application to which the information is to be provided. In response to the user's selection, multimedia information corresponding to the range is then provided as input to the application.

上述のように、レンジは、ユーザによって手動で指定されてもよく、本発明によって自動的に選択されてもよい。このレンジの自動選択は、サーバ104上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。図21は、本発明の一実施形態に従って、レンジを自動的に作成する方法を示す簡略化された高レベル・フローチャート2100である。図21に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図21に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   As described above, the range may be manually specified by the user or automatically selected by the present invention. This automatic selection of the range may be performed by a software module executing on the server 104, may be performed by a hardware module connected to the server 104, or a combination thereof. FIG. 21 is a simplified high-level flowchart 2100 illustrating a method for automatically creating a range in accordance with one embodiment of the present invention. The method illustrated in FIG. 21 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method illustrated in FIG. 21 is merely illustrative of an embodiment incorporating the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図21に示すように、本方法は、サーバ104がレンジを作成するための基準を受信したときに開始される(ステップ2102)。本発明のユーザは、GUI2000を通じて、基準を指定することができる。例えば、図20Aに示すGUI2000において、エリア2040は、レンジ自動作成用の基準を指定するのに選択することができる様々なオプションを表示する。図20Aに示すGUI2000において、ユーザは、レンジ基準として、「話題」又は「単語」を選択することができる。ユーザが「話題」を選択した場合、ユーザが関心ある話題に関連する情報(エリア2042に表示される)は、レンジ作成基準として識別される。ユーザが「単語」を選択した場合、GUI2000のエリア2044においてユーザによって選択された1以上の単語が自動的にレンジを作成するための基準として用いられる。代替的実施形態として、レンジを自動的に作成するための基準は、サーバ104がアクセス可能なメモリ・ロケーションに格納されてもよい。例えば、基準情報は、サーバ104がアクセス可能なファイルに格納されてもよい。また、本発明の教えるところに従った様々な他の種類の基準も指定することができる
次いで、マルチメディア文書に格納されたマルチメディア情報が分析され、マルチメディア情報内でステップ2102で受信された基準を満たす位置(「ヒット」と呼ぶ)を特定する(ステップ2104)。例えば、ユーザがエリア2044においてユーザによって選択された1以上の単語がレンジ作成基準として用いられるように指定した場合、選択された単語の位置がマルチメディア情報において特定される。同様に、ユーザが関心ある話題をレンジ作成基準として指定した場合、サーバ104は、マルチメディア情報を分析し、マルチメディア情報においてユーザによって指定された関心ある話題に関連する位置を特定する。上述のように、サーバ104は、マルチメディア情報を分析し、ユーザによって指定された関心ある話題に関連付けられた単語又はフレーズの位置を特定することができる。関心ある話題に関連する情報は、サーバ104がアクセス可能なユーザ・プロファイル・ファイルに格納することができる。マルチメディア情報においてステップ2102で受信されたレンジ基準を満たす位置を特定するのには当業者には既知の様々な他の手法も用いることができる。
As shown in FIG. 21, the method begins when the server 104 receives a criteria for creating a range (step 2102). The user of the present invention can specify criteria through the GUI 2000. For example, in GUI 2000 shown in FIG. 20A, area 2040 displays various options that can be selected to specify the criteria for automatic range creation. In the GUI 2000 shown in FIG. 20A, the user can select “topic” or “word” as the range reference. When the user selects “topic”, information related to the topic that the user is interested in (displayed in area 2042) is identified as a range creation criterion. When the user selects “word”, one or more words selected by the user in the area 2044 of the GUI 2000 are used as a reference for automatically creating a range. As an alternative embodiment, the criteria for automatically creating a range may be stored in a memory location accessible to the server 104. For example, the reference information may be stored in a file accessible by the server 104. Various other types of criteria can also be specified in accordance with the teachings of the present invention. The multimedia information stored in the multimedia document was then analyzed and received in step 2102 within the multimedia information. A position satisfying the criterion (referred to as “hit”) is specified (step 2104). For example, if the user specifies that one or more words selected by the user in area 2044 are used as a range creation criterion, the position of the selected word is identified in the multimedia information. Similarly, when the user specifies a topic of interest as the range creation criterion, the server 104 analyzes the multimedia information and identifies a location related to the topic of interest specified by the user in the multimedia information. As described above, the server 104 can analyze the multimedia information and determine the location of the word or phrase associated with the topic of interest specified by the user. Information related to the topic of interest can be stored in a user profile file accessible by the server 104. Various other techniques known to those skilled in the art can also be used to identify locations in the multimedia information that meet the range criteria received in step 2102.

次いで、ステップ2104で特定されたヒット位置に基づいて、1以上のレンジが作成される(ステップ2106)。ヒット位置に基づいてレンジを形成するのには様々な異なる手法も用いることができる。一手法によれば、ヒットに関連付けられた時刻に基づいて1以上のレンジが作成される。ヒットは、お互いの近接さに基づいて、レンジにグループ分けすることができる。ヒット位置に基づいて作成された1以上のレンジは、より大きなレンジを形成するために合成することができる。   Next, one or more ranges are created based on the hit position identified in step 2104 (step 2106). Various different approaches can also be used to form the range based on the hit position. According to one approach, one or more ranges are created based on the time associated with the hit. Hits can be grouped into ranges based on their proximity to each other. One or more ranges created based on the hit position can be combined to form a larger range.

次いで、ステップ2106で作成されたレンジは、GUI2000を用いて、ユーザに対して表示される(ステップ2108)。レンジをユーザに対して表示するのには様々なKとなる手法を用いることができる。図20Aにおいて、各レンジは、サムネール2008−2上に表示されたバーによって示されている。   Next, the range created in step 2106 is displayed to the user using GUI 2000 (step 2108). Various K techniques can be used to display the range to the user. In FIG. 20A, each range is indicated by a bar displayed on thumbnail 2008-2.

図22は、本発明の一実施形態に従って、マルチメディア情報におけるヒット位置に基づいてレンジを自動的に作成する方法を示す簡略化された高レベル・フローチャート2200である。図22に示す処理は、図21に示したステップ2106において実行される。図22に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図22に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 22 is a simplified high-level flowchart 2200 illustrating a method for automatically creating a range based on hit locations in multimedia information, in accordance with one embodiment of the present invention. The process shown in FIG. 22 is executed in step 2106 shown in FIG. The method illustrated in FIG. 22 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method illustrated in FIG. 22 is merely illustrative of an embodiment incorporating the present invention and is not intended to limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図22に示すように、本方法は、マルチメディア情報における最初のヒットに関連付けられた時刻を決定することによって開始される(ステップ2202)。このマルチメディア情報における最初のヒットは、関連付けられた時刻が最も古いヒット(すなわち、マルチメディア情報において他のヒットの前に発生したヒット)に対応する。次いで、新しいレンジについてのRが最初のヒットの発生時刻にセットされ、新しいレンジについてのRが最初のヒットの発生時刻後のある時刻値にセットされるように、最初のヒットを含んだ新しいレンジが作成される(ステップ2204)。本発明の一実施形態によれば、Rは、最初のヒットの発生時刻の5秒後にセットされる。 As shown in FIG. 22, the method begins by determining the time associated with the first hit in the multimedia information (step 2202). The first hit in this multimedia information corresponds to the hit with the oldest associated time (ie, hits that occurred before other hits in the multimedia information). The R S for the new range was then set to the time of occurrence of the first hit, and the R E for the new range was set to some time value after the time of occurrence of the first hit. A new range is created (step 2204). According to one embodiment of the invention, RE is set 5 seconds after the time of occurrence of the first hit.

次いで、サーバ104は、マルチメディア情報に更なるヒットは存在しないか判断する(ステップ2206)。マルチメディア情報に更なるヒットが存在しない場合、処理は終了する。その場合、そのマルチメディア情報について作成されたレンジが図21に示したステップ2108に従ってユーザに表示される。ステップ2206においてそのマルチメディア情報に更なるヒットが存在すると判断された場合、次のヒットに関連付けられた時刻が決定される(ステップ2208)。   The server 104 then determines whether there are any further hits in the multimedia information (step 2206). If there is no further hit in the multimedia information, the process ends. In that case, the range created for the multimedia information is displayed to the user according to step 2108 shown in FIG. If it is determined in step 2206 that there are more hits in the multimedia information, the time associated with the next hit is determined (step 2208).

次いで、サーバ104は、前のヒットを含むレンジの終了時刻とステップ2208で決定された時刻との時間差が閾値を超えているか否かを判断する(ステップ2210)。したがって、ステップ2210において、サーバ104は、
(ステップ2208で決定された時刻)−(前のヒットを含むレンジのR)>GapBetweenHits
が成り立つか否かを判断する。ここで、GapBetweenHitsは、上記閾時間値を表す。この閾値は、ユーザが設定可能である。本発明の一実施形態によれば、GapBetweenHitsは60秒である。
Next, the server 104 determines whether or not the time difference between the end time of the range including the previous hit and the time determined in Step 2208 exceeds the threshold (Step 2210). Accordingly, in step 2210, the server 104
(Time determined in step 2208) − (R E of the range including the previous hit)> GapBetweenHits
Determine whether or not. Here, GapBetweenHits represents the threshold time value. This threshold can be set by the user. According to one embodiment of the present invention, GapBetweenHits is 60 seconds.

ステップ2210において前のヒットを含むレンジの終了時刻とステップ2208で決定された時刻との時間差が閾値を超えていると判断された場合、新しいレンジについてのRがステップ2208で決定された時刻にセットされ、新しいレンジについてのRがステップ2208で決定された時刻後のある時刻値にセットされるように、次のヒットを含んだ新しいレンジが作成される(ステップ2212)。本発明の一実施形態によれば、Rは、ヒット発生時刻の5秒後にセットされる。その後、処理はステップ2206へ進む。 If it is determined in step 2210 that the time difference between the end time of the range including the previous hit and the time determined in step 2208 exceeds the threshold, the RS for the new range is set to the time determined in step 2208. is set, R E about the new range to be set to a time value some later time determined in step 2208, the new range is created that contains the next hit (step 2212). According to one embodiment of the invention, RE is set 5 seconds after the hit occurrence time. Thereafter, the processing proceeds to step 2206.

ステップ2210において前のヒットを含むレンジの終了時刻とステップ2208で決定された時刻との時間差が閾値を超えていないと判断された場合、前のヒットを含むレンジの終了時刻Rをステップ2208で決定された時刻に変えることによって、該レンジが延長される(ステップ2214)。その後、処理はステップ2206へ進む。 If the time difference between the end time and the time determined in step 2208 of the range including the previous hit in step 2210 it is determined not to exceed the threshold value, an end time R E range including the previous hit in step 2208 By changing to the determined time, the range is extended (step 2214). Thereafter, the processing proceeds to step 2206.

図22に示した方法によれば、前のレンジから閾値(「GapBetweenHits」)内に発生したマルチメディア情報内のヒットについて1つのレンジが作成される。図22に示す方法の終わりにおいて、レンジ基準に基づいて、1以上のレンジが自動的に作成される。   According to the method shown in FIG. 22, one range is created for hits in multimedia information that occur within a threshold (“GapBetweenHits”) from the previous range. At the end of the method shown in FIG. 22, one or more ranges are automatically created based on the range criteria.

本発明の一実施形態によれば、ヒットに関連付けられた時刻に基づいて(例えば、図22に示すフローチャート2200に従って)1以上のレンジを形成した後、ヒット位置に基づいて作成された1以上のレンジが、より大きいレンジを形成するために、他のレンジと合成される。本発明の一実施形態によれば、小さいレンジが識別され、その小さいレンジと隣接するレンジとの時間差がユーザが設定可能な時間期間閾値内であれば、その小さいレンジはその隣接するレンジと合成される。時間期間閾値内に2つの隣接する時間レンジが存在する場合、小さいレンジに最も近い隣接レンジが小さいレンジと合成される。隣接レンジは、小さいレンジである必要はない。より小さいレンジを合成してより大きいレンジを形成することは、複数の小さいレンジよりもより大きいレンジの方がユーザにとってより有用である、という前提に基づいている。   According to one embodiment of the present invention, after forming one or more ranges based on the time associated with the hit (eg, according to flowchart 2200 shown in FIG. 22), one or more created based on the hit position A range is combined with other ranges to form a larger range. According to one embodiment of the present invention, if a small range is identified and the time difference between the small range and the adjacent range is within a user-configurable time period threshold, the small range is combined with the adjacent range. Is done. If there are two adjacent time ranges within the time period threshold, the adjacent range closest to the small range is combined with the small range. The adjacent range need not be a small range. Combining smaller ranges to form a larger range is based on the assumption that a larger range is more useful to the user than multiple smaller ranges.

図23は、本発明の一実施形態に従って、1以上のレンジを、それらレンジのサイズと、それらレンジの隣接するレンジへの近接さとに基づいて、合成する方法を示す簡略化された高レベル・フローチャート2300である。図23に示す処理は、図21に示したステップ2106において、図22に示したフローチャート2200に従った処理の後に実行される。図23に示す方法は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、或いは、サーバ104及びクライアント102によって共同して実行されてもよい。例えば、本方法は、サーバ104又はクライアント102上で実行するソフトウェア・モジュールによって実行されてもよく、サーバ104又はクライアント102に接続されたハードウェア・モジュールによって実行されてもよく、或いは、これらの組み合わせでもよい。以下に説明する実施形態では、本方法はサーバ104によって実行される。図23に示す方法は、本発明を組み込んだ一実施形態の単なる例示であり、請求項記載の本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 23 is a simplified high-level diagram showing how to synthesize one or more ranges based on their size and proximity to adjacent ranges according to one embodiment of the invention. It is a flowchart 2300. The process shown in FIG. 23 is executed after the process according to the flowchart 2200 shown in FIG. 22 in step 2106 shown in FIG. The method shown in FIG. 23 may be executed by the server 104, may be executed by the client 102, or may be executed jointly by the server 104 and the client 102. For example, the method may be performed by a software module executing on the server 104 or client 102, may be performed by a hardware module connected to the server 104 or client 102, or a combination thereof But you can. In the embodiment described below, the method is performed by the server 104. The method shown in FIG. 23 is merely illustrative of an embodiment incorporating the present invention and does not limit the scope of the invention as claimed. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図23で実行される処理を説明するために、GUIによって表示されているマルチメディア情報についてN個のレンジ(N≧1)が作成されたものとする。これらレンジは、例えば、図22のフローチャート2200に示された処理に従って作成される。「N」個のレンジにおける各レンジR(1≦i≦N)は、それに関連付けられた開始時刻R及び終了時刻Rを有する。レンジRについて、そのレンジの隣接レンジをレンジR(i−1)及びレンジR(i+1)とする。レンジR(i−1)のRはレンジRのRより前に発生し、レンジRのRはレンジR(i+1)のRより前に発生する。レンジR(i−1)をレンジR前に発生するレンジと呼ぶ。レンジR(i+1)をレンジR後に発生するレンジと呼ぶ。 In order to explain the processing executed in FIG. 23, it is assumed that N ranges (N ≧ 1) have been created for the multimedia information displayed by the GUI. These ranges are created according to the processing shown in the flowchart 2200 of FIG. 22, for example. Each range R i (1 ≦ i ≦ N) in the “N” ranges has a start time R S and an end time R E associated with it. Regarding the range R i , the adjacent ranges of the range are defined as a range R (i−1) and a range R (i + 1) . Range R E of R (i-1) is generated before the R S of range R i, R E of the range R i is generated before the R S of range R (i + 1). The range R (i-1) is referred to as a range that occurs before the range R i . The range R (i + 1) is referred to as a range generated after the range R i .

図23に示すように、本方法は、変数「i」を1に初期化することによって開始される(ステップ2303)。次いで、レンジRが選択される(ステップ2304)。最初にフローチャート2300を通るとき、「N」個のレンジの中の最初のレンジが選択される。後続の処理では、後続のレンジが選択される。 As shown in FIG. 23, the method begins by initializing variable “i” to 1 (step 2303). Next, the range R i is selected (step 2304). When first going through the flowchart 2300, the first of the “N” ranges is selected. In subsequent processing, the subsequent range is selected.

次いで、サーバ104は、ステップ2304で選択されたレンジRが小さいレンジとしてふさわしいか否かを判断する。本発明の一実施形態によれば、閾値「SmallRangeSize」が定義され、レンジのタイム・スパンが閾値SmallRangeSize以下の場合に、そのレンジは小さいレンジと考えられる。したがって、レンジRが小さいレンジとしてふさわしいか否かを判断するために、ステップ2304で選択されたレンジRのタイム・スパンが時間閾値「SmallRangeSize」と比較される(ステップ2306)。SmallRangeSizeの値は、ユーザが設定可能とすることができる。本発明の一実施形態によれば、SmallRangeSizeは8秒にセットされる。 Next, the server 104 determines whether or not the range R i selected in step 2304 is appropriate as a small range. According to one embodiment of the present invention, if a threshold “SmallRangeSize” is defined and the time span of the range is less than or equal to the threshold SmallRangeSize, the range is considered a small range. Accordingly, to determine whether the range R i is suitable as a small range, the time span of the range R i selected in step 2304 is compared with the time threshold “SmallRangeSize” (step 2306). The value of SmallRangeSize can be set by the user. According to one embodiment of the present invention, SmallRangeSize is set to 8 seconds.

ステップ2304において、ステップ2304で選択されたレンジRが小さいレンジにふさわしくない(すなわち、レンジRのタイム・スパン(R−R)が閾値SmallRangeSizeより大きい)と判断された場合、そのレンジは、別のレンジと合成されるレンジの候補とはならない。次いで、変数「i」の値が1つインクリメントされ、「N」個のレンジの中から次のレンジを選択するのに容易にする。したがって、図23に示す本発明の教えるところによれば、小さいレンジにふさわしいレンジのみが他の隣接するレンジとの合成される資格を持つ。 If it is determined in step 2304 that the range R i selected in step 2304 is not suitable for a small range (ie, the time span (R E −R S ) of the range R i is greater than the threshold SmallRangeSize), Is not a candidate for a range to be combined with another range. The value of variable “i” is then incremented by 1 to facilitate the selection of the next range among the “N” ranges. Therefore, according to the teachings of the present invention shown in FIG. 23, only a range suitable for a small range is eligible to be combined with other adjacent ranges.

ステップ2308の後、サーバ104は、「N」個のレンジのすべてが処理されたか否かを判断する。これは、「i」の値が「N」の値より大きいか否かを判断することによって行われる(ステップ2310)。「i」の値が「N」より大きい場合、それは、そのマルチメディア情報についてのすべてのレンジが処理され、フローチャート2300の処理が終了することを示している。ステップ2310において「i」が「N」以下と判断された場合、それは、「N」個のレンジの中にフローチャート2300に従って処理されていないレンジが少なくとも1つ存在することを示している。その場合、処理はステップ2304へ進み、次のレンジRが選択される。 After step 2308, server 104 determines whether all “N” ranges have been processed. This is done by determining whether the value of “i” is greater than the value of “N” (step 2310). If the value of “i” is greater than “N”, it indicates that all ranges for that multimedia information have been processed and the process of flowchart 2300 is complete. If it is determined in step 2310 that “i” is equal to or less than “N”, it indicates that there are at least one range that has not been processed according to the flowchart 2300 among the “N” ranges. In that case, the process proceeds to step 2304 and the next range R i is selected.

ステップ2306において、ステップ2304で選択されたレンジRが小さいレンジにふさわしい(すなわち、レンジRのタイム・スパン(R−R)が閾値SmallRangeSizeより以下である)と判断された場合、本発明は、レンジRを合成することが可能なレンジRに隣接するレンジ(すなわち、ステップ2304で選択されたレンジRの直前又は直後に発生するレンジ)を識別する処理を実行する。このようなレンジを識別するために、サーバ104は変数を初期化し、ステップ2304で選択されたレンジRに隣接するレンジの選択を容易にする(ステップ2312)。変数「j」は値(i+1)にセットされ、変数「k」は値(i−1)にセットされる。変数「j」は、レンジRに隣接し、レンジRの後に発生するレンジを指すのに用いられ、変数「k」は、レンジRに隣接し、レンジRの前に発生するレンジを指すのに用いられる。図24は、レンジR、R、及びRの間の関係を示す簡略図を示す。図24に示すように、レンジRは、レンジRの後に発生し(すなわち、RのRはRのRより前に発生し)、レンジRの前に発生する(すなわち、RのRはRのRの前に発生する)。 In step 2306, appropriate for the selected range R i is smaller ranges at step 2304 (i.e., the time span of the range R i (R E -R S) is less than the threshold SmallRangeSize) If it is determined that the present invention range R i may be the synthesizing of range range adjacent to R i (i.e., the range that occurs immediately before or after the selected range R i in step 2304) to perform a process of identifying. To identify such range, the server 104 initializes the variables, to facilitate selection of the range adjacent to the range R i selected in step 2304 (step 2312). The variable “j” is set to the value (i + 1), and the variable “k” is set to the value (i−1). Range variable "j" is adjacent to the range R i, used to refer to a range that occurs after the range R i, the variable "k", which is adjacent to the range R i, occurs before the range R i Used to refer to FIG. 24 shows a simplified diagram illustrating the relationship between the ranges R i , R j , and R k . As shown in FIG. 24, range R i occurs after range R k (ie, R S of R i occurs before R E of R k ) and occurs before range R j (ie, , R E of R i occurs before structured R S of R j).

次いで、サーバ104は、そのマルチメディア情報について作成された「N」個のレンジにステップ2304で選択されたレンジRの隣接レンジであってレンジRより前に発生するレンジ及びレンジRの隣接レンジであってレンジRより後に発生するレンジを含まれるか否かについて判断する。これは、変数「j」及び「k」の値を判断することによって行われる。「j」の値が「N」より大きい場合、それは、ステップ2304で選択されたレンジRがそのマルチメディア情報について作成された「N」個のレンジの中で最後のレンジであり、レンジRの後に発生するレンジは存在しない、ことを示している。「k」の値が0の場合、それは、ステップ2304で選択されたレンジRがそのマルチメディア情報について作成された「N」個のレンジの中の最初のレンジであり、レンジRの前に発生したレンジは存在しない、ことを示している。 Then, the server 104, the range and range R i which occurs before the range R i a neighboring range of the range R i chosen created "N" range in step 2304 for the multimedia information judges whether included a range occurring after range R i a neighbor range. This is done by determining the values of the variables “j” and “k”. If the value of “j” is greater than “N”, it is the range R i selected in step 2304 is the last of the “N” ranges created for that multimedia information, and the range R This indicates that there is no range that occurs after i . If the value of “k” is 0, it means that the range R i selected in step 2304 is the first of the “N” ranges created for that multimedia information, and before the range R i Indicates that there is no range generated.

したがって、サーバ104は、レンジRがRの前に発生した隣接レンジ及びRの後に発生した隣接レンジを有するか否かを判断する。これは、「j」の値が「N」未満で且つ「k」の値が0でないか否かを判断することによって行われる(ステップ2314)。ステップ2314における条件が満たされた場合、それは、「N」個のレンジの中にステップ2304で選択されたレンジRに隣接し、レンジRより前に発生するレンジと、レンジRに隣接し、レンジRより後に発生するレンジとが存在することを示している。この場合、処理はステップ2316へ進む。ステップ2314における条件が満たされない場合、それは、ステップ2304で選択されたレンジRが「N」個のレンジの中の最初のレンジであり、レンジRの前に発生したレンジは存在しないこと、及び/又は、ステップ2304で選択されたレンジRが「N」個のレンジの中で最後のレンジであり、レンジRの後に発生するレンジは存在しないこと、のいずれかを示している。この場合、処理はステップ2330へ進む。 Accordingly, the server 104 determines whether the range R i has an adjacent range that occurred before R i and an adjacent range that occurred after R i . This is done by determining whether the value of “j” is less than “N” and the value of “k” is not 0 (step 2314). If the condition is met in step 2314, it is adjacent to the range R i selected in step 2304 in the "N" range, a range that occurs before the range R i, adjacent to the range R i and shows that the range occurring after range R i are present. In this case, the process proceeds to Step 2316. If the condition in step 2314 is not met, it is that the range R i selected in step 2304 is the first of the “N” ranges, and no range has occurred before the range R i ; And / or indicates that the range R i selected in step 2304 is the last of the “N” ranges, and that no range occurs after the range R i . In this case, the process proceeds to Step 2330.

ステップ2314における条件が真であると判断された場合、サーバ104は、レンジRとRの間及びレンジRとRの間の時間差を決定する(ステップ2316)。
レンジRとRの間の時間差(Gikで示す)は、レンジRのRとRのRの間の時間を決定することによって計算される(図24参照)。すなわち、
ik=(RのR)−(RのR
である。レンジRとRの間の時間差(Gijで示す)は、レンジRのRとRのRの間の時間を決定することによって計算される(図24参照)。すなわち、
ij=(RのR)−(RのR
である。
If it is determined that the condition in step 2314 is true, the server 104 determines the time difference between the ranges R i and R k and between the ranges R i and R j (step 2316).
The time difference between ranges R i and R k (denoted by G ik ) is calculated by determining the time between R S in range R i and R E in R k (see FIG. 24). That is,
G ik = (the R i R S) - (R k of R E)
It is. The time difference between ranges R i and R j (denoted as G ij ) is calculated by determining the time between R E in range R i and R S in R j (see FIG. 24). That is,
G ij = (R S of R j ) − (R E of R i )
It is.

本発明の教えるところによれば、小さいレンジと隣接レンジの間の差が差閾値以下の場合のみ、小さいレンジは隣接レンジと合成される。この差閾値は、ユーザが設定可能である。したがって、サーバ104は、次いで、レンジRをその隣接レンジの一と合成できるか否かを判断するための時間差のサイズを決定する。 The teachings of the present invention teach that the small range is combined with the adjacent range only if the difference between the small range and the adjacent range is less than or equal to the difference threshold. This difference threshold can be set by the user. Thus, the server 104 then determines the size of the time difference for determining whether the range R i can be combined with one of its adjacent ranges.

サーバ104は、次いで、時間差Gikと時間差Gijの値を比較することによって、いずれの時間差がより大きいかを判断する(ステップ2318)。ステップ2318において、GikがGijより大きいと判断された場合、それは、ステップ2304で選択されたレンジRはレンジRへよりもレンジRの方に近いことを示しており、処理はステップ2322へ進む。他方、ステップ2318において、GikがGijより大きくないと判断された場合、それは、ステップ2304で選択されたレンジRとレンジRの間の時間差がレンジRiとレンジRの間の時間差以下であることを示しており、処理はステップ2320へ進む。 Server 104 then determines which time difference is greater by comparing the values of time difference G ik and time difference G ij (step 2318). If it is determined in step 2318 that G ik is greater than G ij , it indicates that the range R i selected in step 2304 is closer to range R j than to range R k , and processing is Proceed to step 2322. On the other hand, if it is determined in step 2318 that G ik is not greater than G ij , it means that the time difference between range R i and range R k selected in step 2304 is the time difference between range Ri and range R j. The following is indicated, and the process proceeds to step 2320.

ステップ2318において、GikがGijより大きくないと判断された場合、サーバ104は、レンジRとレンジRの間の時間差(Gik)が差閾値「GapThreshold」以下であるか否かを判断する(ステップ2320)。GapThresholdの値は、ユーザが設定可能である。本発明の一実施形態によれば、GapThresholdは90秒にセットされる。GapThresholdには様々な他の値も用いることができることは明らかである。 If it is determined in step 2318 that G ik is not larger than G ij , the server 104 determines whether or not the time difference (G ik ) between the range R i and the range R k is equal to or smaller than the difference threshold “GapThreshold”. Judgment is made (step 2320). The value of GapThreshold can be set by the user. According to one embodiment of the present invention, GapThreshold is set to 90 seconds. Obviously, various other values can be used for GapThreshold.

ステップ2320において、レンジRとレンジRの間の時間差(Gik)が差閾値GapThreshold以下である(すなわち、Gik≦GapThreshold)と判断された場合、レンジRとRは合成され、1つのレンジが形成される(ステップ2324)。レンジRとRの合成処理は、レンジRの終了時刻をレンジRの終了時刻に変更し(すなわち、RのRをRのRにセットし)、レンジRを消去することを含む。その後、処理はステップ2308に進み、変数「i」の値が1つインクリメントされる。 If it is determined in step 2320 that the time difference (G ik ) between the range R i and the range R k is less than or equal to the difference threshold GapThreshold (ie, G ik ≦ GapThreshold), the ranges R i and R k are combined, A range is formed (step 2324). Synthesis process range R i and R k changes the end time of the range R k to the end time of the range R i (i.e., sets the R E of R k in R E of R i), the range R i Including erasing. Thereafter, the process proceeds to step 2308, and the value of the variable “i” is incremented by one.

ステップ2320において、時間差GikがGapThresholdより大きい(すなわち、Gik>GapThreshold)と判断された場合、それは、レンジR及びRの双方が差閾値の外にあることを示しており、結果として、レンジRはレンジR及びRのいずれとも合成できない。このシナリオの場合、処理はステップ2308に進み、変数「i」の値が1つインクリメントされる。 If it is determined in step 2320 that the time difference G ik is greater than GapThreshold (ie, G ik > GapThreshold), it indicates that both ranges R j and R k are outside the difference threshold, and as a result , Range R i cannot be combined with either of ranges R j and R k . For this scenario, processing proceeds to step 2308 where the value of variable “i” is incremented by one.

ステップ2318に戻り、GikがGijより大きいと判断された場合、サーバ104は、レンジRとレンジRの間の時間差(Gij)が差閾値「GapThreshold」以下であるか否かを判断する(ステップ2322)。上述のように、GapThresholdの値は、ユーザが設定可能である。本発明の一実施形態によれば、GapThresholdは90秒にセットされる。GapThresholdには様々な他の値も用いることができることは明らかである。 Returning to step 2318, if it is determined that G ik is greater than G ij , the server 104 determines whether or not the time difference (G ij ) between the range R i and the range R j is less than or equal to the difference threshold “GapThreshold”. Judgment is made (step 2322). As described above, the value of GapThreshold can be set by the user. According to one embodiment of the present invention, GapThreshold is set to 90 seconds. Obviously, various other values can be used for GapThreshold.

ステップ2322において、レンジRとRの間の時間差(Gij)が差閾値GapThreshold以下である(すなわち、Gij≦GapThreshold)と判断された場合、レンジRとRは合成され、1つのレンジが形成される(ステップ2326)。レンジRとRの合成処理は、レンジRの開始時刻をレンジRの開始時刻に変更し(すなわち、RのRをRのRにセットし)、レンジRを消去することを含む。その後、処理はステップ2308に進み、変数「i」の値が1つインクリメントされる。 If it is determined in step 2322 that the time difference (G ij ) between the ranges R i and R j is less than or equal to the difference threshold GapThreshold (ie, G ij ≦ GapThreshold), the ranges R i and R j are combined and 1 Two ranges are formed (step 2326). The synthesis process of the ranges R i and R j changes the start time of the range R j to the start time of the range R i (ie, sets R S of R j to R S of R i ), and sets the range R i to Including erasing. Thereafter, the process proceeds to step 2308, and the value of the variable “i” is incremented by one.

ステップ2322において、差GijがGapThresholdより大きい(すなわち、Gij>GapThreshold)と判断された場合、それは、レンジR及びRの双方が差閾値の外にあることを示しており、結果として、レンジRはレンジR及びRのいずれとも合成できない。このシナリオの場合、処理はステップ2308に進み、変数「i」の値が1つインクリメントされる。 If it is determined in step 2322 that the difference G ij is greater than GapThreshold (ie, G ij > GapThreshold), it indicates that both ranges R j and R k are outside the difference threshold, and as a result , Range R i cannot be combined with either range R j or R k . For this scenario, processing proceeds to step 2308 where the value of variable “i” is incremented by one.

サーバ104が、ステップ2314における条件が満たされないと判断した場合、サーバ104は、「k」の値が0であるか否かを判断する(ステップ2330)。「k」の値が0であれば、それは、ステップ2304で選択されたレンジRがそのマルチメディア情報について作成された「N」個のレンジの中の最初のレンジであり、レンジRの前に発生したレンジは存在しない、ことを示している。このシナリオにおいて、サーバ104は、変数「j」の値が「N」より大きいか否かを判断する(ステップ2332)。「j」の値も「N」より大きい場合、それは、ステップ2304で選択されたレンジRがそのマルチメディア情報について作成された「N」個のレンジの中の最初のレンジであるだけでなく最後のレンジでもあり、レンジRの後に発生するレンジは存在しない、ことを示している。ステップ2330において「k」が0であると判断され、ステップ2332において「j」>Nと判断された場合、それは、そのマルチメディア情報についてのレンジ群は1つのレンジしか含まない(すなわち、N=1)、ことを示している。次いで、フローチャート2300に示した処理は、合成できるレンジがないため、終了する。 If the server 104 determines that the condition in step 2314 is not satisfied, the server 104 determines whether or not the value of “k” is 0 (step 2330). If the value of “k” is 0, it means that the range R i selected in step 2304 is the first of the “N” ranges created for that multimedia information, and the range R i of This indicates that no previously generated range exists. In this scenario, the server 104 determines whether or not the value of the variable “j” is greater than “N” (step 2332). If the value of “j” is also greater than “N”, it is not only that the range R i selected in step 2304 is the first of the “N” ranges created for that multimedia information. It is also the last range, indicating that there is no range that occurs after range R i . If “k” is determined to be 0 in step 2330 and “j”> N in step 2332, it means that the range group for that multimedia information includes only one range (ie, N = 1). Next, the process shown in the flowchart 2300 ends because there is no range that can be combined.

ステップ2330において「k」は0に等しいと判断され、ステップ2332において「j」は「N」より大きくないと判断された場合、それは、ステップ2304で選択されたレンジRがそのマルチメディア情報について作成された「N」個のレンジにおける最初のレンジを表し、それらレンジ群はレンジRに隣接し、レンジRより後に発生するレンジRを少なくとも1つ含む、ことを示している。この場合、レンジRとレンジRの間の時間差Gijが決定される(ステップ2334)。上述のように、Gijは、レンジRのRとRのRの間の時間を決定することによって計算される。すなわち、
ij=(RのR)−(RのR
である。次いで、処理は上述のステップ2322へ進む。
If “k” is determined to be equal to 0 in step 2330 and “j” is determined not to be greater than “N” in step 2332, then it is determined that the range R i selected in step 2304 is for that multimedia information. It represents the first range in the created "N" range, which range group is adjacent to the range R i, including at least one range R j occurring after the range R i, indicating that. In this case, a time difference G ij between the range R i and the range R j is determined (step 2334). As described above, G ij is calculated by determining the time between R E in range R i and R S in R j . That is,
G ij = (R S of R j ) − (R E of R i )
It is. The process then proceeds to step 2322 described above.

ステップ2330において「k」は0に等しくないと判断された場合、それは、ステップ2304で選択されたレンジRがそのマルチメディア情報について作成された「N」個のレンジにおける最後のレンジを表し、それらレンジ群はレンジRに隣接し、レンジRより前に発生するレンジRを少なくとも1つ含む、ことを示している。この場合、レンジRとレンジRの間の時間差Gikが決定される(ステップ2336)。上述のように、Gikは、レンジRのRとRのRの間の時間を決定することによって計算される。すなわち、
ik=(RのR)−(RのR
である。次いで、処理は上述のステップ2320へ進む。
If it is determined in step 2330 that “k” is not equal to 0, it represents the last range in the “N” ranges for which the range R i selected in step 2304 was created for that multimedia information; they range group is adjacent to the range R i, including at least one range R k that occurs before the range R i, which information indicates that. In this case, a time difference G ik between the range R i and the range R k is determined (step 2336). As described above, G ik is calculated by determining the time between R S in range R i and R E in R k . That is,
G ik = (the R i R S) - (R k of R E)
It is. The process then proceeds to step 2320 described above.

図25Aは、本発明の一実施形態に従って、図24に示したレンジR及びRを合成することによって作成された一レンジを示す簡略図を示す。図25Bは、本発明の一実施形態に従って、図24に示したレンジR及びRを合成することによって作成された一レンジを示す簡略図を示す。 FIG. 25A shows a simplified diagram illustrating one range created by combining ranges R i and R k shown in FIG. 24, according to one embodiment of the present invention. FIG. 25B shows a simplified diagram illustrating one range created by combining the ranges R i and R j shown in FIG. 24, according to one embodiment of the present invention.

上述のように、図23に示す処理は、図22に示すフローチャート2200に従って、ヒットに関連付けられた時刻に基づいて1以上のレンジが作成された後に実行することができる。本発明の一実施形態によれば、図23に示すフローチャート2300に従ってレンジが合成された後、それらレンジは、図21のステップ2108に従ってGUI2000においてユーザに対して表示される。   As described above, the process shown in FIG. 23 can be executed after one or more ranges are created based on the time associated with the hit, according to the flowchart 2200 shown in FIG. According to one embodiment of the present invention, after the ranges are synthesized according to the flowchart 2300 shown in FIG. 23, the ranges are displayed to the user in the GUI 2000 according to step 2108 of FIG.

本発明の代替的実施形態によれば、図23に示すフローチャートに従ってレンジを合成した後、各レンジの開始時刻及び終了時刻にバッファ時間が加えられる。ユーザは、各レンジの開始時刻に加えられる時間量(BufferStart)及び各レンジの終了時刻に加えられる時間量(BufferEnd)を設定することができる。バッファ時間は、レンジがそのレンジの最初のヒットからすぐに始まらないように、及び、そのレンジの最後のヒットですぐに終わらないように、レンジに対して加えられる。バッファ時間は、レンジに含まれている情報に対してリードイン(lead−in)及びトレーリングオフ(trailing−off)を提供するため、そのレンジに対してより良いコンテキストを提供する。   According to an alternative embodiment of the present invention, after combining ranges according to the flowchart shown in FIG. 23, buffer time is added to the start time and end time of each range. The user can set the amount of time added to the start time of each range (BufferStart) and the amount of time added to the end time of each range (BufferEnd). The buffer time is added to the range so that the range does not start immediately from the first hit of the range and does not end immediately at the last hit of the range. Buffer time provides a better context for the range because it provides lead-in and trailing-off for information contained in the range.

バッファは、レンジのR時刻を以下のように変えることによって、レンジの開始時に提供される。
レンジのR=(バッファを加える前のレンジのR)―BufferStart
バッファは、レンジのR時刻を以下のように変えることによって、レンジの終了時に提供される。
レンジのR=(バッファを加える前のレンジのR)―BufferEnd
図26は、本発明の一実施形態に従って自動的に作成されたレンジを示すGUI2000の拡大版を示す。ユーザによって提供された基準を満たす複数のヒット2602がテキスト情報を表示するサムネール2008−1においてマーキングされている。本発明の一実施形態によれば、これらヒットは、ユーザが指定した関心ある話題に関連する単語及び/又はフレーズを表す。図26に示すように、これらヒットの位置に基づいて、2つのレンジ2006−2及び2006−3が自動的に作成されている。レンジ2006−2は、本発明の教えるところ(例えば、図23に示したフローチャート2300)に従って、複数の小さいレンジを合併させることによって作成されている。
Buffer, by varying the R S time range as follows, are provided at the start of the range.
Range of R S = (R S of the previous range adding the buffer) -BufferStart
A buffer is provided at the end of the range by changing the range's RE time as follows.
Range of R E = (R E of the previous range adding the buffer) -BufferEnd
FIG. 26 shows an expanded version of GUI 2000 showing a range automatically created according to one embodiment of the present invention. A plurality of hits 2602 that meet the criteria provided by the user are marked in the thumbnail 2008-1 displaying text information. According to one embodiment of the invention, these hits represent words and / or phrases associated with the topic of interest specified by the user. As shown in FIG. 26, two ranges 2006-2 and 2006-3 are automatically created based on the positions of these hits. The range 2006-2 is created by merging a plurality of small ranges in accordance with the teaching of the present invention (for example, the flowchart 2300 shown in FIG. 23).

(複数のマルチメディア文書からのマルチメディア情報の表示)
本発明の上記実施形態は、記録された(又は取り込まれた)情報の表現を共通のタイムラインに沿って表示する。これら記録された情報には、オーディオ情報、ビデオ情報、クローズド・キャプション(CC)テキスト情報、スライド情報、ホワイトボード情報、などの様々な種類の情報が含まれ得る。これら様々な種類の情報は、1以上の取込装置によって取り込まれたものであってもよい。
(Display multimedia information from multiple multimedia documents)
The above embodiments of the present invention display a representation of recorded (or captured) information along a common timeline. These recorded information may include various types of information such as audio information, video information, closed caption (CC) text information, slide information, whiteboard information, and the like. These various types of information may be captured by one or more capture devices.

上述のように、マルチメディア文書は、記録された又は取り込まれた情報を格納する所蔵所を備えることができる。マルチメディア文書は、複数の種類の情報を含む記録された情報を格納したファイルであってもよい。マルチメディア文書は、記録された情報を格納した1以上の他のファイルへの参照を含んだファイルであってもよい。これら参照されたファイルは、1以上の種類の情報を格納していてもよい。また、マルチメディア文書は、1種類以上の記録された情報が格納されたロケーションであってもよい。例えば、マルチメディア文書は、共通のタイムライン中に取り込まれた又は記録された情報を含むファイルを格納したディレクトリであってもよい。本発明の一実施形態によれば、ディレクトリの各ファイルは、特定の種類の情報を格納する。すなわち、各ファイルは、特定の情報ストリームを格納する。したがって、複数種類(例えば、第一の種類、第二の種類、など)の情報を含む記録された情報について、様々な種類の情報が1つのファイルに格納されてもよく、各種類の情報が別々のファイルに格納されてもよい。   As described above, a multimedia document can comprise a holding for storing recorded or captured information. The multimedia document may be a file that stores recorded information including a plurality of types of information. A multimedia document may be a file that includes references to one or more other files that store recorded information. These referenced files may store one or more types of information. The multimedia document may be a location where one or more types of recorded information is stored. For example, the multimedia document may be a directory that stores files containing information captured or recorded in a common timeline. According to one embodiment of the invention, each file in the directory stores a particular type of information. That is, each file stores a specific information stream. Therefore, various types of information may be stored in one file for recorded information including multiple types of information (for example, first type, second type, etc.). It may be stored in separate files.

様々な種類の情報が共通のタイムラインに沿って取り込まれているため、情報の表現はGUIによって表示された時にその表示が互いに時間的に揃っているように表示することができる。例えば、図3に示したインターフェース300は、テレビ放送記録マルチメディア文書によって格納されたマルチメディア情報を表示する。放送記録に格納された様々な種類の情報は、例えば、ビデオ情報、オーディオ情報、及び、場合によってはクローズド・キャプション(CC)テキスト情報などである。ビデオ情報、オーディオ情報、及び、CCテキスト情報は、すべて、おそらく異なる取込装置によって、同じ(又は、共通の)タイムラインに沿って、取り込まれる。例えば、オーディオ情報は、オーディオ情報取込装置(例えば、マイク)を用いて取り込まれ、ビデオ情報は、ビデオ情報取込装置(例えば、ビデオカメラ)を用いて取り込まれる。また、オーディオ情報及びビデオ情報は、1つの情報取込装置によって取り込まれてもよい。   Since various types of information are captured along a common timeline, the representation of the information can be displayed so that the display is temporally aligned with each other when displayed by the GUI. For example, the interface 300 shown in FIG. 3 displays multimedia information stored by a television broadcast recording multimedia document. Various types of information stored in a broadcast record are, for example, video information, audio information, and possibly closed caption (CC) text information. Video information, audio information, and CC text information are all captured along the same (or common) timeline, possibly by different capture devices. For example, audio information is captured using an audio information capturing device (for example, a microphone), and video information is captured using a video information capturing device (for example, a video camera). Audio information and video information may be captured by a single information capturing device.

上述のように、インターフェース300は、放送記録に含まれるオーディオ情報又はCCテキスト情報の表現(又は、マルチメディア情報に含まれた他の種類の情報のテキスト表現)であるテキスト情報を表示する。また、インターフェース200は、放送記録に含まれるビデオ情報から抽出されたビデオ・キーフレームを表示する。表示されたビデオ・キーフレームは、マルチメディア文書に格納されたビデオ情報の表現である。オーディオ情報及びビデオ情報は同じタイムラインに沿って取り込まれるため、それら情報の表現をそれらが時間的に揃えられるように又は互いに同期するように表示することができる。例えば、上述のように、サムネール画像312−1及び312−2は、サムネール画像312−1におけるテキスト情報(例えば、オーディオ情報又はCCテキスト情報の録音、又は、マルチメディア情報に含まれる他の種類の情報のテキスト表現を表す)と、サムネール31202に表示された特定の時点で発生したビデオ・キーフレームとは、同じ水平軸に沿って互いに略近接して表示される。これにより、ユーザは、単にサムネール画像を水平軸に走査することによって略同時に発生したテレビ放送記録における様々な種類の情報を判断することができる。同様に、パネル324−1及び324−2は、テレビ放送記録において略同時に発生した様々な種類の情報の表現が互いに略近接して表示されるように、時間的に揃えられる又は互いに同期される。   As described above, the interface 300 displays text information that is a representation of audio information or CC text information included in a broadcast record (or a text representation of other types of information included in multimedia information). The interface 200 displays video key frames extracted from video information included in the broadcast record. The displayed video keyframe is a representation of the video information stored in the multimedia document. Since audio information and video information are captured along the same timeline, a representation of the information can be displayed so that they are time aligned or synchronized with each other. For example, as described above, the thumbnail images 312-1 and 312-2 may include text information (eg, audio information or CC text information recording in the thumbnail image 312-1 or other types of information included in the multimedia information). And a video key frame generated at a particular point in time displayed on thumbnail 31202 are displayed in close proximity to each other along the same horizontal axis. As a result, the user can determine various types of information in the television broadcast recording generated substantially simultaneously by simply scanning the thumbnail image on the horizontal axis. Similarly, panels 324-1 and 324-2 are time aligned or synchronized with each other so that representations of various types of information that occur substantially simultaneously in television broadcast recording are displayed in close proximity to each other. .

また、本発明の実施形態は、複数のマルチメディア文書に格納された記録済マルチメディア情報を表示することもできる。複数のマルチメディア文書にあるマルチメディア情報は、異なるタイムラインに沿って取り込まれたものであってもよい。例えば、本発明の実施形態は、第一のタイムライン中に取り込まれた又は記録されたテレビ・ニュース放送(例えば、朝のニュース放送)からのマルチメディア情報の表現と、第一のタイムラインとは異なる第二のタイムライン中に取り込まれた別のテレビ・ニュース放送(例えば、夕方のニュース放送)からのマルチメディア情報の表現とを表示することができる。したがって、本発明の実施形態は、異なるタイムラインに沿って取り込まれたマルチメディア情報を格納し得る1以上のマルチメディア文書に格納されたマルチメディア情報を表示することができる。各マルチメディア文書は、オーディオ情報、ビデオ情報、CCテキスト情報、ホワイトボード情報、スライド情報、などの様々な種類の情報を含み得る。   Embodiments of the present invention can also display recorded multimedia information stored in multiple multimedia documents. Multimedia information in a plurality of multimedia documents may be captured along different timelines. For example, embodiments of the present invention provide a representation of multimedia information from a television news broadcast (eg, a morning news broadcast) captured or recorded during a first timeline, and a first timeline. Can display a multimedia information representation from another television news broadcast (eg, evening news broadcast) captured during a different second timeline. Accordingly, embodiments of the present invention can display multimedia information stored in one or more multimedia documents that can store multimedia information captured along different timelines. Each multimedia document may include various types of information such as audio information, video information, CC text information, whiteboard information, slide information, and so on.

また、表示されている情報を持つ複数のマルチメディア文書は、同じタイムラインに沿って取り込まれた情報を格納した文書を含み得る。例えば、複数のマルチメディア文書は、第一のタイムライン中に取り込まれた第一のチャンネルからの第一のテレビ番組録画と、第一のテレビ番組録画と同じタイムライン(すなわち、第一のタイムライン)中に取り込まれた第二のチャンネルからの第二のテレビ番組記録とを含むことができる。したがって、本発明の実施形態は、同じ又は異なるタイムラインに沿って取り込まれた情報を格納する複数のマルチメディア文書からの情報の表現を表示することができる。   Also, a plurality of multimedia documents having displayed information may include documents that store information captured along the same timeline. For example, the plurality of multimedia documents may include a first television program recording from a first channel captured during the first timeline and the same timeline as the first television program recording (ie, the first timeline). A second television program record from a second channel captured in the line). Accordingly, embodiments of the present invention can display representations of information from multiple multimedia documents that store information captured along the same or different timelines.

図27は、本発明の一実施形態に従って1以上のマルチメディア文書に格納され得る情報を表示することができる簡略化されたスタートアップ・ユーザ・インターフェース2700を示す。インターフェース2700は、本発明の実施形態の単なる例示であり、本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 27 illustrates a simplified startup user interface 2700 that can display information that can be stored in one or more multimedia documents in accordance with one embodiment of the present invention. Interface 2700 is merely illustrative of an embodiment of the invention and does not limit the scope of the invention. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図27に示すように、インターフェース2700は、ユーザが選択可能な複数のボタンを含むツールバー2702を有する。これらボタンは、例えば、マルチメディア文書を表示するためにロードするためのボタン2704、前にロードされた1以上のマルチメディア文書を削除するためのボタン2706、ロードされた1以上のマルチメディア文書からのマルチメディア情報を紙媒体上に印刷するためのボタン2708、ユーザ・プリファレンスを設定するためのボタン2710、ユーザがアクションを実行したり、1以上のマルチメディア文書からの情報の表示方法を設定、カスタマイズ、又は、制御したりすることを可能にする他のボタン、などを含む。インターフェース2700の追加的機能は、以下により詳細に説明する。   As shown in FIG. 27, the interface 2700 has a toolbar 2702 that includes a plurality of buttons that can be selected by the user. These buttons include, for example, a button 2704 for loading to display a multimedia document, a button 2706 for deleting one or more previously loaded multimedia documents, and from one or more loaded multimedia documents. A button 2708 for printing multimedia information on a paper medium, a button 2710 for setting user preferences, a user executing an action, and a method for displaying information from one or more multimedia documents , Other buttons that allow customization or control, etc. Additional features of interface 2700 are described in more detail below.

表示する1以上のマルチメディア文書をロードするために、ユーザはロード・ボタン2704を選択する。図28は、本発明の一実施形態において、ユーザがロード・ボタン2704を選択したときに表示される簡略化されたウィンドウ2800を示す。ウィンドウ2800は、本発明の教えるところに従ってロードされ表示される1以上のマルチメディア文書の選択を容易にする。図28に示すように、ロード可能な1以上のマルチメディア文書を識別する情報がウィンドウ2800のボックス2802に表示される。各マルチメディア文書は、識別子(例えば、ファイル名、ディレクトリ名などのロケーション識別子、など)によって識別することができる。図28に示す実施形態では、各マルチメディア文書は、5桁のコード識別子によって識別される。ユーザは、ボックス2802においてマルチメディア文書に対応する識別子を強調し、それから「Add(追加)」ボタン2804を選択することによって、ロードされる1以上のマルチメディア文書を選択することができる。次いで、そのマルチメディア文書について強調された識別子がボックス2802から移動し、ロードするものとして選択されたマルチメディア文書を表示するボックス2806に表示される。ボックス2806においてマルチメディア文書に対する識別子を強調し、それから「Remove(削除)」ボタン2808を選択することによって、以前に選択されたマルチメディア文書を選択解除することができる。   To load one or more multimedia documents for display, the user selects a load button 2704. FIG. 28 illustrates a simplified window 2800 that is displayed when the user selects the load button 2704 in one embodiment of the invention. Window 2800 facilitates selection of one or more multimedia documents that are loaded and displayed in accordance with the teachings of the present invention. As shown in FIG. 28, information identifying one or more loadable multimedia documents is displayed in box 2802 of window 2800. Each multimedia document can be identified by an identifier (eg, a location identifier such as a file name, directory name, etc.). In the embodiment shown in FIG. 28, each multimedia document is identified by a 5-digit code identifier. The user can select one or more multimedia documents to be loaded by highlighting the identifier corresponding to the multimedia document in box 2802 and then selecting the “Add” button 2804. The highlighted identifier for that multimedia document is then moved from box 2802 and displayed in box 2806, which displays the multimedia document selected for loading. By highlighting the identifier for the multimedia document in box 2806 and then selecting the “Remove” button 2808, the previously selected multimedia document can be deselected.

(ボックス2802又は2806で)強調された識別子に対応するマルチメディア文書に関連する情報は、情報エリア2810に表示される。図28に示す実施形態では、表示される情報には、マルチメディア文書の持続時間を示す情報2812、マルチメディア文書の情報が取り込まれた又は記録された日付を示す情報2814、記録された時刻を示す情報2816、情報が記録されたテレビ・チャンネルを識別する情報2818、及び、記録の種類を示す情報2820、が含まれる。マルチメディア文書について入手可能な他の記述的情報(例えば、テレビ番組名)が説明エリア2821に表示されてもよい。   Information related to the multimedia document corresponding to the highlighted identifier (in box 2802 or 2806) is displayed in information area 2810. In the embodiment shown in FIG. 28, the displayed information includes information 2812 indicating the duration of the multimedia document, information 2814 indicating the date when the information of the multimedia document was captured or recorded, and the recorded time. Information 2816, information 2818 identifying the television channel on which the information is recorded, and information 2820 indicating the type of recording. Other descriptive information available about the multimedia document (eg, television program name) may be displayed in the description area 2821.

ユーザは、「Load(ロード)」ボタン2822を選択して、ボックス2806に表示された識別子によって識別されたマルチメディア文書のコンテンツをロードし、表示させることができる。図28に示すように、3つのマルチメディア文書が選択されており、これら3つのマルチメディア文書は、「Load」ボタン2822が選択されると、ロードされる。これら選択されたマルチメディア文書は、同じタイムラインに沿って取り込まれたマルチメディア情報を格納してもよく、異なるタイムラインに沿って取り込まれたマルチメディア情報を格納してもよい。選択されたマルチメディア文書の各々は、1以上の種類の情報(例えば、オーディオ情報、ビデオ情報、CCテキスト情報、ホワイトボード情報、スライド情報、など)を有し得る。1つのマルチメディア文書によって格納される情報種類は、別の選択されたマルチメディア文書によって格納された情報種類と異なってもよい。ユーザは、「Cancel(キャンセル)」ボタン2824を選択することによって、ロード・オペレーションをキャンセルすることができる。   The user can select the “Load” button 2822 to load and display the content of the multimedia document identified by the identifier displayed in box 2806. As shown in FIG. 28, three multimedia documents have been selected, and these three multimedia documents are loaded when the “Load” button 2822 is selected. These selected multimedia documents may store multimedia information captured along the same timeline or may store multimedia information captured along different timelines. Each selected multimedia document may have one or more types of information (eg, audio information, video information, CC text information, whiteboard information, slide information, etc.). The information type stored by one multimedia document may be different from the information type stored by another selected multimedia document. The user can cancel the load operation by selecting a “Cancel” button 2824.

マルチメディア文書を選択しロードするのには他の手法も用いることができる。例えば、一手法によれば、ユーザは、特定の識別子(例えば、バーコード)を走査することができる。走査されたバーコードに対応するマルチメディア文書(又は、マルチメディア文書によって格納された情報の一部)が、選択され、ロードされる。   Other techniques can be used to select and load multimedia documents. For example, according to one approach, the user can scan a particular identifier (eg, a barcode). A multimedia document (or a portion of the information stored by the multimedia document) corresponding to the scanned barcode is selected and loaded.

図29Aは、本発明の一実施形態において、1以上のマルチメディア文書がロードされ、表示された後のユーザ・インターフェース2900を示す。インターフェース2900は、本発明の実施形態の単なる例示であり、本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   FIG. 29A illustrates the user interface 2900 after one or more multimedia documents have been loaded and displayed in one embodiment of the invention. Interface 2900 is merely illustrative of an embodiment of the present invention and does not limit the scope of the present invention. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図29Aに示すように、3つのマルチメディア文書のコンテンツがロードされ、表示されている。各マルチメディア文書について、そのマルチメディア文書によって格納された様々な種類の情報の表現がそのマルチメディア文書に対応するサムバー(thumbar)に表示される。また、各マルチメディア文書について、ビデオ・ウィンドウも表示される。各マルチメディア文書についてのサムバーは、そのマルチメディア文書に含まれる様々な種類の情報の表現を表示する1以上のサムネール画像を含む。   As shown in FIG. 29A, the contents of three multimedia documents are loaded and displayed. For each multimedia document, a representation of the various types of information stored by that multimedia document is displayed in a thumbbar corresponding to that multimedia document. A video window is also displayed for each multimedia document. The thumb bar for each multimedia document includes one or more thumbnail images that display representations of the various types of information contained in the multimedia document.

例えば、図29Aにおいて、サムバー2902は、第一のマルチメディア文書によって格納された情報の表現を表示し、サムバー2906は、第二のマルチメディア文書によって格納された情報の表現を表示し、サムバー2910は、第三のマルチメディア文書によって格納された情報の表現を表示する。ビデオ・ウィンドウ2904は、第一のマルチメディア文書用に表示され、ビデオ・ウィンドウ2908は、第二のマルチメディア文書用に表示され、ビデオ・ウィンドウ2912は、第三のマルチメディア文書用に表示される。図29Aに示す実施形態において、第一、第二、及び第三のマルチメディア文書は、テレビ番組の録画であり、それぞれがオーディオ情報、ビデオ情報、及び、場合によってはCCテキスト情報を含む。しかし、これは本発明の範囲を制限することを意図するものではない。本発明の教えるところに従って表示されたマルチメディア文書は、様々な種類の情報を含むことができる。   For example, in FIG. 29A, thumb bar 2902 displays a representation of the information stored by the first multimedia document, thumb bar 2906 displays a representation of the information stored by the second multimedia document, and thumb bar 2910 Displays a representation of the information stored by the third multimedia document. Video window 2904 is displayed for the first multimedia document, video window 2908 is displayed for the second multimedia document, and video window 2912 is displayed for the third multimedia document. The In the embodiment shown in FIG. 29A, the first, second, and third multimedia documents are television program recordings, each including audio information, video information, and possibly CC text information. However, this is not intended to limit the scope of the invention. A multimedia document displayed in accordance with the teachings of the present invention can include various types of information.

図29Aに表示された各サムバーは、1以上のサムネール画像を含む。各サムネール画像は、そのマルチメディア文書に格納された一情報種類の表現を表示する。インターフェース2900にロードされた3つのマルチメディア文書は、オーディオ情報、ビデオ情報、及び、場合によってはCCテキスト情報を有し、サムバー2902、2906、及び2910は、それぞれ、対応するマルチメディア文書からのオーディオ情報又はCCテキスト情報の表現であるテキスト情報(又は、マルチメディア文書に含まれる他の種類の情報のテキスト表現)を表示するサムネール画像と、対応するマルチメディア文書においてビデオ情報を表すビデオ・キーフレームを表示するサムネール画像とを含む。例えば、サムバー2902は、第一のマルチメディア文書からのオーディオ情報(又は、CCテキスト情報)を表すテキスト情報を表示するサムネール画像2914と、第一のマルチメディア文書のビデオ情報から抽出されたビデオ・キーフレームを表示するサムネール画像2916とを含む。サムバー2906は、第二のマルチメディア文書からのオーディオ情報(又は、CCテキスト情報)を表すテキスト情報(又は、マルチメディア情報に含まれる他の種類の情報のテキスト表現)を表示するサムネール画像2918と、第二のマルチメディア文書のビデオ情報から抽出されたビデオ・キーフレームを表示するサムネール画像2920とを含む。サムバー2910は、第三のマルチメディア文書からのオーディオ情報(又は、CCテキスト情報)を表すテキスト情報(又は、マルチメディア情報に含まれる他の種類の情報のテキスト表現)を表示するサムネール画像2922と、第三のマルチメディア文書のビデオ情報から抽出されたビデオ・キーフレームを表示するサムネール画像2924とを含む。サムネール画像を生成・表示する手法については既に説明した。各サムバーは、図3に示した第二の表示エリアと似ている。   Each thumb bar displayed in FIG. 29A includes one or more thumbnail images. Each thumbnail image displays a representation of one information type stored in the multimedia document. The three multimedia documents loaded into interface 2900 have audio information, video information, and possibly CC text information, and thumbbars 2902, 2906, and 2910, respectively, are audio from the corresponding multimedia document. Thumbnail images that display information or text information that is a representation of CC text information (or a text representation of other types of information contained in a multimedia document), and a video keyframe that represents video information in the corresponding multimedia document Including thumbnail images. For example, the thumbnail 2902 includes a thumbnail image 2914 that displays text information representing audio information (or CC text information) from the first multimedia document, and a video image extracted from the video information of the first multimedia document. And a thumbnail image 2916 for displaying key frames. A thumbnail 2906 is a thumbnail image 2918 that displays text information (or a text representation of other types of information included in the multimedia information) representing audio information (or CC text information) from the second multimedia document. A thumbnail image 2920 displaying video keyframes extracted from the video information of the second multimedia document. A thumb bar 2910 is a thumbnail image 2922 that displays text information (or a text representation of other types of information included in the multimedia information) representing audio information (or CC text information) from the third multimedia document. A thumbnail image 2924 displaying video keyframes extracted from the video information of the third multimedia document. The method for generating and displaying thumbnail images has already been described. Each thumb bar is similar to the second display area shown in FIG.

サムバーにおけるサムネール画像は、マルチメディア文書において時間的に同時に発生した情報の表現が同じ水平軸に沿って互いに略近接して表示されるように、揃えられる。各サムバーは、共通のタイムラインに従って取り込まれた情報を表す。しかし、1つのサムバーに対応するタイムラインは、別のサムバーに対応するタイムラインと異なってもよい。   Thumbnail images in the thumb bar are aligned so that representations of information that occur simultaneously in time in the multimedia document are displayed in close proximity to each other along the same horizontal axis. Each thumb bar represents information captured according to a common timeline. However, the timeline corresponding to one thumbbar may be different from the timeline corresponding to another thumbbar.

各サムバーについて、そのサムバーの一部分を覆う又は強調するレンズ(「サムネール表示エリア・レンズ」)が表示される。図29Aに示すように、サムネール表示エリア・レンズ2926は、サムバー2902の一部エリアを覆い、サムネール表示エリア・レンズ2928は、サムバー2906の一部エリアを覆い、サムネール表示エリア・レンズ2930は、サムバー2910の一部エリアを覆う。サムネール表示エリア・レンズは、当初、図29Aに示すように、サムバーの上端(すなわち、マルチメディア文書の先頭)に位置する。図3に関して既に説明したように、各サムネール表示レンズは、対応するサムバーに沿って動かすことができ、サムバーに表示されたマルチメディア文書のコンテンツをナビゲート及びスクロールするのに用いることができる。サムネール表示エリア・レンズを表示する手法、及び、サムネール表示エリア・レンズを用いて各マルチメディア文書のコンテンツをナビゲート及びスクロールする手法、については既に説明した。各サムネール表示エリア・レンズは、図3に示すサブレンズ316などのサブレンズを有してもよく、有さなくてもよい。   For each thumb bar, a lens (“thumbnail display area lens”) that covers or highlights a portion of that thumb bar is displayed. As shown in FIG. 29A, the thumbnail display area lens 2926 covers a partial area of the thumb bar 2902, the thumbnail display area lens 2928 covers a partial area of the thumb bar 2906, and the thumbnail display area lens 2930 includes a thumbnail bar. Covers a partial area of 2910. The thumbnail display area lens is initially located at the top of the thumb bar (ie, the beginning of the multimedia document), as shown in FIG. 29A. As already described with respect to FIG. 3, each thumbnail display lens can be moved along a corresponding thumb bar and can be used to navigate and scroll through the contents of the multimedia document displayed in the thumb bar. The method for displaying the thumbnail display area / lens and the method for navigating and scrolling the contents of each multimedia document using the thumbnail display area / lens have already been described. Each thumbnail display area / lens may or may not have a sub lens such as the sub lens 316 shown in FIG.

また、各マルチメディア文書に関連する記述的情報も、そのマルチメディア文書に対応するサムバーに表示することができる。この情報は、マルチメディア文書の持続時間を示す情報、マルチメディア文書の情報が取り込まれた又は記録された日付を示す情報、記録された時刻を示す情報、情報が記録されたテレビ・チャンネル又はテレビ番組を識別する情報、記録の種類を示す情報、などの情報が含まれ得る。図29Aに示すように、各マルチメディア文書についての記述的情報2932は、対応するサムバーの一側面に沿って表示される。   Also, descriptive information related to each multimedia document can be displayed on a thumb bar corresponding to the multimedia document. This information includes information indicating the duration of the multimedia document, information indicating the date on which the information of the multimedia document was captured or recorded, information indicating the recording time, the television channel or TV on which the information was recorded Information such as information for identifying a program and information indicating the type of recording may be included. As shown in FIG. 29A, descriptive information 2932 about each multimedia document is displayed along one side of the corresponding thumb bar.

各マルチメディア文書について、そのマルチメディア文書に対応するビデオ・ウィンドウでビデオ情報が再生されてもよい。また、そのビデオ情報を付随するオーディオ情報もオーディオ出力装置を通じて出力されてもよい。例えば、第一のマルチメディア文書からのビデオ情報はビデオ・ウィンドウ2904で再生され、第二のマルチメディア文書からのビデオ情報はビデオ・ウィンドウ2908で再生され、第三のマルチメディア文書からのビデオ情報はビデオ・ウィンドウ2912で再生される。各ビデオ・ウィンドウには、そのビデオ・ウィンドウにおけるビデオ情報の再生を制御するコントロール・バーが設けられる。例えば、ビデオ・ウィンドウ2904におけるビデオ情報の再生は、コントロール・バー2934によって提供される制御によって制御され、ビデオ・ウィンドウ2908におけるビデオ情報の再生は、コントロール・バー2936によって提供される制御によって制御され、ビデオ・ウィンドウ2912におけるビデオ情報の再生は、コントロール・バー2938によって提供される制御によって制御される。   For each multimedia document, video information may be played in a video window corresponding to the multimedia document. Also, audio information accompanying the video information may be output through the audio output device. For example, video information from a first multimedia document is played in video window 2904, video information from a second multimedia document is played in video window 2908, and video information from a third multimedia document. Is played in the video window 2912. Each video window is provided with a control bar that controls the playback of video information in the video window. For example, the playback of video information in video window 2904 is controlled by the control provided by control bar 2934, and the playback of video information in video window 2908 is controlled by the control provided by control bar 2936, Playback of video information in the video window 2912 is controlled by the controls provided by the control bar 2938.

また、あるマルチメディア文書についてビデオ・ウィンドウに表示されるビデオ情報のコンテンツは、そのマルチメディア文書に対応するサムバー上でのサムネール表示エリア・レンズの位置に依存する。例えば、ビデオ・ウィンドウ2904に表示されるビデオ情報のコンテンツは、サムバー2902上でのサムネール表示エリア・レンズの位置に依存する。上述のように、各サムネール表示エリア・レンズは、時刻tに対応する上端と、時刻tに対応する下端とによって特徴付けられる。ビデオ・ウィンドウにおけるビデオ情報の再生は、時刻t又はt或いは時刻tとtの間の任意の時刻、に開始される。サムネール表示エリア・レンズのサムバー上での位置が変更されると、対応するビデオ・ウィンドウにおけるビデオ再生も、サムネール表示エリア・レンズのサムバー上での現在位置に対応した時刻t又はt或いは時刻tとtの間の任意の時刻から再生を開始するように、変更され得る。異なるサムバーの一部分を覆う各サムネール表示エリア・レンズは、互いに独立して、サムバーに沿って再配置できることに注意。 The content of video information displayed in the video window for a multimedia document depends on the position of the thumbnail display area lens on the thumb bar corresponding to the multimedia document. For example, the content of the video information displayed in the video window 2904 depends on the position of the thumbnail display area lens on the thumb bar 2902. As described above, each thumbnail display area lens is characterized by an upper end corresponding to time t 1 and a lower end corresponding to time t 2 . Playback of video information in the video window is started at time t 1 or t 2 or any time between times t 1 and t 2 . When the position of the thumbnail display area lens on the thumb bar is changed, the video playback in the corresponding video window is also performed at the time t 1 or t 2 or the time corresponding to the current position on the thumbnail bar of the thumbnail display area lens. to start playback from any time between t 1 and t 2, it may be changed. Note that each thumbnail display area lens that covers a portion of a different thumb bar can be repositioned along the thumb bar independently of each other.

また、各ビデオ・ウィンドウは、そのビデオ・ウィンドウにビデオ情報コンテンツが表示されているマルチメディア文書に関連する情報も表示できる。この情報は、例えば、その録画についてテレビ番組を識別する情報、現在再生されているコンテンツに対応したマルチメディア文書における時刻を識別する情報、などである。   Each video window can also display information related to the multimedia document for which video information content is displayed in the video window. This information is, for example, information for identifying a television program for the recording, information for identifying a time in a multimedia document corresponding to the currently reproduced content, and the like.

本発明の一実施形態によれば、すべてのロードされたマルチメディア文書で発見される単語(すなわち共通な単語)リスト2940もインターフェース2900の一エリアに表示される。この単語リスト2940は、ロードされたマルチメディア文書によって含まれる1以上の種類の情報において発見される単語を含む。例えば、図29Aに表示された単語リストは、第一のマルチメディア文書、第二のマルチメディア文書、及び、第三のマルチメディア文書において発見された単語を含む。本発明の一実施形態によれば、ロードされたマルチメディア文書によって含まれた情報のテキスト表現は、共通な単語を見つけるために検索される。このテキスト情報は、CCテキスト情報、オーディオ情報の録音、又は、マルチメディア文書に格納された他の種類の情報のテキスト表現、を表すことができる。本発明の別の実施形態によれば、単語リストは、マルチメディア文書によって含まれたビデオ情報から判断された単語を含む。例えば、ビデオ情報から抽出されたビデオ・キーフレームが共通な単語を見つけるために検索される。キーフレームは、それら単語について検索される。また、マルチメディア文書において単語が登場した回数が示される。   According to one embodiment of the present invention, a list of words (ie, common words) 2940 found in all loaded multimedia documents is also displayed in an area of the interface 2900. This word list 2940 includes words found in one or more types of information included by the loaded multimedia document. For example, the word list displayed in FIG. 29A includes words found in the first multimedia document, the second multimedia document, and the third multimedia document. According to one embodiment of the invention, the textual representation of the information contained by the loaded multimedia document is searched to find common words. This text information can represent CC text information, a recording of audio information, or a text representation of other types of information stored in a multimedia document. According to another embodiment of the invention, the word list includes words determined from the video information included by the multimedia document. For example, video keyframes extracted from video information are searched to find common words. Keyframes are searched for those words. In addition, the number of times the word appears in the multimedia document is indicated.

図29Bは、サムネール表示エリア・レンズの位置が本発明の一実施形態に従ってそれらの初期位置から変更されたときのインターフェース2900を示す。図示するように、サムネール表示エリア・レンズ2926、2928、及び2930は、図29Aに示したそれらの位置から変更されている。サムネール表示エリア・レンズの位置は対応するビデオ・ウィンドウで再生されるビデオ情報に影響を与えるため、ビデオ・ウィンドウ2904、2908、及び2912におけるコンテンツも変化している。ユーザがサムバー上でサムネール表示エリア・レンズを動かすと、ウィンドウ2942などのウィンドウがレンズ上に表示される。サムネール表示エリア・レンズの時刻tとtの間のマルチメディア文書のビデオ情報から抽出された複数のビデオ・キーフレームから選択された一ビデオ・キーフレームが、図29Bに示すように、ウィンドウ2942に表示される。ウィンドウ2942は、ユーザがサムネール表示エリア・レンズをリリースすると、消える。 FIG. 29B shows the interface 2900 when the position of the thumbnail display area lens is changed from their initial position according to one embodiment of the present invention. As shown, thumbnail display area lenses 2926, 2928, and 2930 have been changed from their positions shown in FIG. 29A. Since the position of the thumbnail display area lens affects the video information played in the corresponding video window, the content in the video windows 2904, 2908, and 2912 has also changed. When the user moves the thumbnail display area lens on the thumb bar, a window such as window 2942 is displayed on the lens. One video key frames selected from a plurality of video key frames extracted from the video information of the multimedia document between times t 1 and t 2 of the thumbnail display area lens, as shown in FIG. 29B, the window 2942. Window 2942 disappears when the user releases the thumbnail display area lens.

本発明の一実施形態によれば、ユーザは、基準を指定することができ、ユーザ・インターフェースにロード・表示されたマルチメディア文書のコンテンツは、ユーザが指定した基準を満たすロケーションをマルチメディア文書内で見つけるために検索される。ユーザ指定基準を満たすマルチメディア文書内のセクション又はロケーションは強調されてインターフェース2900に表示される。本発明の一実施形態によれば、ユーザ指定基準とは、例えば、ユーザが指定した単語又はフレーズ、1以上の単語を含む検索クエリー(search query)、関心ある話題、などである。   In accordance with one embodiment of the present invention, a user can specify criteria, and the content of the multimedia document loaded and displayed on the user interface identifies locations within the multimedia document that meet the criteria specified by the user. Searched to find in. Sections or locations within the multimedia document that meet the user-specified criteria are highlighted and displayed on the interface 2900. According to an embodiment of the present invention, the user-specified criteria is, for example, a user-specified word or phrase, a search query including one or more words, a topic of interest, and the like.

図29Cに示したインターフェース2900において、ユーザは、入力エリア2944に単語又はフレーズを入力し、「Find(検索)」ボタン2946を選択することによって、ユーザが指定した単語又はフレーズについてマルチメディア文書のコンテンツを検索することをリクエストすることができる。また、検索される単語又はフレーズは、共通単語リスト2940から選択されてもよい。図29Cにおいて、ユーザは、「Stewart」という単語を指定している。   In the interface 2900 shown in FIG. 29C, the user enters a word or phrase into the input area 2944 and selects a “Find” button 2946 to enter the content of the multimedia document for the word or phrase specified by the user. You can request to search for. Also, the word or phrase to be searched may be selected from the common word list 2940. In FIG. 29C, the user has specified the word “Stewart”.

次いで、マルチメディア文書のコンテンツが検索され、ユーザが指定した単語又はフレーズのロケーション及び存在を特定する。本発明の一実施形態によれば、マルチメディア文書によって格納された情報のテキスト表現は、ユーザが指定した単語又はフレーズのロケーションを見つけるために、検索される。また、ビデオ・キーフレームもその単語又はフレーズについて検索されてもよい。様々なサムバー(すなわち、サムバーにおけるサムネール画像)におけるユーザが指定した単語又はフレーズのすべての存在(「ヒット」)2950が、図29Cに示すように、強調される。マルチメディア文書においてヒットを強調するのには様々な異なる手法を用いることができる。例えば、個々のヒットが強調されてもよい。また、(上述の)ヒットに基づいてレンジを決定し、このレンジが強調されてもよい。また、ヒットのおよその位置をマーキングするのにマーク(下記図29D参照)などの他の手法を用いることもできる。本発明の一実施形態によれば、図29Cに示すように、検索単語又はフレーズを含む行を強調するために、サムネール画像において、その行の周囲に色の付いた長方形が描画される。また、検索単語又はフレーズを含むサムバーに表示されたビデオ・キーフレームも、そのビデオ・キーフレームの周囲に色の付いたボックスを描画することによって強調される。また、様々な他の種類の手法も用いることができる。例えば、マルチメディア文書がスライド情報を含む場合、検索単語又はフレーズを含むサムバーに表示されたスライドが強調される。また、様々なマルチメディア文書における単語又はフレーズの存在総数2952も表示される。例えば、図29Cにおいて、「Stewart」という単語は、3つのマルチメディア文書において、31回登場する。   The content of the multimedia document is then searched to identify the location and presence of the user specified word or phrase. According to one embodiment of the present invention, a textual representation of the information stored by the multimedia document is searched to find the location of the word or phrase specified by the user. Video key frames may also be searched for that word or phrase. All occurrences (“hits”) 2950 of user specified words or phrases in various thumb bars (ie, thumbnail images in the thumb bar) are highlighted, as shown in FIG. 29C. A variety of different techniques can be used to highlight hits in a multimedia document. For example, individual hits may be highlighted. Also, a range may be determined based on the hit (described above) and this range may be emphasized. In addition, other methods such as a mark (see FIG. 29D below) can be used to mark the approximate position of the hit. According to one embodiment of the present invention, as shown in FIG. 29C, a colored rectangle is drawn around the line in the thumbnail image to highlight the line containing the search word or phrase. Also, the video keyframe displayed on the thumb bar containing the search word or phrase is highlighted by drawing a colored box around the video keyframe. Various other types of techniques can also be used. For example, if the multimedia document includes slide information, the slide displayed on the thumb bar containing the search word or phrase is highlighted. Also displayed is the total number 2952 of words or phrases present in various multimedia documents. For example, in FIG. 29C, the word “Stewart” appears 31 times in three multimedia documents.

また、ユーザは、複数の単語(例えば、複数の単語及び/又はフレーズ)を含む検索クエリーを形成することもできる。図29Dに示すように、検索クエリーに含まれる単語又はフレーズがエリア2954に表示される。ユーザは、入力エリア2944に単語又はフレーズをタイピングし(又は、共通単語リスト2940から単語を選択し)、「Add(追加)」ボタン2956を選択することによって、検索クエリーに単語又はフレーズを加えることができる。すると、その単語又はフレーズが検索クエリーに追加され、エリア2954に表示される。図29Dにおいては、「Stewart」という単語が検索クエリーに追加された。ユーザは、エリア2954において単語又はフレーズを選択し、「Del(消去)」ボタン2960を選択することによって、検索クエリーから単語又はフレーズを消去又は削除することができる。ユーザは、「Reset(リセット)」ボタン2962を用いて、検索クエリーをリセット又はクリアすることができる。   The user can also form a search query that includes multiple words (eg, multiple words and / or phrases). As shown in FIG. 29D, words or phrases included in the search query are displayed in area 2954. The user adds a word or phrase to the search query by typing a word or phrase in the input area 2944 (or selecting a word from the common word list 2940) and selecting the “Add” button 2956 Can do. The word or phrase is then added to the search query and displayed in area 2954. In FIG. 29D, the word “Stewart” has been added to the search query. The user can delete or delete the word or phrase from the search query by selecting the word or phrase in area 2954 and selecting the “Del” button 2960. The user can use the “Reset” button 2962 to reset or clear the search query.

また、ユーザは、検索クエリーにおいて単語と単語を接続するブール(Boolean)・コネクタを指定することもできる。例えば、図29Dに示す実施形態において、検索クエリーの単語又はフレーズは、ラジオ・ボタン2958の選択に基づいて、AND接続されてもよく、OR接続されてもよい。単語がOR接続された場合、検索クエリーの単語又はフレーズの様々なマルチメディア文書におけるすべての位置が検索され、強調される。単語がAND接続された場合、マルチメディア文書のうち、検索クエリーのすべての単語又はフレーズを近接した範囲内に含む部分のみが関連性を有するものとして強調される。この近接度の単位は、ユーザが設定可能とすることができる。本発明の一実施形態によれば、この近接度の単位は、単語数に一致する。例えば、マルチメディア文書における検索クエリー単語又はフレーズの位置は、それらが互いに所定の単語数内で発生した場合に、強調される。また、近接度は、時間に基づくこともできる。この実施形態においては、マルチメディア文書における検索クエリー単語又はフレーズの位置は、それらが所定の時間長内で発生した場合に、強調される。   The user can also specify a Boolean connector that connects the words to each other in the search query. For example, in the embodiment shown in FIG. 29D, search query words or phrases may be ANDed or ORed based on the selection of radio button 2958. If the words are ORed, all positions in the various multimedia documents of the search query word or phrase are searched and highlighted. When words are ANDed, only the portion of the multimedia document that contains all the words or phrases in the search query within close proximity is highlighted as relevant. This proximity unit can be set by the user. According to one embodiment of the present invention, the unit of proximity matches the number of words. For example, the location of search query words or phrases in a multimedia document is highlighted if they occur within a predetermined number of words from each other. Proximity can also be based on time. In this embodiment, the location of search query words or phrases in a multimedia document is highlighted if they occur within a predetermined length of time.

図29Dにおいて、ヒット位置は、サムバーに表示されたマーク2964によって示される。各マーク2964は、検索クエリー単語を含むサムネールに印刷されたテキスト情報において、一行を識別する。   In FIG. 29D, the hit position is indicated by a mark 2964 displayed on the thumb bar. Each mark 2964 identifies a line in the text information printed on the thumbnail containing the search query word.

図29Dに示す実施形態においては、ヒット位置に基づいて、レンジが形成される。ヒット位置に基づいてレンジを形成する手法については既に述べた(図20A、20B、21、22、23、24、25A、25B、及び、26、並びに、関連する記載、参照)。レンジの位置は、色の付いた長方形2966を用いて、表示される。各長方形は、一レンジを識別する。このように、レンジを表す長方形のボックスは、マルチメディア文書のうち、該マルチメディア文書を検索するのに用いられるユーザが指定した基準(例えば、単語、フレーズ、関心ある話題、など)を満たす又は関連する部分を識別する。   In the embodiment shown in FIG. 29D, a range is formed based on the hit position. The method of forming a range based on the hit position has already been described (see FIGS. 20A, 20B, 21, 22, 23, 24, 25A, 25B, and 26, and related descriptions). The position of the range is displayed using a colored rectangle 2966. Each rectangle identifies a range. Thus, a rectangular box representing a range satisfies a user-specified criteria (eg, word, phrase, topic of interest, etc.) used to search the multimedia document among the multimedia documents, or Identify relevant parts.

1つのマルチメディア文書のコンテンツのみが表示される場合(例えば図3)である本発明の実施形態において、レンジは、上述のように、そのレンジの境界を定義する開始時刻(R)及び終了時刻(R)によって識別される。複数のマルチメディア文書からの情報が表示される場合である本発明の実施形態において、レンジは、開始時刻(R)と、終了時刻(R)と、そのレンジが存在するマルチメディア文書を識別する識別子とによって定義される。さらに、上述のように、各レンジを識別するのに識別子(例えば、テキスト・コード、番号、など)を用いることができる。あるレンジについてのレンジ識別子は、そのレンジに対応する長方形ボックスに表示されてもよく、ユーザ・インターフェース上の他の位置に表示されてもよい。 In the embodiment of the present invention where only the content of one multimedia document is displayed (eg, FIG. 3), the range is the start time (R S ) and end that define the boundaries of the range, as described above. It is identified by the time (R E ). In the embodiment of the present invention in which information from a plurality of multimedia documents is displayed, the range includes a start time (R S ), an end time (R E ), and a multimedia document in which the range exists. It is defined by the identifier to identify. Further, as described above, identifiers (eg, text codes, numbers, etc.) can be used to identify each range. The range identifier for a range may be displayed in a rectangular box corresponding to that range, or may be displayed at other locations on the user interface.

また、図29Dにおける各サムバーは、そのサムバーにコンテンツが表示されているマルチメディア文書のユーザが指定した検索基準(例えば、ユーザが指定した単語又はフレーズ、検索クエリー、関心ある話題、など)に対する関連性の度合を示す関連性インジケータ2968も含む。この関連性スコア又は関連性の度合を決定する手法については既に述べた。本発明の一実施形態によれば、あるサムバーについての関連性の度合は、そのサムバーにコンテンツが表示されたマルチメディア文書におけるヒット頻度に基づく。図20Dに示した関連性インジケータにおいて、あるマルチメディア文書のユーザが指定した基準に対する関連性の度合は、関連性インジケータに表示されたバーの数によって示される。したがって、サムバー2902及び2910にコンテンツが表示された第一及び第三のマルチメディア文書(それぞれの関連性インジケータに4つのバーが示されている)は、サムバー2906に表示された第二のマルチメディア文書(関連性インジケータに1つのバーしか示されていない)よりも、ユーザが指定した現在の基準(すなわち、「Stewart」という単語などの検索クエリー)に対してより関連性を有する。また、マルチメディア文書の関連性の度合を示すのには様々な他の手法(例えば、関連性スコア、棒グラフ、異なる色、など)も用いることができる。   Also, each thumb bar in FIG. 29D is related to a search criterion (for example, a word or phrase specified by the user, a search query, a topic of interest, etc.) specified by the user of the multimedia document whose content is displayed on the thumb bar. A relevance indicator 2968 indicating the degree of sex is also included. A method for determining the relevance score or degree of relevance has already been described. According to one embodiment of the present invention, the degree of relevance for a certain thumb bar is based on the hit frequency in the multimedia document whose content is displayed on that thumb bar. In the relevance indicator shown in FIG. 20D, the degree of relevance of a multimedia document to a user-specified criterion is indicated by the number of bars displayed in the relevance indicator. Thus, the first and third multimedia documents whose contents are displayed in the thumb bars 2902 and 2910 (four bars shown in the respective relevance indicators) are the second multimedia documents displayed in the thumb bar 2906. It is more relevant to the current criteria specified by the user (ie, a search query such as the word “Stewart”) than to the document (only one bar is shown in the relevance indicator). Various other techniques (eg, relevance score, bar graph, different colors, etc.) can also be used to indicate the degree of relevance of the multimedia document.

既述のように、レンジについては様々なオペレーションを実行することができる。レンジについて実行されるオペレーションは、例えば、レンジのコンテンツの表現を紙文書上に印刷すること、レンジのコンテンツを保存すること、レンジのコンテンツを伝達すること、などである。また、レンジは、注釈を付けたり、強調したり、レンジ群にグループ分けしたりすることもできる。また、レンジ群内のレンジは、ユーザが設定可能とし得る何らかの基準に従って、ランク付けしたり、並び替えたりすることができる。例えば、レンジは、各レンジのユーザが指定した検索基準に対する関連性に基づいて、ランク付けすることができる。本発明の一実施形態によれば、高いヒット数を持つレンジほど高くランク付けされ、少ないヒット数を持つほど低くランク付けされる。また、レンジをランク付けする及び/又は並び替えるのに他の手法も用いることができる。   As described above, various operations can be performed on the range. The operations performed on the range include, for example, printing a representation of the range content on a paper document, saving the range content, and transmitting the range content. Ranges can also be annotated, emphasized, and grouped into range groups. In addition, the ranges in the range group can be ranked or rearranged according to some standard that can be set by the user. For example, the ranges can be ranked based on their relevance to the search criteria specified by the user of each range. According to one embodiment of the present invention, a range with a higher number of hits is ranked higher, and a range with a lower number of hits is ranked lower. Other techniques can also be used to rank and / or reorder ranges.

また、ユーザは、ユーザ・インターフェースによって表示された1以上のレンジを選択し、その選択されたレンジについてオペレーションを実行することもできる。本発明の一実施形態によれば、ユーザは、マウスなどの入力装置を用いて、レンジを表す長方形をクリックすることによって、レンジを選択することができる。図29Eにおいて、レンジ2970がユーザによって選択されている。レンジ2970を表す長方形は、それが選択されたことを示すために強調される(例えば、他のレンジを表す長方形とは異なる色で)。図29Eに示す実施形態においては、ユーザが選択したレンジについてウェブ・ページ2971が生成され、ユーザ・インターフェース2900のウィンドウ2969に表示される。ウェブ・ページ2971は、選択されたレンジについてのオーディオ情報又はCCテキスト情報(又は、マルチメディア情報に含まれる他の種類の情報のテキスト表現)を表すテキスト情報(すなわち、選択されたレンジの時刻RとRの間で発生したオーディオ情報、CCテキスト情報、又は、他の情報を表すテキスト情報)2972と、選択されたレンジに対応するビデオ情報から抽出された1以上のビデオ・キーフレーム又は画像(すなわち、選択されたレンジの時刻RとRの間で発生したビデオ情報から抽出されたビデオ・キーフレーム)2973とを含む。本発明の一実施形態によれば、ウェブ・ページ2971の各画像2973はハイパーテキスト・リンクであり、選択されると、その画像に関連付けられた時刻からビデオ情報の再生を開始する。 The user can also select one or more ranges displayed by the user interface and perform operations on the selected ranges. According to an embodiment of the present invention, a user can select a range by clicking a rectangle representing the range using an input device such as a mouse. In FIG. 29E, range 2970 has been selected by the user. The rectangle representing range 2970 is highlighted to indicate that it has been selected (eg, in a different color than the rectangles representing other ranges). In the embodiment shown in FIG. 29E, a web page 2971 is generated for the range selected by the user and displayed in the window 2969 of the user interface 2900. Web page 2971 is text information representing audio information or CC text information (or a text representation of other types of information contained in multimedia information) for the selected range (ie, time R of the selected range). generated audio information between the S and R E, CC text information or text information) 2972 representing other information, one or more video key frame or extracted from the video information corresponding to the selected range An image (ie, a video keyframe extracted from video information generated between times R S and R E for a selected range) 2973. According to one embodiment of the present invention, each image 2973 on the web page 2971 is a hypertext link that, when selected, starts playing video information from the time associated with that image.

図29Eに示すように、各画像にバーコード2977が印刷されてもよい。このバーコードは、画像に関連付けられた時刻を表し、バーコード・リーダ又はスキャナを用いてこのバーコードを走査すると、その画像に関連付けられ、バーコードによって表された時刻からビデオ情報が再生される。この再生は、選択されたレンジに対応するマルチメディア文書のビデオ・ウィンドウに表示することができる。また、レンジが選択されたマルチメディア文書を識別する情報2974もウェブ・ページ2971上に表示することができる。また、各バーコード2977は、レンジに関する開始時刻及び終了時刻も識別することができる。このようなバーコードをバーコード・リーダ又はスキャナを用いて走査することによって、そのレンジに対応した情報を再生させることができる。また、バーコード2977は、レンジを識別するラベル又は識別子も表すことができる。このようなパーコードを走査すると、走査されたバーコードによって表されたレンジ識別子を用いて、そのレンジの開始時刻及び終了時刻を決定することができ、そして、そのレンジに対応する情報を再生することができる。   As shown in FIG. 29E, a barcode 2977 may be printed on each image. This bar code represents the time associated with the image, and when this bar code is scanned using a bar code reader or scanner, video information is played back from the time represented by the bar code associated with that image. . This playback can be displayed in the video window of the multimedia document corresponding to the selected range. Information 2974 identifying the multimedia document for which the range has been selected can also be displayed on the web page 2971. Each barcode 2977 can also identify the start time and end time for the range. By scanning such a barcode using a barcode reader or a scanner, information corresponding to the range can be reproduced. The barcode 2977 can also represent a label or identifier that identifies the range. When scanning such a percode, the range identifier represented by the scanned barcode can be used to determine the start and end times of the range, and the information corresponding to the range is reproduced. be able to.

ユーザがマルチメディア文書を検索するためのユーザ指定基準(例えば、単語又はフレーズ、関心ある話題、検索クエリー、など)を識別すると、ウェブ・ページ2971におけるユーザ指定基準の存在が強調される。例えば、図29Eにおいては、ユーザが、「Stewart」という単語を含む検索クエリーを指定したために、ウェブ・ページ2971における「Stewart」という単語の存在2975が強調されている(例えば、太字にされている)。   When a user identifies user-specified criteria (eg, a word or phrase, a topic of interest, a search query, etc.) for searching a multimedia document, the presence of the user-specified criteria in web page 2971 is emphasized. For example, in FIG. 29E, because the user specified a search query that includes the word “Stewart”, the presence 2975 of the word “Stewart” on the web page 2971 is highlighted (eg, bolded). ).

また、「Complete Set(一式)」と名付けられたハイパーテキスト・リンク2976もウェブ・ページ2971に含まれる。「Complete Set」リンク2971を選択すると、インターフェース2900に表示されるすべてのマルチメディア文書にわたるサムバー上に示された様々なレンジのコンテンツに基づいたウェブ・ページが生成・表示される。   Also included in web page 2971 is a hypertext link 2976 named “Complete Set”. Selecting the “Complete Set” link 2971 generates and displays a web page based on the various ranges of content shown on the thumb bar across all multimedia documents displayed in the interface 2900.

代替的実施形態として、レンジに対してウェブ・ページ以外の種類の文書が生成・表示されてもよい。本発明の一実施形態によれば、選択された1以上のレンジの印刷可能表現(printable representation)が生成され、表示される。このようなマルチメディア情報の印刷可能表現の生成・表示に関連する更なる詳細は、2001年11月19日に出願され、その全内容がここに参考文献として組み込まれる、米国特許出願第10/001,895号に記載されている。   As an alternative embodiment, types of documents other than web pages may be generated and displayed for the range. According to one embodiment of the present invention, a printable representation of one or more selected ranges is generated and displayed. Further details relating to the generation and display of such printable representations of multimedia information are filed on Nov. 19, 2001, the entire contents of which are hereby incorporated by reference. 001,895.

図29Fは、検索クエリーがORブール演算子で接続された複数の単語(すなわち、「Stewart」、「Imclone」、及び「Waksal」)を含むインターフェース2900を示す。検索クエリーの単語のすべての存在2980がウェブ・ページ2971で強調される(例えば、太字にされる)。また、サムバーにおける単語のすべての存在又はヒットもマーカ2964を用いてマーキングされる。ヒット位置に基づいて、レンジが形成され、表示されている。   FIG. 29F shows an interface 2900 in which the search query includes multiple words (ie, “Stewart”, “Imclone”, and “Waksal”) connected by an OR Boolean operator. All occurrences 2980 of search query words are highlighted (eg, bolded) on web page 2971. All occurrences or hits of words in the thumbbar are also marked using markers 2964. A range is formed and displayed based on the hit position.

既述のように、マルチメディア文書を検索するためのユーザ指定基準は、関心ある話題も含み得る。したがって、本発明の一実施形態によれば、1以上のマルチメディア文書のコンテンツが検索され、そのマルチメディア文書のうちユーザによって指定され得る関心ある話題に関連する部分を識別する。   As already mentioned, user-specified criteria for searching multimedia documents can also include topics of interest. Thus, according to one embodiment of the invention, the content of one or more multimedia documents is searched to identify portions of the multimedia document that are relevant to the topic of interest that may be specified by the user.

図29Gは、マルチメディア文書のうちユーザが指定した関心ある話題に関連する部分が強調された簡略化されたユーザ・インターフェース2900を示す。図29Gに示すように、3つの関心ある話題2981、すなわち、「Airlines(航空会社)」、「mstewart」、及び、「baseball(野球)」、が定義されている。マルチメディア文書のうち、これら関心ある話題に関連し、それらマルチメディア文書に対応するサムバーに表示されたセクションが、マーカ2983を用いて強調されている。ヒット位置に基づいて、レンジが形成され、表示されている。したがって、レンジは、これらマルチメディア文書のうち、それら関心ある話題に関連すると判断された部分を識別する。ウェブ・ページ2971のうち、これら関心ある話題に関連する部分も強調される。関心ある話題を指定する手法及びマルチメディア文書のうち1以上の関心ある話題に関連する部分を決定する手法は、2001年11月19日に出願された米国特許出願第10/001,895号及び1997年12月22日に出願された米国特許出願第08/995,616号にも記載されている。これら特許文献の全内容はここに参考文献として組み込まれる。様々なマルチメディア文書の関心ある話題への関連性を示す関連性インジケータ2982も各関心ある話題について表示される。   FIG. 29G shows a simplified user interface 2900 in which portions of a multimedia document that are relevant to a topic of interest specified by the user are highlighted. As shown in FIG. 29G, three topics of interest 2981 are defined: “Airlines”, “mstewart”, and “baseball”. Of the multimedia document, sections related to these topics of interest and displayed on the thumb bar corresponding to the multimedia document are highlighted using a marker 2983. A range is formed and displayed based on the hit position. Thus, the range identifies portions of these multimedia documents that are determined to be relevant to the topic of interest. Portions of the web page 2971 relating to these topics of interest are also highlighted. Techniques for specifying topics of interest and techniques for determining portions of a multimedia document related to one or more topics of interest are described in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001, and It is also described in US patent application Ser. No. 08 / 995,616, filed Dec. 22, 1997. The entire contents of these patent documents are hereby incorporated by reference. A relevance indicator 2982 indicating the relevance of various multimedia documents to the topic of interest is also displayed for each topic of interest.

本発明の一実施形態によれば、各関心ある話題に特定のスタイル又は色を関連付けることができる。例えば、関心ある話題「Airlines」に第一の色を関連付け、関心ある話題「mstewart」に第二の色を関連付け、関心ある話題「baseball」に第三の色を関連付けることができる。マルチメディア文書のうち特定の関心ある話題に関連すると判断された部分は、その特定の関心ある話題に関連付けられたスタイル又は色を用いて強調することができる。これにより、ユーザは、マルチメディア文書のうち特定の関心ある話題に関連する部分を容易に判断することができる。   According to one embodiment of the invention, a particular style or color can be associated with each topic of interest. For example, a first color may be associated with the topic of interest “Airlines”, a second color may be associated with the topic of interest “mstewart”, and a third color may be associated with the topic of interest “baseball”. The portion of the multimedia document that is determined to be related to a particular topic of interest can be highlighted using the style or color associated with that particular topic of interest. Thereby, the user can easily determine a part related to a specific topic of interest in the multimedia document.

図29Hは、本発明の一実施形態に従ってサムバーのうちユーザ指定基準(例えば、単語、フレーズ、検索クエリー、関心ある話題、など)に関連する又は満たす又は一致する部分を表示する別の方法を示す。図29Hに示すように、マルチメディア文書のうち関心ある話題2981に関連する部分を識別するために、サムバーのサムネール画像上に長方形のボックスが描画される。サムバーの一部分を覆う各長方形ボックスについて、そのサムバーの一部分を選ばせた単語又はフレーズ又は画像が長方形ボックス上に表示される。これにより、ユーザは、マルチメディア文書のうちいずれの部分が関心ある話題(又は、他の任意のユーザ指定基準)に関連するのかが容易に分かるだけでなく、その部分の選択をもたらした単語又はフレーズ又は画像を容易に判断することができる。   FIG. 29H illustrates another method of displaying portions of a thumb bar that relate to or meet or match user-specified criteria (eg, words, phrases, search queries, topics of interest, etc.) according to one embodiment of the invention. . As shown in FIG. 29H, a rectangular box is drawn on the thumbnail image of the thumb bar to identify the portion of the multimedia document related to the topic of interest 2981. For each rectangular box that covers a portion of the thumb bar, the word or phrase or image that selected that portion of the thumb bar is displayed on the rectangular box. This not only makes it easier for the user to see which part of the multimedia document is relevant to the topic of interest (or any other user-specified criteria), but also the word or word that resulted in the selection of that part. Phrases or images can be easily determined.

図29Iにおいては、特定のマルチメディア文書についてのビデオ情報の再生がそのマルチメディア文書に対応するビデオ・ウィンドウからより大きなビデオ・ウィンドウへ移動されている。図29Iに示すように、第三のマルチメディア文書のビデオ再生がビデオ・ウィンドウ2912からより大きいビデオ・ウィンドウ2984へ移動されている。より大きなビデオ・ウィンドウ2984を表示するモードは、「Video(ビデオ)」タブ2986を選択することによって、起動する。ビデオ・ウィンドウ2912からウィンドウ2984への表示の切り替えは、コントロール・バー2938によって提供されるコントロール2938aを選択することによって実行することができる。また、ウィンドウ2984におけるビデオ情報の再生を制御するコントロールを含むコントロール・バー2984もより大きなビデオ・ウィンドウ2984の下に表示される。ビデオ情報の再生を小ビデオ・ウィンドウ2912(又は2904又は2908)から大ビデオ・ウィンドウ2984へ移動させると、ユーザがそのビデオ情報再生を見易くなる。このビデオ再生は、コントロール・バー2938からコントロール2938aを選択することによって、又は、コントロール・バー2985からコントロール2985aを選択することによって、ウィンドウ2984から小さいウィンドウ2912へ戻すことができる。   In FIG. 29I, the playback of video information for a particular multimedia document has been moved from the video window corresponding to that multimedia document to a larger video window. As shown in FIG. 29I, video playback of the third multimedia document has been moved from the video window 2912 to the larger video window 2984. The mode of displaying a larger video window 2984 is activated by selecting the “Video” tab 2986. Switching the display from video window 2912 to window 2984 can be performed by selecting a control 2938a provided by control bar 2938. Also displayed below the larger video window 2984 is a control bar 2984 that includes controls that control the playback of video information in the window 2984. Moving the playback of video information from the small video window 2912 (or 2904 or 2908) to the large video window 2984 makes it easier for the user to view the video information playback. This video playback can be returned from window 2984 to small window 2912 by selecting control 2938a from control bar 2938 or by selecting control 2985a from control bar 2985.

また、ビデオ再生に対応するテキスト情報2987(例えば、CCテキスト情報、オーディオ情報の録音、又は、マルチメディア情報に含まれる他の種類の情報のテキスト表現)も大ビデオ・ウィンドウ2984の下に表示される。テキスト情報2987は、ビデオ再生と共にスクロールする。テキスト情報2987における各単語は、ユーザがある単語をクリックすると、選択された単語がそのマルチメディア文書のコンテンツにおいて登場する回数及びその単語が登場する位置が分かるように、検索可能である。小ビデオ・ウィンドウにおけるビデオ再生の場合と同様に、大ビデオ・ウィンドウ2984におけるビデオ再生のコンテンツは、大ビデオ・ウィンドウ2984にビデオ情報が再生されたマルチメディア文書のコンテンツの表現を表示するサムバーのサムネール表示エリア・レンズの位置によって影響を受ける。   Also, text information 2987 corresponding to video playback (eg, CC text information, audio information recording, or text representation of other types of information included in multimedia information) is displayed below the large video window 2984. The Text information 2987 scrolls with video playback. Each word in the text information 2987 can be searched so that when the user clicks on a certain word, the number of times the selected word appears in the content of the multimedia document and the position where the word appears are known. As with video playback in the small video window, the content of the video playback in the large video window 2984 is a thumbnail of a thumb bar that displays a representation of the content of the multimedia document from which video information was played in the large video window 2984. It is affected by the display area and lens position.

既述のように、ユーザは、1以上のマルチメディア文書について手動でレンジを定義することができる。マルチメディア文書についてレンジを手動で定義する手法については既に説明した。図29Iに示した実施形態において、選択されるとユーザが手動でレンジを定義できるオペレーション・モードを開始するボタン2988が設けられる。本発明の一実施形態によれば、ボタン2988を選択すると、図20Bに示したウィンドウ2050のようなウィンドウが呼び出される。図20Bに示した情報に加えて、このウィンドウは、ユーザ・インターフェースによってロードされた複数のマルチメディア文書からレンジが定義されるマルチメディア文書を識別する情報をユーザが入力できる入力フィールドも含む。また、ユーザは、レンジの開始時刻及び終了時刻を指定することもできる。代替的実施形態として、ボタン2988を選択すると、ユーザがマウスなどの入力装置を用いてインターフェース2900に示されたサムバーの1つの一部分をクリックすることによってレンジを手動で指定できるモードを開始する。サムバーの一部分をクリックすると、レンジを表す長方形ボックスが表示される。ユーザは、長方形ボックスの上端及び下端を操作して、レンジの開始時刻(R)及び終了時刻(R)を設定することができる。長方形ボックス自体もサムバーに沿って動かすことができる。 As already mentioned, the user can manually define ranges for one or more multimedia documents. We have already explained how to manually define ranges for multimedia documents. In the embodiment shown in FIG. 29I, a button 2988 is provided that, when selected, initiates an operation mode in which the user can manually define the range. According to one embodiment of the invention, selecting button 2988 invokes a window, such as window 2050 shown in FIG. 20B. In addition to the information shown in FIG. 20B, this window also includes an input field where the user can enter information identifying a multimedia document whose range is defined from a plurality of multimedia documents loaded by the user interface. The user can also specify the start time and end time of the range. As an alternative embodiment, selecting button 2988 initiates a mode in which the user can manually specify the range by clicking on a portion of the thumb bar shown on interface 2900 using an input device such as a mouse. Clicking on a portion of the thumbbar displays a rectangular box that represents the range. The user can set the start time (R S ) and end time (R E ) of the range by operating the upper and lower ends of the rectangular box. The rectangular box itself can also be moved along the thumb bar.

本発明の一実施形態によれば、自動的に生成されたレンジ(例えば、ユーザ指定基準についてのヒットに基づいて生成されたレンジ)を表す長方形ボックス及びユーザによって指定された手動レンジを表す長方形ボックスは、インターフェース2900によって同時に表示することができる。手動で生成されたレンジと自動的に生成されたレンジとを区別するために、自動レンジを表す長方形ボックスと手動レンジを表す長方形ボックスを表示するのに異なる色又はスタイルを用いることができる。   According to one embodiment of the present invention, a rectangular box representing an automatically generated range (eg, a range generated based on hits for user specified criteria) and a manual box specified by a user. Can be simultaneously displayed by the interface 2900. Different colors or styles can be used to display the rectangular box representing the automatic range and the rectangular box representing the manual range to distinguish between the manually generated range and the automatically generated range.

図29Kは、本発明の一実施形態に従ってマルチメディア文書のうちユーザが見た又は再生した部分が強調されたユーザ・インターフェース2900を示す。代替的実施形態として、マルチメディア文書のうちユーザが見ていない又は再生していない部分が強調されてもよい。図29Kに示すように、ユーザ・インターフェース2900に表示されたマルチメディア文書のうちユーザが見た又は再生した部分を識別するサムバーの一部分上に長方形ボックス2990が描画される。この部分は、小ビデオ・ウィンドウ2904、2908、又は2912で再生された又は視聴されたものでもよく、或いは、大ビデオ・ウィンドウ2984で再生された又は視聴されたものでもよく、或いは、何らかの出力装置を用いて再生された又は視聴されたものでもよい。この実施形態において、格納されたマルチメディア情報のうちユーザに対して出力済みの部分を識別する情報(或いは、格納されたマルチメディア情報のうちユーザに対して出力していない部分を識別する情報)が格納される。本発明のこの機能により、ユーザは、マルチメディア文書のうち、いずれのセクションを既に見たか、及び、ユーザがまだ見ていないのはいずれの部分か、が容易に分かる。既に見た部分を表すボックスは、レンジを表すボックスなどインターフェース2900に表示される他のボックスからそれらを区別するために、特定の色で表示される。   FIG. 29K shows a user interface 2900 in which the portion of the multimedia document viewed or played by the user is highlighted according to one embodiment of the present invention. As an alternative embodiment, portions of the multimedia document that the user has not seen or played may be highlighted. As shown in FIG. 29K, a rectangular box 2990 is drawn over a portion of the thumb bar that identifies the portion of the multimedia document displayed on the user interface 2900 that the user has viewed or played. This portion may be played or viewed in a small video window 2904, 2908, or 2912, or may be played or viewed in a large video window 2984, or some output device It may be played back or viewed using. In this embodiment, information for identifying a portion of stored multimedia information that has been output to the user (or information for identifying a portion of stored multimedia information that has not been output to the user) Is stored. With this feature of the present invention, the user can easily see which sections of the multimedia document have already been viewed and which portions the user has not yet viewed. Boxes that have already been viewed are displayed in a specific color to distinguish them from other boxes displayed on the interface 2900, such as boxes that represent ranges.

図30Aは、本発明の一実施形態に係る1以上のマルチメディア文書のコンテンツを表示する別の簡略化されたユーザ・インターフェース3000を示す。図30Aに示すように、3つのマルチメディア文書のコンテンツが表示され、3つのサムバー3002、3004、及び3006、及び、3つの小さいビデオ・ウィンドウ3008、3010、及び3012が表示される。これらマルチメディア文書のコンテンツは、単語「Stewart」、「Imclone」、及び「Faksal」を含む検索クエリーについて検索された。サムバーのうち検索クエリーに関連するコンテンツを含む部分がマーカ3014によって識別される。これらヒットに基づいてレンジが形成されており、これらレンジを表す長方形ボックス3016が表示されている。これらの機能については既に説明した。   FIG. 30A illustrates another simplified user interface 3000 that displays the content of one or more multimedia documents according to one embodiment of the present invention. As shown in FIG. 30A, the contents of three multimedia documents are displayed, and three thumb bars 3002, 3004, and 3006 and three small video windows 3008, 3010, and 3012 are displayed. The contents of these multimedia documents were searched for a search query that included the words “Stewart”, “Imclone”, and “Faksal”. A portion of the thumb bar that includes content related to the search query is identified by marker 3014. Ranges are formed based on these hits, and a rectangular box 3016 representing these ranges is displayed. These functions have already been explained.

加えて、ユーザ・インターフェース3000は、サムバー上に表示された様々なレンジについて長方形ボックスによって生成された複数のウェブ・ページ3020−1、3020−2、3020−3、などを含む。本発明の一実施形態によれば、サムバーに表示された各レンジについて、一ウェブ・ページが生成される。図30Aに示すウェブ・ページ(以下、「パレット」ビューと呼ぶ)は、「Palette(パレット)」ボタン3022を選択することによって生成・表示される。したがって、ウェブ・ページのパレットは、様々なレンジについて生成されたウェブ・ページを含む。ウェブ・ページのパレットは、図30Aに示すようなスクロール可能なリストとして表示することができる。ユーザは、パレットに注釈を加えたり、パレットのウェブ・ページへ情報を加えたり、マルチメディア文書の一部に捕捉情報を加えたり、することができる。また、レンジ自体にも注釈を加えることができる。例えば、レンジについての情報を表示するウェブ・ページにコメントを加えることによって、レンジに注釈を加えることができる。   In addition, the user interface 3000 includes a plurality of web pages 3020-1, 3020-2, 3020-3, etc. generated by rectangular boxes for the various ranges displayed on the thumb bar. According to one embodiment of the present invention, one web page is generated for each range displayed on the thumb bar. The web page shown in FIG. 30A (hereinafter referred to as a “palette” view) is generated and displayed by selecting a “Palette” button 3022. Thus, the palette of web pages includes web pages generated for various ranges. The palette of web pages can be displayed as a scrollable list as shown in FIG. 30A. The user can annotate the palette, add information to the web page of the palette, or add capture information to a portion of the multimedia document. Annotations can also be added to the range itself. For example, an annotation can be added to a range by adding a comment to a web page that displays information about the range.

図30Aに示した実施形態において、特定のレンジについての各ウェブ・ページ3020は、オーディオ情報、CCテキスト情報、又は、その特定のレンジについて含まれる他の情報種類のテキスト表現を表すテキスト情報(すなわち、その特定のレンジの時刻RとRの間に登場した録音されたオーディオ情報又はCCテキスト情報を表すテキスト情報)を有する。また、このウェブ・ページは、その特定のレンジに対応するビデオ情報から抽出された1以上のビデオ・キーフレーム又は画像も含む。これら画像及びテキスト情報は、時間的に同期される又は揃えられる。このウェブ・ページの画像をハイパーテキスト・リンクとし、選択されると、選択された画像に関連付けられた時刻からビデオ情報の再生を開始するようにすることができる。 In the embodiment shown in FIG. 30A, each web page 3020 for a particular range is text information that represents audio information, CC text information, or text representations of other information types included for that particular range (ie, , Recorded audio information appearing between times R S and R E of that particular range or text information representing CC text information). The web page also includes one or more video keyframes or images extracted from the video information corresponding to that particular range. These image and text information are synchronized or aligned in time. The web page image is a hypertext link, and when selected, the video information can be played back from the time associated with the selected image.

バーコードは、印刷可能で、ウェブ・ページに印刷された各画像に関連付けることができる。バーコードは、その画像に関連付けられた時刻を表し、バーコード・リーダ又はスキャナを用いてバーコードを走査すると、その画像に関連付けられ、そのバーコードによって表された時刻からビデオ情報が再生される。   The barcode can be printed and associated with each image printed on the web page. The bar code represents the time associated with the image, and when a bar code is scanned using a bar code reader or scanner, the bar code is associated with the image and video information is played from the time represented by the bar code. .

各レンジについて、そのレンジを識別する情報及びそのレンジが選択されたマルチメディア情報を識別する情報もそのレンジに対応するウェブ・ページ上に表示することができる。例えば、図30Aに示した実施形態において、各レンジの開始時刻及び終了時刻3018がウェブ・ページ上に表示される。また、レンジを識別する識別子3021も表示される。図30Aのマルチメディア文書がテレビ映像録画に対応するため、一レンジに対応する各ウェブ・ページもそのレンジについての情報をブロードキャストするTVネットワークに関連付けられたアイコン3023を表示する。   For each range, information identifying the range and information identifying the multimedia information from which the range was selected can also be displayed on the web page corresponding to that range. For example, in the embodiment shown in FIG. 30A, the start time and end time 3018 of each range are displayed on the web page. An identifier 3021 for identifying the range is also displayed. Because the multimedia document of FIG. 30A supports television video recording, each web page corresponding to a range also displays an icon 3023 associated with the TV network that broadcasts information about that range.

各ウェブ・ページにおいて、ユーザ指定基準の存在が強調される。例えば、図30Aに示す実施形態においては、検索クエリーが、単語「Stewart」、「Imclone」、及び「Faksal」を含み、ウェブ・ページでのこれら単語の存在が強調される。太字にする、色を用いる、スタイルを変える、バルーンを用いる、囲む、などの単語を強調する様々な異なる手法も用いることができる。既述のように、検索クエリー単語もサムバーに表示された表現において強調されてもよい。   In each web page, the presence of user-specified criteria is emphasized. For example, in the embodiment shown in FIG. 30A, the search query includes the words “Stewart”, “Imclone”, and “Faksal”, and the presence of these words on the web page is highlighted. A variety of different techniques for emphasizing words such as bolding, using colors, changing styles, using balloons, surroundings, etc. can also be used. As already mentioned, the search query word may also be highlighted in the expression displayed on the thumb bar.

ウェブ・ページのうち現在選択されているレンジに対応したエリアを強調する又は覆うレンズ3024が表示される。例えば、図30Aに示す実施形態において、サムバー3006においてレンジが選択されたために、ウェブ・ページ3020−4のうちこの選択されたレンジに対応する部分を覆うレンズ3024が表示されている。ウェブ・ページ3020−4のうちレンズ3024によって覆われた部分は、大ウィンドウ3026に表示される。ユーザは、レンズ3024の位置をウェブ・ページ3020−4の長さに沿って変更することができる。ウェブ・ページのうちウィンドウ3026に表示された部分は、それがウェブ・ページ3020−4のうちレンズ3024によって覆われた部分に対応し続けるように、変更される。このように、ユーザは、レンズ3024を用いて、選択されたウェブ・ページのコンテンツをナビゲートすることができる。また、ユーザは、ウィンドウ3026によって提供されたスクロールバーを用いて、ウィンドウ3026に表示されたウェブ・ページをスクロールすることができる。レンズ3024のウェブ・ページ3020−4上での位置は、それがウェブ・ページのうちウィンドウ3026に表示された部分に対応し続けるように、変更される。   A lens 3024 is displayed that highlights or covers the area of the web page that corresponds to the currently selected range. For example, in the embodiment shown in FIG. 30A, since a range is selected in the thumb bar 3006, a lens 3024 is displayed that covers the portion of the web page 3020-4 that corresponds to the selected range. The portion of the web page 3020-4 covered by the lens 3024 is displayed in the large window 3026. The user can change the position of the lens 3024 along the length of the web page 3020-4. The portion of the web page displayed in window 3026 is changed so that it continues to correspond to the portion of web page 3020-4 covered by lens 3024. In this way, the user can use the lens 3024 to navigate the contents of the selected web page. Also, the user can scroll the web page displayed in the window 3026 using the scroll bar provided by the window 3026. The position of lens 3024 on web page 3020-4 is changed so that it continues to correspond to the portion of the web page displayed in window 3026.

ユーザは、マウスなどの入力装置を用いてサムバーにおいて別のレンジをクリックすることによって(すなわち、そのレンジを表す長方形をクリックすることによって)、そのレンジを選ぶことができる。応答として、レンズ3024の位置が変更され、レンズ3024は新たに選択されたレンジに対応するパレット・ビューにおいてウェブ・ページ上に表示される。次いで、パレット・ビューにおいてウェブ・ページのうちレンズ3024によって覆われた部分が、ウィンドウ3026に表示される。例えば、図30Bに示すように、別のレンジ3030がユーザによって選択されている。ユーザは、サムバー3002においてこのレンジに対応する長方形ボックスをクリックすることによってこのレンジを選択することができる。応答として、ウェブ・ページ3020−1のうちレンジ3030に対応する部分を覆うレンズ3024が描画される。ウェブ・ページ3020−1のうちレンズ3024によって覆われた又は強調された部分は、ウィンドウ3016に表示される。   The user can select that range by clicking on another range in the thumb bar using an input device such as a mouse (ie, by clicking on a rectangle representing that range). In response, the position of lens 3024 is changed and lens 3024 is displayed on the web page in a palette view corresponding to the newly selected range. The portion of the web page covered by lens 3024 in the palette view is then displayed in window 3026. For example, as shown in FIG. 30B, another range 3030 is selected by the user. The user can select this range by clicking on the rectangular box corresponding to this range in the thumb bar 3002. In response, a lens 3024 that covers the portion of web page 3020-1 corresponding to range 3030 is drawn. The portion of web page 3020-1 covered or highlighted by lens 3024 is displayed in window 3016.

本発明の一実施形態によれば、ユーザは、ウェブ・ページのパレットからあるレンジに対応するウェブ・ページを選択することによって、そのレンジを選択することもできる。ユーザは、マウスなどの入力装置を用いて、そのウェブ・ページをクリックすることによって、ウェブ・ページを選択することができる。応答として、レンズ3024が選択されたウェブ・ページ上に表示される。このパレット・ビューにおけるウェブ・ページのうちレンズ3024によって覆われた部分がウィンドウ3026に表示される。また、この新たに選択されたウェブ・ページに対応するレンジを表す長方形ボックスも、そのレンジが選択されたことを示すために、強調される。   According to one embodiment of the present invention, a user can also select a range by selecting a web page corresponding to a range from the palette of web pages. The user can select a web page by clicking on the web page using an input device such as a mouse. In response, lens 3024 is displayed on the selected web page. A portion of the web page in the palette view covered by the lens 3024 is displayed in the window 3026. The rectangular box representing the range corresponding to this newly selected web page is also highlighted to indicate that the range has been selected.

上述のように、本発明の実施形態は、同じタイムライン中に記録された1以上のマルチメディア文書によって格納された情報の表現も、異なるタイムライン中に記録された1以上のマルチメディア文書によって格納された情報の表現も、表示することができる。ユーザは、単語、フレーズ、複数の単語を含む検索クエリー、関心ある話題、などの基準を指定することができ、マルチメディア文書のうちこのユーザ指定基準に関連する又は含む部分がマーカ、レンジを表すボックス、などを用いて強調される。したがって、本発明の実施形態を用いて、複数のマルチメディア文書のコンテンツを比較することができる。   As described above, embodiments of the present invention also allow information representations stored by one or more multimedia documents recorded during the same timeline to be represented by one or more multimedia documents recorded during different timelines. A representation of the stored information can also be displayed. Users can specify criteria such as words, phrases, search queries that contain multiple words, topics of interest, etc., and the portion of the multimedia document that is related to or includes this user-specified criteria represents a marker, range Emphasized using boxes, etc. Thus, the content of multiple multimedia documents can be compared using embodiments of the present invention.

例えば、「Closing Bell」、「60 Minute II」、及び、「Business Center」などの3つの異なるテレビ番組の録画を図29Aに示すように表示し、ユーザ指定基準(例えば、単語、フレーズ、複数の単語を含む検索クエリー、関心ある話題、など)について検索することができる。これら3つの番組の中でユーザ指定基準に関連する又は一致する部分が強調される。このような複数のマルチメディア文書にわたって検索する能力は従来のツールでは提供されていない。さらに、インターフェースによって表示された検索結果に基づいて、ユーザはテレビ番組のユーザ基準に対する関連性を容易に判断することができる。このように、本発明の実施形態を用いて、複数のマルチメディア文書のコンテンツを互いに分析することができる。これら検索結果の視覚化は、これら複数のマルチメディア文書のコンテンツに対する理解を得るために、しばしば有用である。   For example, recordings of three different television programs such as “Closing Bell”, “60 Minute II”, and “Business Center” are displayed as shown in FIG. Search queries that include words, topics of interest, etc.). Of these three programs, the parts that are relevant or coincide with the user-specified criteria are highlighted. The ability to search across such multiple multimedia documents is not provided by conventional tools. Further, based on the search results displayed by the interface, the user can easily determine the relevance of the television program to the user criteria. As described above, the contents of a plurality of multimedia documents can be analyzed with each other using the embodiment of the present invention. Visualization of these search results is often useful to gain an understanding of the content of these multiple multimedia documents.

別の例として、ユーザが「Imclone/Martha Stewart scandal」に関心を持っている場合、ユーザは、「Stewart」、「Imclone」、及び、「Waksal」という単語(又は、このスキャンダルに関する他の単語)を含む検索クエリーを形成することができ、マルチメディア文書の表現の中でユーザ・インターフェースによって表示され、検索クエリー単語を含む部分がマーカ、色などを用いて強調される。また、レンジも、検索ヒットに基づいて形成され、関連するセクションを強調するために、色の付いたボックスを用いてインターフェース上に示される。マルチメディア文書のうちインターフェースにおいて強調された部分を見ることによって、ユーザは、そのスキャンダルに関する情報がそのマルチメディア文書にどのくらい含まれているか及びその関連情報のマルチメディア文書における位置を容易に判断することができる。また、ユーザは、その関連情報のマルチメディア文書における分散も判断することができる。また、複数のマルチメディア文書を検索クエリーについて互いに比較することができる。このように、本発明の実施形態は、複数のマルチメディア文書を分析したいと欲するユーザにとって価値のあるツールを提供する。   As another example, if the user is interested in “Imclone / Martha Stewart scandal”, he / she can use the words “Stewart”, “Imclone”, and “Waksal” (or other words related to this scandal). A search query can be formed that includes and is displayed by the user interface in the representation of the multimedia document, and the portion containing the search query word is highlighted using markers, colors, and the like. Ranges are also formed based on search hits and are shown on the interface using colored boxes to highlight relevant sections. By viewing the highlighted portion of the multimedia document in the interface, the user can easily determine how much information about the scandal is contained in the multimedia document and the location of the related information in the multimedia document. Can do. The user can also determine the distribution of the related information in the multimedia document. Also, multiple multimedia documents can be compared with each other for search queries. Thus, embodiments of the present invention provide a valuable tool for users who want to analyze multiple multimedia documents.

インターフェースに表示された(自動的に生成された又は手動で指定された)レンジに対応するウェブ・ページを生成・表示することによって、複数のマルチメディア文書の分析及びレビューは更に容易になる。これらレンジについて生成されたウェブ・ページにより、ユーザは、複数のマルチメディア文書中の関連する部分を抽出し、編成し、凝縮させることができる。   Analysis and review of multiple multimedia documents is further facilitated by generating and displaying web pages corresponding to the range displayed on the interface (automatically generated or manually specified). The web pages generated for these ranges allow the user to extract, organize and condense related portions in multiple multimedia documents.

また、本発明の実施形態により、ユーザは、マルチメディア文書の集合を同時に見ることができる。例えば、ユーザは、複数のビデオ録画又はビデオ・クリップのコンテンツを見ることができる。マルチメディア情報の再生を制御するための様々なコントロールが設けられる。マルチメディア文書のうちユーザによって再生された部分を強調することができる。したがって、ユーザは、マルチメディア文書の中で該ユーザが既に見た部分とまだ見ていない部分とを容易に判断することができる。   The embodiment of the present invention also allows the user to view a set of multimedia documents at the same time. For example, a user can view the contents of multiple video recordings or video clips. Various controls are provided for controlling the playback of multimedia information. The portion of the multimedia document played by the user can be emphasized. Therefore, the user can easily determine the part that the user has already seen and the part that has not been seen yet in the multimedia document.

上述のように、レンジを用いて、複数のオペレーションを実行することができる。これらオペレーションは、例えば、レンジのコンテンツの表現を紙文書上に印刷すること、レンジのコンテンツを保存すること、レンジのコンテンツを伝達すること、レンジに注釈を付けること、などである。また、レンジを(例えばレンジ群に)グループ分けし、それらグループについてオペレーションを実行することもできる。例えば、あるレンジ群のレンジについて、ユーザが設定可能としてもよい何らかの基準に基づいて、ランク付け又は並び替えすることができる。例えば、各レンジのユーザ指定検索基準への関連性に基づいて、レンジがランク付けされてもよい。本発明の一実施形態によれば、ヒット数が多いレンジほど高くランク付けされ、ヒット数が少ないレンジほど低くランク付けされる。レンジをランク付けする及び/又は並び替える他の手法も用いることができる。   As described above, a range can be used to perform multiple operations. These operations include, for example, printing a representation of the range content on a paper document, saving the range content, communicating the range content, annotating the range, and the like. It is also possible to group ranges (eg, into range groups) and perform operations on those groups. For example, the ranges of a certain range group can be ranked or rearranged based on some criteria that the user may be able to set. For example, ranges may be ranked based on their relevance to user-specified search criteria. According to an embodiment of the present invention, a range with a higher number of hits is ranked higher, and a range with a lower number of hits is ranked lower. Other techniques for ranking and / or reordering the ranges can also be used.

(マルチメディア情報の印刷)
上述のように、上記ユーザ・インターフェースによって表示された1以上のマルチメディア文書からのマルチメディア情報を紙媒体上に印刷し、マルチメディア紙文書を作ることができる。したがって、1以上のマルチメディア文書について、マルチメディア紙文書を生成することができる。「紙」又は「紙媒体」という単語は、情報を印刷、筆記、描画、押印、型押などできるあらゆる有形媒体を指すことができる。
(Printing multimedia information)
As described above, multimedia information from one or more multimedia documents displayed by the user interface can be printed on a paper medium to create a multimedia paper document. Accordingly, a multimedia paper document can be generated for one or more multimedia documents. The term “paper” or “paper medium” can refer to any tangible medium capable of printing, writing, drawing, stamping, embossing, and the like.

本発明の一実施形態によれば、各マルチメディア文書について、そのマルチメディア文書によって格納された記録済情報についての印刷可能表現が生成される。この記録済情報は、オーディオ情報、ビデオ情報、クローズド・キャプション(CC)テキスト情報、スライド情報、ホワイトボード情報、などの様々な種類の情報を格納することができるため、本発明の一実施形態によれば、記録済情報の印刷可能表現は、1以上の情報種類の印刷可能表現を含み得る。記録済情報を構成する1以上の情報種類についての印刷可能表現を含み得る記録済情報について印刷可能表現を紙媒体上に印刷して、マルチメディア紙文書を生成することができる。マルチメディア情報について印刷可能表現を生成するのには様々な異なる手法を用いることができる。印刷可能表現を生成し、この印刷可能表現を紙媒体上に印刷してマルチメディア紙文書を作る例は、2001年11月19日に出願され、その全内容がここに参考文献として組み込まれる、米国特許出願第10/001,895号に記載されている。   According to one embodiment of the invention, for each multimedia document, a printable representation of the recorded information stored by that multimedia document is generated. This recorded information can store various types of information such as audio information, video information, closed caption (CC) text information, slide information, whiteboard information, etc. According to this, the printable representation of the recorded information may include a printable representation of one or more information types. Printable representations for recorded information that can include printable representations for one or more information types that make up the recorded information can be printed on a paper medium to generate a multimedia paper document. A variety of different techniques can be used to generate printable representations for multimedia information. An example of generating a printable representation and printing the printable representation on a paper medium to create a multimedia paper document was filed on November 19, 2001, the entire contents of which are incorporated herein by reference. It is described in US patent application Ser. No. 10 / 001,895.

次いで、印刷可能表現は、紙媒体上に印刷することができる。「印刷」という単語は、印刷、筆記、描画、押印、型押、などを含む。本発明の一実施形態によれば、印刷可能表現は、印刷可能バージョンを紙媒体上に印刷して紙文書を生成するように設定された紙文書出力装置(プリンタ、コピー機、など)に伝達される。印刷可能表現を紙媒体上に印刷するのには様々な異なる手法を用いることができる。本発明の一実施形態によれば、2001年11月19日に出願され、その全内容がここに参考文献として組み込まれる、米国特許出願第10/001,895号に記載された教えに従って、印刷が実行される。   The printable representation can then be printed on a paper medium. The word “print” includes printing, writing, drawing, stamping, embossing, and the like. According to one embodiment of the invention, the printable representation is communicated to a paper document output device (printer, copier, etc.) configured to print a printable version on a paper medium to generate a paper document. Is done. A variety of different techniques can be used to print the printable representation on the paper medium. According to one embodiment of the present invention, printing is performed in accordance with the teachings set forth in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001, the entire contents of which are hereby incorporated by reference. Is executed.

本発明の他の実施形態においては、マルチメディア文書のコンテンツ全体についてマルチメディア紙文書を生成する代わりに、グラフィカル・ユーザ・インターフェースに表示されたレンジについてのみマルチメディア紙文書が生成される。この実施形態において、レンジに対応したマルチメディア情報について印刷可能表現が生成され、次いで、その印刷可能表現が紙媒体上に印刷される。レンジに対応するマルチメディア情報は1以上の種類の情報を含み得るため、レンジに対応するマルチメディア情報の印刷可能表現は、1以上の種類の印刷可能表現を含み得る。レンジに対応したマルチメディア情報について印刷可能表現を生成するのには様々な異なる手法を用いることができる。例えば、2001年11月19日に出願された米国特許出願第10/001,895号に記載されたものを用いることができる。   In another embodiment of the invention, instead of generating a multimedia paper document for the entire content of the multimedia document, the multimedia paper document is generated only for the range displayed in the graphical user interface. In this embodiment, a printable representation is generated for the multimedia information corresponding to the range, and then the printable representation is printed on a paper medium. Since the multimedia information corresponding to the range may include one or more types of information, the printable representation of the multimedia information corresponding to the range may include one or more types of printable representation. Various different techniques can be used to generate a printable representation for multimedia information corresponding to a range. For example, those described in US patent application Ser. No. 10 / 001,895 filed on Nov. 19, 2001 can be used.

図31は、本発明の一実施形態に従って1以上のマルチメディア文書のコンテンツ又はレンジに対応するコンテンツを印刷するのに用いることが可能な簡略化されたユーザ・インターフェース3100を示す。図31に示すインターフェース3100は、本発明の一実施形態の単なる例示であり、本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。グラフィカル・ユーザ・インターフェース3100は、上記インターフェースによって提供されるコマンド又はボタンを選択することによって呼び出すことができる。   FIG. 31 illustrates a simplified user interface 3100 that can be used to print content corresponding to the content or range of one or more multimedia documents in accordance with one embodiment of the present invention. The interface 3100 shown in FIG. 31 is merely illustrative of one embodiment of the present invention and does not limit the scope of the present invention. Other variations, modifications, and alternatives will be apparent to those skilled in the art. The graphical user interface 3100 can be invoked by selecting a command or button provided by the interface.

図31に示すように、ユーザは、チェックボックス3101を洗濯することによって、レンジに対応する情報のみが印刷されるように指定することができる。チェックボックス3101が選択されない場合、それは、ロードされている1以上のマルチメディア文書のすべてのコンテンツが印刷されることを意味する。ユーザは、チェックボックス3102を選択することによって、表示されているレンジすべてに対応する情報が印刷されるべきであることを指示することができる。あるいは、ユーザは、入力ボックス3104にレンジ識別子を入力することによって、印刷されるべきレンジを具体的に特定することができる。例えば、レンジに割り当てられた番号によってレンジが識別される場合、ユーザは印刷されるべきレンジに対応する番号をボックス3104に入力すればよい。レンジ識別子が連続番号であれば、レンジ・リストを指定することができる。   As illustrated in FIG. 31, the user can specify that only information corresponding to the range is printed by washing the check box 3101. If the check box 3101 is not selected, it means that all content of one or more loaded multimedia documents is printed. The user can indicate that information corresponding to all displayed ranges should be printed by selecting check box 3102. Alternatively, the user can specifically specify the range to be printed by inputting the range identifier in the input box 3104. For example, if a range is identified by a number assigned to the range, the user may enter a number in box 3104 that corresponds to the range to be printed. If the range identifier is a sequential number, a range list can be specified.

「Print(印刷)」ボタン3106を選択すると、レンジのコンテンツ又はロードされたマルチメディア文書のコンテンツの印刷が開始される。ユーザ・インターフェース3100は、「Cancel(キャンセル)」ボタン3108を選択することによってキャンセルすることができる。   Selecting a “Print” button 3106 starts printing the contents of the range or the contents of the loaded multimedia document. The user interface 3100 can be canceled by selecting a “Cancel” button 3108.

レンジに対応する情報又はロードされたマルチメディア文書からの情報の印刷方法を制御する複数のオプションが設けられる。例えば、情報を紙媒体上に印刷する際のフォーマット・スタイルを選択することができる。図31に示す実施形態において、ユーザは、スタイルに対応するチェックボックスを選択することによって、3つの異なるスタイル3110の中の1つを選択することができる。図32A、32B、及び32Cは、本発明の一実施形態に係る図31に示されたインターフェース31から選択可能な3つのスタイルに従って印刷されたページを示す。図32Aは、「Style 1(スタイル1)」に従って印刷されたページを示す。図32Bは、「Style 2(スタイル2)」に従って印刷されたページを示す。図32Cは、「Style 3(スタイル3)」に従って印刷されたページを示す。本発明の代替的実施形態として、様々な他のスタイルも用いることができる。   A number of options are provided to control how information corresponding to the range or information from the loaded multimedia document is printed. For example, a format style for printing information on a paper medium can be selected. In the embodiment shown in FIG. 31, the user can select one of three different styles 3110 by selecting a check box corresponding to the style. 32A, 32B, and 32C show pages printed according to three styles selectable from the interface 31 shown in FIG. 31 according to one embodiment of the present invention. FIG. 32A shows a page printed according to “Style 1”. FIG. 32B shows a page printed according to “Style 2”. FIG. 32C shows a page printed according to “Style 3”. Various other styles can also be used as alternative embodiments of the present invention.

また、ユーザは、ビデオ情報から抽出されたキーフレームを印刷するのに異なるスタイル3112を選択することができる。例えば、図31に示す実施形態において、ユーザは、各バーコードにつき1つのキーフレームが印刷される(或いは、各印刷されたキーフレームにつき1つのバーコードが印刷される)スタイルか、又は、各バーコードにつき複数の(例えば4つの)キーフレームが印刷されるスタイルかを選択することができる。図33A及び33Bは、図31に示すインターフェース31から選択可能な2つのキーフレーム・スタイルに従って印刷されたページを示す。図33Aは、バーコードごとに1つのキーフレームが印刷されたページを示す。図33Bは、バーコードごとに4つのキーフレームが印刷されたページを示す。本発明の他の実施形態として、他のスタイルも用いることができる。   The user can also select different styles 3112 for printing key frames extracted from the video information. For example, in the embodiment shown in FIG. 31, the user can either print one key frame for each barcode (or print one barcode for each printed key frame), or each It is possible to select a style in which multiple (eg, four) key frames are printed per barcode. 33A and 33B show a page printed according to two keyframe styles selectable from the interface 31 shown in FIG. FIG. 33A shows a page on which one key frame is printed for each barcode. FIG. 33B shows a page on which four key frames are printed for each barcode. Other styles can be used as other embodiments of the invention.

プリンタ(又は、コピー機やファクシミリ機などのマルチメディア情報の印刷表現を生成可能なあらゆる他の紙文書出力装置)のリスト3116が表示される。ユーザは、リスト3116から1以上のプリンタを選択することによって、マルチメディア情報を紙媒体上に印刷することができる。ユーザは、「Send to Copier(コピー機へ送信)」チェックボックス3113を選択し、使用されるコピー機をボックス3114で特定することによって、印刷(又はコピー)を実行する具体的なコピー機を選択することができる。   A list 3116 of printers (or any other paper document output device capable of generating a printed representation of multimedia information, such as a copier or facsimile machine) is displayed. The user can print the multimedia information on a paper medium by selecting one or more printers from the list 3116. The user selects a specific copier to perform printing (or copying) by selecting the “Send to Copier” check box 3113 and identifying the copier to be used in box 3114. can do.

本発明の一実施形態によれば、選択されたレンジ又はマルチメディア文書に対応するマルチメディア情報の印刷可能表現は、メモリに格納することができる。例えば、印刷可能表現は、PDFファイルとして、格納することができる。入力ボックス3118でファイル名を指定することができる。   According to one embodiment of the present invention, a printable representation of multimedia information corresponding to a selected range or multimedia document can be stored in memory. For example, the printable representation can be stored as a PDF file. A file name can be specified in the input box 3118.

図31に示した本発明の一実施形態によれば、ユーザは、印刷可能表現が紙媒体上に印刷される際、印刷可能表現のうちユーザ指定基準を満たす又は一致する単語又はフレーズを含むセクションを強調させるか否かを指示するオプションを有する。ユーザは、チェックボックス3120を選択することによって、このオプションを起動させることができる。このオプションが選択されると、マルチメディア文書又は関心ある話題に関連する又はユーザによって指定された単語又はフレーズ或いは検索クエリー単語に一致する選択されたレンジに対応するマルチメディア情報の単語又はフレーズが、紙に印刷される際、強調される。紙上で単語又はフレーズを強調するのには様々な異なる手法を用いることができる。   In accordance with one embodiment of the present invention shown in FIG. 31, when a printable expression is printed on a paper medium, the user includes a section containing words or phrases that meet or match user-specified criteria in the printable expression. Has an option to indicate whether or not to emphasize. The user can activate this option by selecting checkbox 3120. When this option is selected, the word or phrase of the multimedia information corresponding to the selected range that matches the multimedia document or the topic of interest or matches the word or phrase specified by the user or the search query word is: Emphasized when printed on paper. A variety of different techniques can be used to emphasize words or phrases on paper.

チェックボックス3122を選択することによって、バーコードを印刷されたテキスト情報に関連付けるテキスト・マーカを印刷することができる。   By selecting check box 3122, a text marker can be printed that associates the barcode with the printed text information.

上述のように、ユーザは、チェックボックス3101を選択することによって、レンジに対応する情報のみが印刷されるべきであることを指定できる。所望であれば、各レンジについて、ユーザは、入力ボックス3126において、そのレンジの先頭及び終端に加えられるバッファ時間期間を指定することができる。例えば、バッファ時間期間が5秒に指定された場合、各レンジについて、レンジの先頭の前に5秒に対応する情報が、レンジの終端の後に5秒に対応する情報が、レンジに対応した情報と共に印刷される。   As described above, the user can specify that only information corresponding to the range should be printed by selecting the check box 3101. If desired, for each range, the user can specify in the input box 3126 a buffer time period to be added to the beginning and end of that range. For example, when the buffer time period is specified as 5 seconds, for each range, information corresponding to 5 seconds before the beginning of the range and information corresponding to 5 seconds after the end of the range are information corresponding to the range. Printed with.

また、本発明の実施形態は、(レンジに対応する情報についての、又は、マルチメディア文書コンテンツに対応する情報についての)印刷された情報に対するカバーシートを印刷することもできる。ユーザは、チェックボックス3128を選択することによって、レンジ又はマルチメディア文書のコンテンツを印刷することに加えて、カバーシートが診察されるべきであることを指定することができる。このカバーシートは、マルチメディア文書又はレンジの印刷されたコンテンツの概要又は要約を提供することができる。   Embodiments of the present invention can also print cover sheets for printed information (for information corresponding to a range or for information corresponding to multimedia document content). In addition to printing the contents of the range or multimedia document, the user can specify that the cover sheet should be examined by selecting check box 3128. This cover sheet can provide an overview or summary of the printed content of the multimedia document or range.

カバーシートを印刷するのには様々な異なる手法を用いることができる。カバーシート用には様々なスタイル3130を選択することができる。図34A、34B、及び34Cは、本発明の一実施形態に従って印刷することができるカバーシートの例を示す。カバーシートを生成・印刷する手法の例は、2001年11月19日に出願され、その全内容がここに参考文献として組み込まれる、米国特許出願第10/001,895号に記載されている。また、様々なカバーシートの例も、2001年11月19日に出願された米国特許出願第10/001,895号に記載されている。   A variety of different techniques can be used to print the cover sheet. Various styles 3130 can be selected for the cover sheet. 34A, 34B, and 34C show examples of cover sheets that can be printed according to one embodiment of the present invention. An example of a technique for generating and printing a cover sheet is described in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001, the entire contents of which are hereby incorporated by reference. Examples of various cover sheets are also described in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001.

カバーシートは複数の異なる目的のために用いることができる。既述のように、カバーシートは、マルチメディア文書又はレンジの印刷されたコンテンツの概要又は要約を提供する。また、カバーシートは、ストレージ装置上に格納された情報の要約も提供することができる。例えば、CD上に格納されたマルチメディア情報について、そのCDのコンテンツに基づいて、そのCDのコンテンツがどんなものであるかを要約したカバーシートを生成することができる。例えば、図34Cに示すように、カバーシートは、CDを格納し得る宝石箱用のカバーとして生成・使用される。図34Cに示す実施形態において、CD上に印刷されたバーコードを用いて、そのCDに格納されたマルチメディア情報へアクセスしたり、インデックスを付けたりすることができる。カバーシート上に印刷されたバーコードを用いてマルチメディア情報へアクセスする手法は、2001年11月19日に出願された米国特許出願第10/001,895号に記載されている。また、カバーシートの様々な他の使用法も本発明の範囲内である。   The cover sheet can be used for a number of different purposes. As already mentioned, the cover sheet provides an overview or summary of the printed content of the multimedia document or range. The cover sheet can also provide a summary of the information stored on the storage device. For example, for multimedia information stored on a CD, a cover sheet summarizing what the content of the CD is based on the content of the CD can be generated. For example, as shown in FIG. 34C, the cover sheet is generated and used as a cover for a jewelry box that can store a CD. In the embodiment shown in FIG. 34C, barcode information printed on a CD can be used to access and index multimedia information stored on that CD. A technique for accessing multimedia information using a barcode printed on a cover sheet is described in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001. Various other uses of the cover sheet are also within the scope of the present invention.

また、ユーザは、図31のチェックボックス3132を選択することによって、レンジ又はマルチメディア文書のコンテンツを印刷せず、カバーシートのみを印刷することを選択することができる。これは、例えば、カバーシートが、ストレージ装置上に格納された情報へのインデックスを提供するために生成されたときに、有用である。   Further, the user can select to print only the cover sheet without printing the contents of the range or multimedia document by selecting the check box 3132 of FIG. This is useful, for example, when a cover sheet is generated to provide an index to information stored on the storage device.

図34A、34B、及び34Cに示したカバーシートは、それぞれ、カバーシートが生成されたマルチメディア情報からサンプリングされた(例えば、N秒ごとに均一にサンプリングされた)限定された数のキーフレームを表示する。サンプリング間隔はユーザが指定することができる。例えば、図31に示す実施形態において、ユーザは、入力ボックス3134にサンプリング間隔を入力することができる。   The cover sheets shown in FIGS. 34A, 34B, and 34C each have a limited number of key frames sampled from the multimedia information from which the cover sheet was generated (eg, sampled uniformly every N seconds). indicate. The sampling interval can be specified by the user. For example, in the embodiment shown in FIG. 31, the user can enter a sampling interval in the input box 3134.

また、ユーザは、印刷画質を制御することもできる。図31に示した実施形態において、ユーザは、3つのオプション3136の中から1つを選択することができる。   The user can also control the print image quality. In the embodiment shown in FIG. 31, the user can select one of three options 3136.

図35A、35B、35C、35D、及び35Eは、本発明の一実施形態に係るレンジについて印刷された紙文書を示す。上述のように、レンジは、自動的に生成されたものであってもよく、或いは、ユーザによって手動で指定されたものであってもよい。レンジに対応する情報は、1以上のマルチメディア文書に格納することができる。図25A、35B、35C、35D、及び35Eに示したページは、本発明の一実施形態の単なる例示であり、本発明の範囲を制限するものではない。当業者には、他の変形例、修正例、及び代替例が明らかであろう。   35A, 35B, 35C, 35D, and 35E show a paper document printed for a range according to one embodiment of the present invention. As described above, the range may be automatically generated, or may be manually designated by the user. Information corresponding to a range can be stored in one or more multimedia documents. The pages shown in FIGS. 25A, 35B, 35C, 35D, and 35E are merely illustrative of one embodiment of the invention and do not limit the scope of the invention. Other variations, modifications, and alternatives will be apparent to those skilled in the art.

図35A、35B、35C、35D、及び35Eに示す文書は、3つのマルチメディア文書から選択されたレンジについて印刷される。これら3つのマルチメディア文書は、テレビ番組の録画であり、すなわち、CNN/fnチャンネル(チャンネル358)から取り込まれた番組「Money and Markets」、CNBCチャンネル(チャンネル355)から取り込まれた番組「Closing Bell」、及び、CNN/fnチャンネル(チャンネル358)から取り込まれた番組「Street Sweep」、である。   The documents shown in FIGS. 35A, 35B, 35C, 35D, and 35E are printed for a range selected from three multimedia documents. These three multimedia documents are TV program recordings, ie, the program “Money and Markets” captured from the CNN / fn channel (channel 358) and the program “Closing Bell” captured from the CNBC channel (channel 355). ”, And the program“ street sweep ”taken from the CNN / fn channel (channel 358).

図35A〜Eに示すように、3つの録画された番組のそのレンジに関するコンテンツは、連続して印刷される。「Money and Markets」番組録画マルチメディア文書からのレンジのコンテンツは、図35A及び35Bに示すページ上に印刷され、「Closing Bell」番組録画マルチメディア文書からのレンジのコンテンツは、図35C及び35Dに示すページ上に印刷され、「Street Sweep」番組録画マルチメディア文書からのレンジのコンテンツは、図35Eに示すページ上に印刷される。   As shown in FIGS. 35A-E, the content for that range of the three recorded programs is printed continuously. Range content from the “Money and Markets” program recording multimedia document is printed on the page shown in FIGS. 35A and 35B, and range content from the “Closing Bell” program recording multimedia document is shown in FIGS. 35C and 35D. The range content from the “Street Sweep” program recording multimedia document is printed on the page shown in FIG. 35E.

レンジが選択されたマルチメディア文書を識別する情報3500は、図35A、35C、及び35Eに示すように、印刷される。図35A〜Eに示す実施形態において、各マルチメディア文書を識別する情報は、テレビ番組の名前、その番組が録画されたチャンネルを識別する情報、録画の長さ、及び、録画日時、などを含む。また、マルチメディア文書に関連する他の種類の情報も印刷されてもよい。   Information 3500 identifying the multimedia document with the range selected is printed as shown in FIGS. 35A, 35C, and 35E. In the embodiment shown in FIGS. 35A-E, the information identifying each multimedia document includes the name of the television program, information identifying the channel on which the program was recorded, the length of the recording, the recording date and time, and the like. . Other types of information related to multimedia documents may also be printed.

各レンジの先頭は、バー3502によって示される。したがって、2つのレンジのコンテンツが「Money and Markets」マルチメディア文書から印刷されており、「Closing Bell」マルチメディア文書から4つのレンジのコンテンツが印刷されており、「Street Sweep」マルチメディア文書から3つのレンジのコンテンツが印刷されている。また、各バー3502には、レンジに関連した情報3504も印刷される。図35A〜Eに示す実施形態において、レンジに関連する情報は、そのレンジについての識別子、そのレンジについての開始時刻(R)及び終了時刻(R)、及び、そのレンジのスパン、などを含む。各レンジに関連付けられた他の種類の情報も印刷されてもよい。 The head of each range is indicated by a bar 3502. Thus, two ranges of content are printed from the “Money and Markets” multimedia document, four ranges of content are printed from the “Closing Bell” multimedia document, and three from the “street sweep” multimedia document. One range of content is printed. Each bar 3502 is also printed with information 3504 related to the range. In the embodiment shown in FIGS. 35A-E, information related to a range includes an identifier for the range, a start time (R S ) and end time (R E ) for the range, a span for the range, and the like. Including. Other types of information associated with each range may also be printed.

各レンジについて印刷される情報には、テキスト情報3506と、1以上の画像3508とが含まれる。テキスト情報は、レンジに対応するオーディオ情報(或いは、CCテキスト、又は、そのマルチメディア情報に含まれる他の種類の情報のテキスト表現)の印刷可能表現である。印刷されたテキスト情報に登場し、関心ある話題に関連する単語又はフレーズ、或いは、ユーザが指定した単語又はフレーズ又は検索クエリーに一致する単語又はフレーズ、の存在が強調される。例えば、図35A〜Eに示す実施形態について、ユーザは、「Stewart」、「Imclone」、及び、「Waksal」という単語を含む検索クエリーを定義している。したがって、これら検索クエリー単語のすべての存在が、様々なレンジについての印刷されたテキスト・セクションにおいて、(下線を用いて)強調される。テキストを太字にする、フォント又はサイズを変更する、テキストをイタリックにする、などの単語を強調するための様々な異なる手法も用いることができる。   Information printed for each range includes text information 3506 and one or more images 3508. The text information is a printable representation of audio information (or CC text or text representation of other types of information contained in the multimedia information) corresponding to the range. Appears in the printed text information and highlights the presence of words or phrases related to the topic of interest, or words or phrases that match a user specified word or phrase or search query. For example, for the embodiment shown in FIGS. 35A-E, the user has defined a search query that includes the words “Stewart”, “Imclone”, and “Waksal”. Thus, the presence of all of these search query words is highlighted (using underline) in the printed text section for the various ranges. A variety of different techniques for emphasizing words such as making text bold, changing the font or size, making text italic, etc. can also be used.

各レンジについて印刷された画像3508は、そのレンジについてビデオ情報から抽出された画像を表す。レンジのビデオ情報からビデオ・キーフレームを抽出し、印刷するキーフレームを識別するのには複数の様々な手法を用いることができる。これら手法の例は、既に述べたと共に、2001年11月19日に出願された米国特許出願第10/001,895号にも記載されている。情報を印刷するのには様々な異なるスタイルを用いることができる。例えば、ユーザは、図31に示すスタイル3110及び3112から選ぶことができる。   An image 3508 printed for each range represents an image extracted from the video information for that range. A number of different techniques can be used to extract video keyframes from a range of video information and identify the keyframes to be printed. Examples of these techniques have already been described and are described in US patent application Ser. No. 10 / 001,895 filed on Nov. 19, 2001. A variety of different styles can be used to print the information. For example, the user can select from the styles 3110 and 3112 shown in FIG.

また、バーコード3510も各レンジについて印刷される。図35A〜Eに示した実施形態において、バーコード3510が各画像3508について印刷され、画像の下に置かれる。バーコードを印刷するのには様々な異なるスタイルを用いることができる。例えば、図31に示す実施形態では、バーコードを印刷するのに2つの異なるスタイル3112が用意され、第一のスタイルは、(図35A〜Eに示すように)キーフレームごとに1つのバーコードが印刷されるものであり、第二のスタイルは、4キーフレームごとに1つのバーコードが印刷されるものである。   A barcode 3510 is also printed for each range. In the embodiment shown in FIGS. 35A-E, a barcode 3510 is printed for each image 3508 and placed under the image. A variety of different styles can be used to print the barcode. For example, in the embodiment shown in FIG. 31, two different styles 3112 are provided for printing barcodes, the first style being one barcode per keyframe (as shown in FIGS. 35A-E). In the second style, one bar code is printed every four key frames.

図35A〜Eに示す本発明の一実施形態によれば、画像の下に印刷される各バーコードは、その画像に関連付けられた時刻を表す。バーコード3510は、その紙文書の読者に、その紙文書を用いてマルチメディア情報へアクセスするメカニズムを提供する。本発明の一実施形態によれば、スキャナ、バーコード・リーダなどの装置を用いたバーコードの走査により、そのバーコードに対応するマルチメディア文書からのマルチメディア情報の再生がそのバーコードによって表された時刻から開始される。この再生は、任意の出力装置上で行うことができる。例えば、情報は、コンピュータ画面上に表示された上述のGUIの一ウィンドウで再生されてもよい。   According to one embodiment of the invention shown in FIGS. 35A-E, each barcode printed below an image represents the time associated with that image. Barcode 3510 provides a mechanism for readers of the paper document to access multimedia information using the paper document. According to an embodiment of the present invention, reproduction of multimedia information from a multimedia document corresponding to a barcode is represented by the barcode by scanning the barcode using a device such as a scanner or a barcode reader. It starts from the set time. This reproduction can be performed on any output device. For example, the information may be reproduced in one window of the above-described GUI displayed on the computer screen.

また、各バーコード3510は、レンジについての開始時刻及び終了時刻を識別することもできる。バーコード・リーダ又はスキャナを用いてこのようなバーコードを走査することによって、そのレンジに対応する情報が再生される。また、各バーコード3510は、レンジを識別するラベル又は識別子も表すことができる。この実施形態において、このようなバーコードを走査すると、走査されたバーコードによって表されたレンジ識別子を用いて、そのレンジの開始時刻及び終了時刻を決定することができ、次いで、そのレンジに対応する情報を再生することができる。   Each bar code 3510 can also identify the start time and end time for the range. By scanning such a barcode using a barcode reader or scanner, information corresponding to the range is reproduced. Each barcode 3510 can also represent a label or identifier that identifies the range. In this embodiment, when scanning such a barcode, the range identifier represented by the scanned barcode can be used to determine the start and end time of that range, and then correspond to that range. Information can be reproduced.

このように、図35A〜Eに示した文書は、格納されたマルチメディア情報にアクセスする紙インターフェースを提供する。マルチメディア情報にアクセスするのに紙インターフェースを用いることに関連する更なる情報は、2001年11月19日に出願された米国特許出願第10/001,895号に記載されている。また、本発明の代替的実施形態として、透かし、象形文字(glyph)、テキスト識別子、などの他のユーザが選択可能な識別子もパーコードの代わりに用いることができる。ユーザが選択可能な識別子は、紙文書の全体的な読み易さを低減させないように又は影響を与えないように印刷されるかもしれない。   Thus, the documents shown in FIGS. 35A-E provide a paper interface for accessing stored multimedia information. Further information relating to using a paper interface to access multimedia information is described in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001. Also, as alternative embodiments of the present invention, other user-selectable identifiers such as watermarks, glyphs, text identifiers, etc. may be used in place of the parcode. The user selectable identifier may be printed so as not to reduce or affect the overall readability of the paper document.

また、図35A〜Eに示す紙文書の各紙ページの下端にバーコード群3512が印刷される。バーコード群3512により、ユーザは、紙文書を用いて、マルチメディア情報の再生を開始・制御することができる。本発明の一実施形態によれば、各バーコードはマルチメディア情報の再生を制御するコマンドに対応している。図35A〜Eに図示した実施形態においては、5つのコントロール・バーコード3512が印刷される。コントロール・バーコード3512−1により、ユーザは、再生させたり、再生を一時停止したりすることができる。例えば、ユーザは、バーコード3510を走査し、それからバーコード3512−1を走査することによって、操作されたバーコード3510によって表される時刻から情報の再生を開始させることができる。ユーザは、バーコード3512−1を再走査することによって、再生を一時停止させることができる。ユーザは、ボーコード3512−3を選択することによって、巻き戻し操作を実行することができる。バーコード3512−4を選択することによって、再生をエンハンスト・モードで実行することができる。エンハンスト・モードは、追加的視聴コントロール及び情報(例えば、専門のタイムラインが表示される、PDA上のオンスクリーン・ボタンを用いて再生中の情報をナビゲートできるようにコントロールが提供される、など)を提供する代替的GUIである。エンハンスト・モード表示に関する更なる詳細は、2002年6月17日に出願され、その全内容がここに参考文献として組み込まれる、米国特許出願第10/174,522号に記載されている。バーコード3512−5を選択することによって、具体的なオペレーション・モードを入力することができる。本発明の代替的実施形態として、様々な他のオペレーション用のバーコードも設けることができる。情報の再生を制御するバーコードに関する情報は、2001年11月19日に出願された米国特許出願第10/001,895号に記載されている。   In addition, a barcode group 3512 is printed at the lower end of each paper page of the paper document shown in FIGS. The barcode group 3512 allows the user to start and control the reproduction of multimedia information using a paper document. According to one embodiment of the invention, each barcode corresponds to a command that controls the playback of multimedia information. In the embodiment illustrated in FIGS. 35A-E, five control barcodes 3512 are printed. The control barcode 3512-1 allows the user to play back or pause playback. For example, the user can start reproducing information from the time represented by the operated barcode 3510 by scanning the barcode 3510 and then scanning the barcode 3512-1. The user can pause playback by rescanning the bar code 3512-1. The user can execute a rewind operation by selecting the baud code 3512-3. By selecting bar code 3512-4, playback can be performed in enhanced mode. Enhanced mode provides additional viewing controls and information (e.g., a specialized timeline is displayed, controls are provided so that the information being played can be navigated using on-screen buttons on the PDA, etc. ) Providing an alternative GUI. Further details regarding enhanced mode display are described in US patent application Ser. No. 10 / 174,522, filed Jun. 17, 2002, the entire contents of which are hereby incorporated by reference. By selecting the barcode 3512-5, a specific operation mode can be entered. As alternative embodiments of the present invention, bar codes for various other operations may also be provided. Information regarding barcodes that control the reproduction of information is described in US patent application Ser. No. 10 / 001,895, filed Nov. 19, 2001.

本発明の具体的な実施形態について説明したが、様々な修正例、代替例、代替的構成、及び、等価物も本発明の範囲内に含まれる。説明してきた本発明は、特定の具体的なデータ処理環境内での作動に限定されるものではなく、複数のデータ処理環境内で自由に作動できる。加えて、本発明は特定の一連のやりとり及び工程を用いて説明したが、当業者には明らかなように、本発明の範囲は記載した一連のやりとり及び工程に限定されない。例えば、本発明の教えるところに従ってGUIを生成する処理は、サーバ104によって実行されてもよく、クライアント102によって実行されてもよく、別のコンピュータによって実行されてもよく、或いは、接続された様々なコンピュータ・システムによって実行されてもよい。   While specific embodiments of the invention have been described, various modifications, alternatives, alternative configurations, and equivalents are also included within the scope of the invention. The described invention is not limited to operation within a particular specific data processing environment, but can operate freely within a plurality of data processing environments. In addition, although the present invention has been described using a specific series of interactions and processes, as will be apparent to those skilled in the art, the scope of the present invention is not limited to the series of interactions and processes described. For example, the process of generating a GUI in accordance with the teachings of the present invention may be performed by the server 104, may be performed by the client 102, may be performed by another computer, or may be a variety of connected It may be executed by a computer system.

さらに、本発明はハードウェアとソフトウェアの特定の組み合わせを用いて説明したが、ハードウェアとソフトウェアの他の組み合わせも本発明の範囲内であることは明らかである。本発明は、ハードウェアのみで実施されてもよく、ソフトウェアのみで実施されてもよく、或いは、それらの組み合わせを用いて実施されてもよい。   Furthermore, although the invention has been described using a particular combination of hardware and software, it should be apparent that other combinations of hardware and software are within the scope of the invention. The present invention may be implemented with hardware alone, software alone, or a combination thereof.

したがって、本明細書及び図面は、限定的な意味ではなく、例示と考えられるべきである。しかし、請求項記載の本発明のより広義な意図及び範囲を逸脱することなく、追加、置換、削除、及び、他の修理及び変更を行うことが可能であることは明らかである。   The specification and drawings are accordingly to be regarded in an illustrative rather than restrictive sense. However, it will be apparent that additions, substitutions, deletions and other repairs and modifications may be made without departing from the broader spirit and scope of the claimed invention.

本発明の一実施形態を組み込み得る分散ネットワークの簡略化されたブロック図である。1 is a simplified block diagram of a distributed network that may incorporate an embodiment of the present invention. FIG. 本発明の一実施形態に係るコンピュータ・システムの簡略化されたブロック図である。FIG. 2 is a simplified block diagram of a computer system according to an embodiment of the present invention. マルチメディア情報を視聴するための本発明の一実施形態に係る簡略化されたユーザ・インターフェース300を示す図である。FIG. 3 illustrates a simplified user interface 300 for viewing multimedia information according to an embodiment of the present invention. 本発明の一実施形態に係るサムネール表示エリア・レンズの拡大簡略図である。It is an expansion simplification figure of a thumbnail display area lens concerning one embodiment of the present invention. 本発明の一実施形態に係るパネル表示エリア・レンズの簡略図である。1 is a simplified diagram of a panel display area lens according to an embodiment of the present invention. 本発明の一実施形態に係るパネル表示エリア・レンズの簡略図である。1 is a simplified diagram of a panel display area lens according to an embodiment of the present invention. 本発明の一実施形態に係るパネル表示エリア・レンズの簡略図である。1 is a simplified diagram of a panel display area lens according to an embodiment of the present invention. ユーザが選択した単語が注釈が付けられた又は強調された本発明の一実施形態に係る簡略化されたユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified user interface according to an embodiment of the present invention with a user selected word annotated or highlighted. 本発明の一実施形態に係るGUIの第二の表示エリアの拡大簡略図である。It is an expansion simplification figure of the 2nd display area of GUI which concerns on one Embodiment of this invention. ユーザが関心ある1以上のトピックスに関連するマルチメディア情報が注釈が付けられた又は強調された本発明の一実施形態に係る簡略化されたGUIを示す図である。FIG. 6 illustrates a simplified GUI according to an embodiment of the present invention annotated or highlighted with multimedia information related to one or more topics of interest to a user. 対象トピックスを定義する本発明の一実施形態に係る簡略化されたユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified user interface according to an embodiment of the invention that defines target topics. 本発明の一実施形態に係る会議録画によって記憶されたマルチメディア情報を表示する簡略化されたユーザ・インターフェースを示す図である。FIG. 6 is a simplified user interface displaying multimedia information stored by conference recording according to an embodiment of the present invention. 本発明の一実施形態に係るマルチメディア文書によって記憶されたマルチメディア情報を表示する簡略化されたユーザ・インターフェースを示す図である。FIG. 4 illustrates a simplified user interface displaying multimedia information stored by a multimedia document according to an embodiment of the present invention. 本発明の一実施形態に係るマルチメディア文書によって記憶されたマルチメディア情報を表示する簡略化されたユーザ・インターフェースを示す図である。FIG. 4 illustrates a simplified user interface displaying multimedia information stored by a multimedia document according to an embodiment of the present invention. 本発明の一実施形態に係るGUIの第二の表示エリアにサムネール表示テキスト情報を表示させる方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method for displaying thumbnail display text information in a second display area of a GUI according to an embodiment of the present invention. 本発明の一実施形態に係るGUIの第二の表示エリアにサムネール表示テキスト情報を表示させる方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method for displaying thumbnail display text information in a second display area of a GUI according to an embodiment of the present invention. 本発明の一実施形態に係るGUIの第二の表示エリアにビデオ情報から抽出されたビデオ・キーフレームを示すサムネールを表示させる方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method for displaying a thumbnail indicating a video keyframe extracted from video information in a second display area of a GUI according to an embodiment of the present invention. 本発明の一実施形態に係るサムネール312−2を表示させる別の方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating another method of displaying thumbnail 312-2 according to one embodiment of the present invention. サムネール表示エリア・レンズ314を表示し、第三の表示エリア306にサムネール表示エリア・レンズ314によって強調された情報を表示し、パネル表示エリア・レンズ322を表示し、第四の表示エリア308にパネル表示エリア・レンズ322によって強調された情報を表示し、第五の表示エリア310に情報を表示する、本発明の一実施形態に係る方法を示す簡略化された高レベル・フローチャートである。The thumbnail display area / lens 314 is displayed, the information highlighted by the thumbnail display area / lens 314 is displayed in the third display area 306, the panel display area / lens 322 is displayed, and the panel is displayed in the fourth display area 308. 6 is a simplified high-level flowchart illustrating a method according to an embodiment of the present invention for displaying information highlighted by display area lens 322 and displaying information in a fifth display area 310. サムネール表示エリア・レンズ314の位置変更に応じて第三の表示エリア306に表示された情報を自動的に更新する本発明の一実施形態に係る方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method according to an embodiment of the present invention for automatically updating information displayed in a third display area 306 in response to a change in position of a thumbnail display area lens 314; . パネル表示エリア・レンズ322の位置変更に応じて第四の表示エリア308に表示された情報及びサムネール表示エリア・レンズ314及びサブレンズ316の位置を自動的に更新する方法を示す簡略化された高レベル・フローチャートである。A simplified view showing how to automatically update the information displayed in the fourth display area 308 and the positions of the thumbnail display area / lens 314 and sub-lens 316 in response to the position change of the panel display area / lens 322. It is a level flowchart. 本発明の一実施形態に係るレンジを表示する簡略化されたユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified user interface displaying a range according to an embodiment of the present invention. 本発明の一実施形態に係るレンジを編集する簡略化されたダイアログ・ボックスを示す図である。FIG. 6 illustrates a simplified dialog box for editing a range according to one embodiment of the present invention. 本発明の一実施形態に係るレンジを自動的に作成する方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method for automatically creating a range according to an embodiment of the present invention. マルチメディア情報のヒット位置に基づいてレンジを自動的に作成する本発明の一実施形態に係る方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method according to an embodiment of the present invention for automatically creating a range based on the hit location of multimedia information. レンジのサイズ及びレンジと隣接レンジとの近さに基づいて1以上のレンジを合成する本発明の一実施形態に係る方法を示す簡略化された高レベル・フローチャートである。6 is a simplified high-level flowchart illustrating a method according to an embodiment of the present invention for combining one or more ranges based on the size of the range and the proximity of the range and adjacent ranges. 本発明の一実施形態に係る隣接レンジ間の関係を示す簡略図である。It is a simplification figure showing the relation between adjacent ranges concerning one embodiment of the present invention. 本発明の一実施形態に係る図24に示したレンジR及びRを合成することによって作成されたレンジを示す簡略図である。FIG. 25 is a simplified diagram illustrating a range created by combining ranges R i and R k shown in FIG. 24 according to an embodiment of the present invention. 本発明の一実施形態に係る図24に示したレンジR及びRを合成することによって作成されたレンジを示す簡略図である。FIG. 25 is a simplified diagram illustrating a range created by combining ranges R i and R j illustrated in FIG. 24 according to an embodiment of the present invention. 本発明の一実施形態に従って自動的に作成されたレンジを示すGUIの拡大版を示す図である。FIG. 5 is an enlarged version of a GUI showing a range automatically created according to one embodiment of the present invention. 本発明の一実施形態に係る1以上のマルチメディア文書に格納され得る情報を表示する簡略化されたスタートアップ・ユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified startup user interface displaying information that can be stored in one or more multimedia documents according to an embodiment of the present invention. ユーザがロード・ボタンを選択したときに表示される、本発明の一実施形態に係る簡略化されたウィンドウを示す図である。FIG. 6 shows a simplified window according to an embodiment of the present invention displayed when a user selects a load button. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る格納された情報を表示するユーザ・インターフェースの一例を示す図である。FIG. 3 is a diagram illustrating an example of a user interface that displays stored information according to an embodiment of the present invention. 本発明の一実施形態に係る1以上のマルチメディア文書のコンテンツを表示する簡略化されたユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified user interface displaying content of one or more multimedia documents according to an embodiment of the present invention. 本発明の一実施形態に係る1以上のマルチメディア文書のコンテンツを表示する簡略化されたユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified user interface displaying content of one or more multimedia documents according to an embodiment of the present invention. 本発明の一実施形態に係る1以上のマルチメディア文書のコンテンツ又はレンジに対応したコンテンツを印刷するのに用いられ得る簡略化されたユーザ・インターフェースを示す図である。FIG. 6 illustrates a simplified user interface that can be used to print content corresponding to the content or range of one or more multimedia documents according to one embodiment of the present invention. 本発明の一実施形態に係る図31に示したインターフェースから選択可能なスタイルに従って印刷されたページを示す図である。FIG. 32 is a diagram showing a page printed according to a style selectable from the interface shown in FIG. 31 according to an embodiment of the present invention. 本発明の一実施形態に係る図31に示したインターフェースから選択可能なスタイルに従って印刷されたページを示す図である。FIG. 32 is a diagram showing a page printed according to a style selectable from the interface shown in FIG. 31 according to an embodiment of the present invention. 本発明の一実施形態に係る図31に示したインターフェースから選択可能なスタイルに従って印刷されたページを示す図である。FIG. 32 is a diagram showing a page printed according to a style selectable from the interface shown in FIG. 31 according to an embodiment of the present invention. 本発明の一実施形態に係る図31に示したインターフェース31から選択可能なキーフレーム・スタイルを用いて印刷されたページを示す図である。FIG. 32 is a diagram illustrating a page printed using a key frame style selectable from the interface 31 illustrated in FIG. 31 according to an embodiment of the present invention. 本発明の一実施形態に係る図31に示したインターフェース31から選択可能なキーフレーム・スタイルを用いて印刷されたページを示す図である。FIG. 32 is a diagram illustrating a page printed using a key frame style selectable from the interface 31 illustrated in FIG. 31 according to an embodiment of the present invention. 本発明の一実施形態に従って印刷され得るカバーシートの一例を示す図である。It is a figure which shows an example of the cover sheet which can be printed according to one Embodiment of this invention. 本発明の一実施形態に従って印刷され得るカバーシートの一例を示す図である。It is a figure which shows an example of the cover sheet which can be printed according to one Embodiment of this invention. 本発明の一実施形態に従って印刷され得るカバーシートの一例を示す図である。It is a figure which shows an example of the cover sheet which can be printed according to one Embodiment of this invention. 本発明の一実施形態に係るレンジについて印刷されたペーパ文書を示す図である。FIG. 3 is a diagram illustrating a paper document printed for a range according to an embodiment of the present invention. 本発明の一実施形態に係るレンジについて印刷されたペーパ文書を示す図である。FIG. 3 is a diagram illustrating a paper document printed for a range according to an embodiment of the present invention. 本発明の一実施形態に係るレンジについて印刷されたペーパ文書を示す図である。FIG. 3 is a diagram illustrating a paper document printed for a range according to an embodiment of the present invention. 本発明の一実施形態に係るレンジについて印刷されたペーパ文書を示す図である。FIG. 3 is a diagram illustrating a paper document printed for a range according to an embodiment of the present invention. 本発明の一実施形態に係るレンジについて印刷されたペーパ文書を示す図である。FIG. 3 is a diagram illustrating a paper document printed for a range according to an embodiment of the present invention.

符号の説明Explanation of symbols

100 分散型ネットワーク
102 クライアント・システム
104 サーバ・システム
106 マルチメディア情報源
108 通信ネットワーク
110 通信リンク
200 コンピュータ・システム
202 プロセッサ
204 バス・サブシステム
206 ストレージ・サブシステム
208 メモリ・サブシステム
210 ファイル・ストレージ・サブシステム
212 ユーザ・インターフェース入力装置
214 ユーザ・インターフェース出力装置
216 ネットワーク・インターフェース・サブシステム
218 ランダム・アクセス・メモリ(RAM)
220 リード・オンリ・メモリ(ROM)
DESCRIPTION OF SYMBOLS 100 Distributed network 102 Client system 104 Server system 106 Multimedia information source 108 Communication network 110 Communication link 200 Computer system 202 Processor 204 Bus subsystem 206 Storage subsystem 208 Memory subsystem 210 File storage subsystem System 212 User interface input device 214 User interface output device 216 Network interface subsystem 218 Random access memory (RAM)
220 Read-only memory (ROM)

Claims (82)

コンピュータにより実施される情報を表示する方法であって、
第一の格納された情報の第一の表現を表示する工程と、
前記第一の表現の1以上の部分を強調する工程と、を有し、
前記第一の格納された情報は、第一の種類の情報と、第二の種類の情報とを有し、
前記第一の表現は、前記第一の格納された情報に含まれる前記第一の種類の情報の表現と、前記第一の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第一の表現の1以上の部分は、前記第一の表現のうち第一の基準を含む部分に対応する、ことを特徴とする方法。
A computer-implemented method of displaying information comprising:
Displaying a first representation of the first stored information;
Emphasizing one or more portions of the first representation,
The first stored information includes a first type of information and a second type of information;
The first expression includes an expression of the first type of information included in the first stored information, and an expression of the second type of information included in the first stored information. Including
The method of claim 1, wherein one or more portions of the enhanced first representation correspond to portions of the first representation that include a first criterion.
請求項1記載の方法であって、
第二の格納された情報の第二の表現を表示する工程と、
前記第二の表現の1以上の部分を強調する工程と、を更に有し、
前記第二の格納された情報は、第一の種類の情報と、第二の種類の情報とを有し、
前記第二の表現は、前記第二の格納された情報に含まれる前記第一の種類の情報の表現と、前記第二の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第二の表現の1以上の部分は、前記第二の表現のうち前記第一の基準を含む部分に対応する、ことを特徴とする方法。
The method of claim 1, comprising:
Displaying a second representation of the second stored information;
Further emphasizing one or more portions of the second representation,
The second stored information has a first type of information and a second type of information;
The second representation includes a representation of the first type of information included in the second stored information, and a representation of the second type of information included in the second stored information. Including
One or more portions of the enhanced second representation correspond to portions of the second representation that include the first criterion.
請求項2記載の方法であって、
前記第一の基準は単語を含み、
前記第一の表現の1以上の部分を強調する工程は、前記第一の表現のうち前記単語を含む1以上の部分を強調する工程を含み、
前記第二の表現の1以上の部分を強調する工程は、前記第二の表現のうち前記単語を含む1以上の部分を強調する工程を含む、ことを特徴とする方法。
The method of claim 2, comprising:
The first criterion includes a word;
Emphasizing one or more parts of the first expression includes emphasizing one or more parts of the first expression that include the word;
Emphasizing one or more parts of the second expression includes emphasizing one or more parts of the second expression that contain the word.
請求項2記載の方法であって、
前記第一の基準は関心ある話題を含み、
前記第一の表現の1以上の部分を強調する工程は、前記第一の表現のうち前記関心ある話題に関連する1以上の部分を強調する工程を含み、
前記第二の表現の1以上の部分を強調する工程は、前記第二の表現のうち前記関心ある話題に関連する1以上の部分を強調する工程を含む、ことを特徴とする方法。
The method of claim 2, comprising:
The first criterion includes the topic of interest;
Emphasizing one or more portions of the first representation includes highlighting one or more portions of the first representation that are related to the topic of interest;
Emphasizing one or more portions of the second representation includes highlighting one or more portions of the second representation that are related to the topic of interest.
請求項2記載の方法であって、
前記第一の格納された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第一の格納された情報に含まれる前記第二の種類の情報はビデオ情報であり、
前記第二の格納された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第二の格納された情報に含まれる前記第二の種類の情報はビデオ情報である、ことを特徴とする方法。
The method of claim 2, comprising:
The first type of information included in the first stored information is audio information;
The second type of information included in the first stored information is video information;
The first type information included in the second stored information is audio information;
The method of claim 2, wherein the second type of information included in the second stored information is video information.
請求項5方法であって、
前記第一の表現に含まれる前記第一の種類の情報の前記表現は、前記第一の格納された情報に含まれる前記オーディオ情報を録音することによって得られたテキスト情報を含み、
前記第一の表現に含まれる前記第二の種類の情報の前記表現は、前記第一の格納された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含み、
前記第二の表現に含まれる前記第一の種類の情報の前記表現は、前記第二の格納された情報に含まれる前記オーディオ情報を録音することによって得られたテキスト情報を含み、
前記第二の表現に含まれる前記第二の種類の情報の前記表現は、前記第二の格納された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含む、ことを特徴とする方法。
5. The method of claim 5, comprising:
The representation of the first type of information included in the first representation includes text information obtained by recording the audio information included in the first stored information;
The representation of the second type of information included in the first representation includes one or more video keyframes extracted from the video information included in the first stored information;
The representation of the first type of information included in the second representation includes text information obtained by recording the audio information included in the second stored information;
The representation of the second type of information included in the second representation includes one or more video keyframes extracted from the video information included in the second stored information; Feature method.
請求項6記載の方法であって、
前記第一の表現の1以上の部分を強調する工程は、前記第一の表現に含まれる前記テキスト情報の中で前記第一の基準を含む1以上の行を強調する工程を含み、
前記第二の表現の1以上の部分を強調する工程は、前記第二の表現に含まれる前記テキスト情報の中で前記第一の基準を含む1以上の行を強調する工程を含む、ことを特徴とする方法。
The method of claim 6, comprising:
Emphasizing one or more portions of the first representation includes emphasizing one or more lines including the first criterion in the text information included in the first representation;
Emphasizing one or more portions of the second representation includes emphasizing one or more lines including the first criterion in the text information included in the second representation. Feature method.
請求項6記載の方法であって、
前記第一の表現の1以上の部分を強調する工程は、前記第一の表現に含まれる前記ビデオ情報の中で前記第一の基準を含む1以上のビデオ・キーフレームを強調する工程を含み、
前記第二の表現の1以上の部分を強調する工程は、前記第二の表現に含まれる前記ビデオ情報の中で前記第一の基準を含む1以上のビデオ・キーフレームを強調する工程を含む、ことを特徴とする方法。
The method of claim 6, comprising:
Emphasizing one or more portions of the first representation includes emphasizing one or more video keyframes that include the first criterion in the video information included in the first representation. ,
Emphasizing one or more portions of the second representation includes emphasizing one or more video keyframes that include the first criterion in the video information included in the second representation. A method characterized by that.
請求項5記載の方法であって、
前記第一の格納された情報に含まれる前記ビデオ情報と前記第二の格納された情報に含まれる前記ビデオ情報とを再生する工程を更に有する、ことを特徴とする方法。
The method of claim 5, comprising:
The method further comprising the step of playing back the video information included in the first stored information and the video information included in the second stored information.
請求項2記載の方法であって、
前記第一の表現又は前記第二の表現の前記強調された1以上の部分から選択された第一の部分を示す信号を受信する工程と、
前記第一の選択された部分のコンテンツの表現を表示する工程と、を更に有することを特徴とする方法。
The method of claim 2, comprising:
Receiving a signal indicative of a first portion selected from the highlighted one or more portions of the first representation or the second representation;
Displaying the representation of the content of the first selected portion.
請求項10記載の方法であって、
前記第一の選択された部分のコンテンツの表現は、前記第一の選択された部分のコンテンツに基づいて生成されたウェブ・ページである、ことを特徴とする方法。
The method of claim 10, comprising:
The method of claim 1, wherein the content representation of the first selected portion is a web page generated based on the content of the first selected portion.
請求項2記載の方法であって、
前記第一の表現及び前記第二の表現の前記強調された1以上の部分の各部分についての表現を表示する工程を更に有し、
前記一部分についての表現は、該一部分のコンテンツに基づいて生成される、ことを特徴とする方法。
The method of claim 2, comprising:
Further comprising displaying a representation for each portion of the highlighted one or more portions of the first representation and the second representation;
The representation of the portion is generated based on the content of the portion.
請求項2記載の方法であって、
前記第一の格納された情報に含まれる第一の種類の情報及び前記第二の格納された情報に含まれる第一の種類の情報を再生する工程を更に有する、ことを特徴とする方法。
The method of claim 2, comprising:
The method further comprising the step of reproducing the first type of information contained in the first stored information and the first type of information contained in the second stored information.
コンピュータにより実施されるマルチメディア情報を表示する方法であって、
第一の記録された情報に含まれる第一の種類の情報の表現を含む第一のサムネールを表示する工程と、
前記第一の記録された情報に含まれる第二の種類の情報の表現を含む第二のサムネールを表示する工程と、
第二の記録された情報に含まれる第一の種類の情報の表現を含む第三のサムネールを表示する工程と、
前記第二の記録された情報に含まれる第二の種類の情報の表現を含む第四のサムネールを表示する工程と、を有することを特徴とする方法。
A computer implemented method for displaying multimedia information comprising:
Displaying a first thumbnail including a representation of the first type of information contained in the first recorded information;
Displaying a second thumbnail containing a representation of the second type of information contained in the first recorded information;
Displaying a third thumbnail containing a representation of the first type of information contained in the second recorded information;
Displaying a fourth thumbnail containing a representation of the second type of information contained in the second recorded information.
請求項14記載の方法であって、
1以上の単語を含む単語群を識別する情報を受信する工程と、
前記第一のサムネール及び前記第三のサムネールのうち前記単語群の中の少なくとも一単語を含む1以上の部分を強調する工程とを更に有する、ことを特徴とする方法。
15. The method of claim 14, comprising
Receiving information identifying a group of words including one or more words;
Highlighting one or more portions of the first and third thumbnails that include at least one word in the word group.
請求項15記載の方法であって、
前記第二のサムネール及び前記第四のサムネールのうち前記単語群の中の少なくとも一単語を含む1以上の部分を強調する工程を更に有する、ことを特徴とする方法。
The method of claim 15, comprising:
The method further comprises highlighting one or more portions of the second thumbnail and the fourth thumbnail that include at least one word in the word group.
請求項16記載の方法であって、
前記第二又は第四のサムネールのうちの前記強調された1以上の部分から選択された第一の部分を示す情報を受信する工程と、
前記第一の部分に対応する前記第二の種類の情報を出力する工程とを更に有し、
前記第一の部分は、前記第一又は第二の記録された情報に含まれた前記第二の種類の情報の一部分に対応する、ことを特徴とする方法。
The method of claim 16, comprising:
Receiving information indicative of a first portion selected from the highlighted one or more portions of the second or fourth thumbnail;
Outputting the second type of information corresponding to the first part,
The method of claim 1, wherein the first portion corresponds to a portion of the second type of information included in the first or second recorded information.
請求項14記載の方法であって、
1以上の関心ある話題を含む関心ある話題群を識別する情報を受信する工程と、
前記第一のサムネール及び前記第三のサムネールのうち前記関心ある話題群の中の少なくとも1つの関心ある話題を含む1以上の部分を強調する工程とを更に有する、ことを特徴とする方法。
15. The method of claim 14, comprising
Receiving information identifying a group of topics of interest including one or more topics of interest;
Highlighting one or more portions of the first thumbnail and the third thumbnail that include at least one topic of interest in the group of topics of interest.
請求項18記載の方法であって、
前記第二のサムネール及び前記第四のサムネールのうち前記関心ある話題群の中の少なくとも1つの関心ある話題を含む1以上の部分を強調する工程を更に有する、ことを特徴とする方法。
The method of claim 18, comprising:
The method further comprising highlighting one or more portions of the second thumbnail and the fourth thumbnail that include at least one topic of interest in the group of topics of interest.
請求項14記載の方法であって、
前記第一の記録された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第一の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり、
前記第二の記録された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第二の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり
前記第一のサムネールは、前記第一の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含み、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含む、ことを特徴とする方法。
15. The method of claim 14, comprising
The first type information included in the first recorded information is audio information;
The second type of information included in the first recorded information is video information;
The first type information included in the second recorded information is audio information;
The second type of information included in the second recorded information is video information, and the first thumbnail is text information obtained from the audio information included in the first recorded information. Including
The second thumbnail includes one or more video keyframes extracted from the video information included in the first recorded information;
The third thumbnail includes text information obtained from the audio information included in the second recorded information;
The method of claim 4, wherein the fourth thumbnail includes one or more video keyframes extracted from the video information included in the second recorded information.
請求項14記載の方法であって、
前記第一の記録された情報に含まれる前記第一の種類の情報はクローズド・キャプション・テキスト情報であり、
前記第一の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり、
前記第二の記録された情報に含まれる前記第一の種類の情報はクローズド・キャプション・テキスト情報であり、
前記第二の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり
前記第一のサムネールは、前記第一の記録された情報に含まれる前記クローズド・キャプション・テキスト情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含み、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記クローズド・キャプション・テキスト情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含む、ことを特徴とする方法。
15. The method of claim 14, comprising
The first type of information contained in the first recorded information is closed caption text information;
The second type of information included in the first recorded information is video information;
The first type of information contained in the second recorded information is closed caption text information;
The second type of information included in the second recorded information is video information, and the first thumbnail is obtained from the closed caption text information included in the first recorded information. Text information provided,
The second thumbnail includes one or more video keyframes extracted from the video information included in the first recorded information;
The third thumbnail includes text information obtained from the closed caption text information included in the second recorded information,
The method of claim 4, wherein the fourth thumbnail includes one or more video keyframes extracted from the video information included in the second recorded information.
オーディオ情報及びビデオ情報を含む第一の記録された情報とオーディオ情報及びビデオ情報を含む第二の記録された情報とに含まれる情報を表示する方法であって、
前記第一の記録された情報に含まれる情報の第一の表現を表示する工程と、
前記第二の記録された情報に含まれる情報の第二の表現を表示する工程と、を有し、
前記第一の表現は、第一のサムネールと第二のサムネールとを有し、
前記第一のサムネールは、前記第一の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含み、
前記第二の表現は、第三のサムネールと第四のサムネールとを有し、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含む、ことを特徴とする方法。
A method for displaying information contained in a first recorded information including audio information and video information and a second recorded information including audio information and video information,
Displaying a first representation of the information contained in the first recorded information;
Displaying a second representation of the information contained in the second recorded information,
The first representation has a first thumbnail and a second thumbnail;
The first thumbnail includes text information obtained from the audio information included in the first recorded information,
The second thumbnail includes one or more key frames extracted from the video information included in the first recorded information;
The second representation has a third thumbnail and a fourth thumbnail;
The third thumbnail includes text information obtained from the audio information included in the second recorded information;
The method of claim 4, wherein the fourth thumbnail includes one or more key frames extracted from the video information included in the second recorded information.
請求項22記載の方法であって、
ユーザ基準を識別する情報を受信する工程と、
前記第一の表現及び前記第二の表現のうち前記ユーザ基準を含む1以上の部分を強調する工程とを更に有し、
前記第一の表現の強調される部分は、前記第一のサムネール及び前記第二のサムネールの一部を覆い、
前記第二の表現の強調される部分は、前記第三のサムネール及び前記第四のサムネールの一部を覆う、ことを特徴とする方法。
23. The method of claim 22, wherein
Receiving information identifying user criteria;
Further emphasizing one or more portions of the first representation and the second representation that include the user criteria,
The highlighted portion of the first representation covers a portion of the first thumbnail and the second thumbnail;
The emphasized portion of the second representation covers a portion of the third thumbnail and the fourth thumbnail.
請求項23記載の方法であって、
前記第一の表現及び前記第二の表現の前記1以上の部分を強調する工程は、前記第一の表現及び前記第二の表現において前記ユーザ基準を含む位置を特定し、この特定された位置に基づいて、前記第一の表現及び前記第二の表現のうち前記強調される1以上の部分を決定する、ことを特徴とする方法。
24. The method of claim 23, comprising:
The step of highlighting the one or more portions of the first representation and the second representation identifies a location that includes the user criterion in the first representation and the second representation, and the identified location And determining one or more portions of the first representation and the second representation to be emphasized.
請求項23記載の方法であって、
前記ユーザ基準は1以上の単語又はフレーズである、ことを特徴とする方法。
24. The method of claim 23, comprising:
The method of claim 1, wherein the user criteria is one or more words or phrases.
請求項23記載の方法であって、
前記ユーザ基準は1以上の関心ある話題である、ことを特徴とする方法。
24. The method of claim 23, comprising:
The user criteria is one or more topics of interest.
請求項23記載の方法であって、
前記第一の表現及び前記第二の表現のうち前記強調された部分の各々について文書を表示する工程を更に有し、
前記一部分についての文書は、該一部分によって覆われた前記第一又は第三のサムネールの一部からのテキスト情報と、該一部分によって覆われた前記第二又は第四のサムネールの一部からの1以上のキーフレームとを含む、ことを特徴とする方法。
24. The method of claim 23, comprising:
Further comprising displaying a document for each of the highlighted portions of the first representation and the second representation;
The document for the portion includes text information from the portion of the first or third thumbnail covered by the portion and one from the portion of the second or fourth thumbnail covered by the portion. A method comprising the above key frames.
請求項23記載の方法であって、
前記第一の表現のうち前記強調された1以上の部分から選択された第一の強調部分を示す情報を受信する工程と、
前記第一の強調部分についての文書を表示する工程とを更に有し、
前記第一の強調部分についての文書は、該第一の強調部分によって覆われた前記第一のサムネールの一部からのテキスト情報と、該第一の強調部分によって覆われた前記第二のサムネールの一部からの1以上のキーフレームとを含む、ことを特徴とする方法。
24. The method of claim 23, comprising:
Receiving information indicating a first highlighted portion selected from the one or more highlighted portions of the first representation;
Further comprising displaying a document about the first highlighted portion,
The document about the first enhancement portion includes text information from a portion of the first thumbnail covered by the first enhancement portion and the second thumbnail covered by the first enhancement portion. Including one or more keyframes from a portion of.
請求項23記載の方法であって、
前記第一の表現のうち前記強調された1以上の部分から選択された第一の強調部分を示す情報を受信する工程と、
前記第一の記録された情報から前記第一の強調部分に対応するビデオ情報を出力する工程とを更に有する、ことを特徴とする方法。
24. The method of claim 23, comprising:
Receiving information indicating a first highlighted portion selected from the one or more highlighted portions of the first representation;
Outputting the video information corresponding to the first emphasized portion from the first recorded information.
コンピュータにより実施される情報を表示する方法であって、
格納された情報の表現を表示する工程と、
前記格納された情報のうち出力済の1以上の部分を表す情報を受信する工程と、
前記格納された情報の表現のうち、前記格納された情報の出力済の1以上の部分に対応する1以上の部分を強調する工程と、を有することを特徴とする方法。
A computer-implemented method of displaying information comprising:
Displaying a representation of the stored information;
Receiving information representing one or more output portions of the stored information;
Highlighting one or more portions of the stored representation of the stored information corresponding to one or more output portions of the stored information.
請求項30記載の方法であって、
前記格納された情報はビデオ情報である、ことを特徴とする方法。
The method of claim 30, comprising:
The method of claim 1, wherein the stored information is video information.
請求項30記載の方法であって、
前記格納された情報はオーディオ情報である、ことを特徴とする方法。
The method of claim 30, comprising:
The method of claim 1, wherein the stored information is audio information.
コンピュータにより実施される情報を表示する方法であって、
格納された情報の表現を表示する工程と、
前記格納された情報のうちいまだ出力されていない1以上の部分を表す情報を受信する工程と、
前記格納された情報の表現のうち、前記格納された情報のいまだ出力されていない1以上の部分に対応する1以上の部分を強調する工程と、を有することを特徴とする方法。
A computer-implemented method of displaying information comprising:
Displaying a representation of the stored information;
Receiving information representing one or more portions of the stored information that have not yet been output;
Highlighting one or more portions of the stored representation of the stored information corresponding to one or more portions of the stored information that have not yet been output.
情報を表示する装置であって、
プロセッサと、
ディスプレイと、を有し、
前記プロセッサは、
第一の格納された情報の第一の表現を前記ディスプレイ上に表示し、
前記ディスプレイ上に表示された前記第一の表現の1以上の部分を強調する、ように設定され、
前記第一の格納された情報は、第一の種類の情報と第二の種類の情報とを有し、
前記第一の表現は、前記第一の格納された情報に含まれる前記第一の種類の情報の表現と、前記第一の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第一の表現の1以上の部分は、前記第一の表現のうち第一の基準を含む部分に対応する、ことを特徴とする装置。
A device for displaying information,
A processor;
A display,
The processor is
Displaying a first representation of the first stored information on the display;
Set to highlight one or more portions of the first representation displayed on the display;
The first stored information includes a first type of information and a second type of information;
The first expression includes an expression of the first type of information included in the first stored information, and an expression of the second type of information included in the first stored information. Including
The apparatus of claim 1, wherein one or more portions of the enhanced first representation correspond to portions of the first representation that include a first criterion.
請求項34記載の装置であって、
前記プロセッサは、更に、
第二の格納された情報の第二の表現を前記ディスプレイ上に表示し、
前記第二の表現の1以上の部分を強調する、ように設定され、
前記第二の格納された情報は、第一の種類の情報と第二の種類の情報とを有し、
前記第二の表現は、前記第二の格納された情報に含まれる前記第一の種類の情報の表現と、前記第二の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第二の表現の1以上の部分は、前記第二の表現のうち前記第一の基準を含む部分に対応する、ことを特徴とする装置。
35. The apparatus of claim 34, wherein
The processor further includes:
Displaying a second representation of second stored information on the display;
Is set to emphasize one or more parts of the second representation;
The second stored information comprises a first type of information and a second type of information,
The second representation includes a representation of the first type of information included in the second stored information, and a representation of the second type of information included in the second stored information. Including
The apparatus characterized in that one or more portions of the enhanced second representation correspond to portions of the second representation that include the first criterion.
請求項35記載の装置であって、
前記第一の基準は単語を含み、
前記プロセッサは、前記第一の表現のうち前記単語を含む1以上の部分を強調するように設定され、
前記プロセッサは、前記第二の表現のうち前記単語を含む1以上の部分を強調するように設定される、ことを特徴とする装置。
36. The apparatus of claim 35, wherein
The first criterion includes a word;
The processor is configured to highlight one or more portions of the first representation that include the word;
The apparatus, wherein the processor is configured to highlight one or more portions of the second representation that contain the word.
請求項35記載の装置であって、
前記第一の基準は関心ある話題を含み、
前記プロセッサは、前記第一の表現のうち前記関心ある話題に関連する1以上の部分を強調するように設定され、
前記プロセッサは、前記第二の表現のうち前記関心ある話題に関連する1以上の部分を強調するように設定される、ことを特徴とする装置。
36. The apparatus of claim 35, wherein
The first criterion includes the topic of interest;
The processor is configured to highlight one or more portions of the first representation related to the topic of interest;
The apparatus, wherein the processor is configured to highlight one or more portions of the second representation related to the topic of interest.
請求項35記載の装置であって、
前記第一の格納された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第一の格納された情報に含まれる前記第二の種類の情報はビデオ情報であり、
前記第二の格納された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第二の格納された情報に含まれる前記第二の種類の情報はビデオ情報である、ことを特徴とする装置。
36. The apparatus of claim 35, wherein
The first type of information included in the first stored information is audio information;
The second type of information included in the first stored information is video information;
The first type information included in the second stored information is audio information;
The apparatus of claim 2, wherein the second type of information included in the second stored information is video information.
請求項38記載の装置であって、
前記第一の表現に含まれる前記第一の種類の情報の前記表現は、前記第一の格納された情報に含まれる前記オーディオ情報を録音することによって得られたテキスト情報を含み、
前記第一の表現に含まれる前記第二の種類の情報の前記表現は、前記第一の格納された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含み、
前記第二の表現に含まれる前記第一の種類の情報の前記表現は、前記第二の格納された情報に含まれる前記オーディオ情報を録音することによって得られたテキスト情報を含み、
前記第二の表現に含まれる前記第二の種類の情報の前記表現は、前記第二の格納された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含む、ことを特徴とする装置。
40. The apparatus of claim 38, wherein
The representation of the first type of information included in the first representation includes text information obtained by recording the audio information included in the first stored information;
The representation of the second type of information included in the first representation includes one or more video keyframes extracted from the video information included in the first stored information;
The representation of the first type of information included in the second representation includes text information obtained by recording the audio information included in the second stored information;
The representation of the second type of information included in the second representation includes one or more video keyframes extracted from the video information included in the second stored information; Features device.
請求項39記載の装置であって、
前記プロセッサは、前記第一の表現に含まれる前記テキスト情報の中で前記第一の基準を含む1以上の行を強調するように設定され、
前記プロセッサは、前記第二の表現に含まれる前記テキスト情報の中で前記第一の基準を含む1以上の行を強調するように設定される、ことを特徴とする装置。
40. The apparatus of claim 39, comprising:
The processor is configured to highlight one or more lines including the first criterion in the text information included in the first representation;
The apparatus, wherein the processor is configured to highlight one or more lines including the first criterion in the text information included in the second representation.
請求項39記載の装置であって、
前記プロセッサは、前記第一の表現に含まれる前記ビデオ・キーフレームの中で前記第一の基準を含む1以上のビデオ・キーフレームを強調するように設定され、
前記プロセッサは、前記第二の表現に含まれる前記ビデオ・キーフレームの中で前記第一の基準を含む1以上のビデオ・キーフレームを強調するように設定される、ことを特徴とする装置。
40. The apparatus of claim 39, comprising:
The processor is configured to highlight one or more video keyframes that include the first criterion among the video keyframes included in the first representation;
The apparatus, wherein the processor is configured to highlight one or more video keyframes that include the first criterion among the video keyframes included in the second representation.
請求項38記載の装置であって、
前記プロセッサは、前記第一の格納された情報に含まれる前記ビデオ情報と前記第二の格納された情報に含まれる前記ビデオ情報とを再生するように設定される、ことを特徴とする装置。
40. The apparatus of claim 38, wherein
The apparatus, wherein the processor is configured to play back the video information included in the first stored information and the video information included in the second stored information.
請求項35記載の装置であって、
前記プロセッサは、
前記第一の表現又は前記第二の表現の前記強調された1以上の部分から選択された第一の部分を示す信号を受信し、
前記第一の選択された部分のコンテンツの表現を前記ディスプレイ上に表示するように設定される、ことを特徴とする装置。
36. The apparatus of claim 35, wherein
The processor is
Receiving a signal indicative of a first portion selected from the enhanced one or more portions of the first representation or the second representation;
An apparatus configured to display a representation of the content of the first selected portion on the display.
請求項43記載の装置であって、
前記第一の選択された部分のコンテンツの表現は、前記第一の選択された部分のコンテンツに基づいて生成されたウェブ・ページである、ことを特徴とする装置。
44. The apparatus of claim 43, comprising:
The apparatus, wherein the representation of the content of the first selected portion is a web page generated based on the content of the first selected portion.
請求項35記載の装置であって、
前記プロセッサは、前記第一の表現及び前記第二の表現の前記強調された1以上の部分の各部分についての表現を前記ディスプレイ上に表示するように設定され、
前記一部分についての表現は、該一部分のコンテンツに基づいて生成される、ことを特徴とする装置。
36. The apparatus of claim 35, wherein
The processor is configured to display a representation on the display for each portion of the highlighted one or more portions of the first representation and the second representation;
The representation of the portion is generated based on the content of the portion.
請求項35記載の装置であって、
前記プロセッサは、前記第一の格納された情報に含まれる第一の種類の情報及び前記第二の格納された情報に含まれる第一の種類の情報を再生するように設定される、ことを特徴とする装置。
36. The apparatus of claim 35, wherein
The processor is configured to reproduce the first type of information included in the first stored information and the first type of information included in the second stored information; Features device.
マルチメディア情報を表示する装置であって、
プロセッサと、
ディスプレイと、を有し、
前記プロセッサは、
第一の記録された情報に含まれる第一の種類の情報の表現を含む第一のサムネールを前記ディスプレイ上に表示し、
前記第一の記録された情報に含まれる第二の種類の情報の表現を含む第二のサムネールを前記ディスプレイ上に表示し、
第二の記録された情報に含まれる第一の種類の情報の表現を含む第三のサムネールを前記ディスプレイ上に表示し、
前記第二の記録された情報に含まれる第二の種類の情報の表現を含む第四のサムネールを前記ディスプレイ上に表示するように設定される、ことを特徴とする装置。
A device for displaying multimedia information,
A processor;
A display,
The processor is
Displaying a first thumbnail including a representation of the first type of information contained in the first recorded information on the display;
Displaying a second thumbnail containing a representation of the second type of information contained in the first recorded information on the display;
Displaying a third thumbnail on the display including a representation of the first type of information contained in the second recorded information;
An apparatus configured to display a fourth thumbnail including a representation of a second type of information included in the second recorded information on the display.
請求項47記載の装置であって、
前記プロセッサは、
1以上の単語を含む単語群を識別する情報を受信し、
前記第一のサムネール及び前記第三のサムネールのうち前記単語群の中の少なくとも一単語を含む1以上の部分を強調するように設定される、ことを特徴とする装置。
48. The apparatus of claim 47, wherein:
The processor is
Receiving information identifying a group of words including one or more words;
The apparatus is configured to emphasize one or more portions including at least one word in the word group among the first thumbnail and the third thumbnail.
請求項48記載の装置であって、
前記プロセッサは、前記第二のサムネール及び前記第四のサムネールのうち前記単語群の中の少なくとも一単語を含む1以上の部分を強調するように設定される、ことを特徴とする装置。
49. The apparatus of claim 48, comprising:
The apparatus, wherein the processor is configured to emphasize one or more portions of the second thumbnail and the fourth thumbnail that include at least one word in the word group.
請求項49記載の装置であって、
前記プロセッサは、
前記第二又は第四のサムネールのうちの前記強調された1以上の部分から選択された第一の部分を示す情報を受信し、
前記第一の部分に対応する前記第二の種類の情報を出力させる、ように設定され、
前記第一の部分は、前記第一又は第二の記録された情報に含まれた前記第二の種類の情報の一部分に対応する、ことを特徴とする装置。
50. The apparatus of claim 49, comprising:
The processor is
Receiving information indicating a first portion selected from the one or more highlighted portions of the second or fourth thumbnail;
Set to output the second type of information corresponding to the first part,
The apparatus of claim 1, wherein the first portion corresponds to a portion of the second type of information included in the first or second recorded information.
請求項47記載の装置であって、
前記プロセッサは、
1以上の関心ある話題を含む関心ある話題群を識別する情報を受信し、
前記第一のサムネール及び前記第三のサムネールのうち前記関心ある話題群の中の少なくとも1つの関心ある話題を含む1以上の部分を強調するように設定される、ことを特徴とする装置。
48. The apparatus of claim 47, wherein:
The processor is
Receiving information identifying a group of topics of interest, including one or more topics of interest;
An apparatus configured to highlight one or more portions of the first thumbnail and the third thumbnail that include at least one topic of interest in the group of topics of interest.
請求項51記載の装置であって、
前記プロセッサは、前記第二のサムネール及び前記第四のサムネールのうち前記関心ある話題群の中の少なくとも1つの関心ある話題を含む1以上の部分を強調するように設定される、ことを特徴とする装置。
52. The apparatus of claim 51, comprising:
The processor is configured to highlight one or more portions of the second thumbnail and the fourth thumbnail that include at least one topic of interest in the group of topics of interest. Device to do.
請求項47記載の装置であって、
前記第一の記録された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第一の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり、
前記第二の記録された情報に含まれる前記第一の種類の情報はオーディオ情報であり、
前記第二の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり
前記第一のサムネールは、前記第一の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含み、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含む、ことを特徴とする装置。
48. The apparatus of claim 47, wherein:
The first type information included in the first recorded information is audio information;
The second type of information included in the first recorded information is video information;
The first type information included in the second recorded information is audio information;
The second type of information included in the second recorded information is video information, and the first thumbnail is text information obtained from the audio information included in the first recorded information. Including
The second thumbnail includes one or more video keyframes extracted from the video information included in the first recorded information;
The third thumbnail includes text information obtained from the audio information included in the second recorded information;
The apparatus, wherein the fourth thumbnail includes one or more video keyframes extracted from the video information included in the second recorded information.
請求項47記載の装置であって、
前記第一の記録された情報に含まれる前記第一の種類の情報はクローズド・キャプション・テキスト情報であり、
前記第一の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり、
前記第二の記録された情報に含まれる前記第一の種類の情報はクローズド・キャプション・テキスト情報であり、
前記第二の記録された情報に含まれる前記第二の種類の情報はビデオ情報であり
前記第一のサムネールは、前記第一の記録された情報に含まれる前記クローズド・キャプション・テキスト情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含み、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記クローズド・キャプション・テキスト情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のビデオ・キーフレームを含む、ことを特徴とする装置。
48. The apparatus of claim 47, wherein:
The first type of information contained in the first recorded information is closed caption text information;
The second type of information included in the first recorded information is video information;
The first type of information contained in the second recorded information is closed caption text information;
The second type of information included in the second recorded information is video information, and the first thumbnail is obtained from the closed caption text information included in the first recorded information. Text information provided,
The second thumbnail includes one or more video keyframes extracted from the video information included in the first recorded information;
The third thumbnail includes text information obtained from the closed caption text information included in the second recorded information,
The apparatus, wherein the fourth thumbnail includes one or more video keyframes extracted from the video information included in the second recorded information.
オーディオ情報及びビデオ情報を含む第一の記録された情報とオーディオ情報及びビデオ情報を含む第二の記録された情報とに含まれる情報を表示する装置であって、
ディスプレイと、
プロセッサと、を有し、
前記プロセッサは、
前記第一の記録された情報に含まれる情報の第一の表現を前記ディスプレイ上に表示し、
前記第二の記録された情報に含まれる情報の第二の表現を前記ディスプレイ上に表示する、ように設定され、
前記第一の表現は、第一のサムネールと第二のサムネールとを有し、
前記第一のサムネールは、前記第一の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含み、
前記第二の表現は、第三のサムネールと第四のサムネールとを有し、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含む、ことを特徴とする装置。
An apparatus for displaying information included in a first recorded information including audio information and video information and a second recorded information including audio information and video information,
Display,
A processor, and
The processor is
Displaying a first representation of the information contained in the first recorded information on the display;
Set to display on the display a second representation of information contained in the second recorded information;
The first representation has a first thumbnail and a second thumbnail;
The first thumbnail includes text information obtained from the audio information included in the first recorded information,
The second thumbnail includes one or more key frames extracted from the video information included in the first recorded information;
The second representation has a third thumbnail and a fourth thumbnail;
The third thumbnail includes text information obtained from the audio information included in the second recorded information;
The apparatus of claim 4, wherein the fourth thumbnail includes one or more key frames extracted from the video information included in the second recorded information.
請求項55記載の装置であって、
前記プロセッサは、
ユーザ基準を識別する情報を受信し、
前記第一の表現及び前記第二の表現のうち前記ユーザ基準を含む1以上の部分を強調するように設定され、
前記第一の表現の強調される部分は、前記第一のサムネール及び前記第二のサムネールの一部を覆い、
前記第二の表現の強調される部分は、前記第三のサムネール及び前記第四のサムネールの一部を覆う、ことを特徴とする装置。
56. The apparatus of claim 55, wherein
The processor is
Receive information identifying user criteria,
Set to highlight one or more portions of the first representation and the second representation that include the user criteria;
The highlighted portion of the first representation covers a portion of the first thumbnail and the second thumbnail;
The apparatus of claim 2, wherein the highlighted portion of the second representation covers a portion of the third thumbnail and the fourth thumbnail.
請求項56記載の装置であって、
前記プロセッサは、前記第一の表現及び前記第二の表現において前記ユーザ基準を含む位置を特定し、この特定された位置に基づいて、前記第一の表現及び前記第二の表現のうち前記強調される1以上の部分を決定するように設定される、ことを特徴とする装置。
57. The apparatus of claim 56, comprising:
The processor identifies a position including the user criterion in the first representation and the second representation, and based on the identified position, the enhancement of the first representation and the second representation. An apparatus characterized in that it is set to determine one or more parts to be played.
請求項56記載の装置であって、
前記ユーザ基準は1以上の単語又はフレーズである、ことを特徴とする装置。
57. The apparatus of claim 56, comprising:
The apparatus wherein the user criteria is one or more words or phrases.
請求項56記載の装置であって、
前記ユーザ基準は1以上の関心ある話題である、ことを特徴とする装置。
57. The apparatus of claim 56, comprising:
The apparatus wherein the user criteria is one or more topics of interest.
請求項56記載の装置であって、
前記プロセッサは、前記第一の表現及び前記第二の表現のうち前記強調された部分の各々について文書を前記ディスプレイ上に表示するように設定され、
前記一部分についての文書は、該一部分によって覆われた前記第一又は第三のサムネールの一部からのテキスト情報と、該一部分によって覆われた前記第二又は第四のサムネールの一部からの1以上のキーフレームとを含む、ことを特徴とする装置。
57. The apparatus of claim 56, comprising:
The processor is configured to display a document on the display for each of the highlighted portions of the first representation and the second representation;
The document about the portion includes text information from the portion of the first or third thumbnail covered by the portion and one from the portion of the second or fourth thumbnail covered by the portion. An apparatus comprising the above key frame.
請求項56記載の装置であって、
前記プロセッサは、
前記第一の表現のうち前記強調された1以上の部分から選択された第一の強調部分を示す情報を受信し、
前記第一の強調部分についての文書を前記ディスプレイ上に表示する、ように設定され、
前記第一の強調部分についての文書は、該第一の強調部分によって覆われた前記第一のサムネールの一部からのテキスト情報と、該第一の強調部分によって覆われた前記第二のサムネールの一部からの1以上のキーフレームとを含む、ことを特徴とする装置。
57. The apparatus of claim 56, comprising:
The processor is
Receiving information indicating a first highlighted portion selected from the one or more highlighted portions of the first representation;
Set to display a document about the first highlighted portion on the display;
The document about the first enhancement portion includes text information from a portion of the first thumbnail covered by the first enhancement portion and the second thumbnail covered by the first enhancement portion. One or more key frames from a portion of the device.
請求項56記載の装置であって、
前記プロセッサは、
前記第一の表現のうち前記強調された1以上の部分から選択された第一の強調部分を示す情報を受信し、
前記第一の記録された情報から前記第一の強調部分に対応するビデオ情報を出力させるように設定される、ことを特徴とする装置。
57. The apparatus of claim 56, comprising:
The processor is
Receiving information indicating a first highlighted portion selected from the one or more highlighted portions of the first representation;
An apparatus configured to output video information corresponding to the first emphasized portion from the first recorded information.
情報を表示する装置であって、
プロセッサと、
前記プロセッサに接続されたメモリとを有し、
前記メモリは、前記プロセッサを制御するプログラムを格納するように設定され、
前記プロセッサは、前記プログラムの制御下において、
格納された情報の表現を表示させ、
前記格納された情報のうち出力済の1以上の部分を表す情報を受信し、
前記格納された情報の表現のうち、前記格納された情報の出力済の1以上の部分に対応する1以上の部分を強調するように設定される、ことを特徴とする装置。
A device for displaying information,
A processor;
And a memory connected to the processor,
The memory is configured to store a program for controlling the processor;
The processor is under the control of the program,
Display a representation of the stored information,
Receiving information representing one or more output portions of the stored information;
An apparatus configured to highlight one or more portions of the stored information representation corresponding to one or more output portions of the stored information.
情報を表示する装置であって、
プロセッサと、
前記プロセッサに接続されたメモリとを有し、
前記メモリは、前記プロセッサを制御するプログラムを格納するように設定され、
前記プロセッサは、前記プログラムの制御下において、
格納された情報の表現を表示させ、
前記格納された情報のうちいまだ出力されていない1以上の部分を表す情報を受信し、
前記格納された情報の表現のうち、前記格納された情報のいまだ出力されていない1以上の部分に対応する1以上の部分を強調するように設定される、ことを特徴とする装置。
A device for displaying information,
A processor;
And a memory connected to the processor,
The memory is configured to store a program for controlling the processor;
The processor is under the control of the program,
Display a representation of the stored information,
Receiving information representing one or more portions of the stored information that have not yet been output;
An apparatus configured to highlight one or more portions of the stored information representation corresponding to one or more portions of the stored information that have not yet been output.
コンピュータ可読記録媒体上に格納され、情報を表示するプログラムであって、
第一の格納された情報の第一の表現を表示するコードと、
前記第一の表現の1以上の部分を強調するコードと、を有し、
前記第一の格納された情報は、第一の種類の情報と、第二の種類の情報とを有し、
前記第一の表現は、前記第一の格納された情報に含まれる前記第一の種類の情報の表現と、前記第一の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第一の表現の1以上の部分は、前記第一の表現のうち第一の基準を含む部分に対応する、ことを特徴とするプログラム。
A program stored on a computer-readable recording medium and displaying information,
A code for displaying a first representation of the first stored information;
A code that highlights one or more portions of the first representation;
The first stored information includes a first type of information and a second type of information;
The first expression includes an expression of the first type of information included in the first stored information, and an expression of the second type of information included in the first stored information. Including
One or more portions of the emphasized first expression correspond to a portion including the first reference in the first expression.
請求項65記載のプログラムであって、
第二の格納された情報の第二の表現を表示するコードと、
前記第二の表現の1以上の部分を強調するコードと、を更に有し、
前記第二の格納された情報は、第一の種類の情報と、第二の種類の情報とを有し、
前記第二の表現は、前記第二の格納された情報に含まれる前記第一の種類の情報の表現と、前記第二の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第二の表現の1以上の部分は、前記第二の表現のうち前記第一の基準を含む部分に対応する、ことを特徴とするプログラム。
A program according to claim 65, wherein
A code for displaying a second representation of the second stored information;
A code that highlights one or more portions of the second representation;
The second stored information has a first type of information and a second type of information;
The second representation includes a representation of the first type of information included in the second stored information, and a representation of the second type of information included in the second stored information. Including
One or more portions of the emphasized second expression correspond to a portion including the first reference in the second expression.
請求項66記載のプログラムであって、
前記第一の基準は単語を含み、
前記第一の表現の1以上の部分を強調するコードは、前記第一の表現のうち前記単語を含む1以上の部分を強調するコードを含み、
前記第二の表現の1以上の部分を強調するコードは、前記第二の表現のうち前記単語を含む1以上の部分を強調するコードを含む、ことを特徴とするプログラム。
A program according to claim 66,
The first criterion includes a word;
The code that emphasizes one or more parts of the first expression includes a code that emphasizes one or more parts of the first expression including the word,
The program that emphasizes one or more parts of the second expression includes a code that emphasizes one or more parts including the word in the second expression.
請求項66記載のプログラムであって、
前記第一の基準は関心ある話題を含み、
前記第一の表現の1以上の部分を強調するコードは、前記第一の表現のうち前記関心ある話題に関連する1以上の部分を強調するコードを含み、
前記第二の表現の1以上の部分を強調するコードは、前記第二の表現のうち前記関心ある話題に関連する1以上の部分を強調するコードを含む、ことを特徴とするプログラム。
A program according to claim 66,
The first criterion includes the topic of interest;
The code for highlighting one or more portions of the first representation includes a code for highlighting one or more portions of the first representation related to the topic of interest;
The code for emphasizing one or more parts of the second expression includes a code for emphasizing one or more parts related to the topic of interest in the second expression.
コンピュータ可読記録媒体上に格納され、マルチメディア情報を表示するプログラムであって、
第一の記録された情報に含まれる第一の種類の情報の表現を含む第一のサムネールを表示するコードと、
前記第一の記録された情報に含まれる第二の種類の情報の表現を含む第二のサムネールを表示するコードと、
第二の記録された情報に含まれる第一の種類の情報の表現を含む第三のサムネールを表示するコードと、
前記第二の記録された情報に含まれる第二の種類の情報の表現を含む第四のサムネールを表示するコードと、を有することを特徴とするプログラム。
A program stored on a computer readable recording medium for displaying multimedia information,
A code for displaying a first thumbnail containing a representation of the first type of information contained in the first recorded information;
A code for displaying a second thumbnail containing a representation of the second type of information contained in the first recorded information;
A code for displaying a third thumbnail containing a representation of the first type of information contained in the second recorded information;
And a code for displaying a fourth thumbnail including a representation of the second type of information included in the second recorded information.
請求項69記載のプログラムであって、
1以上の単語を含む単語群を識別する情報を受信するコードと、
前記第一のサムネール及び前記第三のサムネールのうち前記単語群の中の少なくとも一単語を含む1以上の部分を強調するコードとを更に有する、ことを特徴とするプログラム。
A program according to claim 69, wherein
A code for receiving information identifying a group of words including one or more words;
A program further comprising: a code for emphasizing at least one portion including at least one word in the word group among the first thumbnail and the third thumbnail.
請求項70記載のプログラムであって、
前記第二のサムネール及び前記第四のサムネールのうち前記単語群の中の少なくとも一単語を含む1以上の部分を強調するコードを更に有する、ことを特徴とするプログラム。
A program according to claim 70, wherein
The program further comprising a code for emphasizing at least one portion including at least one word in the word group among the second thumbnail and the fourth thumbnail.
請求項71記載のプログラムであって、
前記第二又は第四のサムネールのうちの前記強調された1以上の部分から選択された第一の部分を示す情報を受信するコードと、
前記第一の部分に対応する前記第二の種類の情報を出力するコードとを更に有し、
前記第一の部分は、前記第一又は第二の記録された情報に含まれた前記第二の種類の情報の一部分に対応する、ことを特徴とするプログラム。
The program according to claim 71, wherein
A code for receiving information indicative of a first portion selected from the highlighted one or more portions of the second or fourth thumbnail;
A code for outputting the second type of information corresponding to the first portion;
The program according to claim 1, wherein the first part corresponds to a part of the second type of information included in the first or second recorded information.
コンピュータ可読記録媒体上に格納され、オーディオ情報及びビデオ情報を含む第一の記録された情報とオーディオ情報及びビデオ情報を含む第二の記録された情報とに含まれる情報を表示するプログラムであって、
前記第一の記録された情報に含まれる情報の第一の表現を表示するコードと、
前記第二の記録された情報に含まれる情報の第二の表現を表示するコードと、を有し、
前記第一の表現は、第一のサムネールと第二のサムネールとを有し、
前記第一のサムネールは、前記第一の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含み、
前記第二の表現は、第三のサムネールと第四のサムネールとを有し、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含む、ことを特徴とするプログラム。
A program for displaying information contained in a first recorded information including audio information and video information and a second recorded information including audio information and video information stored on a computer-readable recording medium. ,
A code for displaying a first representation of information contained in the first recorded information;
A code for displaying a second representation of the information contained in the second recorded information,
The first representation has a first thumbnail and a second thumbnail;
The first thumbnail includes text information obtained from the audio information included in the first recorded information,
The second thumbnail includes one or more key frames extracted from the video information included in the first recorded information;
The second representation has a third thumbnail and a fourth thumbnail;
The third thumbnail includes text information obtained from the audio information included in the second recorded information;
The program according to claim 4, wherein the fourth thumbnail includes one or more key frames extracted from the video information included in the second recorded information.
請求項73記載のプログラムであって、
ユーザ基準を識別する情報を受信するコードと、
前記第一の表現及び前記第二の表現のうち前記ユーザ基準を含む1以上の部分を強調するコードとを更に有し、
前記第一の表現の強調される部分は、前記第一のサムネール及び前記第二のサムネールの一部を覆い、
前記第二の表現の強調される部分は、前記第三のサムネール及び前記第四のサムネールの一部を覆う、ことを特徴とするプログラム。
A program according to claim 73,
A code for receiving information identifying the user criteria;
A code that highlights one or more portions of the first representation and the second representation including the user criteria;
The highlighted portion of the first representation covers a portion of the first thumbnail and the second thumbnail;
The emphasized portion of the second expression covers a part of the third thumbnail and the fourth thumbnail.
請求項74記載のプログラムであって、
前記第一の表現及び前記第二の表現の前記1以上の部分を強調するコードは、前記第一の表現及び前記第二の表現において前記ユーザ基準を含む位置を特定するコードと、この特定された位置に基づいて、前記第一の表現及び前記第二の表現のうち前記強調される1以上の部分を決定するコードとを更に有する、ことを特徴とするプログラム。
A program according to claim 74, wherein
The code that emphasizes the one or more portions of the first expression and the second expression is identified by a code that specifies a position including the user criterion in the first expression and the second expression. And a code for determining one or more emphasized portions of the first expression and the second expression based on the position.
請求項74記載のプログラムであって、
前記第一の表現のうち前記強調された1以上の部分から選択された第一の強調部分を示す情報を受信するコードと、
前記第一の記録された情報から前記第一の強調部分に対応するビデオ情報を出力するコードとを更に有する、ことを特徴とするプログラム。
A program according to claim 74, wherein
A code for receiving information indicating a first highlighted portion selected from the one or more highlighted portions of the first representation;
And a code for outputting video information corresponding to the first emphasized portion from the first recorded information.
コンピュータ可読記録媒体上に格納され、情報を表示するプログラムであって、
格納された情報の表現を表示するコードと、
前記格納された情報のうち出力済の1以上の部分を表す情報を受信するコードと、
前記格納された情報の表現のうち、前記格納された情報の出力済の1以上の部分に対応する1以上の部分を強調するコードと、を有することを特徴とするプログラム。
A program stored on a computer-readable recording medium and displaying information,
A code that displays a representation of the stored information;
A code for receiving information representing one or more output portions of the stored information;
And a code for emphasizing one or more portions corresponding to one or more output portions of the stored information in the stored information representation.
コンピュータ可読記録媒体上に格納され、情報を表示するプログラムであって、
格納された情報の表現を表示するコードと、
前記格納された情報のうちいまだ出力されていない1以上の部分を表す情報を受信するコードと、
前記格納された情報の表現のうち、前記格納された情報のいまだ出力されていない1以上の部分に対応する1以上の部分を強調するコードと、を有することを特徴とするプログラム。
A program stored on a computer-readable recording medium and displaying information,
A code that displays a representation of the stored information;
A code for receiving information representing one or more portions of the stored information that have not yet been output;
And a code for emphasizing one or more portions of the stored information corresponding to one or more portions of the stored information that have not yet been output.
情報を表示する装置であって、
第一の格納された情報の第一の表現を表示する手段と、
前記第一の表現の1以上の部分を強調する手段と、
第二の格納された情報の第二の表現を表示する手段と、
前記第二の表現の1以上の部分を強調する手段と、を有し、
前記第一の格納された情報は、第一の種類の情報と第二の種類の情報とを有し、
前記第一の表現は、前記第一の格納された情報に含まれる前記第一の種類の情報の表現と、前記第一の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第一の表現の1以上の部分は、前記第一の表現のうち第一の基準を含む部分に対応し、
前記第二の格納された情報は、第一の種類の情報と第二の種類の情報とを有し、
前記第二の表現は、前記第二の格納された情報に含まれる前記第一の種類の情報の表現と、前記第二の格納された情報に含まれる前記第二の種類の情報の表現とを含み、
前記強調された前記第二の表現の1以上の部分は、前記第二の表現のうち前記第一の基準を含む部分に対応する、ことを特徴とする装置。
A device for displaying information,
Means for displaying a first representation of the first stored information;
Means for highlighting one or more portions of the first representation;
Means for displaying a second representation of the second stored information;
Emphasizing one or more portions of the second representation,
The first stored information includes a first type of information and a second type of information;
The first expression includes an expression of the first type of information included in the first stored information, and an expression of the second type of information included in the first stored information. Including
One or more portions of the emphasized first representation correspond to portions of the first representation that include a first criterion;
The second stored information comprises a first type of information and a second type of information,
The second representation includes a representation of the first type of information included in the second stored information, and a representation of the second type of information included in the second stored information. Including
The apparatus characterized in that one or more portions of the enhanced second representation correspond to portions of the second representation that include the first criterion.
マルチメディア情報を表示する装置であって、
第一の記録された情報に含まれる第一の種類の情報の表現を含む第一のサムネールを表示する手段と、
前記第一の記録された情報に含まれる第二の種類の情報の表現を含む第二のサムネールを表示する手段と、
第二の記録された情報に含まれる第一の種類の情報の表現を含む第三のサムネールを表示する手段と、
前記第二の記録された情報に含まれる第二の種類の情報の表現を含む第四のサムネールを表示する手段と、を有することを特徴とする装置。
A device for displaying multimedia information,
Means for displaying a first thumbnail containing a representation of the first type of information contained in the first recorded information;
Means for displaying a second thumbnail including a representation of a second type of information contained in the first recorded information;
Means for displaying a third thumbnail containing a representation of the first type of information contained in the second recorded information;
Means for displaying a fourth thumbnail containing a representation of the second type of information contained in the second recorded information.
オーディオ情報及びビデオ情報を含む第一の記録された情報とオーディオ情報及びビデオ情報を含む第二の記録された情報とに含まれる情報を表示する装置であって、
前記第一の記録された情報に含まれる情報の第一の表現を表示する手段と、
前記第二の記録された情報に含まれる情報の第二の表現を表示する手段と、を有し、
前記第一の表現は、第一のサムネールと第二のサムネールとを有し、
前記第一のサムネールは、前記第一の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第二のサムネールは、前記第一の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含み、
前記第二の表現は、第三のサムネールと第四のサムネールとを有し、
前記第三のサムネールは、前記第二の記録された情報に含まれる前記オーディオ情報から得られたテキスト情報を含み、
前記第四のサムネールは、前記第二の記録された情報に含まれる前記ビデオ情報から抽出された1以上のキーフレームを含む、ことを特徴とする装置。
An apparatus for displaying information included in a first recorded information including audio information and video information and a second recorded information including audio information and video information,
Means for displaying a first representation of information contained in the first recorded information;
Means for displaying a second representation of the information contained in the second recorded information,
The first representation has a first thumbnail and a second thumbnail;
The first thumbnail includes text information obtained from the audio information included in the first recorded information,
The second thumbnail includes one or more key frames extracted from the video information included in the first recorded information;
The second representation has a third thumbnail and a fourth thumbnail;
The third thumbnail includes text information obtained from the audio information included in the second recorded information;
The apparatus of claim 4, wherein the fourth thumbnail includes one or more key frames extracted from the video information included in the second recorded information.
情報を表示する装置であって、
格納された情報の表現を表示する手段と、
前記格納された情報のうち出力済の1以上の部分を表す情報を受信する手段と、
前記格納された情報の表現のうち、前記格納された情報の出力済の1以上の部分に対応する1以上の部分を強調する手段と、を有することを特徴とする装置。
A device for displaying information,
Means for displaying a representation of the stored information;
Means for receiving information representing one or more output portions of the stored information;
Means for highlighting one or more portions of the stored information representation corresponding to one or more output portions of the stored information.
JP2003420231A 2002-12-17 2003-12-17 Displaying information stored in multiple multimedia documents Expired - Fee Related JP4446728B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US43431402P 2002-12-17 2002-12-17
US10/465,022 US8635531B2 (en) 2002-02-21 2003-06-18 Techniques for displaying information stored in multiple multimedia documents

Publications (3)

Publication Number Publication Date
JP2004199696A true JP2004199696A (en) 2004-07-15
JP2004199696A5 JP2004199696A5 (en) 2007-02-08
JP4446728B2 JP4446728B2 (en) 2010-04-07

Family

ID=32775939

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003420231A Expired - Fee Related JP4446728B2 (en) 2002-12-17 2003-12-17 Displaying information stored in multiple multimedia documents

Country Status (1)

Country Link
JP (1) JP4446728B2 (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006252509A (en) * 2005-03-10 2006-09-21 Toshiba Corp Device, program, and method for retrieving document
JP2008515041A (en) * 2004-09-27 2008-05-08 ノキア コーポレイション User interface application for media file management
JP2008523488A (en) * 2004-12-08 2008-07-03 ノキア コーポレイション System and method for viewing digital visual content on a device
US7668814B2 (en) 2005-08-24 2010-02-23 Ricoh Company, Ltd. Document management system
US7954056B2 (en) 1997-12-22 2011-05-31 Ricoh Company, Ltd. Television-based visualization and navigation interface
JP2011192223A (en) * 2010-03-17 2011-09-29 Yahoo Japan Corp Client device, display method, program, information processing apparatus, and information processing system
JP2012003778A (en) * 2005-01-12 2012-01-05 Microsoft Corp Data management system
US8625134B2 (en) 2009-08-28 2014-01-07 Konica Minolta Business Technologies, Inc. Image forming apparatus and image forming method
JP2014500558A (en) * 2010-12-06 2014-01-09 ネットフリックス・インコーポレイテッド User interface for remote control
US8635531B2 (en) 2002-02-21 2014-01-21 Ricoh Company, Ltd. Techniques for displaying information stored in multiple multimedia documents
US8739040B2 (en) 1997-12-22 2014-05-27 Ricoh Company, Ltd. Multimedia visualization and integration environment
JP2014219807A (en) * 2013-05-07 2014-11-20 株式会社リコー Information processing program and information processor, and display control program
US9690446B2 (en) 2006-09-06 2017-06-27 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US9927970B2 (en) 2006-09-06 2018-03-27 Apple Inc. Portable electronic device performing similar operations for different gestures
CN109690528A (en) * 2016-04-07 2019-04-26 里德爱思唯尔股份有限公司雷克萨斯尼克萨斯分公司 For providing the system and method for visualization result list
CN112040142A (en) * 2020-07-08 2020-12-04 智者四海(北京)技术有限公司 Method for video authoring on mobile terminal
JP2021503682A (en) * 2017-11-18 2021-02-12 コギ インコーポレーティッド Interactive representation of content for relevance detection and review
US11023122B2 (en) 2006-09-06 2021-06-01 Apple Inc. Video manager for portable multifunction device
CN115866314A (en) * 2022-11-29 2023-03-28 维沃移动通信有限公司 Video playing method and device

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7954056B2 (en) 1997-12-22 2011-05-31 Ricoh Company, Ltd. Television-based visualization and navigation interface
US8995767B2 (en) 1997-12-22 2015-03-31 Ricoh Company, Ltd. Multimedia visualization and integration environment
US8739040B2 (en) 1997-12-22 2014-05-27 Ricoh Company, Ltd. Multimedia visualization and integration environment
US8635531B2 (en) 2002-02-21 2014-01-21 Ricoh Company, Ltd. Techniques for displaying information stored in multiple multimedia documents
JP4714220B2 (en) * 2004-09-27 2011-06-29 ノキア コーポレイション User interface application for media file management
JP2008515041A (en) * 2004-09-27 2008-05-08 ノキア コーポレイション User interface application for media file management
US7890889B2 (en) 2004-09-27 2011-02-15 Nokia Corporation User-interface application for media file management
JP2008523488A (en) * 2004-12-08 2008-07-03 ノキア コーポレイション System and method for viewing digital visual content on a device
US9071870B2 (en) 2004-12-08 2015-06-30 Nokia Technologies Oy System and method for viewing digital visual content on a device
JP2012003778A (en) * 2005-01-12 2012-01-05 Microsoft Corp Data management system
JP4659568B2 (en) * 2005-03-10 2011-03-30 株式会社東芝 Document search apparatus, document search program, and document search method
JP2006252509A (en) * 2005-03-10 2006-09-21 Toshiba Corp Device, program, and method for retrieving document
US7668814B2 (en) 2005-08-24 2010-02-23 Ricoh Company, Ltd. Document management system
US11481112B2 (en) 2006-09-06 2022-10-25 Apple Inc. Portable electronic device performing similar operations for different gestures
US9690446B2 (en) 2006-09-06 2017-06-27 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11481106B2 (en) 2006-09-06 2022-10-25 Apple Inc. Video manager for portable multifunction device
US11592952B2 (en) 2006-09-06 2023-02-28 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11106326B2 (en) 2006-09-06 2021-08-31 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11921969B2 (en) 2006-09-06 2024-03-05 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US11023122B2 (en) 2006-09-06 2021-06-01 Apple Inc. Video manager for portable multifunction device
KR102077383B1 (en) 2006-09-06 2020-02-13 애플 인크. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
KR20180004302A (en) * 2006-09-06 2018-01-10 애플 인크. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US9927970B2 (en) 2006-09-06 2018-03-27 Apple Inc. Portable electronic device performing similar operations for different gestures
US10222977B2 (en) 2006-09-06 2019-03-05 Apple Inc. Portable electronic device performing similar operations for different gestures
US10228815B2 (en) 2006-09-06 2019-03-12 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US10838617B2 (en) 2006-09-06 2020-11-17 Apple Inc. Portable electronic device performing similar operations for different gestures
US10656778B2 (en) 2006-09-06 2020-05-19 Apple Inc. Portable electronic device, method, and graphical user interface for displaying structured electronic documents
US8625134B2 (en) 2009-08-28 2014-01-07 Konica Minolta Business Technologies, Inc. Image forming apparatus and image forming method
US9152893B2 (en) 2009-08-28 2015-10-06 Konica Minolta, Inc. Image forming apparatus and display apparatus
JP2011192223A (en) * 2010-03-17 2011-09-29 Yahoo Japan Corp Client device, display method, program, information processing apparatus, and information processing system
US8963847B2 (en) 2010-12-06 2015-02-24 Netflix, Inc. User interface for a remote control device
JP2014500558A (en) * 2010-12-06 2014-01-09 ネットフリックス・インコーポレイテッド User interface for remote control
KR101525091B1 (en) * 2010-12-06 2015-06-02 넷플릭스, 인크. User interface for a remote control device
JP2014219807A (en) * 2013-05-07 2014-11-20 株式会社リコー Information processing program and information processor, and display control program
JP7012661B2 (en) 2016-04-07 2022-01-28 レクシスネクシス ア ディヴィジョン オブ リード エルザヴィア インコーポレイテッド Systems and methods that provide a visible list of results
JP2019514124A (en) * 2016-04-07 2019-05-30 レクシスネクシス ア ディヴィジョン オブ リード エルザヴィア インコーポレイテッド System and method for providing visualizable result lists
CN109690528B (en) * 2016-04-07 2023-07-14 里德爱思唯尔股份有限公司雷克萨斯尼克萨斯分公司 System and method for providing a list of visual results
CN109690528A (en) * 2016-04-07 2019-04-26 里德爱思唯尔股份有限公司雷克萨斯尼克萨斯分公司 For providing the system and method for visualization result list
JP2021503682A (en) * 2017-11-18 2021-02-12 コギ インコーポレーティッド Interactive representation of content for relevance detection and review
CN112040142A (en) * 2020-07-08 2020-12-04 智者四海(北京)技术有限公司 Method for video authoring on mobile terminal
CN112040142B (en) * 2020-07-08 2023-05-02 智者四海(北京)技术有限公司 Method for video authoring on mobile terminal
CN115866314A (en) * 2022-11-29 2023-03-28 维沃移动通信有限公司 Video playing method and device

Also Published As

Publication number Publication date
JP4446728B2 (en) 2010-04-07

Similar Documents

Publication Publication Date Title
US8635531B2 (en) Techniques for displaying information stored in multiple multimedia documents
US7495795B2 (en) Interface for printing multimedia information
US7596755B2 (en) Multimedia visualization and integration environment
JP4446728B2 (en) Displaying information stored in multiple multimedia documents
US6571054B1 (en) Method for creating and utilizing electronic image book and recording medium having recorded therein a program for implementing the method
US7979786B1 (en) Techniques for retrieving multimedia information using a paper-based interface
US7954056B2 (en) Television-based visualization and navigation interface
US7215436B2 (en) Device for generating a multimedia paper document
US7263671B2 (en) Techniques for annotating multimedia information
US7263659B2 (en) Paper-based interface for multimedia information
US7979879B2 (en) Video contents display system, video contents display method, and program for the same
US7266782B2 (en) Techniques for generating a coversheet for a paper-based interface for multimedia information
US7266568B1 (en) Techniques for storing multimedia information with source documents
US8539344B2 (en) Paper-based interface for multimedia information stored by multiple multimedia documents
US7743347B2 (en) Paper-based interface for specifying ranges
US20030074671A1 (en) Method for information retrieval based on network
JP2009157460A (en) Information presentation device and method
US20070136348A1 (en) Screen-wise presentation of search results
JP2001306599A (en) Method and device for hierarchically managing video, and recording medium recorded with hierarchical management program
JP2002108892A (en) Data management system, data management method and recording medium
JPH11224266A (en) Electronic video document preparation and utilization method and program storage medium
JP3815371B2 (en) Video-related information generation method and apparatus, video-related information generation program, and storage medium storing video-related information generation program
Kim et al. Design and Implementation of a Summary Note System for Educational Video Contents
JP2005094709A (en) Motion picture retrieval system and method, and computer program
CN116866670A (en) Video editing method, device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061214

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100112

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130129

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4446728

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140129

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees