JPH0981443A - Multimedia data retrieval system, object generator of multimedia data and multimedia data management method - Google Patents

Multimedia data retrieval system, object generator of multimedia data and multimedia data management method

Info

Publication number
JPH0981443A
JPH0981443A JP7240350A JP24035095A JPH0981443A JP H0981443 A JPH0981443 A JP H0981443A JP 7240350 A JP7240350 A JP 7240350A JP 24035095 A JP24035095 A JP 24035095A JP H0981443 A JPH0981443 A JP H0981443A
Authority
JP
Japan
Prior art keywords
multimedia data
content
stream
data
stream object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7240350A
Other languages
Japanese (ja)
Inventor
Akiko Kondou
朗子 近藤
Kouki Katou
光幾 加藤
Hiroshi Ishikawa
博 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP7240350A priority Critical patent/JPH0981443A/en
Publication of JPH0981443A publication Critical patent/JPH0981443A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a multimedia data retrieval system which is capable of discriminating the contents of data from the quality of data. SOLUTION: This system is provided with a contents object storage part 1 storing the contents object of multimedia data and a stream object storage part 2 storing the stream object of multimedia data. The contents attribute and the quality attribute of multimedia data stored in a multimedia data storage part 3 are separately stored, the part corresponding to the stream object designated by a stream object management part 5 and corresponding to the contents object designated by a contents object management part 4 is displayed on a multimedia display part 6.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、マルチメディアデ
ータ検索システム、マルチメディアデータのオブジェク
ト生成装置及びマルチメディアデータの管理方法に関
し、マルチメディアデータベースに適用して好適なもの
である。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a multimedia data search system, a multimedia data object generation device, and a multimedia data management method, and is suitable for application to a multimedia database.

【0002】[0002]

【従来の技術】従来のマルチメディアデータベースにお
いて、1つの内容(コンテンツ)に対して品質の異なる
複数の実体が格納される場合があった。この場合、それ
ぞれの実体は、内容が同一であるにもかかわらず品質が
異なるので、別々の内容を示すデータとしてマルチメデ
ィアデータベースに格納されていた。例えば、同一の内
容のデータにおいて、フォーマットの違いや時系列デー
タの再生レートの違い、或いはイメージデータの表示サ
イズの違いにより品質の異なる複数の実体が存在し、こ
れら複数の実体それぞれにコンテンツ情報を対応させて
いた。
2. Description of the Related Art In a conventional multimedia database, a plurality of entities having different qualities may be stored for one content. In this case, since the respective entities have the same contents but different qualities, they are stored in the multimedia database as data indicating different contents. For example, in the data of the same content, there are a plurality of entities with different qualities due to different formats, different playback rates of time series data, or different display sizes of image data, and content information is provided to each of these multiple entities. It corresponded.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、複数の
実体それぞれにコンテンツ情報を対応させる方法は、デ
ータの内容とデータの品質とを区別することができず、
所望の内容のデータを取り出す場合、データの品質をユ
ーザが考慮する必要があった。すなわち、1つの内容に
ついても異なる品質のマルチメディアデータが別々に存
在したので、品質まで特定しないと1つの内容を取り出
せないため、ユーザに負担がかかっていた。また、同一
の内容のデータの関係を把握することが困難で、同一の
内容であるが品質の異なるデータを多数互いに独立に保
存するので、結局冗長なデータを保存しなければならな
いという問題もあった。さらに、マルチメディアデータ
を利用する場合、複数の実体の中から、その環境に合わ
せて適切なデータを選択することが困難であり、ユーザ
が編集作業などでデータの内容の加工を行った場合、そ
の編集は加工を行ったデータに対してのみ有効で、他の
データ例えば同一内容であるが品質あるいはMPEG,
JPEGのようなフォーマットの異なるデータに利用す
ることができないか又はその内容を持つ全てのデータに
加工情報を伝えなければならないという問題があった。
However, the method of associating the content information with each of the plurality of entities cannot distinguish the content of the data and the quality of the data,
When extracting data of desired contents, the user had to consider the quality of the data. That is, since multimedia data of different qualities exist separately for one content, the content cannot be extracted unless the quality is specified, which imposes a burden on the user. In addition, it is difficult to understand the relationship between data having the same content, and since a large number of data having the same content but different qualities are stored independently of each other, redundant data must be stored in the end. It was Furthermore, when using multimedia data, it is difficult to select appropriate data from multiple entities according to the environment, and when the user edits the content of the data by editing work, The editing is effective only for the processed data, and other data, such as the same contents but with quality or MPEG,
There is a problem that it cannot be used for data of different formats such as JPEG, or that processing information must be transmitted to all data having the contents.

【0004】そこで、本発明の目的は、データの内容と
データの品質とを区別することができるマルチメディア
データ検索システム、マルチメディアデータのオブジェ
クト生成装置及びマルチメディアデータの管理方法を提
供することにある。
Therefore, an object of the present invention is to provide a multimedia data retrieval system, a multimedia data object generation apparatus, and a multimedia data management method capable of distinguishing between the content of data and the quality of data. is there.

【0005】[0005]

【課題を解決するための手段】上述した課題を解決する
ために、請求項1の発明によれば、マルチメディアデー
タの内容属性を示すコンテンツオブジェクトを格納する
コンテンツオブジェクト格納手段と、マルチメディアデ
ータの品質属性を示すストリームオブジェクトを格納す
るストリームオブジェクト格納手段とを備え、コンテン
ツオブジェクト又はストリームオブジェクトを指定する
ことにより、マルチメディアデータを検索する。このこ
とにより、マルチメディアデータの内容とマルチメディ
アデータの品質とを区別することができ、品質の違いを
考慮することなく、同一の内容を有するマルチメディア
データを検索することができる。
In order to solve the above-mentioned problems, according to the invention of claim 1, content object storage means for storing a content object indicating a content attribute of multimedia data, and multimedia data A stream object storage unit that stores a stream object indicating a quality attribute is provided, and multimedia data is searched by designating a content object or a stream object. As a result, the content of the multimedia data and the quality of the multimedia data can be distinguished, and the multimedia data having the same content can be searched for without considering the difference in quality.

【0006】また、請求項2の発明によれば、マルチメ
ディアデータの内容属性を示すコンテンツオブジェクト
とマルチメディアデータの品質属性を示すストリームオ
ブジェクトとを別々に格納し、コンテンツオブジェクト
にストリームオブジェクトを対応させる。このことによ
り、内容が同一で且つ品質の異なる複数のマルチメディ
アデータをコンテンツオブジェクトにより指定すること
ができ、内容が同一のマルチメディアデータの関連性を
明確にすることができる。
According to the second aspect of the invention, the content object indicating the content attribute of the multimedia data and the stream object indicating the quality attribute of the multimedia data are separately stored, and the stream object is associated with the content object. . As a result, a plurality of multimedia data having the same content and different qualities can be designated by the content object, and the relevance of the multimedia data having the same content can be clarified.

【0007】また、請求項3の発明によれば、内容が同
一で品質の異なるマルチメディアデータに対し、同一の
コンテンツオブジェクトを対応させる。このことによ
り、内容が同一で且つ品質の異なる複数のマルチメディ
アデータを1つのコンテンツオブジェクトにより指定す
ることができ、1つのコンテンツオブジェクトが複数の
マルチメディアデータを有するようにすることができ
る。
According to the third aspect of the invention, the same content object is associated with the multimedia data having the same content and different qualities. As a result, a plurality of multimedia data having the same content and different qualities can be designated by one content object, and one content object can have a plurality of multimedia data.

【0008】また、請求項4の発明によれば、マルチメ
ディアデータの内容属性を示すコンテンツオブジェクト
とマルチメディアデータの品質属性を示すストリームオ
ブジェクトとを別々に格納し、マルチメディアデータを
表示するマルチメディアデータ表示手段を備える。この
ことにより、同一の内容を有するマルチメディアデータ
の品質のみを変化させることができ、資源の制約を考慮
して同一内容のマルチメディアデータを表示することが
できる。
According to the invention of claim 4, a multimedia object for displaying multimedia data by separately storing a content object indicating a content attribute of multimedia data and a stream object indicating a quality attribute of multimedia data. Data display means is provided. As a result, only the quality of multimedia data having the same content can be changed, and the multimedia data having the same content can be displayed in consideration of resource restrictions.

【0009】また、請求項5の発明によれば、コンテン
ツオブジェクトに対応するマルチメディアデータのう
ち、その一部分に対応するビューを指定するビューオブ
ジェクトを生成する。このことにより、ビューの情報を
コンテンツオブジェクトにのみ反映させることができ、
コンテンツオブジェクトに対応する複数のストリームオ
ブジェクトに影響を与えることがないので、ストリーム
オブジェクトのビュー情報に関する一貫性を保証しなが
ら、マルチメディアデータの一部分にアクセスすること
ができる。
According to the fifth aspect of the invention, a view object that specifies a view corresponding to a part of multimedia data corresponding to a content object is generated. This allows the view information to be reflected only in the content object,
Since it does not affect a plurality of stream objects corresponding to the content object, it is possible to access a part of the multimedia data while guaranteeing the consistency regarding the view information of the stream object.

【0010】また、請求項6の発明によれば、マルチメ
ディアデータ格納手段に格納されている時系列データの
先頭からの時間とビューの長さとに基づいて、ビューオ
ブジェクトを生成する。このことにより、マルチメディ
アデータの一部分を時間的に切り出した部分データに内
容属性を与えることができる。
According to the invention of claim 6, the view object is generated based on the time from the beginning of the time series data stored in the multimedia data storage means and the view length. This makes it possible to give a content attribute to partial data obtained by temporally cutting out a part of multimedia data.

【0011】また、請求項7の発明によれば、マルチメ
ディアデータ格納手段に格納されているイメージデータ
の原点からの相対座標とビューの大きさとに基づいて、
ビューオブジェクトを生成する。このことにより、マル
チメディアデータの一部分を空間的に切り出した部分デ
ータに内容属性を与えることができる。
According to the invention of claim 7, based on the relative coordinates from the origin of the image data stored in the multimedia data storage means and the size of the view,
Create a view object. This makes it possible to give a content attribute to partial data obtained by spatially cutting out a part of multimedia data.

【0012】また、請求項8の発明によれば、マルチメ
ディアデータ格納手段に格納されているテキストデータ
の先頭からのバイト数とビューの長さとに基づいて、ビ
ューオブジェクトを生成する。このことにより、マルチ
メディアデータの一部分を切り出した部分データに内容
属性を与えることができる。
According to the invention of claim 8, the view object is generated based on the number of bytes from the beginning of the text data stored in the multimedia data storage means and the length of the view. As a result, the content attribute can be given to the partial data obtained by cutting out a part of the multimedia data.

【0013】また、請求項9の発明によれば、マルチメ
ディアデータの内容を示すキーワード及びその内容の長
さを示す情報を、コンテンツオブジェクト内に生成す
る。このことにより、マルチメディアデータの内容を指
定することができる。
According to the invention of claim 9, a keyword indicating the content of the multimedia data and information indicating the length of the content are generated in the content object. By this, the contents of the multimedia data can be designated.

【0014】また、請求項10の発明によれば、マルチ
メディアデータ格納手段に格納されている時系列データ
に対応する事象の生じた時刻を示す情報を、コンテンツ
オブジェクト内に生成する。このことにより、コンテン
ツオブジェクトが絶対時刻を有することができ、他のコ
ンテンツオブジェクトと同期をとることができる。
According to the invention of claim 10, information indicating the time when the event corresponding to the time-series data stored in the multimedia data storage means is generated in the content object. This allows the Content Object to have an absolute time and to be synchronized with other Content Objects.

【0015】また、請求項11の発明によれば、同一の
内容を有し且つフレームレートの異なるビデオデータに
関するストリームオブジェクトを生成する。このことに
より、内容が同一で品質の異なるビデオデータのそれぞ
れに対し、品質属性を与えることができる。
According to the invention of claim 11, stream objects relating to video data having the same contents and different frame rates are generated. As a result, a quality attribute can be given to each of the video data having the same content but different qualities.

【0016】また、請求項12の発明によれば、同一の
内容を有し且つ表示サイズの異なるビデオデータに関す
るストリームオブジェクトを生成する。このことによ
り、内容が同一で品質の異なるビデオデータのそれぞれ
に対し、品質属性を与えることができる。
According to the twelfth aspect of the invention, stream objects relating to video data having the same contents and different display sizes are generated. As a result, a quality attribute can be given to each of the video data having the same content but different qualities.

【0017】また、請求項13の発明によれば、同一の
内容を有し且つコーディングレートの異なるオーディオ
データに関するストリームオブジェクトを生成する。こ
のことにより、内容が同一で品質の異なるオーディオデ
ータのそれぞれに対し、品質属性を与えることができ
る。
According to the thirteenth aspect of the invention, stream objects relating to audio data having the same contents and different coding rates are generated. As a result, a quality attribute can be given to each of the audio data having the same content but different qualities.

【0018】また、請求項14の発明によれば、同一の
内容を有し且つ表示サイズの異なるイメージデータに関
するストリームオブジェクトを生成する。このことによ
り、内容が同一で品質の異なるイメージデータのそれぞ
れに対し、品質属性を与えることができる。
According to the fourteenth aspect of the present invention, stream objects relating to image data having the same contents and different display sizes are generated. As a result, a quality attribute can be given to each of the image data having the same content and different qualities.

【0019】また、請求項15の発明によれば、ストリ
ームオブジェクトにより指定されるマルチメディアデー
タをマルチメディアデータ表示手段に表示する処理に必
要な負荷情報を、ストリームオブジェクト内に生成す
る。このことにより、マルチメディアデータを表示する
際に必要な負荷を考慮して、マルチメディアデータの品
質を変えることができる。
According to the fifteenth aspect of the present invention, load information necessary for displaying multimedia data designated by the stream object on the multimedia data display means is generated in the stream object. With this, the quality of the multimedia data can be changed in consideration of the load required when displaying the multimedia data.

【0020】また、請求項16の発明によれば、負荷情
報に基づいて、同一の内容を有し且つフレームレートの
異なるビデオデータに関するストリームオブジェクトを
選択する。このことにより、ビデオデータを表示する際
に必要な負荷を考慮して、適切な品質属性を有したビデ
オデータを選択することができる。
According to the sixteenth aspect of the present invention, stream objects relating to video data having the same contents and different frame rates are selected based on the load information. With this, it is possible to select the video data having an appropriate quality attribute in consideration of the load required for displaying the video data.

【0021】また、請求項17の発明によれば、負荷情
報に基づいて、同一の内容を有し且つコーディングレー
トの異なるオーディオデータに関するストリームオブジ
ェクトを選択する。このことにより、オーディオデータ
を表示する際に必要な負荷を考慮して、オーディオデー
タの品質を変えることができる。
According to the seventeenth aspect of the present invention, stream objects relating to audio data having the same content and different coding rates are selected based on the load information. With this, the quality of the audio data can be changed in consideration of the load required for displaying the audio data.

【0022】また、請求項18の発明によれば、負荷情
報に基づいて、同一の内容を有し且つ表示サイズの異な
るビデオデータ又はイメージデータに関するストリーム
オブジェクトを選択する。このことにより、ビデオデー
タ又はイメージデータを表示する際に必要な負荷を考慮
して、ビデオデータ又はイメージデータの品質を変える
ことができる。
According to the eighteenth aspect of the invention, the stream object relating to the video data or the image data having the same content and different display sizes is selected based on the load information. This makes it possible to change the quality of the video data or the image data in consideration of the load required when displaying the video data or the image data.

【0023】また、請求項19の発明によれば、ビュー
オブジェクトにより指定されるビューに対応するデータ
を、マルチメディアデータから切り出して表示する。こ
のことにより、マルチメディアデータの一部分を表示す
ることができる。
According to the nineteenth aspect of the invention, the data corresponding to the view designated by the view object is cut out from the multimedia data and displayed. This allows a part of the multimedia data to be displayed.

【0024】また、請求項20の発明によれば、負荷情
報に基づいて、コンテンツオブジェクトに対応する複数
のストリームオブジェクトから1つを選択し、その選択
されたストリームオブジェクトに対応するマルチメディ
アデータを表示する。このことにより、マルチメディア
データを表示する際に必要な負荷に対応する品質を有す
るマルチメディアデータを選択することができる。
Further, according to the invention of claim 20, one is selected from a plurality of stream objects corresponding to the content object based on the load information, and the multimedia data corresponding to the selected stream object is displayed. To do. This makes it possible to select multimedia data having a quality corresponding to the load required when displaying the multimedia data.

【0025】また、請求項21の発明によれば、1つの
事象に対応する複数のマルチメディアデータに対し、事
象を表す共通の識別子を対応させる。このことにより、
共通の事象を表す複数のマルチメディアデータをまとめ
て管理することができる。
According to the twenty-first aspect of the invention, a common identifier representing an event is associated with a plurality of multimedia data corresponding to one event. By this,
It is possible to collectively manage a plurality of multimedia data representing a common event.

【0026】また、請求項22の発明によれば、1つの
事象に対応する複数のマルチメディアデータに対し、品
質を表す識別子をそれぞれ対応させる。このことによ
り、共通の事象を表す複数のマルチメディアデータか
ら、品質の異なるマルチメディアデータを選択すること
ができる。
Further, according to the invention of claim 22, a plurality of multimedia data corresponding to one event is made to correspond to the identifiers indicating the quality. As a result, multimedia data having different qualities can be selected from a plurality of multimedia data representing a common phenomenon.

【0027】また、請求項23の発明によれば、第1の
マルチメディアデータの内容属性と第2のマルチメディ
アデータの内容属性とを示す共通のコンテンツオブジェ
クトを生成し、第1のマルチメディアデータの品質属性
を示す第1のストリームオブジェクトと第2のマルチメ
ディアデータの品質属性を示す第2のストリームオブジ
ェクトとを生成する。このことにより、内容が同一で且
つ品質の異なる複数のマルチメディアデータを1つのコ
ンテンツオブジェクトにより指定することができ、1つ
のコンテンツオブジェクトが複数のマルチメディアデー
タを有するようにすることができる。
According to the twenty-third aspect of the present invention, a common content object indicating the content attribute of the first multimedia data and the content attribute of the second multimedia data is generated to generate the first multimedia data. And a second stream object indicating the quality attribute of the second multimedia data, and a second stream object indicating the quality attribute of the second multimedia data. As a result, a plurality of multimedia data having the same content and different qualities can be designated by one content object, and one content object can have a plurality of multimedia data.

【0028】また、請求項24の発明によれば、マルチ
メディアデータに対し、マルチメディアデータの内容属
性を示すコンテンツオブジェクトとマルチメディアデー
タの品質属性を示すストリームオブジェクトとを別々に
対応させる。このことにより、マルチメディアデータの
内容とマルチメディアデータの品質とを区別することが
でき、マルチメディアデータの品質の違いを考慮するこ
となく、同一の内容を有するマルチメディアデータを検
索することができる。
According to the twenty-fourth aspect of the invention, the content object indicating the content attribute of the multimedia data and the stream object indicating the quality attribute of the multimedia data are separately associated with the multimedia data. With this, the content of the multimedia data and the quality of the multimedia data can be distinguished, and the multimedia data having the same content can be searched for without considering the difference in the quality of the multimedia data. .

【0029】[0029]

【発明の実施の形態】以下、本発明の一実施例によるマ
ルチメディアデータ検索システムについて、図面を参照
しながら説明する。
BEST MODE FOR CARRYING OUT THE INVENTION A multimedia data search system according to an embodiment of the present invention will be described below with reference to the drawings.

【0030】図1は、本発明の一実施例によるマルチメ
ディアデータ検索システムの概略構成を示すブロック図
である。図1において、コンテンツオブジェクト格納部
1は、マルチメディアデータ格納部3に格納されている
マルチメディアデータの内容(コンテンツ)に関する情
報、すなわちコンテンツオブジェクトを格納するもので
ある。ここで、内容に関する情報とは、その内容を示す
キーワードやその内容の長さやその内容の時間やその内
容に登場する人物などの情報である。
FIG. 1 is a block diagram showing a schematic configuration of a multimedia data search system according to an embodiment of the present invention. In FIG. 1, a content object storage unit 1 stores information about contents (contents) of multimedia data stored in the multimedia data storage unit 3, that is, a content object. Here, the information about the content is information such as a keyword indicating the content, the length of the content, the time of the content, and a person who appears in the content.

【0031】ストリームオブジェクト格納部2は、コン
テンツオブジェクトに記述されるマルチメディアデータ
の品質(ストリーム)に関する情報、すなわちストリー
ムオブジェクトを格納するものである。ここで、品質に
関する情報とは、フォーマットや表示サイズやフレーム
レートやコーディングレートなどの情報である。
The stream object storage unit 2 stores information about the quality (stream) of the multimedia data described in the content object, that is, a stream object. Here, the information regarding the quality is information such as a format, a display size, a frame rate, and a coding rate.

【0032】マルチメディアデータ格納部3は、ビデオ
やオーディオやイメージやテキストなどのマルチメディ
アデータを格納するものであり、様々の内容や品質のマ
ルチメディアデータが格納されている。
The multimedia data storage unit 3 stores multimedia data such as video, audio, images and texts, and stores multimedia data of various contents and qualities.

【0033】コンテンツオブジェクト管理部4は、コン
テンツオブジェクト格納部1に格納するコンテンツオブ
ジェクトを生成したり、コンテンツオブジェクト格納部
1に格納されているコンテンツオブジェクトを検索した
り、マルチメディアデータの内容に対応するストリーム
オブジェクトを生成し、生成したストリームオブジェク
トをストリームオブジェクト格納部2に格納したりする
ものである。
The content object management unit 4 generates a content object to be stored in the content object storage unit 1, searches for a content object stored in the content object storage unit 1, and corresponds to the content of multimedia data. The stream object is generated, and the generated stream object is stored in the stream object storage unit 2.

【0034】ストリームオブジェクト管理部5は、スト
リームオブジェクト格納部2に格納するストリームオブ
ジェクトを生成したり、ストリームオブジェクト格納部
2に格納されているストリームオブジェクトを検索した
りするものである。
The stream object management unit 5 generates a stream object to be stored in the stream object storage unit 2 and retrieves a stream object stored in the stream object storage unit 2.

【0035】マルチメディアデータ表示部6は、マルチ
メディアデータ格納部3に格納されているマルチメディ
アデータのうち、ストリームオブジェクト管理部5で指
定されたストリームオブジェクトに対応し、且つコンテ
ンツオブジェクト管理部4で指定されたコンテンツオブ
ジェクトに対応する部分を表示するものである。
The multimedia data display unit 6 corresponds to the stream object designated by the stream object management unit 5 among the multimedia data stored in the multimedia data storage unit 3, and the content object management unit 4 The part corresponding to the specified content object is displayed.

【0036】なお、上述したコンテンツオブジェクト及
びストリームオブジェクトは、オブジェクト指向データ
ベースにより管理される。次に、本発明の一実施例によ
るコンテンツオブジェクトとストリームオブジェクトと
マルチメディアデータとの関係について説明する。
The above-mentioned content object and stream object are managed by an object-oriented database. Next, the relationship between the content object, the stream object, and the multimedia data according to the embodiment of the present invention will be described.

【0037】図2において、1つのコンテンツオブジェ
クト10aに対して複数のストリームオブジェクト11
a〜11cが対応している。また、各ストリームオブジ
ェクト11a〜11cには、その実体としてのマルチメ
ディアデータ12a〜12cが対応している。これは、
マルチメディアデータ格納部3に格納されているマルチ
メディアデータ12a〜12cは、コンテンツオブジェ
クト10aに対応して同一の内容を有し、ストリームオ
ブジェクト11a〜11cに対応してそれぞれ異なる品
質を有することを意味している。
In FIG. 2, a plurality of stream objects 11 are provided for one content object 10a.
a to 11c correspond. Further, the multimedia data 12a to 12c, which are the substance thereof, correspond to the stream objects 11a to 11c. this is,
It means that the multimedia data 12a to 12c stored in the multimedia data storage unit 3 have the same content corresponding to the content object 10a and have different qualities corresponding to the stream objects 11a to 11c. are doing.

【0038】また、コンテンツオブジェクト10aにビ
ューを設定することにより、新たなコンテンツオブジェ
クト10bを生成することができ、このコンテンツオブ
ジェクト10bに対してストリームオブジェクト11a
〜11cが対応している。さらに、コンテンツオブジェ
クト10bのストリームオブジェクト11a〜11cに
対しては、マルチメディアデータ12a〜12cの部分
データが対応している。次に、本発明の一実施例による
コンテンツオブジェクトのクラス構造について説明す
る。
By setting a view on the content object 10a, a new content object 10b can be generated, and the stream object 11a can be created for this content object 10b.
~ 11c correspond. Further, the partial objects of the multimedia data 12a to 12c correspond to the stream objects 11a to 11c of the content object 10b. Next, a class structure of a content object according to an exemplary embodiment of the present invention will be described.

【0039】図3において、コンテンツオブジェクトの
クラス構造は、コンテンツオブジェクトの共通の属性を
示すコンテンツクラス20の下位に、ビデオコンテンツ
クラス21、オーディオコンテンツクラス22、イメー
ジコンテンツクラス23及びテキストコンテンツクラス
24を有している。
In FIG. 3, the content object class structure includes a video content class 21, an audio content class 22, an image content class 23, and a text content class 24, which are subordinate to the content class 20 indicating the common attributes of the content objects. are doing.

【0040】コンテンツクラス20は、コンテンツの時
間長timeLength、コンテンツのキーワードk
eywords、コンテンツに対応するストリームデー
タの集合streams、コンテンツが情報ビューによ
って切り出された部分コンテンツである場合の元のコン
テンツparent、コンテンツに対応する部分コンテ
ンツchilds及びコンテンツが該当キーワードを有
しているかどうかをチェックするkeyword()メ
ソッドを有する。
The content class 20 is the content time length timeLength and the content keyword k.
eywords, stream data set streams corresponding to the content, original content parent when the content is a partial content cut out by an information view, partial content children corresponding to the content, and whether or not the content has a corresponding keyword It has a keyword () method to check.

【0041】また、ビデオコンテンツクラス21は、コ
ンテンツの先頭からの時間skipLengthの属
性、事象が生じた時刻absStartTimeの属
性、部分ビデオコンテンツを生成するsetVie
w()メソッド、コンテンツに対応するビデオストリー
ムオブジェクトを生成するnewVideo()メソッ
ド及びビデオデータのコンテンツを表示するpla
y()メソッドを有する。
The video content class 21 also has an attribute of time skipLength from the beginning of the content, an attribute of time absStartTime at which an event occurs, and a setVie for generating partial video content.
w () method, newVideo () method for generating a video stream object corresponding to the content, and pla for displaying the content of the video data.
It has a y () method.

【0042】なお、事象が生じた時刻absStart
Timeは、コンテンツオブジェクトの絶対時間を意味
しており、この事象が生じた時刻absStartTi
meを用いることにより、複数のコンテンツを同期させ
て表示することができる。
It should be noted that the time absStart at which the event occurred
Time means the absolute time of the content object, and the time at which this event occurred absStartTi
By using me, a plurality of contents can be displayed in synchronization.

【0043】また、オーディオコンテンツクラス22
は、コンテンツの先頭からの時間skipLength
の属性、事象の生じた時刻absStartTimeの
属性、部分オーディオコンテンツを生成するsetVi
ew()メソッド、コンテンツに対応するオーディオス
トリームオブジェクトを生成するnewAudio()
メソッド及びオーディオデータのコンテンツを表示する
play()メソッドを有する。
In addition, the audio content class 22
Is the time from the beginning of the content skipLength
Attribute, the time at which the event occurred absStartTime attribute, setVi for generating partial audio content
ew () method, newAudio () that creates an audio stream object corresponding to the content
It has a play () method for displaying the method and the content of the audio data.

【0044】また、イメージコンテンツクラス23は、
コンテンツの左上相対座標skipLengthX、s
kipLengthYの属性、ビューの大きさview
LengthX、viewLengthYの属性、部分
イメージコンテンツを生成するsetView()メソ
ッド、コンテンツに対応するイメージストリームオブジ
ェクトを生成するnewImage()メソッド及びイ
メージデータのコンテンツを表示するdispla
y()メソッドを有する。
The image content class 23 is
Upper left relative coordinate skipLengthX, s of the content
attribute of kipLengthY, view size view
LengthX, viewLengthY attributes, setView () method for generating partial image content, newImage () method for generating an image stream object corresponding to the content, and display for displaying the content of the image data.
It has a y () method.

【0045】また、テキストコンテンツクラス24は、
コンテンツの先頭からのバイト数skipLength
の属性、ビューの長さviewLengthの属性、部
分テキストコンテンツを生成するsetView()メ
ソッド、コンテンツに対応するテキストストリームオブ
ジェクトを生成するnewText()メソッド及びテ
キストイメージデータのコンテンツを表示するdisp
lay()メソッドを有する。
The text content class 24 is
The number of bytes from the beginning of the content skipLength
Attribute, view length viewLength attribute, setView () method for generating partial text content, newText () method for generating a text stream object corresponding to the content, and disp for displaying the content of the text image data.
It has a lay () method.

【0046】次に、本発明の一実施例によるストリーム
オブジェクトのクラス構造について説明する。図4にお
いて、ストリームオブジェクトのクラス構造は、ストリ
ームオブジェクトの共通の属性を示すストリームクラス
30の下位に、ビデオクラス31、オーディオクラス3
3、イメージクラス35及びテキストクラス37を有し
ている。さらに、各メディア毎のクラスの下位には、各
メディア毎のフォーマット毎のクラスを有している。す
なわち、ビデオクラス31の下位にはMPEGクラス3
2、オーディオクラス33の下位にはMPEGAudi
oクラス34、イメージクラス35の下位にはJPEG
クラス36が設けられている。
Next, the class structure of the stream object according to the embodiment of the present invention will be described. In FIG. 4, the class structure of the stream object includes a video class 31 and an audio class 3 below the stream class 30 indicating common attributes of the stream object.
3 has an image class 35 and a text class 37. Further, below the class for each medium, there is a class for each format for each medium. That is, the MPEG class 3 is subordinate to the video class 31.
2. Below the audio class 33 is MPEG Audio
JPEG is under the o class 34 and the image class 35.
Class 36 is provided.

【0047】ストリームクラス30は、ストリームオブ
ジェクトが対応するコンテンツcontents、スト
リームオブジェクトに対応する実マルチメディアデータ
のファイル名fileName及びマルチメディアデー
タをマルチメディアデータ表示部6に表示する際の負荷
情報loadCPU、loadIOを有する。この負荷
情報loadCPU、loadIOは、ストリームオブ
ジェクトの選択に使用される。すなわち、マルチメディ
アデータをマルチメディアデータ表示部6に表示する際
に、この負荷情報loadCPU、loadIOを参照
して適切なストリームオブジェクトを選択することによ
り、資源の制約を満足できる。
The stream class 30 includes content contents corresponding to the stream object, file name fileName of the real multimedia data corresponding to the stream object, and load information loadCPU and loadIO for displaying the multimedia data on the multimedia data display unit 6. Have. The load information loadCPU and loadIO are used for selecting a stream object. That is, when displaying multimedia data on the multimedia data display unit 6, resource restrictions can be satisfied by referring to the load information loadCPU and loadIO and selecting an appropriate stream object.

【0048】また、ビデオクラス31は、ビデオデータ
のフレームレートframeRateの属性、ビデオデ
ータのフレームの大きさwidth、heightの属
性、同一コンテンツでフレームレートの異なるビデオス
トリームを生成するnewRate()メソッド、同一
コンテンツでサイズの異なるビデオストリームを生成す
るnewSize()メソッド及びストリームオブジェ
クトに対応するビデオデータを表示するplay()メ
ソッドを有する。
Also, the video class 31 has the same attribute as the frame rate frameRate of the video data, the attributes of the frame size width and height of the video data, the newRate () method for generating video streams with the same content but different frame rates, and the same. It has a newSize () method for generating video streams of different sizes in the content and a play () method for displaying video data corresponding to the stream object.

【0049】また、オーディオクラス33は、オーディ
オデータのコーディングレートcodingRateの
属性、同一コンテンツでコーディングレートの異なるオ
ーディオストリームを生成するnewRate()メソ
ッド及びストリームオブジェクトに対応するオーディオ
データを表示するplay()メソッドを有する。
The audio class 33 has an attribute of the coding rate codingRate of audio data, a newRate () method for generating audio streams having the same content but different coding rates, and a play () method for displaying audio data corresponding to a stream object. Have.

【0050】また、イメージクラス35は、イメージデ
ータの表示サイズwidth、heightの属性、同
一コンテンツでサイズの異なるイメージストリームを生
成するnewSize()メソッド及びストリームオブ
ジェクトに対応するイメージデータを表示するdisp
lay()メソッドを有する。
Also, the image class 35 displays the image data display size width and height attributes, the newSize () method for generating image streams of the same content but different sizes, and the image data corresponding to the stream object.
It has a lay () method.

【0051】また、テキストクラス37は、ストリーム
オブジェクトに対応するテキストデータを表示するdi
splay()メソッドを有する。また、ビデオクラス
31の下位のMPEGクラス32は、MPEG形式のビ
デオデータを扱うもので、同一コンテンツでフレームレ
ートの異なるビデオストリームを生成するnewRat
e()メソッド、同一コンテンツでサイズの異なるビデ
オストリームを生成するnewSize()メソッド及
びストリームオブジェクトに対応するビデオデータを表
示するplay()メソッドを有する。
Further, the text class 37 displays the text data corresponding to the stream object, di.
It has a spray () method. The MPEG class 32, which is a subordinate of the video class 31, handles MPEG format video data, and newRat that generates video streams with the same content but different frame rates.
It has an e () method, a newSize () method for generating video streams with the same content and different sizes, and a play () method for displaying video data corresponding to a stream object.

【0052】また、オーディオクラス33の下位のMP
EGAudioクラス34は、MPEG形式のオーディ
オデータを扱うもので、同一コンテンツでコーディング
レートの異なるオーディオストリームを生成するnew
Rate()メソッド及びストリームオブジェクトに対
応するオーディオデータを表示するplay()メソッ
ドを有する。
Also, the MP below the audio class 33
The EGAaudio class 34 handles MPEG-format audio data, and generates new audio streams with the same content but different coding rates.
It has a Rate () method and a play () method for displaying audio data corresponding to the stream object.

【0053】また、イメージクラス35の下位のJPE
Gクラス36は、MPEG形式の静止画データを扱うも
ので、同一コンテンツでサイズの異なるイメージストリ
ームを生成するnewSize()メソッド及びストリ
ームオブジェクトに対応するイメージデータを表示する
display()メソッドを有する。
Further, the lower JPE of the image class 35
The G class 36 handles still image data in the MPEG format, and has a newSize () method for generating image streams of the same content and different sizes, and a display () method for displaying image data corresponding to a stream object.

【0054】なお、コンテンツを表示させる場合、コン
テンツクラス20のストリームデータの集合strea
msからストリームオブジェクトの集合を獲得し、表示
する環境に適するストリームオブジェクトを選出し、そ
の選出したストリームオブジェクトに対応するマルチメ
ディアデータにおいて、コンテンツオブジェクトのビュ
ーで設定された部分を表示する。
When displaying contents, a set stream of stream data of the contents class 20 is set.
A set of stream objects is acquired from ms, a stream object suitable for the display environment is selected, and in the multimedia data corresponding to the selected stream object, the part set in the view of the content object is displayed.

【0055】また、複数のコンテンツを同期させたり、
正確に連続して表示させたりする場合、専用のスケジュ
ーラを用いてストリームオブジェクトの選択と各マルチ
メディアデータの開始時刻の決定を行う。
Also, synchronizing a plurality of contents,
For accurate continuous display, a dedicated scheduler is used to select stream objects and determine the start time of each multimedia data.

【0056】次に、本発明の一実施例によるコンテンツ
オブジェクトとストリームオブジェクトとマルチメディ
アデータとの関係について、ビデオデータを例にとって
説明する。
Next, the relationship between content objects, stream objects and multimedia data according to an embodiment of the present invention will be described by taking video data as an example.

【0057】図5において、例えば、“7時のニュー
ス”という1時間番組に対して、品質異なる3つのビデ
オデータ42a〜42cがマルチメディアデータ格納部
3に格納されているとする。ここで、ビデオデータ42
aは、例えば、フレームレートが30fpsであり、ビ
デオデータ42bは、例えば、フレームレートが15f
psであり、ビデオデータ42cは、例えば、フレーム
レートが10fpsである。
In FIG. 5, for example, it is assumed that three video data 42a to 42c having different qualities are stored in the multimedia data storage section 3 for the one-hour program "News at 7 o'clock". Here, the video data 42
For example, a has a frame rate of 30 fps, and video data 42b has a frame rate of 15 f, for example.
The video data 42c has a frame rate of 10 fps, for example.

【0058】これらのビデオデータ42a〜42cに対
し、“7時のニュース”という1時間番組の内容属性に
対応するコンテンツオブジェクト40aを生成する。こ
こで、コンテンツオブジェクト40aに対応する識別子
oidをc1とする。
For these video data 42a to 42c, the content object 40a corresponding to the content attribute of the one-hour program "news at 7 o'clock" is generated. Here, the identifier oid corresponding to the content object 40a is c1.

【0059】さらに、“7時のニュース”という1時間
番組の内容属性を有するビデオデータ42a〜42cが
3つ有るので、これらのビデオデータ42a〜42cに
それぞれ対応するストリームオブジェクト41a〜41
cを生成する。ここで、ストリームオブジェクト41a
に対応する識別子oidをs1とし、ストリームオブジ
ェクト41bに対応する識別子oidをs2とし、スト
リームオブジェクト41cに対応する識別子oidをs
3とする。
Further, since there are three pieces of video data 42a to 42c having the content attribute of the one-hour program "news at 7 o'clock", the stream objects 41a to 41 corresponding to these video data 42a to 42c, respectively.
Generate c. Here, the stream object 41a
The identifier oid corresponding to the stream object 41b is s1, the identifier oid corresponding to the stream object 41b is s2, and the identifier oid corresponding to the stream object 41c is s1.
3 is assumed.

【0060】この時、コンテンツオブジェクト40aの
コンテンツクラス20におけるストリームデータの集合
streamsには、識別子の集合{s1、s2、s
3}が記述され、ストリームオブジェクト41a〜41
cのストリームクラス30のコンテンツcontent
sには、識別子c1が記述される。
At this time, a set of stream data in the content class 20 of the content object 40a includes a set of identifiers {s1, s2, s.
3} is described and the stream objects 41a to 41 are described.
Content of stream class 30 of c
The identifier c1 is described in s.

【0061】次に、“7時のニュース”という1時間番
組の中の一部分の“天気予報”という内容に着目した場
合、コンテンツオブジェクト40aにビューを設定する
ことにより、“天気予報”という内容属性に対応するコ
ンテンツオブジェクト40bを生成する。ここで、コン
テンツオブジェクト40bに対応する識別子oidをc
2とする。
Next, when paying attention to a part of the content "weather forecast" in the one-hour program "news at 7 o'clock", by setting a view in the content object 40a, the content attribute "weather forecast" is set. The content object 40b corresponding to is generated. Here, the identifier oid corresponding to the content object 40b is c
Let it be 2.

【0062】この時、コンテンツオブジェクト40aの
コンテンツクラス20における部分コンテンツchil
dsには、コンテンツオブジェクト40bに対応する識
別子{c2}が記述される。また、コンテンツオブジェ
クト40bのコンテンツクラス20における元のコンテ
ンツparentには、コンテンツオブジェクト40a
に対応する識別子c1が記述される。また、コンテンツ
オブジェクト40bのコンテンツクラス20におけるス
トリームデータの集合streamsには、コンテンツ
オブジェクト40aのコンテンツクラス20と同様に、
識別子の集合{s1、s2、s3}が記述される。
At this time, the partial content chil in the content class 20 of the content object 40a
An identifier {c2} corresponding to the content object 40b is described in ds. The original content parent of the content object 40b in the content class 20 is the content object 40a.
The identifier c1 corresponding to is described. Also, in the stream data set streams in the content class 20 of the content object 40b, as in the content class 20 of the content object 40a,
A set of identifiers {s1, s2, s3} is described.

【0063】もし、品質の異なる新しいビデオデータが
さらに追加された場合、その新しいビデオデータのスト
リームオブジェクトの識別子を、コンテンツオブジェク
ト40aのコンテンツクラス20におけるストリームデ
ータの集合streamsに追加するとともに、コンテ
ンツオブジェクト40bのコンテンツクラス20におけ
るストリームデータの集合streamsにも追加す
る。
If new video data of different quality is further added, the identifier of the stream object of the new video data is added to the stream data set streams in the content class 20 of the content object 40a, and the content object 40b is added. It is also added to the stream data set streams in the content class 20.

【0064】次に、本発明の第1実施例によるコンテン
ツオブジェクトの新規生成方法について説明する。な
お、以下に述べる実施例では、コンテンツオブジェクト
及びストリームオブジェクトの管理をオブジェクト指向
データベースを利用して行い、オブジェクトの生成をオ
ブジェクト指向データベースの提供するnew()メソ
ッドを利用して行うものとして説明する。また、オブジ
ェクト指向データベースの提供する条件検索式を利用し
てオブジェクトの検索を行うものとする。
Next, a new method of creating a content object according to the first embodiment of the present invention will be described. In the embodiments described below, the content object and the stream object are managed using an object-oriented database, and the objects are generated using the new () method provided by the object-oriented database. Further, it is assumed that the object is searched by using the conditional search expression provided by the object-oriented database.

【0065】図6は、本発明の第1実施例によるコンテ
ンツオブジェクトの新規生成方法を示すフローチャート
である。図6において、まず、ステップS1に示すよう
に、図1のコンテンツオブジェクト管理部4は、図3の
該当するクラスからオブジェクト指向データベースの提
供するnew()メソッドを起動する。ここで、例え
ば、コンテンツの時間長timeLength、コンテ
ンツのキーワードkeywords及び事象の生じた時
刻absStartTimeをnew()メソッドの引
数とする。そして、マルチメディアデータ格納部3に格
納されたマルチメディアデータのコンテンツを示す情報
として新規のコンテンツオブジェクトを生成する。
FIG. 6 is a flow chart showing a new method of creating a content object according to the first embodiment of the present invention. In FIG. 6, first, as shown in step S1, the content object management unit 4 of FIG. 1 activates the new () method provided by the object-oriented database from the corresponding class of FIG. Here, for example, the time length timeLength of the content, the keyword keywords of the content, and the time absStartTime at which the event occurs are used as arguments of the new () method. Then, a new content object is generated as information indicating the content of the multimedia data stored in the multimedia data storage unit 3.

【0066】例えば、コンテンツの時間長がtsec
で、キーワードが{“A”}で、絶対時刻が19YY年
MM月DD日HH時MM分SS.mmm秒のビデオデー
タのコンテンツオブジェクトを生成する場合、 VideoContents.new( timeLength:=t, keywords:={“A”}, absStartTime:=YYMMDDHHMMSS.mmm, ); を実行する。
For example, the time length of the content is tsec
And the keyword is {“A”} and the absolute time is YYMMMMDDDDYYHHMMMMSS. When generating a content object of mmmsec video data, VideoContents. new (timeLength: = t, keyswords: = {“A”}, absStartTime: = YYMMDDHHMMSS.mmm,);

【0067】次に、ステップS2に示すように、生成し
た新規のコンテンツオブジェクトをコンテンツオブジェ
クト格納部1に格納する。なお、オーディオ、イメー
ジ、テキストのコンテンツオブジェクトを生成する場合
も同様に行うことができる。
Next, as shown in step S2, the generated new content object is stored in the content object storage unit 1. Note that the same can be done when generating audio, image, and text content objects.

【0068】次に、本発明の第2実施例によるコンテン
ツオブジェクトの検索方法について説明する。図1のコ
ンテンツオブジェクト管理部4は、キーワードを指定す
ることにより、コンテンツオブジェクト格納部1に格納
されたコンテンツオブジェクトから必要なコンテンツオ
ブジェクトを検索する。
Next, a content object search method according to the second embodiment of the present invention will be described. The content object management unit 4 of FIG. 1 retrieves a necessary content object from the content objects stored in the content object storage unit 1 by designating a keyword.

【0069】例えば、キーワードが“A”であるコンテ
ンツオブジェクトを検索する場合、図3のコンテンツク
ラス20のkeyword()メソッドを起動し、 cs=Contents from Contents
whereContents.keyword
(“A”); を実行する。
For example, when searching for a content object whose keyword is "A", the keyword () method of the content class 20 in FIG. 3 is invoked, and cs = Contents from Contents
whereContents. keyword
(“A”);

【0070】このことにより、コンテンツのキーワード
keywordsの属性にAを含むコンテンツオブジェ
クトの集合csが、コンテンツクラス20のコンテンツ
オブジェクトから検索される。
As a result, the content object set cs including A in the attribute of the content keyword keywords is retrieved from the content object of the content class 20.

【0071】なお、対象from範囲where選択条
件は、オブジェクト指向データベースの提供する条件検
索式である。また、keyword()メソッドは、 if起動オブジェクトのkeywords属性に引数の
keywordが含まれる→TRUE else→FALSE である。
The target from range where selection condition is a condition retrieval formula provided by the object-oriented database. Further, the keyword () method is such that the keywords attribute of the if activation object includes the keyword keyword → TRUE else → FALSE.

【0072】次に、本発明の第3実施例によるコンテン
ツオブジェクトのビューの設定方法について説明する。
図7は、本発明の第3実施例によるコンテンツオブジェ
クトのビューの設定方法を示すフローチャートである。
Next, a method of setting the view of the content object according to the third embodiment of the present invention will be described.
FIG. 7 is a flowchart illustrating a method of setting a view of a content object according to a third exemplary embodiment of the present invention.

【0073】図7において、まず、ステップS11に示
すように、図1のコンテンツオブジェクト管理部4は、
ユーザの入力するsetView()メソッドの引数よ
り、ビューの開始時刻startTime、ビューの時
間長timeLength、ビューのキーワードkey
wordsを読み込む。また、メソッドの起動オブジェ
クトparentの属性より、使用ストリームstre
ams、絶対開始時刻absStartTimeを読み
込む。
In FIG. 7, first, as shown in step S11, the content object management unit 4 of FIG.
From the argument of the setView () method input by the user, the view start time startTime, the view time length timeLength, the view keyword key
Read the words. Also, from the attribute of the method startup object parent, the used stream
ams, absolute start time absStartTime is read.

【0074】次に、ステップS12に示すように、図1
のコンテンツオブジェクト管理部4は、オブジェクト指
向データベースの提供するnew()メソッドを起動す
る。ここで、例えば、ビューの時間長timeLeng
th、ビューのキーワードkeywords、使用スト
リームstreams、起動オブジェクトparen
t、ビューの開始時刻skipLength、起動オブ
ジェクトの絶対開始時刻+ビューの開始時刻absSt
artTimeをnew()メソッドの引数とする。
Next, as shown in step S12, as shown in FIG.
The content object management unit 4 starts the new () method provided by the object-oriented database. Here, for example, the time length of the view timeLeng
th, view keyword keywords, used stream streams, start object paren
t, the start time of the view skipLength, the absolute start time of the activation object + the start time absSt of the view
Let artTime be the argument of the new () method.

【0075】そして、コンテンツオブジェクト格納部1
に格納されたコンテンツオブジェクトから、コンテンツ
オブジェクトの一部分をアクセスするためのビューを設
定し、設定したビューに対応する新たなコンテンツオブ
ジェクトを生成する。
Then, the content object storage unit 1
A view for accessing a part of the content object is set from the content object stored in, and a new content object corresponding to the set view is generated.

【0076】例えば、ビデオコンテンツオブジェクトv
c1の一部分の開始時刻t1秒のとことからビューの時
間長t2秒間を、ビューのキーワードkeyword=
“A2”としてビューを設定する場合、図3のビデオコ
ンテンツクラス21のsetView()メソッドを用
いて、 vc2=vc1.setView( startTime:=t1 timeLength:=t2 keywords:={“A2”} ); とすると、 timeLength=t2、 keywords={“A2”}、 streams=vc1.streams、 parent=vc1、 skipLength=t1、 absStartTime=vc1.absStart
Timeを数値に変換し、t1を加えて再びabsSt
artTimeのフォーマットの文字列に変換したも
の、とするビデオコンテンツオブジェクトvc2が生成
される。
For example, the video content object v
Since the start time t1 seconds of a part of c1 is the view time length t2 seconds, the view keyword keyword =
When setting the view as “A2”, using the setView () method of the video content class 21 in FIG. 3, vc2 = vc1. setView (startTime: = t1 timeLength: = t2 keywords: = {"A2"}); then, timeLength = t2, keywords = {"A2"}, streams = vc1. streams, parent = vc1, skipLength = t1, absStartTime = vc1. absStart
Convert Time to numerical value, add t1 and absSt again
A video content object vc2 that is converted into a character string in the artTime format is generated.

【0077】次に、ステップS13に示すように、コン
テンツオブジェクト管理部4は、元コンテンツの属性c
hildsに新たに生成したビデオコンテンツオブジェ
クトを追加する。
Next, as shown in step S13, the content object management section 4 determines the attribute c of the original content.
Add the newly created video content object to the children.

【0078】次に、ステップS14に示すように、生成
した新規のコンテンツオブジェクトをコンテンツオブジ
ェクト格納部1に格納する。なお、オーディオ、イメー
ジ、テキストのビューを設定する場合も同様に行うこと
ができる。
Next, as shown in step S14, the generated new content object is stored in the content object storage unit 1. Note that the same can be done when setting the audio, image, and text views.

【0079】次に、本発明の第4実施例によるストリー
ムオブジェクトの新規生成方法について説明する。図8
は、本発明の第4実施例によるストリームオブジェクト
の新規生成方法を示すフローチャートである。
Next, a new method of creating a stream object according to the fourth embodiment of the present invention will be described. FIG.
FIG. 9 is a flowchart showing a new method of creating a stream object according to the fourth exemplary embodiment of the present invention.

【0080】図8において、まず、ステップS21に示
すように、図1のコンテンツオブジェクト管理部4は、
ユーザの入力するnewVideo()メソッドの引数
より、該当するマルチメディアデータのファイル名fi
leName、フレームレートframeRate、表
示サイズの幅width、表示サイズの高さheigh
tt、フォーマットを読み込む。 次に、ステップS2
2に示すように、フレームレートframeRate、
表示サイズの幅width、表示サイズの高さheig
htから、図9に示す対応表を参照し、負荷情報loa
dCPU、loadIOの値を読み取る。負荷情報lo
adCPU、loadIOは、フレームレートfram
eRate、表示サイズの幅width、表示サイズの
高さheightを指定すると一意に決まるので、この
対応表を予め作成しておくことができる。
In FIG. 8, first, as shown in step S21, the content object management unit 4 of FIG.
From the argument of the newVideo () method input by the user, the file name fi of the corresponding multimedia data
leName, frame rate frameRate, width of display size width, height of display size height
tt, read the format. Next, step S2
2, the frame rate frameRate,
Display size width width, display size height heig
From ht, referring to the correspondence table shown in FIG. 9, load information loa
Read the values of dCPU and loadIO. Load information lo
frame rate frame for adCPU and loadIO
Since the eRate, the width of the display size, and the height of the display size are specified uniquely, the correspondence table can be created in advance.

【0081】例えば、図9において、フレームレートが
10fpsで表示サイズが320×240PIXEL
(表示幅と表示高さとの比は予め決まっているものとす
る)のビデオデータに対する負荷情報loadCPU、
loadIOの値(負荷のパーセンテージ)は、 loadCPU=57、 loadIO=1、 と決定する。
For example, in FIG. 9, the frame rate is 10 fps and the display size is 320 × 240 PIXEL.
Load information loadCPU for video data (assuming that the ratio between the display width and the display height is predetermined),
The value of loadIO (percentage of load) is determined to be: loadCPU = 57, loadIO = 1.

【0082】次に、ステップS23に示すように、コン
テンツオブジェクト管理部4は、オブジェクト指向デー
タベースの提供するnew()メソッドを起動する。こ
こで、例えば、メソッドの起動オブジェクトconte
nts、マルチメディアデータのファイル名fileN
ame、負荷情報loadCPU、loadIO、フレ
ームレートframeRate、表示サイズの幅wid
th、表示サイズの高さheightをnew()メソ
ッドの引数とする。
Next, as shown in step S23, the content object management unit 4 activates the new () method provided by the object-oriented database. Here, for example, the method activation object cont
nts, file name of multimedia data fileN
ame, load information loadCPU, loadIO, frame rate frameRate, width of display size wid
Let th and the height height of the display size be the arguments of the new () method.

【0083】そして、コンテンツオブジェクト格納部1
に格納されたコンテンツオブジェクトから、それぞれの
マルチメディアデータに応じて図4に示すクラスのスト
リームオブジェクトを新規に生成する。
Then, the content object storage unit 1
A new stream object of the class shown in FIG. 4 is newly generated from the content object stored in (4) according to each multimedia data.

【0084】例えば、コンテンツオブジェクトがvc、
フレームレートが10fps、表示サイズが320×2
40PIXEL、マルチメディアデータ格納部3に格納
されているのマルチメディアデータのファイル名が“x
1.mpeg”でMPEG形式のフォーマットのビデオ
データに対するストリームオブジェクトvsを生成する
場合、図3のビデオコンテンツクラス21のnewVi
deo()メソッドを用いて、 vs=vc.newVideo( fileName:=“x1.mpeg”、 frameRate:=10、 width:=320、 height:=240、 format:=“Mpeg” ); とすると、 contents=vc、 fileName=“x1.mpeg”、 frameRate=10、 width:=320、 height:=240、 loadCPU=57、 loadIO=1、 とする図4のMpegクラス32のストリームオブジェ
クトvsが生成される。
For example, if the content object is vc,
Frame rate 10fps, display size 320x2
40PIXEL, the file name of the multimedia data stored in the multimedia data storage unit 3 is “x
1. When the stream object vs for the video data of the MPEG format is generated by "mpeg", newVi of the video content class 21 of FIG. 3 is generated.
Using the deo () method, vs = vc. newVideo (fileName: = “x1.mpeg”, frameRate: = 10, width: = 320, height: = 240, format: = “Mpeg”); contents = vc, fileName = “x1.mpeg”, = 10, width: = 320, height: = 240, loadCPU = 57, loadIO = 1, the stream object vs of the Mpeg class 32 of FIG. 4 is generated.

【0085】次に、ステップS24に示すように、コン
テンツオブジェクト管理部4は、メソッドの起動オブジ
ェクト(コンテンツ)の属性streamsに新たに生
成したストリームオブジェクトを追加する。
Next, as shown in step S24, the content object management unit 4 adds the newly generated stream object to the attribute streams of the method activation object (content).

【0086】次に、ステップS25に示すように、生成
した新規のストリームオブジェクトをストリームオブジ
ェクト格納部2に格納する。なお、オーディオストリー
ムオブジェクトを生成する場合には、図3のオーディオ
コンテンツクラス22のnewAudio()メソッド
を用いる。また、イメージストリームオブジェクトを生
成する場合には、図3のイメージコンテンツクラス23
のnewImage()メソッドを用いる。また、テキ
ストストリームオブジェクトを生成する場合には、図3
のテキストコンテンツクラス24のnewText()
メソッドを用いる。このことにより、オーディオやイメ
ージやテキストの場合も、ビデオストリームオブジェク
トを生成する場合と同様に行うことができる。
Next, as shown in step S25, the generated new stream object is stored in the stream object storage unit 2. Note that when an audio stream object is generated, the newAudio () method of the audio content class 22 of FIG. 3 is used. When an image stream object is generated, the image content class 23 of FIG.
The newImage () method of is used. In addition, when a text stream object is generated, as shown in FIG.
NewText () of the text content class 24 of
Use method. As a result, audio, image, and text can be processed in the same manner as when a video stream object is generated.

【0087】次に、本発明の第5実施例による異なるフ
レームレートのビデオストリームオブジェクトの生成方
法について説明する。図10は、本発明の第5実施例に
よる異なるフレームレートのビデオストリームオブジェ
クトの生成方法を示すフローチャートである。
Next, a method of generating video stream objects having different frame rates according to the fifth embodiment of the present invention will be described. FIG. 10 is a flowchart showing a method of generating video stream objects having different frame rates according to the fifth embodiment of the present invention.

【0088】図10において、まず、ステップS31に
示すように、図1のストリームオブジェクト管理部5
は、ユーザの入力するnewRate()メソッドの引
数より、該当するマルチメディアデータのファイル名f
ileName、フレームレートframeRateを
読み込む。このフレームレートは、現在のフレームレー
トと異なるフレームレートであってユーザが新たに入力
するものである。また、メソッドの起動オブジェクトの
属性より、コンテンツcontents、表示サイズの
幅width、表示サイズの高さheightを読み込
む。これらはユーザが新たに入力したものではなくメソ
ッドの起動オブジェクトの属性に記述されているもので
ある。
In FIG. 10, first, as shown in step S31, the stream object management unit 5 of FIG.
Is the file name f of the corresponding multimedia data from the argument of the newRate () method input by the user.
ileName and frame rate frameRate are read. This frame rate is different from the current frame rate and is newly input by the user. In addition, the content contents, the width of the display size, and the height of the display size are read from the attributes of the method activation object. These are not newly input by the user, but are described in the attributes of the method activation object.

【0089】次に、ステップS32に示すように、フレ
ームレートframeRate、表示サイズの幅wid
th、表示サイズの高さheightから、図9に示す
対応表を参照し、負荷情報loadCPU、loadI
Oの値を読み取る。
Next, as shown in step S32, the frame rate frameRate and the width of the display size wid
From th and the height height of the display size, referring to the correspondence table shown in FIG. 9, the load information loadCPU, loadI
Read the value of O.

【0090】次に、ステップS33に示すように、スト
リームオブジェクト管理部5は、オブジェクト指向デー
タベースの提供するnew()メソッドを起動する。こ
こで、例えば、コンテンツcontents、マルチメ
ディアデータのファイル名fileName、負荷情報
loadCPU、loadIO、フレームレートfra
meRate、表示サイズの幅width、表示サイズ
の高さheightをnew()メソッドの引数とす
る。
Next, as shown in step S33, the stream object management unit 5 activates the new () method provided by the object-oriented database. Here, for example, contents contents, file name fileName of multimedia data, load information loadCPU, loadIO, frame rate fra
The meRate, the width of the display size, and the height of the display size height are used as arguments of the new () method.

【0091】そして、ストリームオブジェクト格納部2
に格納されたビデオストリームオブジェクトに対して、
コンテンツが同一でフレームレートの異なるビデオスト
リームオブジェクトを生成する。
The stream object storage unit 2
For the video stream object stored in
Generate video stream objects with the same content but different frame rates.

【0092】例えば、ビデオストリームオブジェクトが
vs1のビデオデータに対して、フレームレートが15
fps、表示サイズが同一、マルチメディアデータ格納
部3に格納されているのマルチメディアデータのファイ
ル名が“x2.mpeg”、フォーマットがMPEG形
式のビデオデータに対するストリームオブジェクトvs
2を生成する場合、図4のMPEGクラス32のnew
Rate()メソッドを用いて、 vs2=vs1.newRate( fileName:=“x2.mpeg”、 frameRate:=15 ); とすると、 contents=vs1.contents、 fileName=“x2.mpeg”、 frameRate=15、 width:=vs1.width、 height:=vs1.height、 loadCPU、loadIO=frameRate、
width、heightから図9の対応表を参照して
求めたもの、とする図4のMpegクラス32のストリ
ームオブジェクトvs2が生成される。
For example, for the video data whose video stream object is vs1, the frame rate is 15
fps, display size is the same, the stream object vs for the video data in which the file name of the multimedia data stored in the multimedia data storage unit 3 is “x2.mpeg” and the format is MPEG format
2 is generated, new of MPEG class 32 in FIG. 4 is generated.
Using the Rate () method, vs2 = vs1. newRate (fileName: = “x2.mpeg”, frameRate: = 15); Then, contents = vs1. contents, fileName = "x2.mpeg", frameRate = 15, width: = vs1. width, height: = vs1. height, loadCPU, loadIO = frameRate,
A stream object vs2 of the Mpeg class 32 in FIG. 4 is generated from the width and the height by referring to the correspondence table in FIG.

【0093】次に、ステップS34に示すように、コン
テンツオブジェクト管理部4は、該当するコンテンツの
属性streamsに新たに生成したストリームオブジ
ェクトを追加する。
Next, as shown in step S34, the content object management unit 4 adds the newly generated stream object to the attribute streams of the corresponding content.

【0094】次に、ステップS35に示すように、生成
したストリームオブジェクトをストリームオブジェクト
格納部2に格納する。次に、本発明の第6実施例による
異なる表示サイズのビデオストリームオブジェクトの生
成方法について説明する。
Next, as shown in step S35, the generated stream object is stored in the stream object storage unit 2. Next, a method of generating video stream objects having different display sizes according to the sixth embodiment of the present invention will be described.

【0095】まず、図1のストリームオブジェクト管理
部5は、ユーザの入力するnewSize()メソッド
の引数より、該当するマルチメディアデータのファイル
名fileName、表示サイズの幅width、表示
サイズの高さheightを読み込む。また、メソッド
の起動オブジェクトの属性より、コンテンツconte
nts、フレームレートframeRateを読み込
む。
First, the stream object management unit 5 in FIG. 1 determines the file name fileName, the width of the display size, and the height of the display size of the corresponding multimedia data from the arguments of the newSize () method input by the user. Read. Also, from the attribute of the method startup object, the content
nts, frame rate frameRate are read.

【0096】次に、フレームレートframeRat
e、表示サイズの幅width、表示サイズの高さhe
ightから、図9に示す対応表を参照し、負荷情報l
oadCPU、loadIOの値を読み取る。
Next, the frame rate frameRat
e, width of display size width, height of display size he
load, referring to the correspondence table shown in FIG. 9, load information l
Read the values of oadCPU and loadIO.

【0097】次に、ストリームオブジェクト管理部5
は、オブジェクト指向データベースの提供するne
w()メソッドを起動する。ここで、例えば、コンテン
ツcontents、マルチメディアデータのファイル
名fileName、負荷情報loadCPU、loa
dIO、フレームレートframeRate、表示サイ
ズの幅width、表示サイズの高さheightをn
ew()メソッドの引数とする。
Next, the stream object management unit 5
Is an object-oriented database provided by ne
Invokes the w () method. Here, for example, contents contents, file name fileName of multimedia data, load information loadCPU, loa
dIO, frame rate frameRate, display size width width, and display size height height
It is used as an argument of the ew () method.

【0098】そして、ストリームオブジェクト格納部2
に格納されたビデオストリームオブジェクトに対して、
コンテンツが同一で表示サイズの異なるビデオストリー
ムオブジェクトを生成する。
The stream object storage unit 2
For the video stream object stored in
A video stream object with the same content but different display size is generated.

【0099】例えば、ビデオストリームオブジェクトが
vs1のビデオデータに対して、フレームレートが同
一、表示サイズが160×112PIXEL、マルチメ
ディアデータ格納部3に格納されているのマルチメディ
アデータのファイル名が“x2.mpeg”、フォーマ
ットがMPEG形式のビデオデータに対するストリーム
オブジェクトvs2を生成する場合、図4のMpegク
ラス32のnewSize()メソッドを用いて、 vs2=vs1.newSize( fileName:=“x2.mpeg”、 width:=160、 height:=112 ); とすると、 contents=vs1.contents、 fileName=“x2.mpeg”、 frameRate=vs1.frameRate width:=160 height:=112 loadCPU、loadIO=frameRate、
width、heightから図9の対応表を参照して
求めたもの、とする図4のMpegクラス32のストリ
ームオブジェクトvs2が生成される。
For example, for the video data whose video stream object is vs1, the frame rate is the same, the display size is 160 × 112 PIXEL, and the file name of the multimedia data stored in the multimedia data storage unit 3 is “x2. .Mpeg ”, the stream object vs2 for the video data in the MPEG format is generated by using the newSize () method of the Mpeg class 32 of FIG. newSize (fileName: = “x2.mpeg”, width: = 160, height: = 112); then, contents = vs1. contents, fileName = "x2.mpeg", frameRate = vs1. frameRate width: = 160 height: = 112 loadCPU, loadIO = frameRate,
A stream object vs2 of the Mpeg class 32 in FIG. 4 is generated from the width and the height by referring to the correspondence table in FIG.

【0100】次に、コンテンツオブジェクト管理部4
は、該当するコンテンツの属性streamsに新たに
生成したストリームオブジェクトを追加する。次に、生
成したストリームオブジェクトをストリームオブジェク
ト格納部2に格納する。
Next, the content object management unit 4
Adds the newly generated stream object to the attribute streams of the corresponding content. Next, the generated stream object is stored in the stream object storage unit 2.

【0101】次に、本発明の第7実施例による異なるコ
ーディングレートのオーディオストリームオブジェクト
の生成方法について説明する。まず、図1のストリーム
オブジェクト管理部5は、ユーザの入力するnewRa
te()メソッドの引数より、該当するマルチメディア
データのファイル名fileName、コーディングレ
ートcodingRateを読み込む。また、メソッド
の起動オブジェクトの属性より、コンテンツconte
ntsを読み込む。
Next, a method of generating audio stream objects having different coding rates according to the seventh embodiment of the present invention will be described. First, the stream object management unit 5 in FIG.
The file name fileName and coding rate codingRate of the corresponding multimedia data are read from the argument of the te () method. Also, from the attribute of the method startup object, the content
Read nts.

【0102】次に、コーディングレートcodingR
ateから対応表を参照し、負荷情報loadCPU、
loadIOの値を読み取る。次に、ストリームオブジ
ェクト管理部5は、オブジェクト指向データベースの提
供するnew()メソッドを起動する。ここで、例え
ば、コンテンツcontents、マルチメディアデー
タのファイル名fileName、負荷情報loadC
PU、loadIO、コーディングレートcoding
Rateをnew()メソッドの引数とする。
Next, the coding rate codingR
Refer to the correspondence table from ate, load information loadCPU,
Read the value of loadIO. Next, the stream object management unit 5 activates the new () method provided by the object-oriented database. Here, for example, contents contents, file name fileName of multimedia data, load information loadC
PU, loadIO, coding rate coding
Let Rate be the argument of the new () method.

【0103】そして、ストリームオブジェクト格納部2
に格納されたオーディオストリームオブジェクトに対し
て、コンテンツが同一でコーディングレートの異なるオ
ーディオストリームオブジェクトを生成する。
The stream object storage unit 2
Audio stream objects having the same content and different coding rates are generated for the audio stream objects stored in.

【0104】例えば、オーディオストリームオブジェク
トがas1のオーディオデータに対して、コーディング
レートが64kbps、マルチメディアデータ格納部3
に格納されているのマルチメディアデータのファイル名
が“x2.ma”、フォーマットがMPEGAudio
形式のオーディオデータに対するストリームオブジェク
トas2を生成する場合、図4のMpegAudioク
ラス34のnewRate()メソッドを用いて、 as2=as1.newRate( fileName:=“x2.ma”、 codingRate:=64 ); とすると、 contents=as1.contents、 fileName=“x2.ma”、 codingRate=64、 loadCPU、loadIO=codingRate
から対応表を参照して求めたもの、とする図4のMpe
gAudioクラス34のストリームオブジェクトas
2が生成される。
For example, for the audio data whose audio stream object is as1, the coding rate is 64 kbps, and the multimedia data storage unit 3
The file name of the multimedia data stored in is “x2.ma” and the format is MPEGAudio.
When the stream object as2 for the audio data of the format is generated, the newRate () method of the MpegAudio class 34 of FIG. 4 is used, and as2 = as1. newRate (fileName: = “x2.ma”, codingRate: = 64); then, contents = as1. contents, fileName = "x2.ma", codingRate = 64, loadCPU, loadIO = codingRate
Is obtained by referring to the correspondence table from Mpe of FIG.
Stream object as of gAudio class 34
2 is generated.

【0105】次に、コンテンツオブジェクト管理部4
は、該当するコンテンツの属性streamsに新たに
生成したストリームオブジェクトを追加する。次に、生
成したストリームオブジェクトをストリームオブジェク
ト格納部2に格納する。次に、本発明の第8実施例によ
る異なる表示サイズのイメージストリームオブジェクト
の生成方法について説明する。
Next, the content object management unit 4
Adds the newly generated stream object to the attribute streams of the corresponding content. Next, the generated stream object is stored in the stream object storage unit 2. Next, a method of generating image stream objects having different display sizes according to the eighth embodiment of the present invention will be described.

【0106】まず、図1のストリームオブジェクト管理
部5は、ユーザの入力するnewSize()メソッド
の引数より、該当するマルチメディアデータのファイル
名fileName、表示サイズの幅width、表示
サイズの高さheightを読み込む。また、メソッド
の起動オブジェクトの属性より、コンテンツconte
ntsを読み込む。
First, the stream object management unit 5 in FIG. 1 determines the file name fileName, the display size width width, and the display size height height of the corresponding multimedia data from the arguments of the newSize () method input by the user. Read. Also, from the attribute of the method startup object, the content
Read nts.

【0107】次に、表示サイズの幅width、表示サ
イズの高さheightから、対応表を参照し、負荷情
報loadCPU、loadIOの値を読み取る。次
に、ストリームオブジェクト管理部5は、オブジェクト
指向データベースの提供するnew()メソッドを起動
する。ここで、例えば、コンテンツcontents、
マルチメディアデータのファイル名fileName、
負荷情報loadCPU、loadIO、表示サイズの
幅width、表示サイズの高さheightをnew
()メソッドの引数とする。
Next, referring to the correspondence table, the values of the load information loadCPU and loadIO are read from the display size width width and the display size height height. Next, the stream object management unit 5 activates the new () method provided by the object-oriented database. Here, for example, content contents,
File name of multimedia data fileName,
Load information loadCPU, loadIO, width of display size width, height of display size height new
() As an argument of the method.

【0108】そして、ストリームオブジェクト格納部2
に格納されたイメージストリームオブジェクトに対し
て、コンテンツが同一で表示サイズの異なるイメージス
トリームオブジェクトを生成する。
The stream object storage unit 2
Image stream objects having the same content but different display sizes are generated for the image stream objects stored in.

【0109】例えば、イメージストリームオブジェクト
がis1のイメージデータに対して、表示サイズが16
0×112PIXEL、マルチメディアデータ格納部3
に格納されているのマルチメディアデータのファイル名
が“x2.jpeg”、フォーマットがJPEG形式の
イメージデータに対するストリームオブジェクトis2
を生成する場合、図4のJpegクラス36のnewS
ize()メソッドを用いて、 is2=is1.newSize( fileName:=“x2.jpeg”、 width:=160、 height:=112 ); とすると、 contents=is1.contents、 fileName=“x2.jpeg”、 width:=160 height:=112 loadCPU、loadIO=width、heig
htから対応表を参照して求めたもの、とする図4のJ
pegクラス36のストリームオブジェクトis2が生
成される。
For example, for image data whose image stream object is 1, the display size is 16
0x112 PIXEL, multimedia data storage unit 3
The stream object is2 for the image data in which the file name of the multimedia data stored in is "x2.jpeg" and the format is JPEG
To generate newS of Jpeg class 36 in FIG.
Using the size () method, is2 = is1. newSize (fileName: = “x2.jpeg”, width: = 160, height: = 112); contents = is1. contents, fileName = "x2.jpeg", width: = 160 height: = 112 loadCPU, loadIO = width, heig
It is obtained from ht by referring to the correspondence table, J in FIG.
The stream object is2 of the peg class 36 is generated.

【0110】次に、コンテンツオブジェクト管理部4
は、該当するコンテンツの属性streamsに新たに
生成したストリームオブジェクトを追加する。次に、生
成したストリームオブジェクトをストリームオブジェク
ト格納部2に格納する。
Next, the content object management unit 4
Adds the newly generated stream object to the attribute streams of the corresponding content. Next, the generated stream object is stored in the stream object storage unit 2.

【0111】なお、JPEGの圧縮率を変えたデータに
対するストリームオブジェクトの生成やテキストのフォ
ントを変えたデータに対するストリームオブジェクトの
生成についても、同様に行うことができる。
Note that generation of a stream object for data whose JPEG compression rate is changed and generation of a stream object for data whose text font is changed can be similarly performed.

【0112】次に、本発明の第9実施例によるビデオス
トリームオブジェクトにより指定されたビデオデータの
再生方法について説明する。図11は、本発明の第9実
施例によるビデオストリームオブジェクトにより指定さ
れたビデオデータの再生方法を示すフローチャートであ
る。
Next, a method of reproducing the video data designated by the video stream object according to the ninth embodiment of the present invention will be described. FIG. 11 is a flowchart showing a method of reproducing video data designated by a video stream object according to the ninth embodiment of the present invention.

【0113】図11において、まず、ステップS41に
示すように、図1のストリームオブジェクト管理部5
は、play()メソッドの引数より、スキップ時間s
kipLength、表示時間duration、表示
開始時刻startTime、表示位置posX、po
sYを読み込む。また、メソッドの起動オブジェクトの
属性より、マルチメディアデータのファイル名file
Nameを読み込む。
In FIG. 11, first, as shown in step S41, the stream object management unit 5 of FIG.
Is the skip time s from the argument of the play () method.
kipLength, display time duration, display start time startTime, display position posX, po
Read sY. In addition, the file name file of multimedia data is set from the attribute of the method startup object.
Read Name.

【0114】次に、ステップS42に示すように、図1
のマルチメディアデータ表示部6は、ファイル名fil
eNameに対応するマルチメディアデータをマルチメ
ディアデータ格納部3から読み出し、指定された範囲の
部分を指定された表示開始時刻、表示位置に表示する。
Next, as shown in step S42, as shown in FIG.
The multimedia data display section 6 of the
The multimedia data corresponding to the eName is read from the multimedia data storage unit 3, and the portion of the designated range is displayed at the designated display start time and display position.

【0115】すなわち、ストリームオブジェクト管理部
5は、ストリームオブジェクト格納部2に格納されてい
るビデオストリームオブジェクトに記述されたマルチメ
ディアデータのファイル名fileName、スキップ
時間skipLength、表示時間duratio
n、表示開始時刻startTime、表示位置pos
X、posYを、マルチメディアデータ表示部6に渡
す。
That is, the stream object management unit 5 uses the file name fileName of the multimedia data described in the video stream object stored in the stream object storage unit 2, the skip time skipLength, and the display time duration.
n, display start time startTime, display position pos
X and posY are passed to the multimedia data display unit 6.

【0116】すると、マルチメディアデータ表示部6
は、マルチメディアデータ格納部3に格納されているフ
ァイル名fileNameにより指定されたマルチメデ
ィアデータのうち、スキップ時間skipLength
及び表示時間durationで指定された部分を、表
示開始時刻startTimeにより指定された時刻、
表示位置posX、posYにより指定された位置に表
示する。
Then, the multimedia data display section 6
Is the skip time skipLength among the multimedia data specified by the file name fileName stored in the multimedia data storage unit 3.
And the portion specified by the display time duration at the time specified by the display start time startTime,
Display at the position specified by the display position posX, posY.

【0117】例えば、MPEG形式のストリームオブジ
ェクトvsにより指定されたマルチメディアデータのう
ちt1秒からt2秒間の部分を、時刻19YY年MM月
DD日HH時MM分SS.mmm秒、位置(x,y)に
再生の開始を行う場合、図4のMpegクラス32のp
lay()メソッドを用いて、 vs.play( skipLength:=t1, duration:=t2, startTime:=“YYMMDDHHMMSS.
mmm”, posX:=x, posY:=y ); を実行する。
For example, the portion from the t1 second to the t2 second of the multimedia data designated by the stream object vs of the MPEG format is recorded at time YY MM month DD day HH hour MM minute SS. When the reproduction is started at the position (x, y) for mmm second, p of the Mpeg class 32 of FIG.
using the lay () method, vs. play (skipLength: = t1, duration: = t2, startTime: = “YYMMDDHHMMSS.
mmm ″, posX: = x, posY: = y);

【0118】すると、マルチメディアデータ表示部6
は、 表示ファイル名fileName=vs.fileNa
me、 スキップ時間skipLength=t1秒、 表示時間duration=t2秒、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 表示位置posX、posY=(x,y) として、MPEG再生装置を起動し、ビデオストリーム
オブジェクトにより指定されたビデオデータの再生す
る。
Then, the multimedia data display section 6
Display file name fileName = vs. fileNa
me, skip time skipLength = t1 second, display time duration = t2 second, display start time startTime = 19YY MM month D
Day H HH MM minutes SS. mmm seconds At the display position posX, posY = (x, y), the MPEG playback device is activated and the video data designated by the video stream object is played back.

【0119】次に、本発明の第10実施例によるオーデ
ィオストリームオブジェクトにより指定されたオーディ
オデータの再生方法について説明する。まず、図1のス
トリームオブジェクト管理部5は、play()メソッ
ドの引数より、スキップ時間skipLength、表
示時間duration、表示開始時刻startTi
meを読み込む。また、メソッドの起動オブジェクトの
属性より、マルチメディアデータのファイル名file
Nameを読み込む。
Next, a method of reproducing audio data designated by an audio stream object according to the tenth embodiment of the present invention will be described. First, the stream object management unit 5 in FIG. 1 uses the arguments of the play () method to determine the skip time skipLength, the display time duration, and the display start time startTi.
Read me. In addition, the file name file of multimedia data is set from the attribute of the method startup object.
Read Name.

【0120】次に、図1のマルチメディアデータ表示部
6は、ファイル名fileNameに対応するマルチメ
ディアデータをマルチメディアデータ格納部3から読み
出し、指定された範囲の部分を指定された表示開始時刻
に表示する。
Next, the multimedia data display unit 6 of FIG. 1 reads the multimedia data corresponding to the file name fileName from the multimedia data storage unit 3, and the portion within the designated range is displayed at the designated display start time. indicate.

【0121】すなわち、ストリームオブジェクト管理部
5は、ストリームオブジェクト格納部2に格納されてい
るオーディオストリームオブジェクトに記述されたマル
チメディアデータのファイル名fileName、スキ
ップ時間skipLength、表示時間durati
on、表示開始時刻startTimeを、マルチメデ
ィアデータ表示部6に渡す。
That is, the stream object management unit 5 uses the file name fileName of the multimedia data described in the audio stream object stored in the stream object storage unit 2, the skip time skipLength, and the display time durati.
On, the display start time startTime is passed to the multimedia data display unit 6.

【0122】すると、マルチメディアデータ表示部6
は、マルチメディアデータ格納部3に格納されているフ
ァイル名fileNameにより指定されたマルチメデ
ィアデータのうち、スキップ時間skipLength
及び表示時間durationで指定された部分を、表
示開始時刻startTimeにより指定された時刻、
に表示する。
Then, the multimedia data display section 6
Is the skip time skipLength among the multimedia data specified by the file name fileName stored in the multimedia data storage unit 3.
And the portion specified by the display time duration at the time specified by the display start time startTime,
To be displayed.

【0123】例えば、MPEGAudio形式のストリ
ームオブジェクトasにより指定されたマルチメディア
データのうちt1秒からt2秒間の部分を、時刻19Y
Y年MM月DD日HH時MM分SS.mmm秒に再生の
開始を行う場合、図4のMpegAudioクラス34
のplay()メソッドを用いて、 as.play( skipLength:=t1, duration:=t2, startTime:=“YYMMDDHHMMSS.mmm”, ); を実行する。
For example, the portion from t1 seconds to t2 seconds of the multimedia data designated by the MPEG Audio format stream object as is recorded at time 19Y.
Year MM month DD day HH MM minute SS. When the reproduction is started in mmm seconds, the MpegAudio class 34 in FIG.
Using the play () method of as. play (skipLength: = t1, duration: = t2, startTime: = “YYMMDDHHMMSS.mmm”,);

【0124】すると、マルチメディアデータ表示部6
は、 表示ファイル名fileName=as.fileNa
me、 スキップ時間skipLength=t1秒、 表示時間duration=t2秒、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 として、MPEGAudio再生装置を起動し、オーデ
ィオストリームオブジェクトにより指定されたオーディ
オデータを再生する。
Then, the multimedia data display section 6
Is a display file name fileName = as. fileNa
me, skip time skipLength = t1 second, display time duration = t2 second, display start time startTime = 19YY MM month D
Day H HH MM minutes SS. At the time of mmm second, the MPEGAudio reproducing apparatus is activated to reproduce the audio data designated by the audio stream object.

【0125】次に、本発明の第11実施例によるイメー
ジストリームオブジェクトにより指定されたイメージデ
ータの表示方法について説明する。まず、図1のストリ
ームオブジェクト管理部5は、display()メソ
ッドの引数より、スキップ座標skipLength
X、skipLengthY、表示幅viewLeng
thX、表示高さviewLengthY、表示開始時
刻startTime、表示位置posX、posYを
読み込む。また、メソッドの起動オブジェクトの属性よ
り、マルチメディアデータのファイル名fileNam
eを読み込む。
Next, a method of displaying the image data designated by the image stream object according to the eleventh embodiment of the present invention will be described. First, the stream object management unit 5 in FIG. 1 uses the argument of the display () method to specify the skip coordinate skipLength.
X, skipLengthY, display width viewLeng
thX, display height viewLengthY, display start time startTime, display position posX, posY are read. Also, the file name fileName of the multimedia data is determined from the attribute of the method startup object.
Read e.

【0126】次に、図1のマルチメディアデータ表示部
6は、ファイル名fileNameに対応するマルチメ
ディアデータをマルチメディアデータ格納部3から読み
出し、指定された範囲の部分を指定された表示開始時
刻、表示位置に表示する。
Next, the multimedia data display unit 6 of FIG. 1 reads the multimedia data corresponding to the file name fileName from the multimedia data storage unit 3, and the portion of the designated range is designated at the designated display start time, Display at the display position.

【0127】すなわち、ストリームオブジェクト管理部
5は、ストリームオブジェクト格納部2に格納されてい
るビデオストリームオブジェクトに記述されたマルチメ
ディアデータのファイル名fileName、スキップ
座標skipLengthX、skipLength
Y、表示幅viewLengthX、表示高さview
LengthY、表示開始時刻startTime、表
示位置posX、posYをマルチメディアデータ表示
部6に渡す。
That is, the stream object management section 5 has a file name fileName of multimedia data described in the video stream object stored in the stream object storage section 2, skip coordinates skipLengthX, skipLength.
Y, display width viewLengthX, display height view
LengthY, display start time startTime, display positions posX, posY are passed to the multimedia data display unit 6.

【0128】すると、マルチメディアデータ表示部6
は、マルチメディアデータ格納部3に格納されているフ
ァイル名fileNameにより指定されたマルチメデ
ィアデータのうち、スキップ座標skipLength
X、skipLengthY、表示幅viewLeng
thX、表示高さviewLengthYで指定された
部分を、表示開始時刻startTimeにより指定さ
れた時刻、表示位置posX、posYにより指定され
た位置に表示する。
Then, the multimedia data display section 6
Is a skip coordinate skipLength of the multimedia data specified by the file name fileName stored in the multimedia data storage unit 3.
X, skipLengthY, display width viewLeng
The portion specified by thX and the display height viewLengthY is displayed at the time specified by the display start time startTime and the position specified by the display positions posX and posY.

【0129】例えば、JPEG形式のストリームオブジ
ェクトisにより指定されたマルチメディアデータのう
ち、原点に対する相対座標(x1、y1)から幅x2、
高さy2の部分を、時刻19YY年MM月DD日HH時
MM分SS.mmm秒、位置(x,y)に表示する場
合、図4のJpegクラス36のdisplay()メ
ソッドを用いて、 is.display( skipLengthX:=x1, skipLengthY:=y1, viewLengthX:=x2, viewLengthY:=y2, startTime:=“YYMMDDHHMMSS.
mmm”, posX:=x, posY:=y ); を実行する。
For example, in the multimedia data specified by the stream object is in the JPEG format, from the relative coordinates (x1, y1) to the origin, the width x2,
The portion of height y2 is the time 19YY, MM month, DD day, HH hour, MM minute, SS. When displaying at the position (x, y) for mmm second, using the display () method of the Jpeg class 36 of FIG. 4, is. display (skipLengthX: = x1, skipLengthY: = y1, viewLengthX: = x2, viewLengthY: = y2, startTime: = “YYMMDDHHMMSS.
mmm ″, posX: = x, posY: = y);

【0130】すると、マルチメディアデータ表示部6
は、 表示ファイル名fileName=is.fileNa
me、 スキップ座標skipLengthX、skipLen
gthY=(x1、y1)、 表示幅viewLengthX=x2、 表示高さviewLength=y2、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 表示位置posX、posY=(x,y) として、JPEG表示装置を起動し、イメージストリー
ムオブジェクトにより指定されたイメージデータを表示
する。
Then, the multimedia data display section 6
Is the display file name fileName = is. fileNa
me, skip coordinates skipLengthX, skipLen
gthY = (x1, y1), display width viewLengthX = x2, display height viewLength = y2, display start time startTime = 19YY MM month D
Day H HH MM minutes SS. mmm second With the display position posX, posY = (x, y), the JPEG display device is activated and the image data specified by the image stream object is displayed.

【0131】次に、本発明の第12実施例によるテキス
トストリームオブジェクトにより指定されたテキストデ
ータの表示方法について説明する。まず、図1のストリ
ームオブジェクト管理部5は、display()メソ
ッドの引数より、スキップバイトskipLengt
h、表示バイトviewLength、表示開始時刻s
tartTime、表示位置posX、posYを読み
込む。また、メソッドの起動オブジェクトの属性より、
マルチメディアデータのファイル名fileNameを
読み込む。
Next, a method of displaying the text data designated by the text stream object according to the twelfth embodiment of the present invention will be described. First, the stream object management unit 5 of FIG. 1 uses the skip byte skipLength from the argument of the display () method.
h, display byte viewLength, display start time s
The startTime and the display positions posX and posY are read. Also, from the attribute of the method startup object,
The file name fileName of the multimedia data is read.

【0132】次に、図1のマルチメディアデータ表示部
6は、ファイル名fileNameに対応するマルチメ
ディアデータをマルチメディアデータ格納部3から読み
出し、指定された範囲の部分を指定された表示開始時
刻、表示位置に表示する。
Next, the multimedia data display unit 6 of FIG. 1 reads the multimedia data corresponding to the file name fileName from the multimedia data storage unit 3, and the portion of the designated range is designated at the designated display start time, Display at the display position.

【0133】すなわち、ストリームオブジェクト管理部
5は、ストリームオブジェクト格納部2に格納されてい
るビデオストリームオブジェクトに記述されたマルチメ
ディアデータのファイル名fileName、スキップ
バイトskipLength、表示バイトviewLe
ngth、表示開始時刻startTime、表示位置
posX、posYをマルチメディアデータ表示部6に
渡す。
That is, the stream object management unit 5 has a file name fileName of the multimedia data described in the video stream object stored in the stream object storage unit 2, a skip byte skipLength, and a display byte viewLe.
ngth, display start time startTime, and display positions posX and posY are passed to the multimedia data display unit 6.

【0134】すると、マルチメディアデータ表示部6
は、マルチメディアデータ格納部3に格納されているフ
ァイル名fileNameにより指定されたマルチメデ
ィアデータのうち、スキップバイトskipLengt
h、表示バイトviewLengthで指定された部分
を、表示開始時刻startTimeにより指定された
時刻、表示位置posX、posYにより指定された位
置に表示する。
Then, the multimedia data display section 6
Is a skip byte skipLength of the multimedia data specified by the file name fileName stored in the multimedia data storage unit 3.
h, the portion specified by the display byte viewLength is displayed at the time specified by the display start time startTime and the position specified by the display positions posX and posY.

【0135】例えば、テキストストリームオブジェクト
tsにより指定されたマルチメディアデータのうち、先
頭のabyteからbbyteの部分を、時刻19YY
年MM月DD日HH時MM分SS.mmm秒、位置
(x,y)に表示する場合、図4のTextクラス37
のdisplay()メソッドを用いて、 ts.display( skipLength:=a, viewLength:=b, startTime:=“YYMMDDHHMMSS.
mmm”, posX:=x, posY:=y ); を実行する。
For example, in the multimedia data designated by the text stream object ts, the portion from the beginning abyte to bbyte is set to the time 19YY.
Year MM month DD day HH hour MM minute SS. When displaying at the position (x, y) in mmm second, the Text class 37 in FIG.
Using the display () method of ts. display (skipLength: = a, viewLength: = b, startTime: = “YYMMDDHHMMSS.
mmm ″, posX: = x, posY: = y);

【0136】すると、マルチメディアデータ表示部6
は、 表示ファイル名fileName=ts.fileNa
me、 スキップバイトskipLength=a、 表示バイトviewLength=b、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 表示位置posX、posY=(x,y) として、テキスト表示装置を起動し、テキストストリー
ムオブジェクトにより指定されたテキストデータを表示
する。
Then, the multimedia data display section 6
Display file name fileName = ts. fileNa
me, skip byte skipLength = a, display byte viewLength = b, display start time startTime = 19YY MM month D
Day H HH MM minutes SS. mmm second The display position is posX, posY = (x, y), the text display device is activated, and the text data specified by the text stream object is displayed.

【0137】なお、上述した第9実施例〜第12実施例
では、ユーザがストリームオブジェクト管理部5からス
トリームオブジェクトを指定することにより、マルチメ
ディアデータの再生や表示を行うようにした例について
説明したが、以下の第13実施例〜第16実施例に示す
ように、ユーザがコンテンツオブジェクト管理部4から
コンテンツオブジェクトを指定することにより、マルチ
メディアデータの再生や表示を行うようにしてもよい。
In the ninth to twelfth embodiments described above, an example has been described in which the user designates a stream object from the stream object management unit 5 to reproduce or display multimedia data. However, as shown in the thirteenth to sixteenth examples below, the multimedia data may be played or displayed by the user designating the content object from the content object management unit 4.

【0138】次に、本発明の第13実施例によるビデオ
コンテンツオブジェクトにより指定されたビデオデータ
の再生方法について説明する。図12は、本発明の第1
3実施例によるビデオコンテンツオブジェクトにより指
定されたビデオデータの再生方法を示すフローチャート
である。
Next, a method of reproducing the video data designated by the video content object according to the thirteenth embodiment of the present invention will be described. FIG. 12 shows the first of the present invention.
9 is a flowchart showing a method of reproducing video data designated by a video content object according to the third embodiment.

【0139】図12において、まず、ステップS51に
示すように、図1のコンテンツオブジェクト管理部4
は、ユーザの入力するplay()メソッドの引数よ
り、表示開始時刻startTime、表示位置pos
X、posYを読み込む。また、メソッドの起動オブジ
ェクトの属性より、スキップ時間skipLengt
h、表示時間duration、対応するストリームオ
ブジェクトの集合streamsを読み込む。
In FIG. 12, first, as shown in step S51, the content object management unit 4 of FIG.
Is the display start time startTime and the display position pos from the arguments of the play () method input by the user.
Read X and posY. In addition, the skip time skipLength is determined from the attribute of the method activation object.
h, the display time duration, and the set streams of the corresponding stream objects are read.

【0140】次に、ステップS52に示すように、スト
リームオブジェクト管理部5は、ストリームオブジェク
トの集合streamsから、ストリームオブジェクト
を1つ選択する。
Next, as shown in step S52, the stream object management unit 5 selects one stream object from the stream object set streams.

【0141】次に、ステップS53に示すように、スト
リームオブジェクト管理部5は、選択したストリームオ
ブジェクトに対応するビデオデータをマルチメディアデ
ータ格納部3から読み出し、ビデオコンテンツオブジェ
クトにより指定された部分のビデオデータをマルチメデ
ィアデータ表示部6に表示する。
Next, as shown in step S53, the stream object management unit 5 reads the video data corresponding to the selected stream object from the multimedia data storage unit 3, and the video data of the portion specified by the video content object. Is displayed on the multimedia data display unit 6.

【0142】すなわち、図4のビデオクラス31のpl
ay()メソッドを起動し、コンテンツオブジェクトに
記述された部分のビデオデータを再生する。ここで、ビ
デオクラス31のplay()メソッドの引数は、スキ
ップ時間skipLength、表示時間durati
on、表示開始時刻startTime、表示位置po
sX、posYとする。
That is, pl of the video class 31 in FIG.
The ay () method is activated to play the video data of the portion described in the content object. Here, the arguments of the play () method of the video class 31 are the skip time skipLength and the display time durati.
on, display start time startTime, display position po
Let sX and posY.

【0143】例えば、ビデオコンテンツオブジェクトv
cに記述された部分のビデオデータを、マルチメディア
データ格納部3から読み出し、時刻19YY年MM月D
D日HH時MM分SS.mmm秒に再生の開始を行う場
合、図3のビデオコンテンツクラス21のplay()
メソッドを用いて、 vc.play( startTime:=“YYMMDDHHMMSS.mmm”, ); を実行する。
For example, the video content object v
The video data of the portion described in c is read out from the multimedia data storage unit 3, and the time is YY MM month D
Day H HH MM minutes SS. When the reproduction is started in mmm seconds, the play () of the video content class 21 in FIG.
Using the method, vc. play (startTime: = “YYMMDDHHMMSS.mmm”,);

【0144】次に、vc.streamsに記述された
ストリームオブジェクトの集合のうち、1つのストリー
ムオブジェクトvsを選択する。ここで、ストリームオ
ブジェクトの選択方法の指定がない場合、ストリームオ
ブジェクトの集合のうち、最初のストリームオブジェク
トを選択する。
Next, vc. One stream object vs is selected from the set of stream objects described in streams. Here, if the selection method of the stream object is not specified, the first stream object is selected from the set of stream objects.

【0145】そして、ストリームオブジェクトvsによ
り指定されたマルチメディアデータを位置(x,y)に
再生の開始を行う場合、図4のMpegクラス32のp
lay()メソッドを用いて、 vs.play( skipLength:=vc.skipLengt
h, duration:=vc.timeLength, startTime:=“YYMMDDHHMMSS.
mmm”, posX:=x, posY:=y ); を実行する。
Then, when the reproduction of the multimedia data designated by the stream object vs is started at the position (x, y), p of the Mpeg class 32 of FIG.
using the lay () method, vs. play (skipLength: = vc.skipLength
h, duration: = vc. timeLength, startTime: = "YYMMDDHHMMSS.
mmm ″, posX: = x, posY: = y);

【0146】すると、マルチメディアデータ表示部6
は、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 表示位置posX、posY=(x,y) として、ビデオストリームオブジェクトにより選択さ
れ、ビデオコンテンツオブジェクトにより指定された部
分のビデオデータを再生する。
Then, the multimedia data display section 6
Is the display start time startTime = 19YY MM month D
Day H HH MM minutes SS. mmm seconds The display position posX, posY = (x, y) is selected by the video stream object, and the video data of the portion specified by the video content object is reproduced.

【0147】次に、本発明の第14実施例によるオーデ
ィオコンテンツオブジェクトにより指定されたオーディ
オデータの再生方法について説明する。まず、図1のコ
ンテンツオブジェクト管理部4は、ユーザの入力するp
lay()メソッドの引数より、表示開始時刻star
tTimeを読み込む。また、メソッドの起動オブジェ
クトの属性より、スキップ時間skipLength、
再生時間duration、対応するストリームオブジ
ェクトの集合streamsを読み込む。
Next, a method of reproducing audio data designated by an audio content object according to the fourteenth embodiment of the present invention will be described. First, the content object management unit 4 of FIG.
Display start time star from the argument of the lay () method
Read tTime. In addition, the skip time skipLength, from the attribute of the method activation object,
The reproduction time duration and the set streams of the corresponding stream objects are read.

【0148】次に、ストリームオブジェクト管理部5
は、ストリームオブジェクトの集合streamsか
ら、ストリームオブジェクトを1つ選択する。次に、ス
トリームオブジェクト管理部5は、選択したストリーム
オブジェクトに対応するオーディオデータをマルチメデ
ィアデータ格納部3から読み出し、オーディオコンテン
ツオブジェクトにより指定された部分のオーディオデー
タをマルチメディアデータ表示部6に表示する。
Next, the stream object management unit 5
Selects one stream object from the stream objects set streams. Next, the stream object management unit 5 reads the audio data corresponding to the selected stream object from the multimedia data storage unit 3, and displays the audio data of the portion designated by the audio content object on the multimedia data display unit 6. .

【0149】すなわち、図4のオーディオクラス33の
play()メソッドを起動し、コンテンツオブジェク
トに記述された部分のオーディオデータを再生する。こ
こで、オーディオクラス33のplay()メソッドの
引数は、スキップ時間skipLength、再生時間
duration、表示開始時刻startTimeと
する。
That is, the play () method of the audio class 33 shown in FIG. 4 is activated to reproduce the audio data of the portion described in the content object. Here, the arguments of the play () method of the audio class 33 are skip time skipLength, reproduction time duration, and display start time startTime.

【0150】例えば、オーディオコンテンツオブジェク
トacに記述された部分のオーディオデータを、マルチ
メディアデータ格納部3から読み出し、時刻19YY年
MM月DD日HH時MM分SS.mmm秒に再生の開始
を行う場合、図3のオーディオコンテンツクラス22の
play()メソッドを用いて、 ac.play( startTime:=“YYMMDDHHMMSS.mmm”, ); を実行する。
For example, the audio data of the portion described in the audio content object ac is read from the multimedia data storage unit 3, and the time MM month DD day HH hour MM minute SS. When the reproduction is started at mmm seconds, the play () method of the audio content class 22 shown in FIG. play (startTime: = “YYMMDDHHMMSS.mmm”,);

【0151】次に、ac.streamsに記述された
ストリームオブジェクトの集合のうち、1つのストリー
ムオブジェクトasを選択する。ここで、ストリームオ
ブジェクトの選択方法の指定がない場合、ストリームオ
ブジェクトの集合のうち、最初のストリームオブジェク
トを選択する。
Next, ac. From the set of stream objects described in streams, one stream object as is selected. Here, if the selection method of the stream object is not specified, the first stream object is selected from the set of stream objects.

【0152】そして、ストリームオブジェクトasによ
り指定されたマルチメディアデータ再生の開始を行う場
合、図4のMpegAudioクラス34のpla
y()メソッドを用いて、 as.play( skipLength:=ac.skipLength, duration:=ac.timeLength, startTime:=“YYMMDDHHMMSS.mmm”, ); を実行する。
When the reproduction of the multimedia data designated by the stream object as is started, the pla of the MpegAudio class 34 shown in FIG.
Using the y () method, as. play (skipLength: = ac.skipLength, duration: = ac.timeLength, startTime: = “YYMMDDHHMMSS.mmm”,);

【0153】すると、マルチメディアデータ表示部6
は、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 として、オーディオストリームオブジェクトにより選択
され、オーディオコンテンツオブジェクトにより指定さ
れた部分のビデオデータを再生する。
Then, the multimedia data display section 6
Is the display start time startTime = 19YY MM month D
Day H HH MM minutes SS. The video data of the portion selected by the audio stream object and designated by the audio content object is reproduced as mmmsec.

【0154】次に、本発明の第15実施例によるイメー
ジコンテンツオブジェクトにより指定されたイメージデ
ータの表示方法について説明する。まず、図1のコンテ
ンツオブジェクト管理部4は、ユーザの入力するdis
play()メソッドの引数より、表示開始時刻sta
rtTime、表示位置posX、posYを読み込
む。また、メソッドの起動オブジェクトの属性より、ス
キップ座標skipLengthX、skipLeng
thY、表示幅viewLengthX、表示高さvi
ewLengthY、対応するストリームオブジェクト
の集合streamsを読み込む。
Next, a method of displaying the image data designated by the image content object according to the fifteenth embodiment of the present invention will be described. First, the content object management unit 4 of FIG.
Display start time sta from the argument of the play () method
rtTime, display positions posX, posY are read. In addition, the skip coordinates skipLengthX, skipLeng are determined from the attributes of the method activation object.
thY, display width viewLengthX, display height vi
ewLengthY, the set streams of the corresponding stream objects are read.

【0155】次に、ストリームオブジェクト管理部5
は、ストリームオブジェクトの集合streamsか
ら、ストリームオブジェクトを1つ選択する。ここで、
ストリームオブジェクトの選択方法の指定がない場合、
ストリームオブジェクトの集合のうち、最初のストリー
ムオブジェクトを選択する。
Next, the stream object management unit 5
Selects one stream object from the stream objects set streams. here,
If you do not specify how to select the stream object,
Select the first stream object from the set of stream objects.

【0156】次に、ストリームオブジェクト管理部5
は、選択したストリームオブジェクトに対応するイメー
ジデータをマルチメディアデータ格納部3から読み出
し、イメージコンテンツオブジェクトにより指定された
部分のイメージデータをマルチメディアデータ表示部6
に表示する。
Next, the stream object management unit 5
Reads the image data corresponding to the selected stream object from the multimedia data storage unit 3, and displays the image data of the portion designated by the image content object in the multimedia data display unit 6.
To be displayed.

【0157】すなわち、図4のイメージクラス35のd
isplay()メソッドを起動し、コンテンツオブジ
ェクトに記述された部分のイメージビデオデータを再生
する。ここで、イメージクラス35のdispla
y()メソッドの引数は、スキップ座標skipLen
gthX、skipLengthY、表示幅viewL
engthX、表示高さviewLengthY、表示
開始時刻startTime、表示位置posX、po
sYとする。
That is, d of the image class 35 in FIG.
The display () method is activated to reproduce the image video data of the portion described in the content object. Here, the display class of image class 35
Argument of y () method is skip coordinate skipLen
gthX, skipLengthY, display width viewL
lengthX, display height viewLengthY, display start time startTime, display position posX, po
Let sY.

【0158】例えば、イメージコンテンツオブジェクト
icに記述された部分のイメージデータを、マルチメデ
ィアデータ格納部3から読み出し、時刻19YY年MM
月DD日HH時MM分SS.mmm秒に表示の開始を行
う場合、図3のイメージコンテンツクラス23のdis
play()メソッドを用いて、 ic.display( startTime:=“YYMMDDHHMMSS.mmm”, ); を実行する。
For example, the image data of the portion described in the image content object ic is read from the multimedia data storage unit 3, and the time is 19YY year MM.
Month DD day HH hour MM minute SS. When the display is started in mmm seconds, the dis of the image content class 23 in FIG. 3 is set.
Using the play () method, ic. display (startTime: = “YYMMDDHHMMSS.mmm”,);

【0159】次に、ic.streamsに記述された
ストリームオブジェクトの集合のうち、1つのストリー
ムオブジェクトisを選択する。ここで、ストリームオ
ブジェクトの選択方法の指定がない場合、ストリームオ
ブジェクトの集合のうち、最初のストリームオブジェク
トを選択する。
Next, ic. From the set of stream objects described in streams, one stream object is is selected. Here, if the selection method of the stream object is not specified, the first stream object is selected from the set of stream objects.

【0160】そして、ストリームオブジェクトisによ
り指定されたマルチメディアデータを位置(x,y)に
再生の開始を行う場合、図4のJpegクラス36のd
isplay()メソッドを用いて、 is.display( skipLengthX:=ic.skipLengthX, skipLengthY:=ic.skipLengthY, viewLengthX:=ic.viewLengthX, viewLengthY:=ic.viewLengthY, startTime:=“YYMMDDHHMMSS.mmm”, posX:=x, posY:=y ); を実行する。
Then, when the reproduction of the multimedia data designated by the stream object is at the position (x, y) is started, d of the Jpeg class 36 in FIG.
using the isplay () method, is. display (skipLengthX: = ic.skipLengthX, skipLengthY: = ic.skipLengthY, viewLengthX: = ic.viewYmethY: MD = YmthY: HythM: Yth: Ym: Ym: Ym: Ym: Ym: Ym: Ym: Ym: Yth: Ye: HY: Mth: Ye: Ym: Ym: Ym: Ym: Yh: H. To execute.

【0161】すると、マルチメディアデータ表示部6
は、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 表示位置posX、posY=(x,y) として、イメージストリームオブジェクトにより選択さ
れ、イメージコンテンツオブジェクトにより指定された
部分のイメージデータを表示する。
Then, the multimedia data display section 6
Is the display start time startTime = 19YY MM month D
Day H HH MM minutes SS. mmm second The display position posX, posY = (x, y) is displayed by the image data of the portion selected by the image stream object and designated by the image content object.

【0162】次に、本発明の第16実施例によるテキス
トコンテンツオブジェクトにより指定されたテキストデ
ータの表示方法について説明する。まず、図1のコンテ
ンツオブジェクト管理部4は、ユーザの入力するdis
play()メソッドの引数より、表示開始時刻sta
rtTime、表示位置posX、posYを読み込
む。また、メソッドの起動オブジェクトの属性より、ス
キップバイトskipLength、表示バイトvie
wLength、対応するストリームオブジェクトの集
合streamsを読み込む。
Next, a method of displaying the text data designated by the text content object according to the sixteenth embodiment of the present invention will be described. First, the content object management unit 4 of FIG.
Display start time sta from the argument of the play () method
rtTime, display positions posX, posY are read. In addition, the skip byte skipLength and the display byte view are displayed from the attribute of the method activation object.
wLength, the set streams of the corresponding stream objects are read.

【0163】次に、ストリームオブジェクト管理部5
は、ストリームオブジェクトの集合streamsか
ら、ストリームオブジェクトを1つ選択する。ここで、
ストリームオブジェクトの選択方法の指定がない場合、
ストリームオブジェクトの集合のうち、最初のストリー
ムオブジェクトを選択する。
Next, the stream object management unit 5
Selects one stream object from the stream objects set streams. here,
If you do not specify how to select the stream object,
Select the first stream object from the set of stream objects.

【0164】次に、ストリームオブジェクト管理部5
は、選択したストリームオブジェクトに対応するテキス
トデータをマルチメディアデータ格納部3から読み出
し、テキストコンテンツオブジェクトにより指定された
部分のテキストデータをマルチメディアデータ表示部6
に表示する。
Next, the stream object management unit 5
Reads the text data corresponding to the selected stream object from the multimedia data storage unit 3, and displays the text data of the portion specified by the text content object in the multimedia data display unit 6.
To be displayed.

【0165】すなわち、図4のテキストクラス37のd
isplay()メソッドを起動し、コンテンツオブジ
ェクトに記述された部分のテキストデータを再生する。
ここで、テキストクラス37のdisplay()メソ
ッドの引数は、スキップバイトskipLength、
表示バイトviewLength、表示開始時刻sta
rtTime、表示位置posX、posYとする。
That is, d of the text class 37 in FIG.
The display () method is activated to reproduce the text data of the portion described in the content object.
Here, the arguments of the display () method of the text class 37 are skip bytes skipLength,
Display byte viewLength, display start time sta
rtTime and display positions posX and posY.

【0166】例えば、イメージコンテンツオブジェクト
tcに記述された部分のテキストデータを、マルチメデ
ィアデータ格納部3から読み出し、時刻19YY年MM
月DD日HH時MM分SS.mmm秒に表示の開始を行
う場合、図3のテキストコンテンツクラス24のdis
play()メソッドを用いて、 tc.display( startTime:=“YYMMDDHHMMSS.mmm”, ); を実行する。
For example, the text data of the portion described in the image content object tc is read from the multimedia data storage unit 3, and the time is 19YY year MM.
Month DD day HH hour MM minute SS. When the display is started in mmm seconds, the dis of the text content class 24 in FIG. 3 is set.
Using the play () method, tc. display (startTime: = “YYMMDDHHMMSS.mmm”,);

【0167】次に、tc.streamsに記述された
ストリームオブジェクトの集合のうち、1つのストリー
ムオブジェクトtsを選択する。ここで、ストリームオ
ブジェクトの選択方法の指定がない場合、ストリームオ
ブジェクトの集合のうち、最初のストリームオブジェク
トを選択する。
Next, tc. One stream object ts is selected from the set of stream objects described in streams. Here, if the selection method of the stream object is not specified, the first stream object is selected from the set of stream objects.

【0168】そして、ストリームオブジェクトtsによ
り指定されたマルチメディアデータを位置(x,y)に
再生の開始を行う場合、図4のテキストクラス37のd
isplay()メソッドを用いて、 ts.display( skipLength:=tc.skipLengt
h, viewLength:=tc.viewLengt
h, startTime:=“YYMMDDHHMMSS.
mmm”, posX:=x, posY:=y ); を実行する。
When the reproduction of the multimedia data designated by the stream object ts is started at the position (x, y), d of the text class 37 of FIG. 4 is used.
Using the isplay () method, ts. display (skipLength: = tc.skipLength
h, viewLength: = tc. viewLength
h, startTime: = “YYMMDDHHMMSS.
mmm ″, posX: = x, posY: = y);

【0169】すると、マルチメディアデータ表示部6
は、 表示開始時刻startTime=19YY年MM月D
D日HH時MM分SS.mmm秒 表示位置posX、posY=(x,y) として、テキストストリームオブジェクトにより選択さ
れ、テキストコンテンツオブジェクトにより指定された
部分のテキストデータを表示する。次に、本発明の第1
7実施例による複数のマルチメディアデータの表示方法
について説明する。
Then, the multimedia data display section 6
Is the display start time startTime = 19YY MM month D
Day H HH MM minutes SS. mmm second The display position posX, posY = (x, y) is displayed by the text data of the portion selected by the text stream object and designated by the text content object. Next, the first of the present invention
A method of displaying a plurality of multimedia data according to the seventh embodiment will be described.

【0170】複数のマルチメディアデータを同期して表
示したり、複数のマルチメディアデータを連続的に表示
したりする場合、第13実施例〜第16実施例で使用す
るストリームオブジェクトを選択したり、マルチメディ
アデータの表示開始時刻を正確に調節したり、マルチメ
ディアデータの表示場所を重ならないように設定したり
する専用のスケジューラをストリームオブジェクト管理
部5内に設ける。
When a plurality of multimedia data are displayed synchronously or a plurality of multimedia data are continuously displayed, a stream object used in the thirteenth to sixteenth embodiments is selected, A dedicated scheduler for accurately adjusting the display start time of the multimedia data and setting the display positions of the multimedia data so as not to overlap is provided in the stream object management unit 5.

【0171】このスケジューラは、第13実施例〜第1
6実施例で使用するplay()メソッドやdispl
ay()メソッドにより、複数のマルチメディアデータ
を表示する場合、負荷情報loadCPU、loadI
Oに基づいて、資源の制約内で実行できるストリームオ
ブジェクトを選択する。また、表示に要する時間の遅れ
を考慮してマルチメディアデータ表示部6に表示する表
示開始時刻(プレーヤを起動する時刻)を決定する。さ
らに、表示が重ならないように各コンテンツの表示場所
を決定する。そして、スケジューラにより計算されたパ
ラメータを用いて第9実施例〜第12実施例のストリー
ムオブジェクトにより指定されるマルチメディアデータ
の再生や表示を行う。
This scheduler is used in the thirteenth embodiment to the first embodiment.
6 play () method and display used in Example
When displaying a plurality of multimedia data by the ay () method, load information loadCPU, loadI
Based on O, select a stream object that can execute within resource constraints. In addition, the display start time (time to start the player) to be displayed on the multimedia data display unit 6 is determined in consideration of the delay in the time required for display. Furthermore, the display location of each content is determined so that the display does not overlap. Then, using the parameters calculated by the scheduler, the multimedia data specified by the stream object of the ninth to twelfth embodiments is played or displayed.

【0172】例えば、図9において、フレームレートが
15fps、表示幅が320PIXELの品質で内容A
のビデオデータをマルチメディアデータ表示部6に表示
し、さらに、フレームレートが15fps、表示幅が3
20PIXELの品質で内容Bのビデオデータをマルチ
メディアデータ表示部6に同時に表示する場合、フレー
ムレートが15fpsで表示幅が320PIXELのビ
デオデータのCPUの負荷は72%であるので、内容A
のビデオデータと内容Bのビデオデータとを同時に表示
する際のCPUの負荷は144%となり、CPUの処理
能力を越えてしまう。この場合、例えば、内容Aのビデ
オデータのフレームレートを15fpsから10fps
に下げて表示するとともに、内容Bのビデオデータのフ
レームレートを15fpsから5fpsに下げて表示す
る。このことにより、CPUの負荷は144%から86
%に下がりCPUの処理能力の範囲内となるので、内容
Aのビデオデータと内容Bのビデオデータとを同時に且
つ正常に表示することができる。
For example, in FIG. 9, the frame A has a frame rate of 15 fps and the display width has a quality of 320 PIXEL.
Of the video data is displayed on the multimedia data display unit 6, and the frame rate is 15 fps and the display width is 3
When simultaneously displaying the video data of the content B with the quality of 20 PIXEL on the multimedia data display unit 6, since the CPU load of the video data of the frame width of 15 fps and the display width of 320 PIXEL is 72%, the content A
The CPU load when simultaneously displaying the video data of 1 and the video data of the content B is 144%, which exceeds the processing capability of the CPU. In this case, for example, the frame rate of the video data of the content A is 15 fps to 10 fps.
And the frame rate of the video data of the content B is reduced from 15 fps to 5 fps for display. As a result, the CPU load is from 86% to 86%.
The video data of the content A and the video data of the content B can be displayed simultaneously and normally, because the video data of the content A falls within the range of the processing capability of the CPU.

【0173】以上説明したように、本発明の実施例によ
れば、同一のコンテンツに対して複数のマルチメディア
データを有することができ、ユーザがコンテンツを指定
すると、指定したコンテンツに対応する複数のマルチメ
ディアデータの中から環境に適したマルチメディアデー
タを選択して表示することができ、ユーザが編集作業な
どでコンテンツを加工する場合、その加工情報をコンテ
ンツにのみ反映させることができ、マルチメディアデー
タを利用する際にその加工情報を伝えることができる。
As described above, according to the embodiment of the present invention, it is possible to have a plurality of multimedia data for the same content, and when the user designates a content, a plurality of multimedia data corresponding to the designated content can be obtained. Multimedia data suitable for the environment can be selected and displayed from the multimedia data, and when the user processes the content for editing work, the processing information can be reflected only in the content. The processing information can be transmitted when using the data.

【0174】また、マルチメディアデータの内容属性を
示すコンテンツオブジェクトとマルチメディアデータの
品質属性を示すストリームオブジェクトとを別々に管理
することにより、同一の内容に対して複数の実体を管理
することができ、環境に応じたマルチメディアデータの
利用を容易に行うことができる。例えば、複数のマルチ
メディアデータを同時に再生する場合、資源の制約を考
慮して利用するマルチメディアデータの品質を変更して
再生することができる。
By separately managing the content object indicating the content attribute of the multimedia data and the stream object indicating the quality attribute of the multimedia data, it is possible to manage a plurality of entities for the same content. , It is possible to easily use multimedia data according to the environment. For example, when a plurality of multimedia data are reproduced at the same time, the quality of the multimedia data to be used can be changed and reproduced in consideration of resource restrictions.

【0175】また、コンテンツオブジェクトのビューの
機能により、マルチメディアデータの部分アクセスを行
うことができ、このビューの情報はコンテンツオブジェ
クトにのみ反映され、ビューに対応する複数のストリー
ムオブジェクトには影響を与えないので、全てのストリ
ームオブジェクトのビュー情報に関する一貫性を保証す
ることができる。
[0175] In addition, the view function of the content object allows partial access to the multimedia data. Information of this view is reflected only in the content object and affects a plurality of stream objects corresponding to the view. Since there is none, it is possible to guarantee the consistency regarding the view information of all stream objects.

【0176】また、コンテンツオブジェクトが絶対時刻
の情報を有することにより、マルチメディアデータを再
生する際に他のマルチメディアデータと同期をとること
ができる。
Further, since the content object has the absolute time information, it is possible to synchronize with other multimedia data when reproducing the multimedia data.

【0177】また、ストリームオブジェクトが負荷情報
を有することにより、この負荷情報に基づいて、使用す
るマルチメディアデータを決定することができる。
Since the stream object has the load information, the multimedia data to be used can be decided based on this load information.

【0178】[0178]

【発明の効果】以上説明したように、請求項1の発明に
よれば、マルチメディアデータの内容属性を示すコンテ
ンツオブジェクトとマルチメディアデータの品質属性を
示すストリームオブジェクトとを別々に格納することに
より、データの内容とデータの品質とを区別することが
でき、品質の違いを考慮することなく、同一の内容を有
するマルチメディアデータを検索することができる。す
なわち、同一内容であっても品質が異なるマルチメディ
アデータを異なる内容のマルチメディアデータとしてそ
れぞれ別々に管理したり検索したりする手数が省けて、
同一内容のものなら異なる品質のマルチメディアデータ
を関連して管理したり検索可能となる。
As described above, according to the invention of claim 1, by separately storing the content object indicating the content attribute of the multimedia data and the stream object indicating the quality attribute of the multimedia data, It is possible to distinguish the content of data from the quality of data, and it is possible to search for multimedia data having the same content without considering the difference in quality. That is, it is possible to save the trouble of separately managing and searching multimedia data having the same content but different qualities as multimedia data having different contents.
If the contents are the same, multimedia data of different qualities can be managed and searched in a related manner.

【0179】また、請求項2の発明によれば、コンテン
ツオブジェクトにストリームオブジェクトを対応させる
ことにより、内容が同一で且つ品質の異なる複数のマル
チメディアデータをコンテンツオブジェクトにより指定
することができ、内容が同一のマルチメディアデータの
関連性を明確にすることができる。
According to the invention of claim 2, by associating a stream object with a content object, a plurality of multimedia data having the same content and different qualities can be designated by the content object, It is possible to clarify the relationship between the same multimedia data.

【0180】また、請求項3の発明によれば、内容が同
一で品質の異なるマルチメディアデータに同一のコンテ
ンツオブジェクトを対応させることにより、内容が同一
で且つ品質の異なる複数のマルチメディアデータを1つ
のコンテンツオブジェクトにより指定することができ、
1つのコンテンツオブジェクトに複数のマルチメディア
データを対応するようにすることができる。
Further, according to the third aspect of the present invention, a plurality of multimedia data having the same content and different qualities are combined by associating the same content object with the multimedia data having the same content and different qualities. Can be specified by one Content Object,
A plurality of multimedia data can be associated with one content object.

【0181】また、請求項4の発明によれば、マルチメ
ディアデータの内容を変えずに品質のみを変化させるこ
とにより、資源の制約を考慮して同一内容のマルチメデ
ィアデータを表示することができる。
According to the fourth aspect of the invention, by changing only the quality without changing the contents of the multimedia data, it is possible to display the multimedia data having the same contents in consideration of resource restrictions. .

【0182】また、請求項5の発明によれば、ビューの
情報をコンテンツオブジェクトにのみ反映させることに
より、ストリームオブジェクトのビュー情報に関する一
貫性を保証しながら、マルチメディアデータの一部分に
アクセスすることができる。
According to the invention of claim 5, by reflecting the view information only on the content object, it is possible to access a part of the multimedia data while guaranteeing the consistency of the view information of the stream object. it can.

【0183】また、請求項6の発明によれば、マルチメ
ディアデータの一部分を時間的に切り出すことにより、
部分データに内容属性を与えることができる。また、請
求項7の発明によれば、マルチメディアデータの一部分
を空間的に切り出すことにより、部分データに内容属性
を与えることができる。
Further, according to the invention of claim 6, by cutting out a part of the multimedia data in time,
Content attributes can be given to partial data. According to the invention of claim 7, a content attribute can be given to the partial data by spatially cutting out a part of the multimedia data.

【0184】また、請求項8の発明によれば、マルチメ
ディアデータの一部分を切り出すことにより、部分デー
タに内容属性を与えることができる。また、請求項9の
発明によれば、マルチメディアデータのキーワード及び
長さを与えることにより、マルチメディアデータの内容
を指定することができる。
Further, according to the invention of claim 8, by cutting out a part of the multimedia data, a content attribute can be given to the partial data. According to the invention of claim 9, the contents of the multimedia data can be designated by giving the keyword and the length of the multimedia data.

【0185】また、請求項10の発明によれば、コンテ
ンツオブジェクトに絶対時刻を与えることにより、他の
コンテンツオブジェクトと同期をとることができる。ま
た、請求項11の発明によれば、内容が同一でフレーム
レートの異なるビデオデータのそれぞれにストリームオ
ブジェクトを与えることにより、内容が同一で品質の異
なる複数のビデオデータに対し、品質属性を与えること
ができる。
According to the tenth aspect of the invention, by giving the absolute time to the content object, it is possible to synchronize with other content objects. Further, according to the invention of claim 11, by giving a stream object to each of the video data having the same content and different frame rates, a quality attribute is given to a plurality of video data having the same content and different qualities. You can

【0186】また、請求項12の発明によれば、内容が
同一で表示サイズの異なるビデオデータのそれぞれにス
トリームオブジェクトを与えることにより、内容が同一
で品質の異なる複数のビデオデータに品質属性を与える
ことができる。
According to the twelfth aspect of the invention, a stream object is given to each of the video data having the same contents and different display sizes, so that a quality attribute is given to a plurality of video data having the same contents and different qualities. be able to.

【0187】また、請求項13の発明によれば、コーデ
ィングレートの異なるオーディオデータのそれぞれにス
トリームオブジェクトを与えることにより、内容が同一
で品質の異なる複数のオーディオデータに品質属性を与
えることができる。
According to the thirteenth aspect of the present invention, a quality attribute can be given to a plurality of audio data having the same content but different qualities by giving a stream object to each of the audio data having different coding rates.

【0188】また、請求項14の発明によれば、内容が
同一で表示サイズの異なるイメージデータのそれぞれに
ストリームオブジェクトを与えることにより、内容が同
一で品質の異なる複数のイメージデータに品質属性を与
えることができる。
According to the fourteenth aspect of the present invention, a quality attribute is given to a plurality of image data having the same content and different qualities by giving a stream object to each of the image data having the same content and different display sizes. be able to.

【0189】また、請求項15の発明によれば、負荷情
報を生成することにより、マルチメディアデータを表示
する際に必要な負荷を考慮して、マルチメディアデータ
の品質を変えることができる。
According to the fifteenth aspect of the present invention, by generating the load information, it is possible to change the quality of the multimedia data in consideration of the load required when displaying the multimedia data.

【0190】また、請求項16の発明によれば、負荷情
報に基づいてストリームオブジェクトを生成することに
より、ビデオデータを表示する際に必要な負荷を考慮し
て、ビデオデータの品質を変えることができる。
According to the sixteenth aspect of the invention, by generating the stream object based on the load information, it is possible to change the quality of the video data in consideration of the load required for displaying the video data. it can.

【0191】また、請求項17の発明によれば、負荷情
報に基づいてストリームオブジェクトを生成することに
より、オーディオデータを表示する際に必要な負荷を考
慮して、オーディオデータの品質を変えることができ
る。
According to the seventeenth aspect of the present invention, the quality of the audio data can be changed in consideration of the load required for displaying the audio data by generating the stream object based on the load information. it can.

【0192】また、請求項18の発明によれば、負荷情
報に基づいてストリームオブジェクトを生成することに
より、ビデオデータ又はイメージデータを表示する際に
必要な負荷を考慮して、ビデオデータ又はイメージデー
タの品質を変えることができる。
According to the eighteenth aspect of the present invention, by generating the stream object based on the load information, the load necessary for displaying the video data or the image data is taken into consideration, and the video data or the image data is taken into consideration. The quality of can be changed.

【0193】また、請求項19の発明によれば、ビュー
に対応するデータをマルチメディアデータから切り出す
ことにより、マルチメディアデータの一部分を表示する
ことができる。
According to the nineteenth aspect of the present invention, a part of the multimedia data can be displayed by cutting out the data corresponding to the view from the multimedia data.

【0194】また、請求項20の発明によれば、負荷情
報に基づいてコンテンツオブジェクトに対応する複数の
ストリームオブジェクトから1つを選択することによ
り、マルチメディアデータを表示する際に必要な負荷に
対応する品質を有するマルチメディアデータを選択する
ことができる。
According to the invention of claim 20, by selecting one from a plurality of stream objects corresponding to the content object based on the load information, it is possible to cope with the load required for displaying the multimedia data. It is possible to select the multimedia data having the quality to be reproduced.

【0195】また、請求項21の発明によれば、事象を
表す共通の識別子を複数のマルチメディアデータに対応
させることにより、共通の事象を表す複数のマルチメデ
ィアデータをまとめて管理することができる。
According to the twenty-first aspect of the invention, a plurality of multimedia data representing a common event can be collectively managed by associating a common identifier representing an event with a plurality of multimedia data. .

【0196】また、請求項22の発明によれば、1つの
事象に対応する複数のマルチメディアデータに品質を表
す識別子をそれぞれ対応させることにより、共通の事象
を表す複数のマルチメディアデータから、品質の異なる
マルチメディアデータを選択することができる。
According to the twenty-second aspect of the present invention, a plurality of multimedia data corresponding to one event is made to correspond to the identifiers indicating the quality, respectively. Different multimedia data can be selected.

【0197】また、請求項23の発明によれば、第1の
マルチメディアデータと第2のマルチメディアデータと
に共通のコンテンツオブジェクトを生成し、第1のマル
チメディアデータと第2のマルチメディアデータとのそ
れぞれにストリームオブジェクトを生成することによ
り、内容が同一で且つ品質の異なる複数のマルチメディ
アデータを1つのコンテンツオブジェクトにより指定す
ることができ、1つのコンテンツオブジェクトが複数の
マルチメディアデータを有するようにすることができ
る。
According to the invention of claim 23, a content object common to the first multimedia data and the second multimedia data is generated, and the first multimedia data and the second multimedia data are generated. By generating a stream object for each of the above, and a plurality of multimedia data having the same content and different qualities can be designated by one content object, and one content object has a plurality of multimedia data. Can be

【0198】また、請求項24の発明によれば、内容属
性を示すコンテンツオブジェクトと品質属性を示すスト
リームオブジェクトとを別々に対応させることにより、
マルチメディアデータの内容とマルチメディアデータの
品質とを区別することができ、マルチメディアデータの
品質の違いを考慮することなく、同一の内容を有するマ
ルチメディアデータを検索することができる。
According to the twenty-fourth aspect of the invention, by separately associating the content object indicating the content attribute and the stream object indicating the quality attribute,
It is possible to distinguish the content of multimedia data from the quality of multimedia data, and it is possible to search for multimedia data having the same content without considering the difference in quality of multimedia data.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例によるマルチメディアデータ
検索システムの概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a multimedia data search system according to an embodiment of the present invention.

【図2】本発明の一実施例によるコンテンツオブジェク
トとストリームオブジェクトとマルチメディアデータと
の関係を示す図である。
FIG. 2 is a diagram showing a relationship between a content object, a stream object, and multimedia data according to an embodiment of the present invention.

【図3】本発明の一実施例によるコンテンツオブジェク
トのクラス構造を示す図である。
FIG. 3 is a diagram showing a class structure of a content object according to an embodiment of the present invention.

【図4】本発明の一実施例によるストリームオブジェク
トのクラス構造を示す図である。
FIG. 4 is a diagram showing a class structure of a stream object according to an embodiment of the present invention.

【図5】本発明の一実施例によるコンテンツオブジェク
トとストリームオブジェクトとビデオデータとの関係を
示す図である。
FIG. 5 is a diagram showing a relationship among a content object, a stream object, and video data according to an embodiment of the present invention.

【図6】本発明の一実施例によるビデオコンテンツオブ
ジェクトの生成方法を示すフローチャートである。
FIG. 6 is a flowchart illustrating a method of generating a video content object according to an exemplary embodiment of the present invention.

【図7】本発明の一実施例によるビデオコンテンツオブ
ジェクトのビューの設定方法を示すフローチャートであ
る。
FIG. 7 is a flowchart illustrating a method of setting a view of a video content object according to an exemplary embodiment of the present invention.

【図8】本発明の一実施例によるビデオストリームオブ
ジェクトの生成方法を示すフローチャートである。
FIG. 8 is a flowchart illustrating a method of generating a video stream object according to an exemplary embodiment of the present invention.

【図9】本発明の一実施例によるビデオデータのフレー
ムレート及び幅と負荷量との関係を示すフローチャート
である。
FIG. 9 is a flowchart showing a relationship between a frame rate and width of video data and a load amount according to an embodiment of the present invention.

【図10】本発明の一実施例による異なるフレームレー
トのビデオストリームオブジェクトの生成方法を示すフ
ローチャートである。
FIG. 10 is a flowchart illustrating a method of generating video stream objects having different frame rates according to an exemplary embodiment of the present invention.

【図11】本発明の一実施例によるストリームオブジェ
クトからのビデオデータの再生方法を示すフローチャー
トである。
FIG. 11 is a flowchart illustrating a method of reproducing video data from a stream object according to an exemplary embodiment of the present invention.

【図12】本発明の一実施例によるコンテンツオブジェ
クトからのビデオデータの再生方法を示すフローチャー
トである。
FIG. 12 is a flowchart illustrating a method of reproducing video data from a content object according to an exemplary embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 コンテンツオブジェクト格納部 2 ストリームオブジェクト格納部 3 マルチメディアデータ格納部 4 コンテンツオブジェクト管理部 5 ストリームオブジェクト管理部 6 マルチメディアデータ表示部 10a、10b、40a、40b コンテンツオブジェ
クト 11a、11b、11c、41a、41b、41c ス
トリームオブジェクト 12a、12b、12c マルチメディアデータ 20 コンテンツクラス 21 ビデオコンテンツクラス 22 オーディオコンテンツクラス 23 イメージコンテンツクラス 24 テキストコンテンツクラス 30 ストリームクラス 31 ビデオクラス 32 MPEGビデオクラス 33 オーディオクラス 34 MPEGオーディオクラス 35 イメージクラス 36 JPEGクラス 37 テキストクラス 42a、42b、42c ビデオデータ
1 Content Object Storage 2 Stream Object Storage 3 Multimedia Data Storage 4 Content Object Management 5 Stream Object Management 6 Multimedia Data Display 10a, 10b, 40a, 40b Content Objects 11a, 11b, 11c, 41a, 41b , 41c stream objects 12a, 12b, 12c multimedia data 20 content class 21 video content class 22 audio content class 23 image content class 24 text content class 30 stream class 31 video class 32 MPEG video class 33 audio class 34 MPEG audio class 35 image Class 36 JPEG Class 37 Text Class 42 , 42b, 42c video data

Claims (24)

【特許請求の範囲】[Claims] 【請求項1】 マルチメディアデータを格納するマルチ
メディアデータ格納手段と、 前記マルチメディアデータの内容属性を示すコンテンツ
オブジェクトを格納するコンテンツオブジェクト格納手
段と、 前記マルチメディアデータの品質属性を示すストリーム
オブジェクトを格納するストリームオブジェクト格納手
段と、 前記コンテンツオブジェクトを指定することにより、前
記コンテンツオブジェクトに対応するマルチメディアデ
ータを検索するコンテンツオブジェクト管理手段と、 前記ストリームオブジェクトを指定することにより、前
記ストリームオブジェクトに対応するマルチメディアデ
ータを検索するストリームオブジェクト管理手段とを備
えることを特徴とするマルチメディアデータ検索システ
ム。
1. A multimedia data storage unit for storing multimedia data, a content object storage unit for storing a content object indicating a content attribute of the multimedia data, and a stream object indicating a quality attribute of the multimedia data. Stream object storing means for storing; content object managing means for searching multimedia data corresponding to the content object by designating the content object; and corresponding stream object by designating the stream object. A multimedia data search system comprising: stream object management means for searching multimedia data.
【請求項2】 同一の内容の品質の異なる複数のマルチ
メディアデータを格納するマルチメディアデータ格納手
段と、 前記マルチメディアデータの内容属性を示すコンテンツ
オブジェクトを格納するコンテンツオブジェクト格納手
段と、 前記マルチメディアデータの品質属性を示すストリーム
オブジェクトを格納するストリームオブジェクト格納手
段と、 前記コンテンツオブジェクトに前記ストリームオブジェ
クトを対応させるオブジェクト管理手段と、 前記コンテンツオブジェクトを指定することにより、前
記コンテンツオブジェクトに対応するストリームオブジ
ェクトに対応するマルチメディアデータを検索するマル
チメディアデータ検索手段とを備えることを特徴とする
マルチメディアデータ検索システム。
2. A multimedia data storage unit for storing a plurality of multimedia data having the same content but different qualities, a content object storage unit for storing a content object indicating a content attribute of the multimedia data, and the multimedia. Stream object storage means for storing a stream object indicating a quality attribute of data, object management means for associating the stream object with the content object, and designating a stream object corresponding to the content object by designating the content object. A multimedia data search system comprising: multimedia data search means for searching corresponding multimedia data.
【請求項3】 同一の内容の品質の異なる複数のマルチ
メディアデータを格納するマルチメディアデータ格納手
段と、 前記マルチメディアデータの内容属性を示すコンテンツ
オブジェクトを格納するコンテンツオブジェクト格納手
段と、 前記マルチメディアデータの品質属性を示すストリーム
オブジェクトを格納するストリームオブジェクト格納手
段と、 内容が同一で品質の異なる複数のマルチメディアデータ
に対し、同一のコンテンツオブジェクトを対応させるオ
ブジェクト管理手段とを備えることを特徴とするマルチ
メディアデータ検索システム。
3. A multimedia data storage means for storing a plurality of multimedia data having the same content and different qualities, a content object storage means for storing a content object indicating a content attribute of the multimedia data, and the multimedia. A stream object storage means for storing a stream object indicating a quality attribute of data, and an object management means for associating the same content object with a plurality of multimedia data having the same content and different qualities are provided. Multimedia data retrieval system.
【請求項4】 マルチメディアデータを格納するマルチ
メディアデータ格納手段と、 前記マルチメディアデータの内容属性を示すコンテンツ
オブジェクトを格納するコンテンツオブジェクト格納手
段と、 前記マルチメディアデータの品質属性を示すストリーム
オブジェクトを格納するストリームオブジェクト格納手
段と、 前記コンテンツオブジェクトを生成し、前記コンテンツ
オブジェクトを前記ストリームオブジェクトと対応させ
るコンテンツオブジェクト管理手段と、 前記ストリームオブジェクトを生成するストリームオブ
ジェクト管理手段と、 前記マルチメディアデータを表示するマルチメディアデ
ータ表示手段とを備えることを特徴とするマルチメディ
アデータ検索システム。
4. A multimedia data storage means for storing multimedia data, a content object storage means for storing a content object indicating a content attribute of the multimedia data, and a stream object indicating a quality attribute of the multimedia data. Stream object storage means for storing; content object management means for generating the content object and associating the content object with the stream object; stream object management means for generating the stream object; and displaying the multimedia data. A multimedia data search system comprising: multimedia data display means.
【請求項5】 前記コンテンツオブジェクト管理手段
は、前記コンテンツオブジェクトに対応するマルチメデ
ィアデータのうち、その一部分に対応するビューを指定
するビューオブジェクトを生成するビューオブジェクト
生成手段をさらに備えることを特徴とする請求項4に記
載のマルチメディアデータ検索システム。
5. The content object management means further comprises view object generation means for generating a view object that specifies a view corresponding to a part of the multimedia data corresponding to the content object. The multimedia data search system according to claim 4.
【請求項6】 前記ビューオブジェクト生成手段は、前
記マルチメディアデータ格納手段に格納されている時系
列データの先頭からの時間とビューの長さとに基づい
て、ビューオブジェクトを生成することを特徴とする請
求項5に記載のマルチメディアデータ検索システム。
6. The view object generation means generates a view object based on a time from the beginning of time series data stored in the multimedia data storage means and a view length. The multimedia data search system according to claim 5.
【請求項7】 前記ビューオブジェクト生成手段は、前
記マルチメディアデータ格納手段に格納されているイメ
−ジデータの原点からの相対座標とビューの大きさとに
基づいて、ビューオブジェクトを生成することを特徴と
する請求項5に記載のマルチメディアデータ検索システ
ム。
7. The view object generation means generates a view object based on the relative coordinates from the origin of the image data stored in the multimedia data storage means and the size of the view. The multimedia data search system according to claim 5.
【請求項8】 前記ビューオブジェクト生成手段は、前
記マルチメディアデータ格納手段に格納されているテキ
ストデータの先頭からのバイト数とビューの長さとに基
づいて、ビューオブジェクトを生成することを特徴とす
る請求項5に記載のマルチメディアデータ検索システ
ム。
8. The view object generation means generates a view object based on the number of bytes from the beginning of the text data stored in the multimedia data storage means and the view length. The multimedia data search system according to claim 5.
【請求項9】 前記コンテンツオブジェクト管理手段
は、前記マルチメディアデータの内容を示すキーワード
とその内容の長さを示す情報とを、前記コンテンツオブ
ジェクト内に生成することを特徴とする請求項4に記載
のマルチメディアデータ検索システム。
9. The content object management means generates a keyword indicating the content of the multimedia data and information indicating the length of the content in the content object, according to claim 4. Multimedia data retrieval system.
【請求項10】 前記コンテンツオブジェクト管理手段
は、前記マルチメディアデータ格納手段に格納されてい
る時系列データに対応する事象の生じた時刻を示す情報
を、前記コンテンツオブジェクト内に生成することを特
徴とする請求項4に記載のマルチメディアデータ検索シ
ステム。
10. The content object management means generates in the content object information indicating the time at which an event corresponding to the time-series data stored in the multimedia data storage means occurs. The multimedia data search system according to claim 4.
【請求項11】 前記ストリームオブジェクト管理手段
は、同一の内容を有し且つフレームレートの異なるビデ
オデータについてのストリームオブジェクトを生成する
ことを特徴とする請求項4に記載のマルチメディアデー
タ検索システム。
11. The multimedia data search system according to claim 4, wherein the stream object management means generates stream objects for video data having the same content and different frame rates.
【請求項12】 前記ストリームオブジェクト管理手段
は、同一の内容を有し且つ表示サイズの異なるビデオデ
ータについてのストリームオブジェクトを生成すること
を特徴とする請求項4に記載のマルチメディアデータ検
索システム。
12. The multimedia data search system according to claim 4, wherein the stream object management means generates a stream object for video data having the same content and different display sizes.
【請求項13】 前記ストリームオブジェクト管理手段
は、同一の内容を有し且つコーディングレートの異なる
オーディオデータについてのストリームオブジェクトを
生成することを特徴とする請求項4に記載のマルチメデ
ィアデータ検索システム。
13. The multimedia data search system according to claim 4, wherein the stream object management unit generates stream objects for audio data having the same content and different coding rates.
【請求項14】 前記ストリームオブジェクト管理手段
は、同一の内容を有し且つ表示サイズの異なるイメージ
データについてのストリームオブジェクトを生成するこ
とを特徴とする請求項4に記載のマルチメディアデータ
検索システム。
14. The multimedia data search system according to claim 4, wherein the stream object management means generates a stream object for image data having the same content and different display sizes.
【請求項15】 前記ストリームオブジェクト管理手段
は、前記ストリームオブジェクトにより指定されるマル
チメディアデータを前記マルチメディアデータ表示手段
に表示する処理に必要な負荷情報を、前記ストリームオ
ブジェクト内に生成することを特徴とする請求項4に記
載のマルチメディアデータ検索システム。
15. The stream object management means generates load information necessary for displaying multimedia data designated by the stream object on the multimedia data display means in the stream object. The multimedia data search system according to claim 4.
【請求項16】 前記ストリームオブジェクト管理手段
は、前記負荷情報に基づいて、同一の内容を有し且つフ
レームレートの異なるビデオデータについてのストリー
ムオブジェクトを選択することを特徴とする請求項15
に記載のマルチメディアデータ検索システム。
16. The stream object management means selects stream objects for video data having the same content and different frame rates based on the load information.
The multimedia data retrieval system described in.
【請求項17】 前記ストリームオブジェクト管理手段
は、前記負荷情報に基づいて、同一の内容を有し且つコ
ーディングレートの異なるオーディーデータについての
ストリームオブジェクトを選択することを特徴とする請
求項15に記載のマルチメディアデータ検索システム。
17. The stream object management means selects stream objects for audio data having the same content and different coding rates based on the load information. Multimedia data retrieval system.
【請求項18】 前記ストリームオブジェクト管理手段
は、前記負荷情報に基づいて、同一の内容を有し且つ表
示サイズの異なるビデオデータ又はイメージデータにつ
いてのストリームオブジェクトを選択することを特徴と
する請求項15に記載のマルチメディアデータ検索シス
テム。
18. The stream object management means selects stream objects for video data or image data having the same content and different display sizes based on the load information. The multimedia data retrieval system described in.
【請求項19】 前記マルチメディアデータ表示手段
は、前記ビューオブジェクトにより指定されるビューに
対応するデータを、前記マルチメディアデータから切り
出して表示することを特徴とする請求項5に記載のマル
チメディアデータ検索システム。
19. The multimedia data according to claim 5, wherein the multimedia data display means cuts out data corresponding to a view designated by the view object from the multimedia data and displays the data. Search system.
【請求項20】 前記マルチメディアデータ表示手段
は、前記負荷情報に基づいて、前記コンテンツオブジェ
クトに対応する複数のストリームオブジェクトから1つ
を選択し、その選択されたストリームオブジェクトに対
応するマルチメディアデータを表示することを特徴とす
る請求項15に記載のマルチメディアデータ検索システ
ム。
20. The multimedia data display means selects one of a plurality of stream objects corresponding to the content object based on the load information, and outputs multimedia data corresponding to the selected stream object. The multimedia data search system according to claim 15, wherein the multimedia data search system is displayed.
【請求項21】 1つの事象に対応する複数のマルチメ
ディアデータを格納するマルチメディアデータ格納手段
と、1つの事象に対応する複数のマルチメディアデータ
に対し、前記事象を表す共通の識別子を対応させるコン
テンツオブジェクト生成手段とを備えることを特徴とす
るマルチメディアデータ検索システム。
21. A multimedia data storage means for storing a plurality of multimedia data corresponding to one event and a common identifier representing the event for a plurality of multimedia data corresponding to one event. A multimedia data search system, comprising: a content object generating means for performing the same.
【請求項22】 1つの事象に対応する複数のマルチメ
ディアデータを格納するマルチメディアデータ格納手段
と、 1つの事象に対応する複数のマルチメディアデータに対
し、品質を表す識別子をそれぞれ対応させるストリーム
オブジェクト生成手段とを備えることを特徴とするマル
チメディアデータ検索システム。
22. A multimedia data storage means for storing a plurality of multimedia data corresponding to one event, and a stream object for associating a plurality of multimedia data corresponding to one event with identifiers representing quality, respectively. A multimedia data retrieval system comprising: a generating unit.
【請求項23】 第1のマルチメディアデータの内容属
性と第2のマルチメディアデータの内容属性とを示す共
通のコンテンツオブジェクトを生成するコンテンツオブ
ジェクト生成手段と、 前記第1のマルチメディアデータの品質属性を示す第1
のストリームオブジェクトと前記第2のマルチメディア
データの品質属性を示す第2のストリームオブジェクト
とを生成するストリームオブジェクト生成手段とを備え
ることを特徴とするマルチメディアデータのオブジェク
ト生成装置。
23. Content object generating means for generating a common content object indicating a content attribute of the first multimedia data and a content attribute of the second multimedia data, and a quality attribute of the first multimedia data. Showing first
And a stream object generating means for generating a second stream object indicating a quality attribute of the second multimedia data.
【請求項24】 マルチメディアデータに対し、前記マ
ルチメディアデータの内容属性を示すコンテンツオブジ
ェクトと前記マルチメディアデータの品質属性を示すス
トリームオブジェクトとを別々に対応させることを特徴
とするマルチメディアデータの管理方法。
24. Management of multimedia data, wherein a content object indicating a content attribute of the multimedia data and a stream object indicating a quality attribute of the multimedia data are separately associated with the multimedia data. Method.
JP7240350A 1995-09-19 1995-09-19 Multimedia data retrieval system, object generator of multimedia data and multimedia data management method Pending JPH0981443A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7240350A JPH0981443A (en) 1995-09-19 1995-09-19 Multimedia data retrieval system, object generator of multimedia data and multimedia data management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7240350A JPH0981443A (en) 1995-09-19 1995-09-19 Multimedia data retrieval system, object generator of multimedia data and multimedia data management method

Publications (1)

Publication Number Publication Date
JPH0981443A true JPH0981443A (en) 1997-03-28

Family

ID=17058187

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7240350A Pending JPH0981443A (en) 1995-09-19 1995-09-19 Multimedia data retrieval system, object generator of multimedia data and multimedia data management method

Country Status (1)

Country Link
JP (1) JPH0981443A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8176118B2 (en) 2007-11-07 2012-05-08 Sony Corporation Server device, client device, information processing system, information processing method, and program
US8386925B2 (en) 2007-10-22 2013-02-26 Sony Corporation Information processing terminal device, information processing device, information processing method, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263468A (en) * 1995-02-23 1996-10-11 Internatl Business Mach Corp <Ibm> Method and equipment for provision of multimedia story

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08263468A (en) * 1995-02-23 1996-10-11 Internatl Business Mach Corp <Ibm> Method and equipment for provision of multimedia story

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8386925B2 (en) 2007-10-22 2013-02-26 Sony Corporation Information processing terminal device, information processing device, information processing method, and program
US9213724B2 (en) 2007-10-22 2015-12-15 Sony Corporation Information processing terminal device, information processing device, information processing method, and program
US8176118B2 (en) 2007-11-07 2012-05-08 Sony Corporation Server device, client device, information processing system, information processing method, and program
US8862781B2 (en) 2007-11-07 2014-10-14 Sony Corporation Server device, client device, information processing system, information processing method, and program
US9319487B2 (en) 2007-11-07 2016-04-19 Sony Corporation Server device, client device, information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
US10031649B2 (en) Automated content detection, analysis, visual synthesis and repurposing
US7181757B1 (en) Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing
Hamakawa et al. Object composition and playback models for handling multimedia data
US8452801B2 (en) Encoding method and apparatus and decoding method and apparatus
TWI278757B (en) Presenting a collection of media objects
US20100274674A1 (en) Media navigation system
US8275814B2 (en) Method and apparatus for encoding/decoding signal
KR20070020208A (en) Method and apparatus for locating content in a program
CN103124968B (en) For the Content Transformation of back-tilting type amusement
WO2005050986A1 (en) Method and device for presenting video content
KR20080103227A (en) Method for searching supplementary data related to contents data and apparatus thereof
US10257244B2 (en) Method for synchronizing a rich media action with an audiovisual change, corresponding device and computer software, method for generating a rich media presentation and corresponding computer software
KR20040035318A (en) Apparatus and method of object-based MPEG-4 content editing and authoring and retrieval
US20030177493A1 (en) Thumbnail display apparatus and thumbnail display program
JP2006524956A (en) System and method for automatically generating slate using metadata
JP5552987B2 (en) Search result output device, search result output method, and search result output program
JP2001306579A (en) Device and method for retrieving information and computer-readable recording medium recorded with program for computer to execute the same method
KR20000038290A (en) Moving picture searching method and search data structure based on the case structure
US20050078940A1 (en) Information editing device, information editing method, and computer product
US7353451B2 (en) Meta data creation apparatus and meta data creation method
JPH0981443A (en) Multimedia data retrieval system, object generator of multimedia data and multimedia data management method
JP2002142188A (en) Method and device for compiling dynamic image
JP2001008136A (en) Authoring device for multimedia data
JP2004015523A (en) Apparatus, method, and program for video related content generation
KR20030038933A (en) Method for reproducing some multimedia files being associated with time and space and apparatus thereof

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040406

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040727