JP4021597B2 - Authoring system and recording medium - Google Patents

Authoring system and recording medium Download PDF

Info

Publication number
JP4021597B2
JP4021597B2 JP37184399A JP37184399A JP4021597B2 JP 4021597 B2 JP4021597 B2 JP 4021597B2 JP 37184399 A JP37184399 A JP 37184399A JP 37184399 A JP37184399 A JP 37184399A JP 4021597 B2 JP4021597 B2 JP 4021597B2
Authority
JP
Japan
Prior art keywords
data
scene description
streaming data
description information
command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP37184399A
Other languages
Japanese (ja)
Other versions
JP2001184841A (en
Inventor
理恵 藤浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP37184399A priority Critical patent/JP4021597B2/en
Publication of JP2001184841A publication Critical patent/JP2001184841A/en
Application granted granted Critical
Publication of JP4021597B2 publication Critical patent/JP4021597B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、MPEGコンテンツを作成するオーサリングシステムおよび記録媒体に関する。
【0002】
【従来の技術】
従来、複数のMPEG4ビデオ/オーディオ,静止画,テキストの各オブジェクトに関し、それぞれの位置や動作を定義し、1つのMPEG4コンテンツを作成するツールが存在する。
【0003】
このツールにおいては、ビデオ,オーディオ,静止画,テキストなどに対し、更に個々にイベントを発生させ、次の動作を定義することが可能であり、またインターラクティブ機能によって多様なコンテンツを作成できるといった、他に見られない技術である。
【0004】
【発明が解決しようとする課題】
しかしながら、従来のツールでは、スケジューリング付き多重化機構及び再生機構の処理に適した形式であることから、オブジェクトの時空間の関係を定義するシーン記述動作定義ファイルの記述としては、タイムスタンプ毎/オブジェクト毎に動作コマンドを1行ずつ定義する必要があり、また、定義されたコンテンツの内容をリアルタイムに確認する機能をもっておらず、1つのコンテンツを作成するのに多くの時間を要する問題がある。
【0005】
本発明は上記事情に鑑みてなされたもので、コンテンツを作成する面倒な作業の簡素化およびコンテンツ作成時間の短縮化を図るオーサリングシステムを提供することにある。
【0006】
また、本発明の他の目的は、作成されたコンテンツの動作確認を容易にするオーサリングシステムを提供することにある。
【0007】
また、本発明の他の目的は、容易にシーン記述情報を作成するためのプログラムを記録した記録媒体を提供することにある。
【0008】
【課題を解決するための手段】
(1) 上記課題を解決するために、本発明に係るオーサリングシステムは、クライアント側で合成表示したいストリーミングデータ及びストリーミングデータ以外のデータを格納し準備する記憶手段と、この記憶手段に準備されているストリーミングデータ及びストリーミングデータ以外のデータに対し、オブジェクトごとに時系列上の位置、動作、ユーザ動作をシーン記述動作にて定義することにより、シーン記述動作定義ファイルを作成する手段と、この手段によって作成されたシーン記述動作定義ファイルのシーン記述動作コマンドを解析し、当該コマンド記述の正否を判断し、当該コマンド記述が適切であるときには当該シーン記述動作定義ファイルをコンパイルし、タイムスタンプ順にソートしたシーン記述情報を作成するシーン記述情報作成手段と、前記ストリーミングデータ及びストリーミングデータ以外のデータ、前記シーン記述情報その他少なくともクライアント側の再生開始,終了時刻等の条件情報が入力され、前記各データに対し、前記再生開始,終了時刻、前記タイムスタンプのもとに前記シーン記述情報を取り込み、前記各データ及び当該シーン記述情報を所定のパケットサイズでパケット化し、かつ、タイムスタンプを割り当てて、固定ビットレートで多重化することにより、コンテンツデータを作成し前記クライアントに配信可能にする多重装置とを備えた構成である。
【0009】
この発明は、以上のような構成とすることにより、ストリーミングデータ及びストリーミングデータ以外のデータのオブジェクトごとに、時系列上の位置、動作、ユーザ動作を言語形式で1つの定義とすることにより、シーン記述情報が容易に作成可能となり、ひいては画面変更等も容易となる。
【0010】
さらに、本発明は、前記ストリーミングデータ及びストリーミングデータ以外のデータと前記シーン記述情報その他少なくともクライアント側の再生開始,終了時刻等の条件情報が入力され、前記各データに対し、前記再生開始,終了時刻、前記タイムスタンプのもとに前記シーン記述情報を取り込み、前記各データおよび当該シーン記述情報を所定のパケットサイズでパケット化し、これらパケットごとにタイムスタンプを割り振りしつつ固定ビットレートで多重化することにより、コンテンツデータを作成し前記クライアントに配信可能にする多重装置を設けたことにより、ストリーミングデータ及びストリーミングデータ以外のデータ等を多重化した状態で配信可能な状態で多重ファイル化することが可能である。
【0011】
(2) また、前記(1)の各手段は記録媒体に一連の処理プログラムとして記録し、コンピュータでそのプログラムを読み取って所要の機能を実現することも可能である。
【0012】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照して説明する。
図1は本発明に係るオーサリングシステムを備えたデータ配信システムの一実施の形態を示す構成図である。
このデータ配信システムは、例えばビデオデータ,オーディオデータといったストリーミングデータを格納するビデオファイル1a,オーディオファイル1bと、例えば静止画データ,テキストデータといったストリーミングデータ以外のデータを格納する静止画ファイル1c,テキストファイル1dと、各ファイル1a〜1dに格納された各データにおけるオブジェクト毎に位置,動作,ユーザ動作を言語形式で定義し、その定義をコンパイルしてシーン記述情報を作成するオーサリング2と、このオーサリング2によって作成されたシーン記述情報を格納するシーン記述情報ファイル3と、このシーン記述情報ファイル3に格納されるシーン記述情報を用いて、使用する全てのオブジェクトを多重化処理したMPEG4コンテンツデータを作成する多重装置4と、この多重装置2により多重処理されたMPEG4コンテンツデータを一時保存する多重ファイル5と、この多重ファイル5に保存されている多重処理されたMPEG4コンテンツデータを固定ビットレートで送出する送出サーバ6と、このサーバ6から送出されるデータパケットから各データを再生し合成する機能を内蔵した受信端末となるクライアント7とによって構成されている。8はシーン記述情報作成処理時および多重化処理時にその処理データ及び処理結果を表示する表示装置、9は所要とする制御指示やGUI(Graphic User Interface)処理を可能にするキーボードを含むマウスなどのポインティングデバイスをもつ入力機器である。
【0013】
なお、前記構成要素1a〜1d,2,3,8,9またはこれら構成要素1a〜1d,2,3,8,9に多重装置4を含む構成をもつてオーサリングシステムと呼んでいる。
【0014】
前記ストリーミングデータは、ビデオ機器,オーディオ機器から入力されるビデオデータ,オーディオデータなどのように、受信端末側でデータパケットを全て受信した後に再生する必要はなく、受信しながら再生可能なデータを意味する。このストリーミングデータは、特にフォーマットを規定するものでないが、固定ビットレートであることが前提となる。これらビデオデータ,オーディオデータはオーサリング対象オブジェクトとする。
【0015】
前記ストリーミングデータ以外のデータは、静止画,テキスト等のように、クライアント7側にて全てのデータを受信した後に初めて再生可能とするデータを意味する。このストリーミングデータ以外のデータは特にフォーマットを規定するものではない。
【0016】
なお、ビデオ,オーディオ,静止画,テキストデータは、各ファイル1a〜1dにそれぞれファイル形式で格納されているが、例えばファイル形式ではなくメモリ経由で多重装置4に入力する形式であってもよい。また、データとしては、ビデオ,オーディオ,静止画,テキスト以外のデータを含むものであってもよい。
【0017】
前記オーサリング2は、ファイル1a〜1dの各データに関し、GUI処理機能により時間ごと・オブジェクトごとに図2に示すように、ある時間後にある位置にいかなるイメージで表示させるかといった、いわゆる画像の位置,動作(移動,ユーザ動作など)を定義する機能をもったものであり、具体的には図3に示すような機能構成となっている。
【0018】
すなわち、オーサリング2はGUI処理機能をもつシーン記述作成用プログラムが記録されている記録媒体11およびこの記録媒体11のプログラムに従ってシーン記述情報を作成処理するCPUで構成されたオーサリング処理部12からなっている。なお、記録媒体11は、一般的にはCD−ROMや磁気ディスクが用いられるが、それ以外にも例えば磁気テープ、DVD−ROM、フロッピーディスク、MO、CD−R、メモリカードなどを用いてもよい。
【0019】
このオーサリング処理部12は、シーン記述作成用プログラムのGUIを用いて、表示装置8の簡易オーサリング画面と対話形式を取りながらシーン記述動作定義ファイル16を作成するシーン記述定義手段17と、このシーン記述動作定義ファイル16のシーン記述コマンドを解析し、当該コマンドの記述が正しいか否かをチェックするシーンコマンド解析処理手段18と、このシーンコマンド解析処理手段18によりコマンドの記述が正しいとき、シーン記述動作定義ファイル16をコンパイルしシーン記述情報を作成しシーン記述情報ファイル3に格納するシーン記述作成処理手段19とが設けられている。
【0020】
前記多重装置4は、記録媒体11に記録される多重処理用プログラムに従って多重処理を行ってMPEG4コンテンツを作成するものであり、各ファイル1a〜1dに関し、図4に示すようにクライアント7側の再生開始,終了時刻の他、シーン記述情報を入力するとともに、固定サイズのパケットとした上で固定ビットレートで多重化し、MPEG4コンテンツを作成する機能をもっている。なお、全てのパケットにはタイムスタンプが振られ、その順序で多重される。
【0021】
また、ストリーミングデータについては、図5に示すようにそれぞれのビットレートを入力する他、多重化されたデータを送信するトータルビットレートを決定し、同様に多重装置4に入力する。この多重装置4の出力は、ファイル1a〜1dの全てのデータが多重されたMPEG4コンテンツとなっている。また、多重装置4は、内部的にクライアント7での各データの再生開始時間および終了時間から、各データのパケット送出順序を決定する機能をもっている。
【0022】
前記クライアント7は、サーバ6から送信されてくるデータパケットを受信し、内部の再生機構にてデータを再生する。このとき、ビデオ,オーディオ,静止画の全てのデータを一つの画面上に合成して表示する。ストリーミングデータはデータを受信しながら再生し、それ以外のデータはデータがすべて揃ってから表示する。全てのデータの表示開始時間は多重ファイル作成時に決定されている。
【0023】
次に、以上のようデータ配信システムのうち、特に本発明の要部となるオーサリングシステムを含むデータ配信システムの一連の動作及び記録媒体11に記録されるシーン記述作成用プログラムの一連の処理機能について図6を参照して説明する。
【0024】
先ず、クライアント7において合成表示したいデータ、例えばビデオ、オーディオなどのストリーミングデータおよび静止画、テキストなどのストリーミングデータ以外のデータをそれぞれ対応ファイル1a〜1dに準備する。このデータ形式は上記データに限定されるものではない。
【0025】
以上のようにして合成表示したい全てのデータを準備した後、オーサリング2は、記録媒体11に記録されているシーン記述作成用プログラムを読み取り、前記準備したデータに関し、GUI処理機能を用いて、オブジェクトごとに位置、動作、ユーザ動作を言語形式にてシーン記述動作定義することによりシーン記述動作定義ファイルを作成する(S1:シーン記述定義ファイル作成機能)。
【0026】
具体的には、従来の場合には、1つのオブジェクトV1に対して3秒のシーン記述を定義するとき、例えば
0、V1、Left (0)
0、V1、Top (0)
1、V1、Left (10)
1、V1、Top (33)
2、V1、Left (0)
と定義していたが、本システムでは、例えば
V1、move(0(x)、100(y)、3(秒))
の要領でシーン記述動作を定義する。
【0027】
因みに、図7(a)はオブジェクト単位でシーン記述動作を時間、位置、イメージ変化(ユーザ動作)を言語形式で定義した例であり、また図8(a)は連続した同一の動きを別のコマンドでシーン記述動作を定義した例である。
【0028】
以上のようにしてシーン記述動作定義ファイルを作成した後、その定義ファイルのシーン記述動作コマンドを解析し、コマンドが適切に記述されているか否かを判断し(S2:コマンド解析機能)、適切に記述されていない場合には修正を施し、適切に記述されている場合にはシーン記述動作定義ファイルをコンパイルし、タイムスタンプ順にソートすれば、スケジューリング付き多重化機構及び再生機構の処理に適した形式のシーン記述情報を作成できる(S3:シーン記述情報作成機能)。なお、シーン記述情報は、メモリ渡しでも、ファイル渡しの何れであってもよい。
【0029】
因みに、図7(b)、図8(b)は、それぞれ対応する図7(a)、図8(a)に示すシーン記述動作定義ファイルをシーン記述情報として作成した例である。
【0030】
従って、以上のようなシーン記述を実施することにより、テキストエディタ等によってシーン記述情報を作成する作業が非常に簡易化され、しかもGUIとの親和性にも優れており、図9に示す定義画面の作成、変更が非常に容易になる。
【0031】
図9はシーン記述動作を定義するときの定義画面を示す図であるが、実際にシーン記述動作の定義中に表示ボタン21をクリックすれば、その定義内容に応じた作成途中のコンテンツの動作内容を確認でき,ひいてはクライアントにおける再生状態を確認することが可能となる。
【0032】
以上のようにしてタイムスタンプが入ったシーン記述情報が作成された後、このシーン記述情報、既にファイル1a〜1dに準備されているデータ、制作目標のトータルビットレート、作成されるコンテンツの長さのデータ、さらには各データのクライアントでの表示開始時間・終了時間等々を多重装置4に入力する(S4)。なお、入力するデータはファイル形式になっているが、ファイルではなくメモリ経由であってもよい。
【0033】
この多重装置4においては、各データに関しクライアント7側の再生開始,終了時刻の他、タイムスタンプのもとにシーン記述情報を取り込み、固定サイズのパケットとした上で固定ビットレートで多重化していくが、このときトータルビットレートとストリーミングデータの固定ビットレートとから、ストリーミングデータ以外のデータの帯域を計算し、ストリーミングデータ以外のデータのパケット送出順序を決定し、すべてのパケットにタイムスタンプを割り振って多重化し(S5)、MPEG4コンテンツとして多重ファイル5に格納する(S6)。
【0034】
ここで、送出サーバ6は多重ファイル5に格納されている多重されたMPEG4コンテンツを順次読み出し、クライアント7に対して固定ビットレート、かつ、割り振ったタイムスタンプ順に送出し、各データの再生開始時刻までにクライアント7に到達するようにする。
【0035】
クライアント7は、多重化されたMPEG4コンテンツのデータをパケット毎に受信し、内部の再生機構によりデータを再生する。このとき、ビデオ,オーディオ,静止画,テキストの全てのデータを一つの画面上に合成して表示する。ストリーミングデータはデータを受信しながら再生し、それ以外のデータはデータがすべて揃った段階で表示する。
【0036】
従って、以上のような実施の形態によれば、複数のオブジェクトからMPEGコンテンツを制作する上で、オブジェクト単位で位置、動作、ユーザ動作を定義し、1つのコマンドの連続動作であるものは、別の1つのコマンドとして定義することにより、シーン記述が非常に簡易化できる。また、オブジェクト単位で記述することにより、部品化された画面作成が容易となり、画面変更や構成変更が容易になる。
【0037】
さらに、従来は多重装置を通った後でしか確認できない作成中のコンテンツであっても、GUI機能をもつことにより、クライアントの再生状態を容易に確認でき、さらにコンテンツの制作と手間を大幅に低減でき、コンテンツの作成効率を上げることが出来る。
【0038】
その他、本発明はその要旨を逸脱しない範囲で種々変形して実施できる。
【0039】
【発明の効果】
以上説明したように本発明によれば、オブジェクトの位置、動作、ユーザ動作を一括して定義することにより、コンテンツを作成する面倒な作業を簡易化でき、またコンテンツ作成時間の短縮化を図ることができる。
【0040】
さらに、作成中のコンテンツを確認しつつ定義作業を進めることが可能であり、クライアントによる再生状態を容易に確認でき、制作の手間を少なくできる。さらに、本発明は、シーン記述情報を容易に作成するためのプログラムを記録した記録媒体を提供できる。
【図面の簡単な説明】
【図1】 本発明に係るオーサリングシステムを含むデータ配信システムの一実施の形態を示す構成図。
【図2】 1つのオブジェクトに対し、位置、動作、ユーザ動作等を定義するための説明図。
【図3】 本発明に係るオーサリングシステムの一実施の形態を示す構成図。
【図4】 ストリーミングデータの開始時間と終了時間を説明する図。
【図5】 ストーリーミングデータの固定ビットレートとトータルビットレートの関係を説明する図。
【図6】 本発明に係るオーサリングシステムを含むデータ配信システムの動作手順を説明する図。
【図7】 シーン記述動作定義とシーン記述情報との関係を説明する図。
【図8】 シーン記述動作定義とシーン記述情報との関係を説明する図。
【図9】 シーン記述定義の途中で再生確認を行うときの定義画面を示す図。
【符号の説明】
2…オーサリング
3…シーン記述情報ファイル
4…多重装置
6…サーバ
7…クライアント
11…記録媒体
12…オーサリング処理部
11…上位計算機
16…シーン記述動作定義ファイル
17…シーン記述定義手段
18…シーン記述コマンド解析処理手段
19…シーン記述作成処理手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an authoring system and a recording medium for creating MPEG content.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there are tools for creating a single MPEG4 content by defining positions and operations of a plurality of MPEG4 video / audio, still image, and text objects.
[0003]
In this tool, it is possible to generate individual events for video, audio, still images, text, etc., and define the following actions, and to create various contents with interactive functions. This technology is not seen in
[0004]
[Problems to be solved by the invention]
However, since the conventional tool is a format suitable for the processing of the multiplexing mechanism with reproduction and the playback mechanism, the description of the scene description action definition file that defines the relationship of the space-time of the object is as follows: Each time it is necessary to define an operation command line by line, and there is a problem that it does not have a function of confirming the contents of the defined content in real time, and it takes a lot of time to create one content.
[0005]
The present invention has been made in view of the above circumstances, and it is an object of the present invention to provide an authoring system that simplifies the troublesome work of creating content and shortens the content creation time.
[0006]
Another object of the present invention is to provide an authoring system that facilitates operation confirmation of created content.
[0007]
Another object of the present invention is to provide a recording medium on which a program for easily creating scene description information is recorded.
[0008]
[Means for Solving the Problems]
(1) In order to solve the above-described problem, an authoring system according to the present invention is provided with storage means for storing and preparing streaming data to be synthesized and displayed on the client side and data other than streaming data, and the storage means . A means for creating a scene description action definition file by defining the position, action, and user action in time series for each object for streaming data and data other than streaming data in the scene description action, and this means The scene description operation command of the specified scene description operation definition file is analyzed to determine whether the command description is correct. When the command description is appropriate, the scene description operation definition file is compiled , and the scene descriptions are sorted in the order of time stamps. Scene to create information Description information creation means, the streaming data and data other than streaming data, the scene description information, and at least client-side playback start / end time and other condition information are input, and the playback start / end time for each data , Capturing the scene description information under the time stamp, packetizing each data and the scene description information with a predetermined packet size, and assigning a time stamp and multiplexing at a fixed bit rate, And a multiplexing device that creates content data and enables distribution to the client .
[0009]
The present invention has the above-described configuration, so that the position, motion, and user motion in time series are defined in one language format for each object of streaming data and data other than streaming data. Descriptive information can be easily created, and it is easy to change the screen.
[0010]
Furthermore, the present invention is wherein the streaming data and the streaming data except the data scene description information other at least a client-side playback start, condition information such as the end time is input, the for each data, the reproduction start and end time Incorporating the scene description information based on the time stamp, packetizing the data and the scene description information with a predetermined packet size, and multiplexing at a fixed bit rate while allocating a time stamp for each packet. Thus, by providing a multiplexing device that creates content data and enables distribution to the client, it is possible to create multiple files in a state in which streaming data and data other than streaming data can be distributed and distributed. is there.
[0011]
(2) Further, each means of (1) can be recorded on a recording medium as a series of processing programs, and the necessary functions can be realized by reading the programs with a computer.
[0012]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing an embodiment of a data distribution system provided with an authoring system according to the present invention.
This data distribution system includes a video file 1a and audio file 1b for storing streaming data such as video data and audio data, and a still image file 1c and text file for storing data other than streaming data such as still image data and text data. 1d and authoring 2 for defining the position, action, and user action for each object in each data stored in each file 1a to 1d in a language format, and compiling the definition to create scene description information, and this authoring 2 The scene description information file 3 for storing the scene description information created by the above and the MPEG4 content data obtained by multiplexing all the objects to be used using the scene description information stored in the scene description information file 3 A multiplex device 4 for creating a multiplex file 5, a multiplex file 5 for temporarily storing MPEG4 content data multiplexed by the multiplex device 2, and a multiplex MPEG4 content data stored in the multiplex file 5 at a fixed bit rate. The transmission server 6 includes a transmission server 6 and a client 7 serving as a reception terminal having a function of reproducing and combining each data from the data packet transmitted from the server 6. 8 is a display device that displays processing data and processing results during scene description information creation processing and multiplexing processing, and 9 is a mouse including a keyboard that enables required control instructions and GUI (Graphical User Interface) processing. An input device having a pointing device.
[0013]
The components 1a to 1d, 2, 3, 8, and 9 or the components 1a to 1d, 2, 3, 8, and 9 including the multiplexing device 4 are called an authoring system.
[0014]
The streaming data means data that can be reproduced while being received, such as video data and audio data input from a video device or audio device, without having to be reproduced after receiving all data packets at the receiving terminal side. To do. The streaming data does not particularly define a format, but is premised on a fixed bit rate. These video data and audio data are the authoring objects.
[0015]
Data other than the streaming data means data that can be reproduced only after all data is received on the client 7 side, such as a still image and text. The format of data other than the streaming data is not particularly specified.
[0016]
The video, audio, still image, and text data are stored in the files 1a to 1d in the file format, but may be input to the multiplexing device 4 via a memory instead of the file format, for example. The data may include data other than video, audio, still images, and text.
[0017]
The authoring 2 relates to the data of the files 1a to 1d, so-called image position such as what image is displayed at a certain position after a certain time as shown in FIG. It has a function for defining an operation (movement, user operation, etc.), and specifically has a functional configuration as shown in FIG.
[0018]
That is, the authoring 2 includes a recording medium 11 on which a scene description creation program having a GUI processing function is recorded, and an authoring processing unit 12 composed of a CPU that creates scene description information according to the program of the recording medium 11. Yes. The recording medium 11 is generally a CD-ROM or a magnetic disk, but other than that, for example, a magnetic tape, a DVD-ROM, a floppy disk, an MO, a CD-R, a memory card, or the like may be used. Good.
[0019]
The authoring processing unit 12 uses a GUI of a scene description creation program, a scene description definition means 17 for creating a scene description operation definition file 16 while taking a dialog form with the simple authoring screen of the display device 8, and the scene description The scene description command in the action definition file 16 is analyzed to check whether the description of the command is correct. When the command description is correct by the scene command analysis processor 18, the scene description operation is performed. There is provided scene description creation processing means 19 for compiling the definition file 16 to create scene description information and storing it in the scene description information file 3.
[0020]
The multiplexing device 4 performs MPEG processing according to the multi-processing program recorded on the recording medium 11 to create MPEG4 contents. The files 1a to 1d are reproduced on the client 7 side as shown in FIG. In addition to the start and end times, scene description information is input, and a packet with a fixed size is multiplexed and multiplexed at a fixed bit rate to create MPEG4 content. All packets are time stamped and multiplexed in that order.
[0021]
As for streaming data, as shown in FIG. 5, the respective bit rates are input, and the total bit rate for transmitting the multiplexed data is determined and input to the multiplexer 4 in the same manner. The output of the multiplexing device 4 is MPEG4 content in which all data of the files 1a to 1d are multiplexed. The multiplexing device 4 has a function of determining the packet transmission order of each data from the reproduction start time and end time of each data in the client 7 internally.
[0022]
The client 7 receives the data packet transmitted from the server 6 and reproduces the data by an internal reproduction mechanism. At this time, all video, audio, and still image data are combined and displayed on one screen. Streaming data is played back while receiving data, and other data is displayed after all the data is available. The display start time of all data is determined when creating multiple files.
[0023]
Next, among the data distribution system as described above, a series of operations of the data distribution system including the authoring system, which is the main part of the present invention, and a series of processing functions of the scene description creation program recorded on the recording medium 11 This will be described with reference to FIG.
[0024]
First, data to be combined and displayed in the client 7, for example, streaming data such as video and audio and data other than streaming data such as still images and text are prepared in the corresponding files 1a to 1d, respectively. This data format is not limited to the above data.
[0025]
After preparing all the data to be synthesized and displayed as described above, the authoring 2 reads the scene description creation program recorded on the recording medium 11 and uses the GUI processing function to read the object description creation program. A scene description action definition file is created by defining a scene description action in a language format for each position, action, and user action (S1: scene description definition file creation function).
[0026]
Specifically, in the conventional case, when a 3 second scene description is defined for one object V1, for example, 0, V1, Left (0)
0, V1, Top (0)
1, V1, Left (10)
1, V1, Top (33)
2, V1, Left (0)
In this system, for example, V1, move (0 (x), 100 (y), 3 (seconds))
The scene description operation is defined as follows.
[0027]
Incidentally, FIG. 7A shows an example in which scene description operation is defined in terms of language in terms of time, position, and image change (user operation) for each object, and FIG. This is an example in which a scene description operation is defined by a command.
[0028]
After creating the scene description operation definition file as described above, the scene description operation command in the definition file is analyzed to determine whether or not the command is appropriately described (S2: command analysis function). If it is not described, it is modified. If it is described appropriately, the scene description operation definition file is compiled and sorted in the order of time stamps. Scene description information can be created (S3: Scene description information creation function). The scene description information may be either a memory delivery or a file delivery.
[0029]
Incidentally, FIGS. 7B and 8B are examples in which the corresponding scene description operation definition files shown in FIGS. 7A and 8A are created as scene description information.
[0030]
Therefore, by performing the scene description as described above, the operation of creating scene description information by a text editor or the like is greatly simplified, and the compatibility with the GUI is excellent, and the definition screen shown in FIG. Making and changing is very easy.
[0031]
FIG. 9 is a diagram showing a definition screen when defining a scene description action. If the display button 21 is clicked during the definition of the scene description action, the action contents of the contents being created according to the definition contents Thus, it is possible to check the playback state at the client.
[0032]
After the scene description information including the time stamp is created as described above, the scene description information, the data already prepared in the files 1a to 1d, the total bit rate of the production target, and the length of the content to be created And the display start time and end time of each data at the client are input to the multiplexer 4 (S4). The input data is in a file format, but it may be via a memory instead of a file.
[0033]
In this multiplexing apparatus 4, in addition to the reproduction start and end times on the client 7 side for each data, the scene description information is fetched based on the time stamp to be a fixed size packet and multiplexed at a fixed bit rate. However, at this time, the bandwidth of data other than streaming data is calculated from the total bit rate and the fixed bit rate of streaming data, the packet transmission order of data other than streaming data is determined, and time stamps are assigned to all packets. Multiplexed (S5) and stored in the multiplexed file 5 as MPEG4 content (S6).
[0034]
Here, the sending server 6 sequentially reads the multiplexed MPEG4 content stored in the multiplex file 5 and sends it to the client 7 in the order of the fixed bit rate and the assigned time stamp until the reproduction start time of each data. The client 7 is reached.
[0035]
The client 7 receives the multiplexed MPEG4 content data for each packet and reproduces the data by an internal reproduction mechanism. At this time, all data of video, audio, still image, and text are combined and displayed on one screen. Streaming data is played back while receiving data, and other data is displayed when all the data is available.
[0036]
Therefore, according to the embodiment as described above, when producing MPEG content from a plurality of objects, the position, operation, and user operation are defined in units of objects, and a continuous operation of one command is different. By defining this as one command, the scene description can be greatly simplified. Also, by describing in object units, it is easy to create a componentized screen, and screen changes and configuration changes are facilitated.
[0037]
Furthermore, even with content that is currently being created that can only be confirmed after passing through a multiplexing device, the GUI function makes it easy to check the playback status of the client, and greatly reduces content production and labor. And content creation efficiency can be increased.
[0038]
In addition, the present invention can be implemented with various modifications without departing from the gist thereof.
[0039]
【The invention's effect】
As described above, according to the present invention, it is possible to simplify the troublesome work of creating content by simultaneously defining the position, motion, and user motion of an object, and to shorten the content creation time. Can do.
[0040]
Furthermore, it is possible to proceed with the definition work while confirming the content being created, and it is possible to easily confirm the playback state by the client, and to reduce the production effort. Furthermore, the present invention can provide a recording medium in which a program for easily creating scene description information is recorded.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an embodiment of a data distribution system including an authoring system according to the present invention.
FIG. 2 is an explanatory diagram for defining a position, an action, a user action and the like for one object.
FIG. 3 is a configuration diagram showing an embodiment of an authoring system according to the present invention.
FIG. 4 is a diagram for explaining the start time and end time of streaming data.
FIG. 5 is a diagram for explaining a relationship between a fixed bit rate of storyming data and a total bit rate.
FIG. 6 is a view for explaining the operation procedure of the data distribution system including the authoring system according to the present invention.
FIG. 7 is a diagram for explaining a relationship between a scene description operation definition and scene description information.
FIG. 8 is a diagram for explaining a relationship between a scene description operation definition and scene description information.
FIG. 9 is a diagram showing a definition screen when performing playback confirmation in the middle of a scene description definition.
[Explanation of symbols]
2 ... Authoring 3 ... Scene description information file 4 ... Multiplexer 6 ... Server 7 ... Client 11 ... Recording medium 12 ... Authoring processor 11 ... Host computer 16 ... Scene description operation definition file 17 ... Scene description definition means 18 ... Scene description command Analysis processing means 19 ... scene description creation processing means

Claims (3)

クライアント側で合成表示したいストリーミングデータ及びストリーミングデータ以外のデータを格納し準備する記憶手段と、
この記憶手段に準備されているストリーミングデータ及びストリーミングデータ以外のデータに対し、オブジェクトごとに時系列上の位置、動作、ユーザ動作をシーン記述動作にて定義することにより、シーン記述動作定義ファイルを作成する手段と、
この手段によって作成されたシーン記述動作定義ファイルのシーン記述動作コマンドを解析し、当該コマンド記述の正否を判断し、当該コマンド記述が適正であると判断されたとき当該シーン記述動作定義ファイルをコンパイルし、タイムスタンプ順にソートしたシーン記述情報を作成するシーン記述情報作成手段と、
前記ストリーミングデータ及びストリーミングデータ以外のデータ、前記シーン記述情報その他少なくともクライアント側の再生開始,終了時刻等の条件情報が入力され、前記各データに対し、前記再生開始,終了時刻、前記タイムスタンプのもとに前記シーン記述情報を取り込み、前記各データ及び当該シーン記述情報を所定のパケットサイズでパケット化し、かつ、タイムスタンプを割り当てて、固定ビットレートで多重化することにより、コンテンツデータを作成し前記クライアントに配信可能とする多重装置とを備えたことを特徴とするオーサリングシステム。
Storage means for storing and preparing data other than streaming data and streaming data to be synthesized and displayed on the client side;
Create a scene description operation definition file by defining the time-series position, operation, and user operation for each object for streaming data and data other than streaming data prepared in this storage means. Means to
Analyzes the scene description operation command of the scene description operation definition file created by this means, determines whether the command description is correct, and compiles the scene description operation definition file when the command description is determined to be appropriate. , Scene description information creating means for creating scene description information sorted in time stamp order ;
The streaming data and data other than the streaming data, the scene description information, and at least the condition information such as the playback start and end times on the client side are input. Capturing the scene description information, packetizing each data and the scene description information with a predetermined packet size, assigning a time stamp, and multiplexing at a fixed bit rate to create content data, An authoring system comprising a multiplexing device capable of delivering to a client .
請求項1に記載するオーサリングシステムにおいて、
前記多重装置は、前記ストリーミングデータ以外のデータ及び当該データに関するシーン記述情報を所定のパケットサイズでパケット化し多重化する場合、トータルビットレートと前記ストリーミングデータの固定ビットレートとに基づき、前記ストリーミングデータ以外のデータの帯域を計算し、当該ストリーミングデータ以外のデータのパケット送出順序を決定し、全てのバケットにタイムスタンプを割り当てて多重化することを特徴とするオーサリングシステム。
The authoring system according to claim 1,
When the multiplexing device packetizes and multiplexes data other than the streaming data and scene description information related to the data with a predetermined packet size, based on the total bit rate and the fixed bit rate of the streaming data, other than the streaming data The authoring system is characterized in that the bandwidth of the data is calculated, the packet transmission order of data other than the streaming data is determined, and time stamps are assigned to all buckets for multiplexing .
記憶部とオーサリングとを備えたコンピュータによって、前記記憶部に準備されているクライアント側で合成表示したいストリーミングデータ及びストリーミングデータ以外のデータからシーン記述情報を作成するシーン記述情報作成用プログラムを記録した記録媒体であって
前記コンピュータに、
前記オーサリングによって、前記記憶部に準備されているストリーミングデータ及びストリーミングデータ以外のデータに対し、オブジェクトごとに時系列上の位置、動作、ユーザ動作をシーン記述動作にて定義することにより、シーン記述動作定義ファイルを作成するシーン記述定義ファイル作成機能と、この機能によって作成されたシーン記述動作のコマンド記述の正否を解析するコマンド解析処理機能と、この機能によってコマンド記述が適正であるとき、前記シーン記述動作定義ファイルをコンパイルし、タイムスタンプ順にソートしたシーン記述情報を作成するシーン記述情報作成機能とを実現させるための前記シーン記述情報作成用プログラムを記録した前記コンピュータ読み取り可能な記録媒体。
The computer having a storage unit and authoring, was recorded scene description information creation program for creating a scene description information from the streaming data and the streaming data except the data to be synthesized and displayed on the client side, which is prepared in the storage unit a record medium,
In the computer,
The scene description operation is performed by defining the time series position, operation, and user operation for each object for the streaming data and the data other than the streaming data prepared in the storage unit by the authoring in the scene description operation. A scene description definition file creation function for creating a definition file, a command analysis processing function for analyzing whether the command description of the scene description operation created by this function is correct, and when the command description is appropriate by this function, the scene description The computer-readable recording medium recording the scene description information creation program for realizing a scene description information creation function for creating scene description information by compiling an action definition file and sorting in order of time stamp .
JP37184399A 1999-12-27 1999-12-27 Authoring system and recording medium Expired - Fee Related JP4021597B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37184399A JP4021597B2 (en) 1999-12-27 1999-12-27 Authoring system and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37184399A JP4021597B2 (en) 1999-12-27 1999-12-27 Authoring system and recording medium

Publications (2)

Publication Number Publication Date
JP2001184841A JP2001184841A (en) 2001-07-06
JP4021597B2 true JP4021597B2 (en) 2007-12-12

Family

ID=18499411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37184399A Expired - Fee Related JP4021597B2 (en) 1999-12-27 1999-12-27 Authoring system and recording medium

Country Status (1)

Country Link
JP (1) JP4021597B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3535489B2 (en) * 2001-10-12 2004-06-07 エヌ・ティ・ティ・コムウェア株式会社 Synchronous multimedia presentation editing method, editing program, editing server, and recording medium on which editing program is recorded
JP6975536B2 (en) * 2017-01-26 2021-12-01 株式会社平和 Pachinko machine

Also Published As

Publication number Publication date
JP2001184841A (en) 2001-07-06

Similar Documents

Publication Publication Date Title
JP4270379B2 (en) Efficient transmission and reproduction of digital information
US20190124371A1 (en) Systems, methods and computer software for live video/audio broadcasting
JP4551668B2 (en) Minute file generation method, minutes file management method, conference server, and network conference system
JP6920578B2 (en) Video streaming device, video editing device and video distribution system
US20020091658A1 (en) Multimedia electronic education system and method
US20050154679A1 (en) System for inserting interactive media within a presentation
US8276082B2 (en) Method and computer readable media for organizing digital stream contents
US20020089587A1 (en) Intelligent buffering and reporting in a multiple camera data streaming video system
JP2004343756A5 (en)
JP2004287595A (en) Device and method for converting composite media contents and its program
JP4017290B2 (en) Automatic program production device and recording medium recorded with automatic program production program
EP2034484B1 (en) Method and apparatus for controlling editing image display
JP4021597B2 (en) Authoring system and recording medium
US8059167B2 (en) Shooting apparatus and shooting method, and program
WO2020201297A1 (en) System and method for performance-based instant assembling of video clips
JP4484220B2 (en) Video distribution device
JP2003143575A (en) Multimedia reproducing method and device
JP2014099766A (en) Communication apparatus
JP2013090102A (en) Distribution system
JP2024040912A (en) Information processing device, receiving device, information processing method, and program
JP3987253B2 (en) Data multiplexing apparatus, data distribution system, and recording medium
JP2008085428A (en) Content management server, content display apparatus, content management program, and content display program
CN117241062A (en) Video synthesis method and device, storage medium and electronic equipment
JP2008154166A (en) Viewing management apparatus and program
JP2002157217A (en) Contents control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070626

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070927

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101005

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees