JP2005176094A - Data processor, data processing method, program and storage medium - Google Patents
Data processor, data processing method, program and storage medium Download PDFInfo
- Publication number
- JP2005176094A JP2005176094A JP2003415418A JP2003415418A JP2005176094A JP 2005176094 A JP2005176094 A JP 2005176094A JP 2003415418 A JP2003415418 A JP 2003415418A JP 2003415418 A JP2003415418 A JP 2003415418A JP 2005176094 A JP2005176094 A JP 2005176094A
- Authority
- JP
- Japan
- Prior art keywords
- data
- description data
- description
- scene
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、マルチメディアデータをネットワークを介して接続された受信端末に対して配信するデータ処理装置、及びデータ処理方法、並びにプログラム、記憶媒体に関するものである。 The present invention relates to a data processing apparatus, a data processing method, a program, and a storage medium that distribute multimedia data to receiving terminals connected via a network.
動画像や音声を圧縮符号化し、多重化し、伝送若しくは蓄積し、これを逆多重化して復号する符号化標準の国際規格としてMPEG-1、及びMPEG-2などが知られている。 MPEG-1 and MPEG-2 are known as international standards for encoding standards for compressing and encoding moving images and audio, multiplexing, transmitting or accumulating them, and demultiplexing and decoding them.
一方、ISO/IEC 14496 part 1(MPEG-4 Systems)では、静止画、動画像や音声、テキスト、CGなど複数のオブジェクトを含むマルチメディアデータの符号化ビットストリームを多重化・同期する手法が標準化されている。 On the other hand, ISO / IEC 14496 part 1 (MPEG-4 Systems) standardizes a method to multiplex and synchronize an encoded bit stream of multimedia data including multiple objects such as still images, moving images, audio, text, and CG. Has been.
上述したようなMPEG-4のデータストリームには、これまでの一般的なマルチメディアストリームとは異なり、静止画像、動画像や音声データに加え、テキストやCGなどの各オブジェクトを空間・時間的に配置するための情報として、VRML(Virtual Reality Modeling Language)を自然動画像や音声が扱えるように拡張したBIFS(Binary Format for Scenes)が含まれている。ここでBIFSはMPEG-4のシーンを2値で記述する情報(シーン記述情報)である。 The MPEG-4 data stream as described above is different from conventional multimedia streams, and in addition to still images, moving images and audio data, each object such as text and CG is spatially and temporally. Information for placement includes BIFS (Binary Format for Scenes), which is an extension of VRML (Virtual Reality Modeling Language) to handle natural video and audio. Here, BIFS is information (scene description information) that describes an MPEG-4 scene in binary.
このようなマルチメディアストリームを構成する静止画、動画、音声等個々のオブジェクトは、それぞれ個別に最適な符号化が施されて送信されることになるので、復号側でも個別に復号され、上述のシーン記述情報に伴い空間的に配置され、個々のデータの持つ時間軸を再生機内部の時間軸に合わせて同期させ、シーンを合成し再生することになる。 Individual objects such as still images, moving images, and audio that make up such a multimedia stream are individually encoded and transmitted individually, so that the decoding side also individually decodes the above-described objects. The scenes are spatially arranged in accordance with the scene description information, and the time axis of each data is synchronized with the time axis inside the playback device, and the scene is synthesized and played back.
また、シーンの構成を記述する方法としては、上述したVRML、BIFSの他に、HTML(HyperText Markup Language)や、XML(eXtensible Markup Language)を用いて記述されるSMIL(Synchronized Multimedia Integration Language)、XMT(Extensible MPEG-4 Textual Format)などがある。 In addition to the VRML and BIFS described above, the scene structure can be described using HTML (HyperText Markup Language), XML (eXtensible Markup Language), SMIL (Synchronized Multimedia Integration Language), XMT. (Extensible MPEG-4 Textual Format).
このようなマルチメディアデータのビットストリームを送信する際には、受信側端末の能力や種類、通信回線の状況に応じて最適な情報量のデータを作成し、送信することが要求される。つまり、受信側端末が携帯電話やPDA(Personal Data Assistant)のような処理能力の低い携帯情報端末であったり、通信回線が混雑している場合には、予め送信側で高い圧縮率の符号化フォーマットで圧縮したり、画像サイズを小さくしたり、伝送レートやフレームレートを小さくして符号化する必要がある。 When transmitting such a bit stream of multimedia data, it is required to create and transmit data having an optimal amount of information according to the capability and type of the receiving terminal and the status of the communication line. In other words, if the receiving terminal is a portable information terminal such as a mobile phone or PDA (Personal Data Assistant), or if the communication line is congested, a high compression rate is encoded on the transmitting side in advance. It is necessary to perform encoding by compressing in a format, reducing the image size, or reducing the transmission rate or frame rate.
受信側端末の能力や通信回線の状況に応じて、動画像や音声のレートを制御したり、時間/空間スケーラブルを切り替えたり、画像サイズを変換したり、エラー耐性を制御したりして、情報量を最適化して符号化し、送信する手法についてはいくつか提案されている。例えば特許文献1には、動画像以外のシーン記述データについても最適化して送信する手法が提案されている。
しかしながら、上記特許文献1に提案されている方式では、(1)シーン記述データを分割して送信する際、どのオブジェクトを優先するかについては言及されていない、(2)オブジェクト記述データの分割は行っていない、(3)コンテンツ作成者がオブジェクト表示の優先順位を指定できない、などの問題を有している。
However, in the method proposed in
本発明は以上の課題に鑑みて成されたものであり、動画、音声、静止画、テキスト、CG等、複数のメディアオブジェクトから構成される符号化されたマルチメディアデータを配信する際に、受信側の能力に応じてコンテンツ作成者の意図した表示を可能とすることを目的とする。 The present invention has been made in view of the above problems, and is received when distributing encoded multimedia data composed of a plurality of media objects such as moving images, sounds, still images, texts, and CGs. It is intended to enable display intended by the content creator according to the ability of the side.
本発明の一態様によるデータ処理装置は以下の構成を備える。すなわち、
複数のメディアオブジェクトと、該複数のメディアオブジェクトの時空間の関係を記述するシーン記述データ及び当該シーン記述とメディアオブジェクトとの関連付け及び復号に必要な情報の記述を含むオブジェクト記述データを有する記述データとを含むマルチメディアデータを外部装置に配信するデータ処理装置であって、
前記マルチメディアデータの配信に関る外部の能力と前記シーン記述データ及びオブジェクト記述データに基づいて記述データの分割要否を判定する判定手段と、
前記判定手段により分割が必要と判定された場合に、オブジェクト記述データとシーン記述データのそれぞれをメディアオブジェクトに関る部分を単位として分割する分割手段と、
前記分割手段によって分割された各記述データと複数のメディアオブジェクトを符号化し、多重化してマルチメディアデータを生成し、前記受信端末に配信する配信手段とを備える。
A data processing apparatus according to an aspect of the present invention has the following configuration. That is,
Description data having object description data including a plurality of media objects, scene description data describing a temporal and spatial relationship of the plurality of media objects, and description of information necessary for associating and decoding the scene description with the media object; A data processing device for delivering multimedia data including
Determination means for determining whether or not description data needs to be divided based on external capabilities related to distribution of the multimedia data and the scene description data and object description data;
A division unit that divides each of the object description data and the scene description data in units of a part related to the media object when the determination unit determines that the division is necessary;
Each of the description data divided by the dividing means and a plurality of media objects are encoded, multiplexed to generate multimedia data and distributed to the receiving terminal.
また、本発明の他の態様によるデータ処理装置は、
複数のメディアオブジェクトと、各メディアオブジェクトの再生に関する情報を記述した記述データとを含むマルチメディアデータを外部装置に配信するデータ処理装置であって、
前記マルチメディアデータの配信に関る外部の能力と前記記述データに基づいて該記述データの分割要否を判定する判定手段と、
前記判定手段により分割が必要と判定された場合に、前記記述データが関連するメディアオブジェクトに設定されている優先度に基づいて、優先度の低いメディアオブジェクトに関る記述データ部分を分離することにより該記述データを分割する分割手段と、
前記分割手段によって分割された各記述データと複数のメディアオブジェクトを符号化し、多重化してマルチメディアデータを生成し、前記受信端末に配信する配信手段とを備える。
In addition, a data processing device according to another aspect of the present invention provides:
A data processing apparatus for delivering multimedia data including a plurality of media objects and description data describing information related to reproduction of each media object to an external device,
Determining means for determining the necessity of dividing the description data based on the external capability related to the delivery of the multimedia data and the description data;
When the determination unit determines that division is necessary, based on the priority set for the media object to which the description data relates, the description data portion related to the low-priority media object is separated. Dividing means for dividing the description data;
Each of the description data divided by the dividing means and a plurality of media objects are encoded, multiplexed to generate multimedia data and distributed to the receiving terminal.
本発明によれば、複数のメディアオブジェクトから構成される符号化されたマルチメディアデータを配信する際に、配信に関る外部の能力(配信先端末の能力及び/又はネットワークの伝送容量等)に応じてその再生に関る情報を記述した記述データをメディアオブジェクトの優先度に応じて分割して送信することが出来る。このため、受信側の装置が複数のメディアオブジェクトを再生する処理にかかる負荷、時間を適切に分散させることができる。また、メディアオブジェクトの優先度に応じて再生されるので、コンテンツ作成者の意図に則した表示が可能である。
また、本発明によれば、シーン記述データとオブジェクト記述データの両方を外部の能力に応じて分割するので、メディアオブジェクトを再生する際の負荷の分散をより適切に実現できる。
According to the present invention, when the encoded multimedia data composed of a plurality of media objects is distributed, the external capability related to the distribution (the capability of the distribution destination terminal and / or the transmission capacity of the network, etc.) Accordingly, the description data describing the information related to the reproduction can be divided and transmitted according to the priority of the media object. For this reason, it is possible to appropriately distribute the load and time required for the processing on the receiving side device for playing back a plurality of media objects. In addition, since playback is performed according to the priority of the media object, it is possible to display in accordance with the intention of the content creator.
Further, according to the present invention, since both the scene description data and the object description data are divided according to the external capability, it is possible to more appropriately realize the load distribution when reproducing the media object.
以下添付図面を参照して、本発明のデータ処理装置をマルチメディアデータを配信する装置に適用した好適な実施形態に従って詳細に説明する。 Hereinafter, a data processing apparatus according to the present invention will be described in detail according to a preferred embodiment applied to an apparatus for distributing multimedia data with reference to the accompanying drawings.
図1は本実施形態におけるマルチメディアデータ配信装置100(以下、単に配信装置と呼ぶ)及びマルチメディアデータ受信装置110(以下、単に受信装置)の基本構成を示すと共に、各回路間でのデータの流れを示す図である。図1に示す配信装置100は、シーン/オブジェクト変換回路101、機器情報/ネットワーク解析回路104、シーン記述データ符号化回路105、オブジェクト記述データ符号化回路106、メディアビットストリーム記憶装置107、多重化回路108により構成されている。
FIG. 1 shows a basic configuration of a multimedia data distribution apparatus 100 (hereinafter simply referred to as a distribution apparatus) and a multimedia data reception apparatus 110 (hereinafter simply referred to as a reception apparatus) in the present embodiment, and data between each circuit. It is a figure which shows a flow. A
また、受信装置110は、逆多重化回路111、シーン記述データ復号回路112、オブジェクト記述データ復号回路113、メディア復号回路114、シーン合成回路115、出力機器116により構成されている。
The
配信装置100において、シーン記述データ102は、視聴者に提示される画面や時間的な構成であり、MPEG-4のシステムパートではシーン記述言語として、前述したBIFSが採用されている。オブジェクト記述データ103は、シーン記述データ102とシーンを構成する各メディアオブジェクトの関連付け、符号化方法、パケットの構成等の復号に必要な情報である。これらシーン記述データ102及びオブジェクト記述データ103は、図示しないシーン/オブジェクト編集回路によって作成されたもの、若しくは所定の記憶装置に保存されているシーン記述データ及びオブジェクト記述データが読み込まれたものとする。
In the
シーン記述データ102、オブジェクト記述データ103は、それぞれ、シーン記述データ符号化回路105、オブジェクト記述データ符号化回路106において符号化され、多重化回路108へ入力される。多重化回路108は、入力されたシーン記述データ、オブジェクト記述データ、符号化ビットストリームを多重化して、伝送路109へビットストリームとして受信装置110に配信する。メディアビットストリーム記憶装置107には、符号化されたビットストリームが予め用意されており、多重化回路108は、メディアビットストリーム記憶装置107から必要なメディアオブジェクトの符号化ビットストリームを選択して多重化する。
The
尚、上記符号化されたビットストリームは、例えば周知のJPEG方式にて高能率(圧縮)符号化された静止画、例えば周知のMPEG-2やMPEG-4、H-263方式にて高能率符号化された動画像データ、例えば周知のCELP(Code Excited Linear Prediction)符号化や、変換領域重み付けインターリーブベクトル量子化(TWINVQ)符号化などの高能率符号化が施された音声データ等である。 The encoded bit stream is a still image that has been encoded with high efficiency (compression) using, for example, the well-known JPEG format, such as a high-efficiency code with the well-known MPEG-2, MPEG-4, or H-263 format. Video data, for example, voice data subjected to high-efficiency encoding such as well-known CELP (Code Excited Linear Prediction) encoding or transform domain weighted interleaved vector quantization (TWINVQ) encoding.
また図1において、109は各種ネットワークに代表される伝送路であり、本実施形態においては加工、符号化したマルチメディアデータを配信するネットワークである。
In FIG. 1,
本実施形態における配信装置100が、受信装置110に対してマルチメディアデータを配信する処理について、図2のフローチャートを用いて説明する。
A process in which the
本実施形態における配信装置100は、受信装置110からネットワークを経由して送られるマルチメディアデータ配信要求を受けると共に、受信装置の種類や処理能力に関する情報(以下、機器情報)を受信する。機器情報/ネットワーク解析回路104は、受信した機器情報から受信装置の種類や処理能力を取得すると共に、ネットワーク回線状況を解析する(ステップS201)。ネットワークの回線状況の解析方法としては、例えば、所定のデータを配信装置100へ送り、そのレスポンスの速度を計測することにより回線の伝送容量を推定する。
The
ここで機器情報の送受信手段としては、CC/PP(Composite Capability/Preference Profiles)のようなフレームワークを利用することが考えられる。CC/PPはW3C(World Wide Web Consortium)において標準化が行われており、端末のデバイス名(メーカ名、機種名)、画面サイズ、メモリ量等のハードウェア特性を、XMLをベースとしたメタ情報記述言語を用いて記述することが可能となっている。配信装置側に機種名と能力とを対応付けたテーブルを用意しておき、機器情報として取得された機種名から能力を取得するようにしてもよい。 Here, it is conceivable to use a framework such as CC / PP (Composite Capability / Preference Profiles) as means for transmitting and receiving device information. CC / PP is standardized in the World Wide Web Consortium (W3C), and the hardware characteristics such as the terminal device name (manufacturer name, model name), screen size, memory size, etc., are meta information based on XML. It is possible to describe using a description language. A table in which model names and capabilities are associated with each other may be prepared on the distribution device side, and the capabilities may be acquired from the model names acquired as device information.
次に、シーン/オブジェクト変換回路101は、受信装置110から配信を要求されたマルチメディアデータに合致するシーン記述データ102、オブジェクト記述データ103を読み込む(ステップS202)。そして、上記ステップS201の解析結果と、ステップS202で読み込んだシーン記述データ102、オブジェクト記述データ103とから、シーン記述データ及びオブジェクト記述データを分割する、しないの判断をする(ステップS203)。
Next, the scene /
ステップS203における分割の判断には、シーン記述データ及びオブジェクト記述データの符号化後のサイズを用いることが挙げられる。シーン記述データやオブジェクト記述データのサイズは記述の複雑さに対応しており、記述の複雑さはメディアオブジェクトの再生処理の負荷の大きさに対応するからである。シーン記述データ102とオブジェクト記述データ103を送信する際に、記述データの符号化後のサイズに対して伝送路109の伝送容量が低い場合、あるいは、受信装置110の処理能力が低い場合には、シーン記述データ及びオブジェクト記述データを分割することになる。より具体的には、例えば、以下の(1)、(2)の条件、
(1)「記述データの符号化後のサイズ(バイト数)」≦「伝送帯域に許されるデータのバイト数」、
(2)「記述データの符号化後のサイズ(バイト数)」≦「受信装置の処理能力に許されるデータのバイト数」、
をチェックし、これら(1)、(2)の条件を共に満たす記述データの場合は、分割せずに出力し、どちらから一方でも満たさない場合は分割するようにする。なお、ここで、受信装置の処理能力としては、CPUのクロックやメモリ容量等を用いることができる。また、別の判断方法として受信装置の種類(PDA、携帯電話、PC等)に応じて判断するようなことも考えられる。
The determination of division in step S203 includes using the encoded sizes of scene description data and object description data. This is because the size of the scene description data and the object description data corresponds to the description complexity, and the description complexity corresponds to the load of the reproduction processing of the media object. When the
(1) “size of description data after encoding (number of bytes)” ≦ “number of bytes of data allowed in transmission band”,
(2) “size of description data after encoding (number of bytes)” ≦ “number of bytes of data allowed for processing capability of receiving device”,
In the case of descriptive data satisfying both of the conditions (1) and (2), it is output without being divided, and when neither is satisfied, it is divided. Here, as the processing capability of the receiving apparatus, a CPU clock, a memory capacity, or the like can be used. Further, as another determination method, it may be determined according to the type of the receiving device (PDA, mobile phone, PC, etc.).
ステップS203で、シーン記述データ、オブジェクト記述データの分割の必要がないと判断された場合には、シーン記述データ、オブジェクト記述データを分割せずにそのまま送信する(ステップS206)。一方、分割の必要があると判断された場合はステップS204、S205によりシーン記述データ及びオブジェクト記述データを、それ以上分割する必要がないと判断されるまで分割する。以下、具体例によりシーン記述データ、オブジェクト記述データの分割を説明する。 If it is determined in step S203 that the scene description data and the object description data need not be divided, the scene description data and the object description data are transmitted without being divided (step S206). On the other hand, if it is determined that division is necessary, the scene description data and the object description data are divided in steps S204 and S205 until it is determined that further division is not necessary. Hereinafter, division of scene description data and object description data will be described with reference to specific examples.
例えば図3に示されるような、画面300に動画像301と動画像302、静止画像303とが配置されるマルチメディアデータを実現する為のシーン記述データ、オブジェクト記述データはそれぞれ図4、図5である。尚、ここでは説明を分かり易くするため、本来2値で記述されるシーン記述データ、オブジェクト記述データを、符号化処理が施される前のテキストとして表記する。
For example, as shown in FIG. 3, scene description data and object description data for realizing multimedia data in which a moving
図4で示されるシーン記述データ400は、Groupノードで始まる。全てのBIFSシーンはSFTopNodeと呼ばれる種類のノードで始まるが、GroupノードはSFTopNodeの一つである。このGroupノードの子ノードとして、動画像301、動画像302、静止画像303に関する情報が、それぞれノード401、ノード402、ノード403に記述される。ノード401内には、対応する動画像オブジェクトデータ301の所在を示すID番号が記述され、同様にノード402、ノード403内には、対応する動画像オブジェクトデータ302、静止画像オブジェクトデータ303の所在を示すID番号が記述される。尚、ここではその他のノード、フィールドに関しての詳細な説明は省略する。
The
図5で示されるオブジェクト記述データ500には、前述したシーン記述データとシーンを構成する動画像、静止画像メディアオブジェクトの関連付け、符号化方法、パケットの構成等の、復号に必要な情報が記述される。オブジェクト記述データは、セッションの開始時や、セッションの途中でストリームを追加、消去、変更などする際に必要である。セッションの開始時やシーンに新たにストリームが追加された場合には、オブジェクト記述データを更新するコマンド(UPDATE OD)が使用される。
The
オブジェクト記述データの構成で主要なものは、
・ ObjectDescriptorID
・ ES(Elementary Stream) Descriptor
である。
The main structure of object description data is
・ ObjectDescriptorID
・ ES (Elementary Stream) Descriptor
It is.
ObjectDescriptorIDはオブジェクトを識別するためのIDである。上述したように、シーン記述データ中の静止画や音声、動画ストリームを参照するノードには、その所在を示すID番号が割り当てられるが、このID番号はObjectDescriptorIDと対応付けられる。例えば、オブジェクト記述データ501〜503は、ObjectDescriptorID 1〜3で識別されるが、このIDはシーン記述データ400中の“url”によって指定される番号(ID)に対応する。例えば、オブジェクト記述データ503はObjectDescriptorID“3”で識別されるが、これはシーン記述データ400中、url“3”で指定されるIMAGE1という名前で定義されているImageTextureノードに該当する。
ObjectDescriptorID is an ID for identifying an object. As described above, an ID number indicating the location is assigned to a node that refers to a still image, audio, or moving image stream in the scene description data, and this ID number is associated with an ObjectDescriptor ID. For example, the
また、ES Descriptorは静止画、動画、音声の各ストリームに対して必要とされ、各ES DescriptorはES_IDによって識別される。ES Descriptorはストリームの種類を判別するためのストリームタイプやプロファイル、デコーダに必要なバッファサイズ、ストリームの最大/平均伝送レートなどを記述するデコーダ設定デスクリプタ(DecoderConfigDescriptor)等を含んでいる。DecoderConfigDescriptorは、受信装置側でこのElementary Streamをデコード可能かどうか決定する際に必要とされる情報である。 An ES Descriptor is required for each stream of still images, moving images, and audio, and each ES Descriptor is identified by ES_ID. The ES Descriptor includes a stream type and profile for determining a stream type, a buffer size necessary for the decoder, a decoder setting descriptor (DecoderConfigDescriptor) describing the maximum / average transmission rate of the stream, and the like. DecoderConfigDescriptor is information required when determining whether or not this elementary stream can be decoded on the receiving device side.
オブジェクト記述データは、シーン記述データのノード中に指定されたメディアストリームの情報を持っており、例えば動画像オブジェクト301に関するオブジェクト記述データは501に記述されており、動画像オブジェクト302に関するオブジェクト記述データは502に記述されており、静止画像303に関するオブジェクト記述データは503に記述されている。
The object description data has information on the media stream specified in the node of the scene description data. For example, the object description data related to the moving
さて、ステップS203でシーン記述データ、オブジェクト記述データを分割する必要がないと判断された場合には、図4で示されるシーン記述データ400、図5で示されるオブジェクト記述データ500は、それぞれシーン記述データ符号化回路105、オブジェクト記述データ符号化回路106に入力され、符号化される。そして、符号化されたシーン記述データ400とオブジェクト記述データ500は、メディアビットストリーム記憶装置107内の関連する動画像301、動画像302、静止画像303の符号化ビットストリームと共に多重化回路108において多重化され、送信される。
If it is determined in step S203 that the scene description data and the object description data need not be divided, the
一方、ステップS203でシーン記述データ、オブジェクト記述データを分割する必要があると判断された場合には、シーン/オブジェクト変換回路101はオブジェクト記述データから優先度の低いオブジェクトを別のオブジェクト記述データとして分割する(ステップS204)。そして、ステップS204において分割したオブジェクト記述データに関連するノードを、シーン記述データから分割する(ステップS205)。
On the other hand, if it is determined in step S203 that the scene description data and the object description data need to be divided, the scene /
ここで、ステップS204、ステップS205でのシーン記述データ、オブジェクト記述データの分割方法を具体的に説明する。 Here, the method of dividing the scene description data and the object description data in step S204 and step S205 will be specifically described.
前述した図4、図5で示されるシーン記述データ400、オブジェクト記述データ500を分割する場合、まずオブジェクト記述データ500に含まれる3つのObjectDescriptor(501、502、503)から、優先度の低いObjectDescriptorを別のオブジェクトデータとして分割する。図5の例では、“ObjectDescriptorID 3”で示されるオブジェクト(503)の優先度が最も低いので、このObjectDescriptorを別のオブジェクトデータとして分割する。
When the
ここで、上記優先度の判断にはObjectDescriptorに含まれるES DescriptorのフィールドstreamPriorityを用いることが考えられる。streamPriorityはこのESの優先度を示す相対的な基準であり、高いstreamPriorityの値を持つESは、それよりも低いstreamPriorityの値を持つESよりも重要であることを示している。よって、分割対象のオブジェクト記述データ500においては、その中で最も優先度の低いオブジェクト503が分割されることになる。このstreamPriorityの値を変更することによりユーザが任意に優先度を設定できる。オブジェクト記述データ500に対するこのような編集操作は、通常のテキスト編集アプリケーション等を用いることで実現できる。
Here, it is conceivable to use the field streamPriority of the ES Descriptor included in the ObjectDescriptor to determine the priority. The streamPriority is a relative standard indicating the priority of this ES, and indicates that an ES having a high streamPriority value is more important than an ES having a lower streamPriority value. Therefore, in the
図5のオブジェクト記述データ500によると、ES_ID 101、102、103で表される各ESのstreamPriorityはそれぞれ3、2、1となっている。よってES_ID 103で示されるESが最も優先順位が低いと判断され、次に優先順位が高いESがES_ID 102で示されるES、最も優先順位が高いESはES_ID 103で示されるESと判断することが出来る。よって、ステップS204において、図5で示されるオブジェクト記述データ500は、図6のように2つのオブジェクト記述データ600と503に分割される。
According to the
そしてステップS205では、ステップS204において分割されたオブジェクト記述データ503に関連するノード403をシーン記述データ400から分割する。オブジェクト記述データ503はObjectDescriptorID 3で識別されるが、これはシーン記述データ400中、url 3で指定されるIMAGE1という名前で定義されているImageTextureノードに該当する。
In step S205, the
ノードの分割は、当該ノードのみを分割するのではなく、当該ノードを含むグループ化ノードを分割することが可能であり、本例の場合、IMAGE1という名前で定義されているImageTextureノードをグループ化するTransform2Dノード403をシーン記述データ400から分割する。よって、ステップS205において、図4で示されるシーン記述データ400は、図7のように2つのシーン記述データ700と701に分割される。例えば、「ノードのみを分割する」と、オブジェクト記述データに対応するノード「だけ」が分割され、そのノードをグループ化するノード単位での分割はされない。図4の例では、IMAGE1(ImageTextureノード)「のみ」が分割されることになり、IMAGE1をグループ化する Transform2D ノード403を単位としての分割はなされないことになる。ノードの分割においては、メディアオブジェクトに対応するノードとして、単一ノード単位で考えるのか、そのノードをグループ化するノード単位で考えるのかはどちらでもよく、いずれにしてもメディアオブジェクトに関る部分を単位として分割することになる。ただし、現実的には、分割効率を考えると、単一ノードのみで分割するよりも、グループ化するノード単位で分割した方が好ましい。
In the case of dividing the node, it is possible to divide the grouping node including the node instead of dividing only the node. In this example, the ImageTexture node defined by the name IMAGE1 is grouped. The
図6、図7のように2つに分割されたオブジェクト記述データ600、503、シーン記述データ700、701についてステップS203でさらに分割の必要があるかどうかを判断する。ステップS203において、これ以上シーン記述データ、オブジェクト記述データの分割の必要がないと判断された場合には、シーン記述データ600、503、オブジェクト記述データ700、701はそれぞれ別々のアクセスユニットとして、優先順位の高いものから順次シーン記述データ符号化回路105、オブジェクト記述データ符号化回路106へ入力されることになる。
In step S203, it is determined whether or not the
シーン記述データ符号化回路105において符号化されたシーン記述データ700、701、オブジェクト記述データ符号化回路106において符号化されたオブジェクト記述データ600、503は、それぞれ多重化回路108においてタイムスタンプが付加され、多重化されて伝送路109へ送信される。ここで、分割されたシーン記述データ及びオブジェクト記述データは、それぞれシーン記述コマンドの挿入コマンド、オブジェクト記述データの更新コマンドが付加されて送信されるものとする。
The
尚、タイムスタンプには、復号タイムスタンプ、合成タイムスタンプがある。復号タイムスタンプは符号化されたデータが復号回路前にあるバッファに入力されるべき時刻であり、合成タイムスタンプは復号回路において復号されたデータが復号回路後にあるメモリに出力されるべき時刻である。本実施形態では、簡単のため、復号タイムスタンプと合成タイムスタンプには同一の値が用いられるものとする。 The time stamp includes a decoding time stamp and a composite time stamp. The decoding time stamp is a time at which encoded data is to be input to a buffer before the decoding circuit, and a synthesis time stamp is a time at which the data decoded at the decoding circuit is to be output to a memory after the decoding circuit. . In this embodiment, for simplicity, it is assumed that the same value is used for the decoding time stamp and the composite time stamp.
また、各アクセスユニットに付加されるタイムスタンプは、優先順位の高いものから順に時間的に早いものが付加される。例えば、時間T1がシーン記述データ600、オブジェクト記述データ700に付加され、時間T2がシーン記述データ503、オブジェクト記述データ701に付加されるとした場合、時間T1<時間T2である。尚、アクセスユニット(Access Unit : 以下AU)は、復号・合成のための時間管理や、同期のための処理単位である。例えば MPEG-4 Video では1つのVOP(Video Object Plane)の符号化データ(各フレーム)が1つのAUに相当する。JPEGでは1枚の静止画データ(JPEG画像そのもの)が1つのAUに相当する。
In addition, the time stamps added to each access unit are added in the order of time from the highest priority to the time stamp. For example, when the time T1 is added to the
図8は、上述の処理により2つに分割されたシーン記述データ700、701、オブジェクト記述データ600、503に基づいて表示される画面の一例である。タイムスタンプT1が付加されたシーン記述データ700、及びオブジェクト記述データ600を受信した受信装置110は、時間T1において画面800のようにシーンを構成し、表示する。このように、時間T1においては動画像201、及び動画像202が再生されることになる。さらに、タイムスタンプT2が付加されたシーン記述データ701、及びオブジェクト記述データ503を受信した受信装置110は、時間T2において静止画像203を追加して合成する。このように時間T2において、図2と同様の画面構成で表示をすることになる。
FIG. 8 is an example of a screen displayed based on the
次に、ステップS203でシーン記述データ、オブジェクト記述データをさらに分割する必要があると判断された場合の処理を、図9、図10を用いて具体的に説明する。なお、分割要否の判断は、図6や図7に示された分割後の各記述データの符号化後のサイズに基づいてなされる。本実施形態では、各記述データの符号化後のサイズのうちの最大値を用いて更なる分割の要否を判断する。前述した図6、図7で示されるオブジェクト記述データ600、503、シーン記述データ700、701を分割する場合、オブジェクト記述データ500から分割されたオブジェクト記述データ503についてはこれ以上分割処理を施さずに、オブジェクト記述データ600から優先度の低いObjectDescriptorID 2で示されるオブジェクト502を別のオブジェクトデータとして分割する。
Next, the processing when it is determined in step S203 that the scene description data and the object description data need to be further divided will be specifically described with reference to FIGS. Note that the necessity of division is determined based on the encoded size of each piece of description data after division shown in FIGS. In the present embodiment, the necessity of further division is determined using the maximum value among the encoded sizes of the description data. When the
図6のオブジェクト記述データ600によると、ES_ID 101、102で表される各ESのstreamPriorityはそれぞれ3、2となっている。よってES_ID 102で示されるESの方がES_ID 103で示されるESよりも優先順位が低いと判断することが出来る。よって、オブジェクト記述データ600から、優先度の低いESを含むObjectDescriptorID 2で示されるオブジェクト502を別のオブジェクトデータとして分割する。このように、ステップS204において、図6で示されるオブジェクト記述データ600は、図9のように2つのオブジェクト記述データ501、502に分割される。
According to the
そしてステップS205では、ステップS204において分割されたオブジェクト記述データ502に関連するノード、つまり図7のシーン記述データ700中、url 2で指定されるMOVIE2という名前で定義されているMovieTextureノードをシーン記述データ700から分割する。尚、前述の分割方法と同様に、ここではMovieTextureノードをグルーピングしているTransform2Dノードをシーン記述データ700から分割する。よって、ステップS205において、図7で示されるシーン記述データ700は、図10のように2つのシーン記述データ1000と1001に分割される。
In step S205, the node related to the
図9、図10のように3つに分割されたシーン記述データ1000、1001、701、オブジェクト記述データ501、502、503は、それぞれ別々のアクセスユニットとして、優先順位の高いものから順次シーン記述データ符号化回路105、オブジェクト記述データ符号化回路106へ入力されることになる。
The
シーン記述データ符号化回路105において符号化されたシーン記述データ1000、1001、701、オブジェクト記述データ501、502、503は、それぞれ多重化回路108においてタイムスタンプが付加され、多重化されて伝送路109へ送信される。各アクセスユニットに付加されるタイムスタンプは、優先順位の高いものから順に、時間T1がシーン記述データ1000、オブジェクト記述データ501に付加され、時間T2がシーン記述データ1001、オブジェクト記述データ502に付加され、時間T3がシーン記述データ701、オブジェクト記述データ503に付加される。ここで時間T1<T2<T3である。
The
図11は、上記したように3つに分割されたシーン記述データ、オブジェクト記述データに基づいて表示される画面の一例である。タイムスタンプT1が付加されたシーン記述データ1000、及びオブジェクト記述データ501を受信した受信装置110は、時間T1においては画面1100のようにシーンを構成し、表示する。このように、時間T1においては動画像201が再生されることになる。さらに、タイムスタンプT2が付加されたシーン記述データ1001、及びオブジェクト記述データ502を受信した受信装置110は、時間T2において画面800のように動画像202を追加してシーンを合成する。さらに、タイムスタンプT3が付加されたシーン記述データ701、及びオブジェクト記述データ503を受信した受信装置110は、時間T3において画面200のように静止画像203を追加してシーンを合成する。このように時間T3において、図2と同様の画面構成で表示をすることになる。
FIG. 11 is an example of a screen displayed based on the scene description data and object description data divided into three as described above. The receiving
なお、ここでは説明を分かりやすくするために、シーンの構成は動画像2つと、静止画像1つとしたが、シーンを構成するオブジェクトとしては動画像、静止画像に限られるものではなく、音声やCG、テキスト等を用いる事が可能である。よってシーン/オブジェクトデータを分割する制御対象物も静止画、動画オブジェクトに限られるものではなく、動画像データを構成する各オブジェクトやCG、テキスト等のいずれであっても適用可能であることは言うまでもない。 In order to make the explanation easier to understand, the scene is composed of two moving images and one still image. However, the objects constituting the scene are not limited to moving images and still images. , Text, etc. can be used. Therefore, the control target for dividing the scene / object data is not limited to the still image or the moving image object, and it goes without saying that any object, CG, text, etc. constituting the moving image data can be applied. Yes.
以上説明したように、上記実施形態によれば、動画、音声、静止画、テキスト、CG等、複数のメディアオブジェクトから構成される符号化されたマルチメディアデータを配信する際に、受信側端末の種類や能力に応じて、シーン記述データ及びオブジェクト記述データを最適化して分割し、それらを符号化して送信することが出来る。このため、受信装置がシーン記述データ及びオブジェクト記述データを復号し、シーンを合成する処理にかかる負荷、時間を分散させることができるといった効果がある。 As described above, according to the above-described embodiment, when the encoded multimedia data composed of a plurality of media objects such as moving images, sounds, still images, texts, and CGs is distributed, Depending on the type and ability, the scene description data and the object description data can be optimized and divided, and can be encoded and transmitted. For this reason, there is an effect that the receiving apparatus can distribute the load and time required for the process of decoding the scene description data and the object description data and synthesizing the scene.
また、ネットワークの通信回線状況を解析し、該ネットワークの伝送容量を取得し、これをシーン記述データ及びオブジェクト記述データの分割の要否判断に用いるので、ネットワークの状況に応じた、適切な形態でマルチメディアデータを配信できる。
更に、各メディアオブジェクトの再生に関する情報を記述した記述データ(実施形態ではオブジェクト記述データ)に関連するメディアオブジェクトの優先度を示す記述(実施形態ではstreamPriority)を含むようにしたので、コンテンツ作成者等は容易にメディアオブジェクトの優先度を設定できる。
また、分割された複数の記述データに対して、メディアオブジェクトの優先度に従った順番で再生されるようにタイムスタンプが付加されるので、コンテンツ作成者等の意図通りの再生を実行できる。
Also, it analyzes the communication line status of the network, acquires the transmission capacity of the network, and uses this to determine whether to divide the scene description data and object description data. Therefore, in an appropriate form according to the network status Multimedia data can be distributed.
Further, since the description data (in the embodiment, object priority data) describing the information relating to the reproduction of each media object is included, a description (stream priority in the embodiment) indicating the priority of the media object is included. Can easily set the priority of media objects.
In addition, a time stamp is added to a plurality of divided pieces of description data so that they are reproduced in the order according to the priority of the media object, so that the reproduction can be performed as intended by the content creator or the like.
[その他の実施形態]
また、本発明の目的は前述したように、実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体をシステムあるいは装置に提供し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
[Other Embodiments]
In addition, as described above, the object of the present invention is to provide a storage medium storing a program code of software that realizes the functions of the embodiment to a system or apparatus, and the computer of the system or apparatus (or CPU or MPU) stores it. Needless to say, this can also be achieved by reading and executing the program code stored in the medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 As a storage medium for supplying the program code, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like is used. be able to.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれていることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code. Needless to say, some or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含むことは言うまでもない。 Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion board or the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.
Claims (17)
前記マルチメディアデータの配信に関る外部の能力と前記シーン記述データ及びオブジェクト記述データに基づいて記述データの分割要否を判定する判定手段と、
前記判定手段により分割が必要と判定された場合に、オブジェクト記述データとシーン記述データのそれぞれをメディアオブジェクトに関る部分を単位として分割する分割手段と、
前記分割手段によって分割された各記述データと複数のメディアオブジェクトを符号化し、多重化してマルチメディアデータを生成し、前記受信端末に配信する配信手段とを備えることを特徴とするデータ処理装置。 Description data having object description data including a plurality of media objects, scene description data describing a temporal and spatial relationship of the plurality of media objects, and description of information necessary for associating and decoding the scene description with the media object; A data processing device for delivering multimedia data including
Determination means for determining whether or not description data needs to be divided based on external capabilities related to distribution of the multimedia data and the scene description data and object description data;
A division unit that divides each of the object description data and the scene description data in units of a part related to the media object when the determination unit determines that the division is necessary;
A data processing apparatus comprising: distribution means for encoding each description data divided by the dividing means and a plurality of media objects, multiplexing them to generate multimedia data, and distributing the multimedia data to the receiving terminal.
前記マルチメディアデータの配信に関る外部の能力と前記記述データに基づいて該記述データの分割要否を判定する判定手段と、
前記判定手段により分割が必要と判定された場合に、前記記述データが関連するメディアオブジェクトに設定されている優先度に基づいて、優先度の低いメディアオブジェクトに関る記述データ部分を分離することにより該記述データを分割する分割手段と、
前記分割手段によって分割された各記述データと複数のメディアオブジェクトを符号化し、多重化してマルチメディアデータを生成し、前記受信端末に配信する配信手段とを備えることを特徴とするデータ処理装置。 A data processing apparatus for delivering multimedia data including a plurality of media objects and description data describing information related to reproduction of each media object to an external device,
Determining means for determining the necessity of dividing the description data based on the external capability related to the delivery of the multimedia data and the description data;
When the determination unit determines that division is necessary, based on the priority set for the media object to which the description data relates, the description data portion related to the low-priority media object is separated. Dividing means for dividing the description data;
A data processing apparatus comprising: distribution means for encoding each description data divided by the dividing means and a plurality of media objects, multiplexing them to generate multimedia data, and distributing the multimedia data to the receiving terminal.
前記分割手段は、オブジェクト記述データとシーン記述データのそれぞれについて優先度の低いメディアオブジェクトに関る部分を分離することを特徴とする請求項2に記載のデータ処理装置。 The description data includes scene description data describing a spatio-temporal relationship between the plurality of media objects, and object description data including a description of information necessary for associating and decoding the scene description and the media object.
3. The data processing apparatus according to claim 2, wherein the dividing unit separates a part related to a media object having a low priority for each of the object description data and the scene description data.
前記判定手段は、前記ネットワークの通信回線状況を解析して該ネットワークの伝送容量を取得し、取得された伝送容量に基づいて前記記述データの分割要否を判定することを特徴とする請求項1乃至4のいずれかに記載のデータ処理装置。 The external device is connected via a network;
The determination means analyzes the communication line status of the network to acquire the transmission capacity of the network, and determines whether or not the description data needs to be divided based on the acquired transmission capacity. 5. The data processing device according to any one of 4 to 4.
前記分割手段は、前記優先度を示す記述を参照して分離対象のメディアオブジェクトに関る記述を決定することを特徴とする請求項2又は3に記載のデータ処理装置。 The description data includes a description indicating a priority for the associated media object;
The data processing apparatus according to claim 2, wherein the dividing unit determines a description related to the media object to be separated with reference to a description indicating the priority.
前記マルチメディアデータの配信に関る外部の能力と前記シーン記述データ及びオブジェクト記述データに基づいて記述データの分割要否を判定する判定工程と、
前記判定工程により分割が必要と判定された場合に、オブジェクト記述データとシーン記述データのそれぞれをメディアオブジェクトに関る部分を単位として分割する分割工程と、
前記分割工程によって分割された各記述データと複数のメディアオブジェクトを符号化し、多重化してマルチメディアデータを生成し、前記受信端末に配信する配信工程とを備えることを特徴とするデータ処理方法。 Description data having object description data including a plurality of media objects, scene description data describing a temporal and spatial relationship of the plurality of media objects, and description of information necessary for associating and decoding the scene description with the media object; A data processing method for delivering multimedia data including a message to an external device,
A determination step of determining the necessity of dividing the description data based on the external capabilities related to the delivery of the multimedia data and the scene description data and the object description data;
A division step of dividing each of the object description data and the scene description data in units of portions related to the media object when it is determined that the division is necessary in the determination step;
A data processing method comprising: a distribution step of encoding each description data divided by the division step and a plurality of media objects, multiplexing them to generate multimedia data, and distributing the multimedia data to the receiving terminal.
前記マルチメディアデータの配信に関る外部の能力と前記記述データに基づいて該記述データの分割要否を判定する判定工程と、
前記判定工程により分割が必要と判定された場合に、前記記述データが関連するメディアオブジェクトに設定されている優先度に基づいて、優先度の低いメディアオブジェクトに関る記述データ部分を分離することにより該記述データを分割する分割工程と、
前記分割工程によって分割された各記述データと複数のメディアオブジェクトを符号化し、多重化してマルチメディアデータを生成し、前記受信端末に配信する配信工程とを備えることを特徴とするデータ処理方法。 A data processing method for delivering multimedia data including a plurality of media objects and description data describing information related to reproduction of each media object to an external device,
A determination step of determining whether or not the description data needs to be divided based on external capabilities related to delivery of the multimedia data and the description data;
When the determination step determines that division is necessary, based on the priority set for the media object to which the description data is related, by separating the description data portion related to the media object with the lower priority A dividing step of dividing the description data;
A data processing method comprising: a distribution step of encoding each description data divided by the division step and a plurality of media objects, multiplexing them to generate multimedia data, and distributing the multimedia data to the receiving terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003415418A JP2005176094A (en) | 2003-12-12 | 2003-12-12 | Data processor, data processing method, program and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003415418A JP2005176094A (en) | 2003-12-12 | 2003-12-12 | Data processor, data processing method, program and storage medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005176094A true JP2005176094A (en) | 2005-06-30 |
Family
ID=34734921
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003415418A Withdrawn JP2005176094A (en) | 2003-12-12 | 2003-12-12 | Data processor, data processing method, program and storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005176094A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007324767A (en) * | 2006-05-30 | 2007-12-13 | Kyocera Corp | Communication method and communication device |
JP2007328658A (en) * | 2006-06-09 | 2007-12-20 | Nippon Hoso Kyokai <Nhk> | Screen display information conversion device and screen display information conversion program |
KR101114431B1 (en) | 2010-01-19 | 2012-02-24 | 전자부품연구원 | Apparatus for generationg and reproducing audio data for real time audio stream and the method thereof |
-
2003
- 2003-12-12 JP JP2003415418A patent/JP2005176094A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007324767A (en) * | 2006-05-30 | 2007-12-13 | Kyocera Corp | Communication method and communication device |
JP2007328658A (en) * | 2006-06-09 | 2007-12-20 | Nippon Hoso Kyokai <Nhk> | Screen display information conversion device and screen display information conversion program |
JP4741424B2 (en) * | 2006-06-09 | 2011-08-03 | 日本放送協会 | Screen display information conversion apparatus and screen display information conversion program |
KR101114431B1 (en) | 2010-01-19 | 2012-02-24 | 전자부품연구원 | Apparatus for generationg and reproducing audio data for real time audio stream and the method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7610605B2 (en) | Method and apparatus for conversion and distribution of data utilizing trick-play requests and meta-data information | |
JP5288710B2 (en) | Information storage medium recording multimedia data, reproducing method and reproducing apparatus thereof | |
US6044397A (en) | System and method for generation and interfacing of bitstreams representing MPEG-coded audiovisual objects | |
US6535919B1 (en) | Verification of image data | |
KR100929073B1 (en) | Apparatus and method for receiving multiple streams in portable broadcasting system | |
US20050193138A1 (en) | Storage medium storing multimedia data, and method and apparatus for reproducing the multimedia data | |
JP2006505024A (en) | Data processing method and apparatus | |
US8483053B2 (en) | Information processing device, information processing method, program, and data structure | |
JP2003114845A (en) | Media conversion method and media conversion device | |
EP1508245A1 (en) | Moving picture data reproducing device with improved random access | |
US7690018B2 (en) | Data processing apparatus and method | |
US6940901B2 (en) | Apparatus and method for information processing | |
JP4391231B2 (en) | Broadcasting multimedia signals to multiple terminals | |
JP2005176094A (en) | Data processor, data processing method, program and storage medium | |
US20050025453A1 (en) | Program, data processing method, and system of same | |
JP2001016582A (en) | Image processor and image processing method | |
Puri et al. | Overview of the MPEG Standards | |
JP7306527B2 (en) | decoding device | |
KR101158435B1 (en) | System and method for multi-media broad casting using priority information on BIFS packet header in DMB mobile terminal | |
JP4114868B2 (en) | Multiplexer and multiplexing method | |
JP2005159878A (en) | Data processor and data processing method, program and storage medium | |
JP2007195064A (en) | Device and method for transmitting, image information, program, and storage medium | |
JP2004312713A (en) | Data transmitting apparatus | |
JP2006014180A (en) | Data processor, data processing method and program therefor | |
JP2003333000A (en) | Method and apparatus for transmitting data, and method and apparatus for receiving data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070306 |