JP2000152234A - Processor and method for data processing, and data processing system - Google Patents

Processor and method for data processing, and data processing system

Info

Publication number
JP2000152234A
JP2000152234A JP32563598A JP32563598A JP2000152234A JP 2000152234 A JP2000152234 A JP 2000152234A JP 32563598 A JP32563598 A JP 32563598A JP 32563598 A JP32563598 A JP 32563598A JP 2000152234 A JP2000152234 A JP 2000152234A
Authority
JP
Japan
Prior art keywords
image information
data
information
data processing
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP32563598A
Other languages
Japanese (ja)
Other versions
JP3854737B2 (en
Inventor
Mitsuru Maeda
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP32563598A priority Critical patent/JP3854737B2/en
Priority to EP99303221A priority patent/EP0954181B1/en
Priority to DE69937816T priority patent/DE69937816T2/en
Priority to US09/298,951 priority patent/US6512793B1/en
Publication of JP2000152234A publication Critical patent/JP2000152234A/en
Application granted granted Critical
Publication of JP3854737B2 publication Critical patent/JP3854737B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Color Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Abstract

PROBLEM TO BE SOLVED: To decode data which are encoded for each of plural image information (object) by a decoder having arbitrary encoding specifications by providing a varying means which varies the number of pieces of image information in a data sequence. SOLUTION: A profile level decision unit of a profile level adjustment part 205 places a header changing unit in operation to change and encode the contents of a profile and level indication(PLI) for a decoder 207 and delete header information regarding an object which is not decoded (discarded) by the decoder 207 according to the comparison result of a variable-code comparator. Namely, the header information of the encoded data is replaced with contents matching the decoding capability of the decoder 207 or an inputted profile and a level. Further, arrangement information regarding the object corresponding to the discarded object is deleted from object arrangement information αto generate new object arrangement information β.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、符号化された複数
の画像情報により1つの画像を構成するデータ列を処理
するデータ処理装置及びその方法、及びデータ処理シス
テムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data processing apparatus and method for processing a data sequence forming one image by using a plurality of encoded image information, and a data processing system.

【0002】[0002]

【従来の技術】近年、動画像の新しい符号化方式とし
て、MPEG4(Moving Picture Experts Group Phase4)規格
の標準化が進められている。従来のMPEG2規格に代表さ
れる動画像の符号化方式においては、フレームあるいは
フィールドを単位とした符号化を行なっていたが、動画
像の映像や音声を構成するコンテンツ(人物や建物,
声,音,背景等)の再利用や編集を実現するために、MPE
G4規格では映像データやオーディオ・データをオブジェ
クト(物体)として扱うことを特徴とする。さらに、映
像データに含まれる物体も独立して符号化され、それぞ
れもオブジェクトとして扱うことができる。
2. Description of the Related Art In recent years, the MPEG4 (Moving Picture Experts Group Phase 4) standard has been standardized as a new coding method for moving images. In the moving picture coding method represented by the conventional MPEG2 standard, coding is performed in units of frames or fields. However, contents (persons, buildings,
MPE to realize reuse and editing of voice, sound, background, etc.)
The G4 standard is characterized in that video data and audio data are treated as objects. Furthermore, the objects included in the video data are also encoded independently, and each can be treated as an object.

【0003】図17にMPEG4規格に基づく符号化器の機能
ブロック図を示し、図18に該符号化器による符号化デー
タを復号する復号器の機能ブロック図を示す。図17にお
いて、入力された画像データはオブジェクト定義器1001
によって各オブジェクトに分割され、分割されたオブジ
ェクト毎に最適な符号化を行なう、それぞれのオブジェ
クト符号化器1002〜1004によって符号化する。また、各
オブジェクトを復号側で配置するための情報を、配置情
報符号化器1011で符号化する。こうして得られた符号化
データを、多重化器1005によって多重化して1つの符号
化データとして出力する。
FIG. 17 shows a functional block diagram of an encoder based on the MPEG4 standard, and FIG. 18 shows a functional block diagram of a decoder for decoding encoded data by the encoder. In FIG. 17, input image data is an object definition unit 1001.
The objects are divided into respective objects, and the optimal encoding is performed for each of the divided objects, and encoding is performed by respective object encoders 1002 to 1004. Also, information for arranging each object on the decoding side is encoded by an arrangement information encoder 1011. The coded data thus obtained is multiplexed by the multiplexer 1005 and output as one coded data.

【0004】該符号化データが図18に示す復号器に入力
されると、まず分離器1006によって多重化を解かれ、各
オブジェクトの符号化データを得る。得られた符号化デ
ータは各オブジェクトに対応した復号器1007〜1009によ
って復号される。同時に、配置情報復号器1012は各オブ
ジェクトの配置情報を復号する。オブジェクト復号器10
07〜1009の出力は、オブジェクト配置情報に従って合成
器1010によって合成され、画像として表示される。
When the coded data is input to the decoder shown in FIG. 18, the multiplexed data is first demultiplexed by the demultiplexer 1006 to obtain coded data of each object. The obtained encoded data is decoded by decoders 1007 to 1009 corresponding to each object. At the same time, the arrangement information decoder 1012 decodes the arrangement information of each object. Object decoder 10
The outputs of 07 to 1009 are combined by the combiner 1010 according to the object arrangement information and displayed as an image.

【0005】このようにMPEG4規格によれば、動画像内
のオブジェクトを個別に扱うことで、復号側ではさまざ
まなオブジェクトを自由に配置することができる。ま
た、放送やコンテンツ作成会社等においても、事前にオ
ブジェクトの符号化データを生成しておくことにより、
有限なコンテンツから非常に多くの動画像データを生成
することが可能になった。
[0005] As described above, according to the MPEG4 standard, various objects can be freely arranged on the decoding side by treating objects in a moving image individually. Also, broadcasting and content creation companies generate encoded data of objects in advance,
It has become possible to generate a great deal of moving image data from limited content.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、上述し
たようにMPEG4規格の符号化方式においては、不特定数
のオブジェクトを扱うため、特に復号側では、全てのオ
ブジェクトの復号に対応するのに十分な復号手段の数を
確定することができず、従って、装置やシステムを構築
するのが非常に困難であった。
However, as described above, in the encoding system of the MPEG4 standard, an unspecified number of objects are handled, so that the decoding side, in particular, is not sufficient for decoding all the objects. The number of decoding means could not be determined, and thus it was very difficult to construct an apparatus or system.

【0007】そのため、標準化されたMPEG4規格におい
ては、プロファイル及びレベルの概念を規定し、符号化
データや符号化器/復号器の設計にあたって仕様を決定
することができるように、プロファイル及びレベルから
なる符号化仕様として、オブジェクト数やビットレート
の上限値を設けている。図20に、プロファイル・レベル
毎の各要件の上限を規定するプロファイル表の一例を示
す。
[0007] Therefore, in the standardized MPEG4 standard, the concept of profile and level is defined, and the profile is composed of profile and level so that specifications can be determined in designing coded data and an encoder / decoder. As encoding specifications, upper limits of the number of objects and the bit rate are provided. FIG. 20 shows an example of a profile table that defines the upper limit of each requirement for each profile level.

【0008】図20のプロファイル表に示されるようにMP
EG4規格においては、プロファイルに応じて符号化に使
用する手段(ツール)の組み合わせが異なり、さらにレ
ベルにより、扱う画像の符号化データの量が段階的に分
けられている。ここで、扱えるオブジェクト数の最大値
とビットレートの最大値はいずれも該符号化仕様におけ
る上限を表すものであり、それ以下の値であれば、該符
号化仕様に含まれる。例えば、Coreプロファイルで使用
可能なツールを用い、オブジェクト数が6個で、300kbps
で符号化するのであれば、該符号化データ(符号化器)
はレベル2に相当する。
[0008] As shown in the profile table of FIG.
In the EG4 standard, the combination of means (tools) used for encoding differs depending on the profile, and the amount of encoded data of the image to be handled is divided stepwise according to the level. Here, both the maximum value of the number of objects that can be handled and the maximum value of the bit rate represent the upper limit in the encoding specification, and if the value is less than that, it is included in the encoding specification. For example, using a tool that can be used with the Core profile, the number of objects is 6, 300 kbps
, The encoded data (encoder)
Is equivalent to level 2.

【0009】ここで、MPEG4符号化データのビットスト
リーム例を図19に示す。上述したプロファイルとレベル
は、ビットストリームの中のprofile_and_level_indica
tion(図中PLI)という符号で表される。MPEG4において
は、オブジェクトの配置情報をシステム記述言語で表し
て符号化しており、便宜上、この情報を先頭に記載す
る。実際には、適宜ほかの符号化結果とともに多重化さ
れている。
FIG. 19 shows an example of a bit stream of MPEG4 encoded data. The profile and level described above are the same as profile_and_level_indica in the bitstream.
(PLI in the figure). In MPEG4, the arrangement information of an object is represented and encoded in a system description language, and this information is described at the top for convenience. Actually, they are appropriately multiplexed with other encoding results.

【0010】MPEG4符号化データは、符号化効率の向
上、及び編集操作性の向上の観点から階層化されてい
る。図19に示すように、動画像の符号化データの先頭に
は、識別のためのvisual_object_sequence_start_code
(図中VOSSC)があり、それに各ビジュアルオブジェク
トの符号化データが続き、最後に、符号化データの後端
を示すvisual_object_sequence_end_code(図中VOSEC)
がある。ここでビジュアルオブジェクトとしては、撮影
された動画像のほかに、CGデータ等も定義される。
[0010] MPEG4 encoded data is hierarchized from the viewpoint of improving the encoding efficiency and the editing operability. As shown in FIG. 19, a visual_object_sequence_start_code for identification
(VOSSC in the figure), followed by the coded data of each visual object, and finally, visual_object_sequence_end_code (VOSEC in the figure) indicating the end of the coded data
There is. Here, CG data and the like are defined as the visual object in addition to the captured moving image.

【0011】ビジュアルオブジェクトの詳細としては、
先頭に識別のためのvisual_object_start_code(図中Vi
sual Object SC)があり、続いて前述のPLIがある。そ
れ以降、ビジュアルオブジェクトの情報を表す符号であ
るis_visual_object_identifier(図中IVOI),visual_
object_verid(図中VOVID),visual_object_priority
(図中VOPRI),visual_object_type(図中VOTYPE)な
どが続き、ビジュアルオブジェクトのヘッダ情報を構成
している。ここで、visual_object_type(VOTYPE)は例え
ば、該画像が撮像された動画像である場合は"0001"であ
り、これに続いて動画像の符号化データの魂を表すビデ
オオブジェクト(VO)データが続く。
For details of the visual object,
Visual_object_start_code for identification (Vi in the figure)
sual Object SC), followed by the aforementioned PLI. Thereafter, is_visual_object_identifier (IVOI in the figure) and visual_
object_verid (VOVID in the figure), visual_object_priority
(VOPRI in the figure), visual_object_type (VOTYPE in the figure), and the like continue to form header information of the visual object. Here, visual_object_type (VOTYPE) is, for example, “0001” when the image is a captured moving image, and is followed by video object (VO) data representing the soul of the encoded data of the moving image. .

【0012】ビデオオブジェクトデータは、それぞれの
オブジェクトを表す符号化データであり、スケーラビリ
ティを実現するためのビデオオブジェクトレイヤデータ
(VOL)と、動画像の1フレームに相当するビデオオブジェ
クトプレーンデータ(VOP)がある。それぞれのヘッダ部
分には、サイズを表す符号video_object_layer_width
(図中VOL_width),video_object_layer_height(図中
VOL_height)及びvideo_object_plane_width(図中VOP_
width),video_object_plane_height(図中VOP_heigh
t)を備える。
The video object data is encoded data representing each object, and is video object layer data for realizing scalability.
(VOL) and video object plane data (VOP) corresponding to one frame of a moving image. Each header part has a code representing the size video_object_layer_width
(VOL_width in the figure), video_object_layer_height (in the figure
VOL_height) and video_object_plane_width (VOP_ in the figure)
width), video_object_plane_height (VOP_heigh in the figure)
t).

【0013】このビットストリームを復号する復号器に
おいては、PLI符号を参照することによって、復号が可
能か否かを判定することができる。即ち、以下のような
場合には復号が行なえない。
A decoder for decoding this bit stream can determine whether decoding is possible or not by referring to the PLI code. That is, decoding cannot be performed in the following cases.

【0014】例えば、Coreプロファイル・レベル1の復
号器では、Coreプロファイル・レベル2のデータであっ
て、ビットレート等の上限を超える符号化データは復号
できない。
For example, a decoder of Core profile level 1 cannot decode data of Core profile level 2 that exceeds the upper limit of the bit rate or the like.

【0015】また、Simpleプロファイル・レベル1であ
って、オブジェクトを4つ含む画像の符号化データを2つ
合成することにより、Simpleプロファイル・レベル2の
符号化データを生成することが考えられる。しかしなが
らこの場合、レベル2のオブジェクト最大数は4であるた
め、MPEG4のいずれのプロファイルやレベルにも所属し
ない符号化データが生成されてしまうことになる。従っ
て、このような符号化データを復号することはできな
い。
It is also conceivable to generate encoded data of Simple Profile Level 2 by combining two encoded data of an image which is Simple Profile Level 1 and includes four objects. However, in this case, since the maximum number of objects of level 2 is 4, encoded data that does not belong to any profile or level of MPEG4 will be generated. Therefore, such encoded data cannot be decoded.

【0016】また、例えばSimpleプロファイル48kbpsと
8kbpsの2つの符号化データ(それぞれのオブジェクト数
は2)を多重化して新しいビットストリームを生成する
と、そのビットレートが64kbpsに収まらない場合があ
る。このような場合にはレベルを2にする必要があり、
即ち、レベル1の復号器では復号できない。
Also, for example, a simple profile of 48 kbps
When multiplexing two encoded data of 8 kbps (the number of each object is 2) to generate a new bit stream, the bit rate may not be in 64 kbps. In such a case, you need to set the level to 2,
That is, decoding cannot be performed by the level 1 decoder.

【0017】以上のように、復号器の符号化仕様(プロ
ファイル及びレベル)が、符号化データの符号化仕様
(プロファイル及びレベル)を十分に包含できない場合
には、該符号化データを復号することはできなかった。
As described above, if the coding specifications (profile and level) of the decoder cannot sufficiently include the coding specifications (profile and level) of the coded data, the coded data is decoded. Could not.

【0018】本発明は上述した問題を解決するためにな
されたものであり、複数の画像情報(オブジェクト)毎
に符号化された符号化データを、任意の符号化仕様の復
号器で復号可能とするデータ処理装置及びその方法、及
びデータ処理システムを提供することを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problem, and it is intended that encoded data encoded for each of a plurality of pieces of image information (objects) can be decoded by a decoder having an arbitrary encoding specification. It is an object of the present invention to provide a data processing device and method, and a data processing system.

【0019】また、符号化データに含まれるオブジェク
ト数を調整可能なデータ処理装置及びその方法、及びデ
ータ処理システムを提供することを目的とする。
It is another object of the present invention to provide a data processing apparatus and method capable of adjusting the number of objects included in encoded data, and a data processing system.

【0020】[0020]

【課題を解決するための手段】上記目的を達成するため
の一手段として、本発明のデータ処理装置は以下の構成
を備える。
As one means for achieving the above object, the data processing apparatus of the present invention has the following arrangement.

【0021】即ち、符号化された複数の画像情報により
1つの画像を構成するデータ列を処理するデータ処理装
置であって、前記データ列中の画像情報の数を変更する
変更手段を有することを特徴とする。
That is, there is provided a data processing apparatus for processing a data sequence constituting one image by using a plurality of encoded image information, and having a changing means for changing the number of image information in the data sequence. Features.

【0022】例えば、前記変更手段は、前記データ列中
の画像情報の数を検出する検出手段を備え、前記検出手
段によって検出された画像情報の数が所定数よりも多い
場合に、画像情報数を減らすことを特徴とする。
For example, the changing means includes a detecting means for detecting the number of pieces of image information in the data string, and when the number of pieces of image information detected by the detecting means is larger than a predetermined number, the number of pieces of image information is changed. Is characterized in that

【0023】また、上記目的を達成するための一手段と
して、本発明のデータ処理システムは以下の構成を備え
る。
As one means for achieving the above object, the data processing system of the present invention has the following configuration.

【0024】即ち、複数の画像情報をそれぞれ符号化し
て1つの画像を構成するデータ列を生成する符号化手段
と、前記データ列中の画像情報の数を変更する変更手段
と、該変更された前記データ列を復号する復号手段と、
を有することを特徴とする。
That is, encoding means for encoding a plurality of pieces of image information to generate a data string constituting one image, changing means for changing the number of pieces of image information in the data string, Decoding means for decoding the data sequence;
It is characterized by having.

【0025】例えば、前記変更手段は、前記データ列中
の画像情報の数を検出する検出手段を備え、前記検出手
段によって検出された画像情報の数が前記復号手段にお
いて復号可能な画像情報数よりも多い場合に、前記デー
タ列中の画像情報数を減らすことを特徴とする。
For example, the changing means includes a detecting means for detecting the number of image information in the data string, and the number of image information detected by the detecting means is larger than the number of image information decodable by the decoding means. When the number of image information is large, the number of image information in the data string is reduced.

【0026】また、上記目的を達成するための一手法と
して、本発明のデータ処理方法は以下の工程を備える。
Further, as one technique for achieving the above object, the data processing method of the present invention includes the following steps.

【0027】即ち、符号化された複数の画像情報により
1つの画像を構成するデータ列を処理するデータ処理方
法であって、前記データ列中の画像情報の数を変更する
ことを特徴とする。
That is, a data processing method for processing a data sequence constituting one image by a plurality of encoded image information, wherein the number of image information in the data sequence is changed.

【0028】例えば、前記データ列中の画像情報の数を
検出する検出工程と、該検出された画像情報の数が所定
数よりも多い場合に、画像情報数を減らす減数工程と、
を有することを特徴とする。
For example, a detecting step of detecting the number of image information in the data sequence, a reducing step of reducing the number of image information when the number of detected image information is larger than a predetermined number,
It is characterized by having.

【0029】[0029]

【発明の実施の形態】以下、本発明に係る一実施形態に
ついて図面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the drawings.

【0030】<第1実施形態>図1は、本実施形態におけ
る動画像処理装置の概要構成を示すブロック図である。
本実施形態においては、動画像符号化方式としてMPEG4
符号化方式を用いた場合について説明する。尚、本実施
形態における符号化方式はMPEG4に限らず、画像内の複
数のオブジェクトを各々符号化することができれば、ど
のような方式であってもよい。
<First Embodiment> FIG. 1 is a block diagram showing a schematic configuration of a moving image processing apparatus according to the present embodiment.
In the present embodiment, MPEG4 is used as the moving picture coding method.
The case where the coding method is used will be described. Note that the encoding method in the present embodiment is not limited to MPEG4, but may be any method as long as a plurality of objects in an image can be respectively encoded.

【0031】図1において、201は符号化器であり、動画
像を取り込んでMPEG4符号化方式のCoreプロファイル・
レベル2による符号化を行なう。202は記憶装置であり、
符号化された動画像データを蓄積する。記憶装置202は
磁気ディスクや光磁気ディスク等で構成されており、本
装置に着脱可能であるため、他装置においても読み込む
ことができる。203は送信器であり、LANや通信回線への
送信や、さらには放送等を行う。204は受信器であり、
送信器203から出力された符号化データを受信する。205
は本発明を適用したプロファイル・レベル調整部であ
る。206はプロファイル・レベル調整部205の出力を蓄積
する記憶装置である。207は復号器であり、MPEG4符号化
方式のCoreプロファイル・レベル1による符号化データ
を復号可能とする。208は復号器207で復号された動画像
を表示する表示器である。尚、上述したように符号化器
201はCoreプロファイル・レベル2による符号化を行なう
が、説明を容易にするため、384kbpsのビットレートで
符号化するものとする。
In FIG. 1, reference numeral 201 denotes an encoder, which captures a moving image and stores a Core profile of an MPEG4 encoding method.
Perform level 2 encoding. 202 is a storage device,
The encoded moving image data is stored. The storage device 202 is constituted by a magnetic disk, a magneto-optical disk, or the like, and is detachable from the present device, so that it can be read by other devices. Reference numeral 203 denotes a transmitter, which performs transmission to a LAN or a communication line, and further performs broadcast and the like. 204 is a receiver,
The encoded data output from the transmitter 203 is received. 205
Is a profile / level adjusting unit to which the present invention is applied. Reference numeral 206 denotes a storage device that stores the output of the profile / level adjustment unit 205. Reference numeral 207 denotes a decoder that can decode encoded data according to the Core profile level 1 of the MPEG4 encoding method. Reference numeral 208 denotes a display for displaying the moving image decoded by the decoder 207. In addition, as described above, the encoder
201 performs encoding according to Core profile level 2, but for ease of explanation, it is assumed that encoding is performed at a bit rate of 384 kbps.

【0032】図15に、符号化する画像の構成例を示す。
同図における各符号は、それぞれオブジェクトを示す。
即ち、オブジェクト2000は背景、オブジェクト2001は空
中を移動する気球、オブジェクト2002は小鳥をそれぞれ
表し、また、オブジェクト2003,2004は人間を表す。
FIG. 15 shows a configuration example of an image to be encoded.
Each symbol in the figure indicates an object.
That is, the object 2000 represents a background, the object 2001 represents a balloon moving in the air, the object 2002 represents a small bird, and the objects 2003 and 2004 represent humans.

【0033】図3の(a)は、図15の画像を符号化した際の
ビットストリームを示す図であり、先頭にオブジェクト
2000〜2004の画面上での位置情報を表すオブジェクト配
置情報αが存在する。オブジェクト配置情報αは、実際
にはシーン構成情報を記述するBIFS(Binary Format for
Scene description)言語によって符号化されて、別途
多重化されている。そして、オブジェクト配置情報αに
続いて、VOSSC符号、ビジュアルオブジェクトデータα-
1,α-2,α-3、及びVOSEC符号が存在する。図3(a)に示
す符号化データは、記憶装置202に蓄積されるか、又は
送信器203を介して送出される。
FIG. 3A is a diagram showing a bit stream when the image shown in FIG. 15 is encoded.
Object arrangement information α representing position information on the screen of 2000 to 2004 exists. Object placement information α is actually a BIFS (Binary Format for
Scene description) language and multiplexed separately. Then, following the object arrangement information α, the VOSSC code, the visual object data α-
There are 1, α-2, α-3, and VOSEC codes. The encoded data shown in FIG. 3A is stored in the storage device 202 or transmitted via the transmitter 203.

【0034】この符号化データは、記憶装置202や受信
器204を介して本発明の特徴であるところのプロファイ
ル・レベル調整部205に入力される。プロファイル・レ
ベル調整部205には、復号器207の状態も入力されてい
る。
The encoded data is input to a profile / level adjusting unit 205 which is a feature of the present invention via a storage device 202 and a receiver 204. The state of the decoder 207 is also input to the profile / level adjusting unit 205.

【0035】図2は、プロファイル・レベル調整部205の
詳細構成を示すブロック図である。同図において、1は
図3(a)に示す符号化データである。2は分離器であり、
符号化データ1を、配置情報やヘッダ情報を表す符号化
データと、各オブジェクトを表す符号化データとに分離
する。3は分離された配置情報やヘッダ情報を表す符号
化データを格納するヘッダメモリである。4〜8は符号メ
モリであり、オブジェクト毎に符号化データを格納す
る。9はプロファイル・レベル抽出器であり、符号化デ
ータ1からPLI符号を抽出し、プロファイルとレベルに関
する情報を抽出する。10はオブジェクト計数器であり、
符号化データ1に含まれるオブジェクトの数を計数す
る。
FIG. 2 is a block diagram showing a detailed configuration of the profile / level adjusting unit 205. In the figure, reference numeral 1 denotes the encoded data shown in FIG. 2 is a separator,
The encoded data 1 is separated into encoded data representing arrangement information and header information, and encoded data representing each object. Reference numeral 3 denotes a header memory for storing encoded data indicating the separated arrangement information and header information. Code memories 4 to 8 store coded data for each object. Reference numeral 9 denotes a profile / level extractor, which extracts a PLI code from the encoded data 1 and extracts information on a profile and a level. 10 is an object counter,
The number of objects included in the encoded data 1 is counted.

【0036】11は復号器状態受信器であり、復号器207
の符号化仕様(プロファイル・レベル)やその他の状況
を獲得する。12はプロファイル・レベル入力器であり、
不図示の端末等により任意のプロファイルやレベルの設
定を行なう。13はプロファイル・レベル判定器であり、
プロファイル・レベル抽出器9及びオブジェクト計数器1
0の出力と、復号器状態受信器11またはプロファイル・
レベル入力器12から入力されるプロファイル・レベル情
報とを比較して、オブジェクト数の調整の必要性の有無
を判定する。
Reference numeral 11 denotes a decoder status receiver.
Get the encoding specification (profile level) and other status of 12 is a profile level input device,
An arbitrary profile or level is set by a terminal (not shown) or the like. 13 is a profile / level determiner,
Profile / level extractor 9 and object counter 1
0 output and the decoder status receiver 11 or profile
It is compared with the profile / level information input from the level input device 12 to determine whether the number of objects needs to be adjusted.

【0037】14は符号長比較器であり、符号化データ1
が入力される際に各オブジェクトの符号長を計数して比
較することにより、オブジェクトの符号長順を決定す
る。15はヘッダ変更器であり、ヘッダメモリ3に格納さ
れたヘッダ情報の内容を、プロファイル・レベル判定器
13、符号長比較器14の出力に基づいて変更する。16は多
重化器であり、ヘッダ変更器15の出力と、符号長比較器
14の比較結果に基づいて、符号メモリ4〜8から読み出さ
れる符号化データを多重化する。17はプロファイル・レ
ベル調整の結果として出力される符号化データである。
Reference numeral 14 denotes a code length comparator, which encodes data 1
Is input, the code lengths of the objects are counted and compared to determine the code length order of the objects. Reference numeral 15 denotes a header changer which converts the contents of the header information stored in the header memory 3 into a profile / level determiner.
13. Change based on the output of code length comparator 14. Reference numeral 16 denotes a multiplexer, which outputs the output of the header changer 15 and the code length comparator.
The coded data read from the code memories 4 to 8 is multiplexed on the basis of the comparison result of 14. Reference numeral 17 denotes encoded data output as a result of the profile / level adjustment.

【0038】以下、上述した構成からなるプロファイル
・レベル調整部205における処理について、詳細に説明
する。
Hereinafter, the processing in the profile / level adjusting unit 205 having the above configuration will be described in detail.

【0039】符号化データ1は、分離器2とプロファイル
・レベル抽出器9、オブジェクト計数器10、符号長比較
器14に入力される。分離器2は、符号化データ1を配置情
報やヘッダ情報を表す符号化データと、各オブジェクト
を表す符号化データとに分離し、それぞれの符号化デー
タはヘッダメモリ3と、符号メモリ4〜8に格納される。
例えば、ヘッダメモリ3には、図3(a)に示すオブジェク
ト配置情報α,VOSSC符号,Visual Object SC符号,vis
ual_object_start_code符号,VOデータAの直前までの各
符号,及び図19に示したVOLやVOPのヘッダ情報等が格納
される。また、符号メモリ4〜8には、各オブジェクト毎
にヘッダ情報が取り除かれたVOLデータ及びVOPデータが
格納される。これらはヘッダを除去した部分がわかるよ
うに、個別に格納されている。例えば、図15に示す画像
においてオブジェクトは5つあるので、オブジェクト200
0〜2004の符号化データ(図3(a)中のVOデータA〜E)
は、それぞれ符号メモリ4〜8に格納される。
The coded data 1 is input to a separator 2, a profile / level extractor 9, an object counter 10, and a code length comparator 14. The separator 2 separates the encoded data 1 into encoded data representing arrangement information and header information, and encoded data representing each object, and each encoded data is divided into a header memory 3 and code memories 4 to 8. Is stored in
For example, the header memory 3 stores the object arrangement information α, VOSSC code, Visual Object SC code, vis
The ual_object_start_code code, each code immediately before the VO data A, the header information of VOL and VOP shown in FIG. 19, and the like are stored. The code memories 4 to 8 store VOL data and VOP data from which header information has been removed for each object. These are stored individually so that the portion from which the header has been removed can be seen. For example, since there are five objects in the image shown in FIG.
Coded data from 0 to 2004 (VO data A to E in Fig. 3 (a))
Are stored in the code memories 4 to 8, respectively.

【0040】同時に、オブジェクト計数器10は、符号化
データ1に含まれているオブジェクトの数を計数する。
そして符号長比較器14は、各オブジェクトの符号長を計
数する。
At the same time, the object counter 10 counts the number of objects included in the encoded data 1.
Then, the code length comparator 14 counts the code length of each object.

【0041】プロファイル・レベル抽出器9は、符号化
データ1からPLI_αを抽出し、復号して符号化データ1の
プロファイル及びレベルに関する情報を抽出する。そし
て、抽出と同時に復号器状態受信器11を動作させ、復号
器207において復号可能なプロファイルやレベル等の情
報を獲得する。これらの情報は、プロファイル・レベル
入力器12を介してユーザによって設定することも可能で
ある。
The profile / level extractor 9 extracts PLI_α from the encoded data 1 and decodes it to extract information on the profile and level of the encoded data 1. Then, the decoder status receiver 11 is operated at the same time as the extraction, and information such as a profile and a level that can be decoded by the decoder 207 is obtained. These pieces of information can be set by the user via the profile / level input device 12.

【0042】プロファイル・レベル判定器13は、上述し
たようにして獲得されたプロファイル及びレベル情報
と、プロファイル・レベル抽出器9の抽出結果とを比較
し、獲得されたプロファイル及びレベルが、符号化デー
タ1から抽出されたプロファイル及びレベルよりも上位
または同じであれば、ヘッダ変更器15は動作させず、
ヘッダメモリ3、符号メモリ4〜8の内容を入力された符
号化データを順に読み出し、多重化器16で多重化して符
号化データ17を生成する。即ち、この場合の符号化デー
タ17の内容は、符号化データ1の内容と同じである。
The profile / level determiner 13 compares the profile and level information obtained as described above with the extraction result of the profile / level extractor 9 and determines whether the obtained profile and level are encoded data. If it is higher or equal to the profile and level extracted from 1, the header changer 15 does not operate,
The coded data input from the contents of the header memory 3 and the code memories 4 to 8 are sequentially read and multiplexed by the multiplexer 16 to generate coded data 17. That is, the contents of the encoded data 17 in this case are the same as the contents of the encoded data 1.

【0043】一方、プロファイル・レベル判定器13にお
ける比較の結果、獲得されたプロファイル及びレベル
が、符号化データ1から抽出されたプロファイル及びレ
ベルよりも下位あれば、オブジェクト計数器10から符号
化データ1に含まれるオブジェクトの数を入力し、該オ
ブジェクト数を、復号器状態受信器11やプロファイル・
レベル入力器12で獲得されたプロファイル及びレベルか
ら判定される復号可能なオブジェクト数と比較する。
On the other hand, if the profile and level obtained as a result of the comparison in the profile / level determiner 13 are lower than the profile and level extracted from the encoded data 1, the object counter 10 outputs the encoded data 1 and Input the number of objects included in the
A comparison is made with the number of decodable objects determined from the profile and the level acquired by the level input device 12.

【0044】そして、オブジェクト計数器10で得られた
オブジェクト数が復号可能なオブジェクト数以下であれ
ば、上述した、獲得されたプロファイル及びレベルが符
号化データ1よりも上位または同じである場合と同様
に、符号化データ17を生成する。
If the number of objects obtained by the object counter 10 is equal to or less than the number of decodable objects, the same as in the case where the obtained profile and level are higher or the same as the coded data 1 described above. Then, the encoded data 17 is generated.

【0045】一方、オブジェクト計数器10で得られたオ
ブジェクト数が復号可能なオブジェクト数よりも大きけ
れば、復号可能なオブジェクト数を符号長比較器14に入
力し、符号長比較機能を動作させる。符号長比較器14に
おいては、符号化データ1が有する複数のオブジェクト
を、符号長の大きい順に、復号すべきオブジェクトとし
て設定する。即ち、符号長の大きいオブジェクトから順
次、復号可能となるようにする。例えば図3(a)において
は、各ビデオオブジェクトの符号長が、VOデータA,VO
データD,VOデータC,VOデータE,VOデータBの順である
とする。ここで復号器207においては、Coreプロファイ
ル・レベル1による復号を行なうため、オブジェクト数
が4つまでは復号が可能である。従って図3(a)の場合に
は、4つのオブジェクト、即ち、VOデータBを除く4つの
オブジェクトが復号可能であることが分かる。従って、
符号長比較器14は、VOデータBが格納されている符号メ
モリ5の読み出しを不可とし、それ以外の符号メモリ4,
6,7,8を読み出し可能とする。
On the other hand, if the number of objects obtained by the object counter 10 is larger than the number of decodable objects, the number of decodable objects is input to the code length comparator 14 to operate the code length comparison function. In the code length comparator 14, a plurality of objects included in the encoded data 1 are set as objects to be decoded in descending order of the code length. That is, decoding is enabled sequentially from the object having the largest code length. For example, in FIG. 3A, the code length of each video object is VO data A, VO data
It is assumed that the order is data D, VO data C, VO data E, and VO data B. Here, in the decoder 207, decoding is performed according to Core profile level 1, so that decoding can be performed up to four objects. Therefore, in the case of FIG. 3A, it can be seen that four objects, that is, four objects except the VO data B can be decoded. Therefore,
The code length comparator 14 disables reading of the code memory 5 storing the VO data B, and the other code memories 4,
6, 7, and 8 can be read.

【0046】そしてプロファイル・レベル判定器13はヘ
ッダ変更器15を動作させ、PLIの内容を復号器207に合わ
せて変更して符号化し、符号長比較器14による比較結果
に基づいて、復号器207において復号されない(廃棄さ
れる)オブジェクト(この場合、VOデータB)に関するヘ
ッダ情報を削除する。即ち、符号化データ1のヘッダ情
報を、復号器207における復号能力、または入力された
プロファイル及びレベルに適合した内容に置換える。そ
して更にオブジェクト配置情報αから、廃棄されたオブ
ジェクト(VOデータB)に対応するオブジェクト2002に関
する配置情報を削除して、新たなオブジェクト配置情報
βを生成する。
The profile / level judging unit 13 operates the header changing unit 15 to change and encode the contents of the PLI in accordance with the decoding unit 207, and based on the comparison result by the code length comparing unit 14, decodes the PLI. Deletes the header information relating to the object that is not decrypted (discarded) (VO data B in this case). That is, the header information of the encoded data 1 is replaced with the content suitable for the decoding capability of the decoder 207 or the input profile and level. Further, from the object arrangement information α, the arrangement information relating to the object 2002 corresponding to the discarded object (VO data B) is deleted, and new object arrangement information β is generated.

【0047】そして、ヘッダ変更器15及び符号メモリ
4,6,7,8の内容を、入力された順に読み出し、多重化
器16で多重化して符号化データ17を生成する。この時の
符号化データ17のビットストリームを、図3(b)に示す。
図3(b)によれば、新たに生成されたオブジェクト配置情
報βに続いて、VOSSC符号、ビジュアルオブジェクトデ
ータβ-1,β-2,β-3、及びVOSEC符号が存在する。こ
のビジュアルオブジェクトデータβ-1,β-2,β-3は、
図3(a)に示す元のビジュアルオブジェクトデータα-1,
α-2,α-3に対して、オブジェクト数の調整を施したも
のである。例えばビジュアルオブジェクトデータβ-1
は、Visual Object SC符号に続き、復号器207に適した
プロファイル・レベルを表すPLI_β、及び、オブジェク
ト2002に関する符号化データ(VOデータB)が削除された
符号により構成されている。
The header changer 15 and the code memory
The contents of 4, 6, 7, and 8 are read out in the order of input, and multiplexed by a multiplexer 16 to generate encoded data 17. The bit stream of the encoded data 17 at this time is shown in FIG.
According to FIG. 3B, the VOSSC code, the visual object data β-1, β-2, β-3, and the VOSEC code exist after the newly generated object arrangement information β. These visual object data β-1, β-2, β-3 are
The original visual object data α-1, shown in FIG.
The number of objects is adjusted for α-2 and α-3. For example, visual object data β-1
Is composed of a Visual Object SC code, PLI_β representing a profile level suitable for the decoder 207, and a code from which encoded data (VO data B) relating to the object 2002 has been deleted.

【0048】このようにして得られた符号化データ17
は、記憶装置206に格納されたり、又は復号器207で復号
されて表示器208で表示される。図16に、符号化データ1
7を復号して表示した画像を示す。同図によれば、図15
に示す符号化対象画像において小鳥を示していたオブジ
ェクト2002が、削除されていることが分かる。
The coded data 17 thus obtained is
Is stored in the storage device 206 or decoded by the decoder 207 and displayed on the display 208. FIG. 16 shows encoded data 1
7 shows an image decoded and displayed. According to FIG.
It can be seen that the object 2002 indicating a small bird in the encoding target image shown in FIG.

【0049】尚、符号長比較器14においては、符号化デ
ータ1から直接符号長を計数するとして説明したが、符
号メモリ4〜8に格納された符号化データに基づいて符号
長を計数しても良い。
The code length comparator 14 has been described as counting the code length directly from the coded data 1. However, the code length is calculated based on the coded data stored in the code memories 4 to 8. Is also good.

【0050】以上説明したように本実施形態によれば、
符号器と復号器において符号化仕様(プロファイルやレ
ベル)が異なる場合においても、符号化データの復号が
可能になる。また、符号長の最も短いオフジェクトデー
タを破棄することにより、破棄するオブジェクトの選択
を容易とし、復号後の画像に与える影響を極力抑制する
ことが可能になる。
As described above, according to the present embodiment,
Even when the encoding specifications (profiles and levels) are different between the encoder and the decoder, decoding of the encoded data becomes possible. Further, by discarding the object data having the shortest code length, it becomes easy to select the object to be discarded, and it is possible to minimize the influence on the decoded image.

【0051】さらに、復号器207で復号可能なオブジェ
クト数が、符号化データ1の符号化仕様で規定されてい
る数よりも少ない場合においても、復号器状態受信器11
によって実際に復号可能なオブジェクト数を獲得するこ
とによって、同様な効果が得られる。
Further, even when the number of objects that can be decoded by the decoder 207 is smaller than the number specified in the coding specification of the coded data 1, the decoder state receiver 11
The same effect can be obtained by obtaining the number of objects that can be actually decoded.

【0052】加えて、復号器207の符号化仕様以上のビ
ットレートの符号化仕様を有する符号化データが入力さ
れた場合でも、ビットレートを下げるようにオブジェク
トを破棄することによって、復号器207における復号が
可能となる。
In addition, even when coded data having a coding rate higher than the coding specification of the decoder 207 is input, the object is discarded so as to reduce the bit rate. Decryption becomes possible.

【0053】<第2実施形態>以下、本発明に係る第2実
施形態について説明する。
<Second Embodiment> Hereinafter, a second embodiment according to the present invention will be described.

【0054】尚、第2実施形態における動画像処理装置
の概要構成は、上述した第1実施形態の図1と同様である
ため、説明を省略する。
Note that the schematic configuration of the moving image processing apparatus according to the second embodiment is the same as that of the above-described first embodiment shown in FIG.

【0055】図4は、第2実施形態におけるプロファイル
・レベル調整部205の詳細構成を示すブロック図であ
る。図4において、第1実施形態の図2と同様の構成には
同一番号を付し、説明を省略する。第2実施形態におい
ては、動画像符号化方式としてMPEG4符号化方式を用い
た場合について説明するが、画像内の複数のオブジェク
トを各々符号化することができれば、どのような符号化
方式でも適用可能である。
FIG. 4 is a block diagram showing a detailed configuration of the profile / level adjusting unit 205 in the second embodiment. 4, the same components as those in FIG. 2 of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. In the second embodiment, a case will be described in which an MPEG4 encoding method is used as a moving image encoding method, but any encoding method can be applied as long as a plurality of objects in an image can be encoded respectively. It is.

【0056】図4において、18はヘッダメモリ3から各オ
ブジェクトのサイズを抽出して比較するサイズ比較器で
ある。
In FIG. 4, reference numeral 18 denotes a size comparator for extracting the size of each object from the header memory 3 and comparing them.

【0057】第1実施形態と同様に、符号化データ1は分
離器2とプロファイル・レベル抽出器9,オブジェクト計
数器10,及び符号長比較器14に入力され、各符号化デー
タがヘッダメモリ3,符号メモリ4〜8に格納される。同
時に、オブジェクト計数器10は符号化データに含まれて
いるオブジェクトの数を計数する。
As in the first embodiment, the encoded data 1 is input to a separator 2, a profile / level extractor 9, an object counter 10, and a code length comparator 14, and each encoded data is stored in a header memory 3. , Are stored in the code memories 4 to 8. At the same time, the object counter 10 counts the number of objects included in the encoded data.

【0058】サイズ比較器18は、各オブジェクトごとの
サイズを抽出する。ここで、各オブジェクトのサイズ
は、図19に示した符号化データのビットストリーム構成
に示すVOL_width,VOL-heightの各符号を抽出し、復号
することによって得られる。
The size comparator 18 extracts the size of each object. Here, the size of each object is obtained by extracting and decoding each code of VOL_width and VOL-height shown in the bit stream configuration of the encoded data shown in FIG.

【0059】そして第1実施形態と同様に、プロファイ
ル・レベル抽出器9は符号化データ1からプロファイルと
レベルに関する情報を抽出し、同時に復号器状態受信器
11から復号器207のプロファイル及びレベル等の情報を
獲得するか、又はプロファイル・レベル入力器12からユ
ーザによってプロファイル及びレベルが設定される。
Then, as in the first embodiment, the profile / level extractor 9 extracts information on the profile and the level from the encoded data 1, and at the same time, the decoder status receiver
Information such as the profile and level of the decoder 207 is obtained from 11 or the profile and level are set by the user from the profile / level input unit 12.

【0060】プロファイル・レベル判定器13は、上述し
たようにして獲得されたプロファイル及びレベル情報
と、プロファイル・レベル抽出器9の抽出結果とを比較
し、獲得されたプロファイル及びレベルが符号化データ
1から抽出されたプロファイル及びレベルよりも上位ま
たは同じであれば、ヘッダ変更器15は動作させず、符号
化データ1と同様の符号化データ17を生成する。
The profile / level determiner 13 compares the profile and level information obtained as described above with the extraction result of the profile / level extractor 9 and determines whether the obtained profile and level are encoded data.
If it is higher or equal to the profile and level extracted from 1, the header changer 15 is not operated, and the same encoded data 17 as the encoded data 1 is generated.

【0061】一方、プロファイル・レベル判定器13にお
ける比較の結果、獲得されたプロファイル及びレベル
が、符号化データ1から抽出されたプロファイル及びレ
ベルよりも下位あれば、オブジェクト計数器10から符号
化データ1に含まれるオブジェクトの数を入力し、該オ
ブジェクト数を、復号器状態受信器11やプロファイル・
レベル入力器12で獲得されたプロファイル及びレベルか
ら判定される復号可能なオブジェクト数と比較する。
On the other hand, if the profile and level obtained as a result of the comparison by the profile / level determiner 13 are lower than the profile and level extracted from the encoded data 1, the object counter 10 outputs the encoded data 1 Input the number of objects included in the
A comparison is made with the number of decodable objects determined from the profile and the level acquired by the level input device 12.

【0062】そして、オブジェクト計数器10で得られた
オブジェクト数が復号可能なオブジェクト数以下であれ
ば、上述した、獲得されたプロファイル及びレベルが符
号化データ1よりも上位または同じである場合と同様
に、符号化データ17を生成する。
If the number of objects obtained by the object counter 10 is equal to or less than the number of decodable objects, the same as in the case where the obtained profile and level are higher or the same as the coded data 1 described above. Then, the encoded data 17 is generated.

【0063】一方、オブジェクト計数器10で得られたオ
ブジェクト数が復号可能なオブジェクト数よりも大きけ
れば、復号可能なオブジェクト数をサイズ比較器18に入
力し、サイズ比較機能を動作させる。サイズ比較器18に
おいては、符号化データ1が有する複数のオブジェクト
を、サイズの大きい順に、復号すべきオブジェクトとし
て設定する。即ち、サイズの大きいオブジェクトから順
次、復号可能となるようにする。例えば図15における各
オブジェクトのサイズは、オブジェクト2000,2004,20
01,2003,2002の順に大きい。ここで復号器207におい
ては、Coreプロファイル・レベル1による復号を行なう
ため、オブジェクト数が4つまでは復号が可能である。
従って図15に示す画像の場合には、もっとも小さいオブ
ジェクト2002を除けば、残り4つのオブジェクトが復号
可能であることが分かる。従って、サイズ比較器18は、
オブジェクト2002の符号化データが格納されている符号
メモリ5の読み出しを不可とし、それ以外の符号メモリ
4,6,7,8を読み出し可能とする。
On the other hand, if the number of objects obtained by the object counter 10 is larger than the number of decodable objects, the number of decodable objects is input to the size comparator 18 to operate the size comparison function. The size comparator 18 sets a plurality of objects included in the encoded data 1 as objects to be decoded in descending order of size. That is, decoding can be performed sequentially from the object having the largest size. For example, the size of each object in FIG.
01, 2003, 2002 in order. Here, in the decoder 207, decoding is performed according to Core profile level 1, so that decoding can be performed up to four objects.
Therefore, in the case of the image shown in FIG. 15, it can be seen that the remaining four objects can be decoded except for the smallest object 2002. Therefore, the size comparator 18
Reading of the code memory 5 storing the encoded data of the object 2002 is disabled, and the other code memories are not read.
4, 6, 7, and 8 can be read.

【0064】そして第1実施形態と同様に、プロファイ
ル・レベル判定器13はヘッダ変更器15を動作させ、PLI
の内容を復号器207に合わせて変更して符号化し、更
に、サイズ比較器18による比較結果に基づいて、復号器
207において復号されない(廃棄される)オブジェクト
(この場合、オブジェクト2002)に関するヘッダ情報を削
除する。そして更にオブジェクト配置情報αから、廃棄
されたオブジェクト2002に関する配置情報を削除して、
新たなオブジェクト配置情報βを生成する。
Then, as in the first embodiment, the profile / level judging unit 13 operates the header changing unit 15 to
Is changed according to the content of the decoder 207 and encoded, and based on the comparison result by the size comparator 18, the
Objects not decrypted (discarded) at 207
The header information on (in this case, the object 2002) is deleted. Then, further delete the arrangement information on the discarded object 2002 from the object arrangement information α,
Generate new object arrangement information β.

【0065】そして、ヘッダ変更器15及び符号メモリ
4,6,7,8の内容を、入力された順に読み出し、多重化
器16で多重化して符号化データ17を生成する。この時の
符号化データ17のビットストリームは、図3(b)に示す通
りである。
The header changer 15 and the code memory
The contents of 4, 6, 7, and 8 are read out in the order of input, and multiplexed by a multiplexer 16 to generate encoded data 17. The bit stream of the encoded data 17 at this time is as shown in FIG.

【0066】このようにして得られた符号化データ17
は、記憶装置206に格納されたり、又は復号器207で復号
されて、図16に示すような画像として表示器208に表示
される。
The coded data 17 thus obtained
Is stored in the storage device 206 or decoded by the decoder 207 and displayed on the display 208 as an image as shown in FIG.

【0067】また、サイズ比較器18においては、符号化
データ1のVOL_width,VOL_height符号に基づいてオブジ
ェクトのサイズを抽出するとして説明したが、VOP_widt
h,VOP_height符号により抽出しても構わないし、実際
に形状(マスク)情報を表す符号化データを復号して得ら
れた形状(マスク)情報に基づいて、オブジェクトサイズ
を抽出しても良い。
Also, the size comparator 18 has been described as extracting the size of the object based on the VOL_width and VOL_height codes of the encoded data 1, but the VOP_widt
The object size may be extracted based on h, VOP_height codes, or based on shape (mask) information obtained by decoding encoded data that actually represents shape (mask) information.

【0068】以上説明したように第2実施形態によれ
ば、符号器と復号器において符号化仕様が異なる場合に
おいても、符号化データの復号が可能になる。また、オ
ブジェクトサイズの最も小さいオフジェクトデータを破
棄することにより、破棄するオブジェクトの選択を容易
とし、復号後の画像に与える影響を極力抑制することが
可能になる。
As described above, according to the second embodiment, it is possible to decode encoded data even when encoding specifications differ between an encoder and a decoder. Further, by discarding the object data having the smallest object size, it becomes easy to select the object to be discarded, and it is possible to minimize the influence on the decoded image.

【0069】尚、第1及び第2実施形態においては、1つ
のオブジェクトを廃棄する例について説明したが、もち
ろん2つ以上のオブジェクトを廃棄することも可能であ
る。また、廃棄するオブジェクトを、ユーザが直接指定
可能なように構成することも可能である。
In the first and second embodiments, an example has been described in which one object is discarded. However, it is of course possible to discard two or more objects. It is also possible to configure so that the user can directly specify the object to be discarded.

【0070】また、プロファイル・レベル入力器12によ
って、予め画像のオブジェクト毎に廃棄の順番を設定し
ておくことも可能である。
The order of discarding can be set in advance by the profile / level input unit 12 for each object of the image.

【0071】<第3実施形態>以下、本発明に係る第3実
施形態について説明する。
<Third Embodiment> Hereinafter, a third embodiment according to the present invention will be described.

【0072】尚、第3実施形態における動画像処理装置
の概要構成は、上述した第1実施形態の図1と同様である
ため、説明を省略する。
The schematic configuration of the moving picture processing apparatus according to the third embodiment is the same as that of the above-described first embodiment shown in FIG.

【0073】図5は、第3実施形態におけるプロファイル
・レベル調整部205の詳細構成を示すブロック図であ
る。図5において、第1実施形態の図2と同様の構成には
同一番号を付し、説明を省略する。第3実施形態におい
ては、動画像符号化方式としてMPEG4符号化方式を用い
た場合について説明するが、画像内の複数のオブジェク
トを各々符号化することができれば、どのような符号化
方式でも適用可能である。
FIG. 5 is a block diagram showing a detailed configuration of the profile / level adjusting unit 205 in the third embodiment. 5, the same components as those in FIG. 2 of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted. In the third embodiment, a case will be described in which an MPEG4 encoding method is used as a moving image encoding method, but any encoding method can be applied as long as a plurality of objects in an image can be encoded respectively. It is.

【0074】図5において、20はオブジェクト選択指示
器であり、複数のオブジェクトを表示し、ユーザによっ
て任意のオブジェクトの選択及び指示が入力される。21
はオブジェクト選択器であり、オブジェクト選択指示器
20からの指示と、プロファイル・レベル判定器13におけ
る判定結果に基づいて、実際に処理対象となるオブジェ
クトの符号化データを選択するオブジェクト選択器であ
る。22,24はセレクタであり、オブジェクト選択器21に
よって制御され、入出力を切り替える。23は複数のオブ
ジェクトを統合するオブジェクト統合器である。25は入
力される符号化データを多重化する多重化器である。
In FIG. 5, reference numeral 20 denotes an object selection indicator, which displays a plurality of objects, and allows the user to select and specify an arbitrary object. twenty one
Is an object selector, and an object selection indicator
An object selector for selecting coded data of an object to be actually processed based on an instruction from 20 and a determination result of the profile / level determiner 13. Reference numerals 22 and 24 denote selectors, which are controlled by the object selector 21 and switch between input and output. An object integrator 23 integrates a plurality of objects. Reference numeral 25 denotes a multiplexer for multiplexing the input encoded data.

【0075】上述した第1実施形態と同様に、符号化デ
ータ1は、分離器2とプロファイル・レベル抽出器9、オ
ブジェクト計数器10に入力される。分離器2は、符号化
データ1を配置情報やヘッダ情報を表す符号化データ
と、各オブジェクトを表す符号化データとに分離し、そ
れぞれの符号化データはヘッダメモリ3と、符号メモリ4
〜8に格納される。同時に、オブジェクト計数器10は、
符号化データ1に含まれているオブジェクトの数を計数
する。
As in the first embodiment, the encoded data 1 is input to the separator 2, the profile / level extractor 9, and the object counter 10. The separator 2 separates the encoded data 1 into encoded data representing arrangement information and header information and encoded data representing each object, and the encoded data is divided into a header memory 3 and a code memory 4.
Stored in ~ 8. At the same time, the object counter 10
The number of objects included in the encoded data 1 is counted.

【0076】そして第1実施形態と同様に、プロファイ
ル・レベル抽出器9は符号化データ1からプロファイルと
レベルに関する情報を抽出し、同時に復号器状態受信器
11から復号器207のプロファイル及びレベル等の情報を
獲得するか、又はプロファイル・レベル入力器12からユ
ーザによってプロファイル及びレベルが設定される。
As in the first embodiment, the profile / level extractor 9 extracts information on the profile and the level from the encoded data 1, and at the same time, the decoder status receiver
Information such as the profile and level of the decoder 207 is obtained from 11 or the profile and level are set by the user from the profile / level input unit 12.

【0077】プロファイル・レベル判定器13は、上述し
たようにして獲得されたプロファイル及びレベル情報
と、プロファイル・レベル抽出器9の抽出結果とを比較
し、獲得されたプロファイル及びレベルが符号化データ
1から抽出されたプロファイル及びレベルよりも上位ま
たは同じであれば、オブジェクト選択器21はセレクタ22
及び24を直結する経路を選択する。即ち、符号化データ
がオブジェクト統合器23を通過しないようにする。そし
て、ヘッダ変更器15を動作させずに、ヘッダメモリ3、
符号メモリ4〜8に格納された符号化データを入力された
順に読み出して多重化器25で多重化することにより、符
号化データ1と同様の符号化データ26を生成する。
The profile / level judging unit 13 compares the profile and level information obtained as described above with the extraction result of the profile / level extractor 9 and determines whether the obtained profile and level are encoded data.
If it is higher or equal to the profile and level extracted from 1, the object selector 21 selects the selector 22
And the path directly connecting 24. That is, the encoded data is prevented from passing through the object integrator 23. Then, without operating the header changer 15, the header memory 3,
The coded data stored in the code memories 4 to 8 are read out in the order of input and multiplexed by the multiplexer 25 to generate coded data 26 similar to the coded data 1.

【0078】一方、プロファイル・レベル判定器13にお
ける比較の結果、獲得されたプロファイル及びレベル
が、符号化データ1から抽出されたプロファイル及びレ
ベルよりも下位あれば、オブジェクト計数器10から符号
化データ1に含まれるオブジェクトの数を入力し、該オ
ブジェクト数を、復号器状態受信器11やプロファイル・
レベル入力器12で獲得されたプロファイル及びレベルか
ら判定される復号可能なオブジェクト数と比較する。
On the other hand, if the profile and level obtained as a result of the comparison by the profile / level judging unit 13 are lower than the profile and level extracted from the encoded data 1, the object counter 10 sends the encoded data 1 Input the number of objects included in the
A comparison is made with the number of decodable objects determined from the profile and the level acquired by the level input device 12.

【0079】そして、オブジェクト計数器10で得られた
オブジェクト数が復号可能なオブジェクト数以下であれ
ば、上述した、獲得されたプロファイル及びレベルが符
号化データ1よりも上位または同じである場合と同様
に、符号化データ26を生成する。
If the number of objects obtained by the object counter 10 is equal to or less than the number of decodable objects, the same as in the case where the obtained profile and level are higher or the same as the coded data 1 described above. Then, the encoded data 26 is generated.

【0080】一方、オブジェクト計数器10で得られたオ
ブジェクト数が復号可能なオブジェクト数よりも大きけ
れば、復号可能なオブジェクト数をオブジェクト選択器
21に入力する。オブジェクト選択器21は、各オブジェク
トの状態(例えば図15に示す画像)や、各オブジェクト
に関する情報、及び統合するオブジェクト数等の情報
を、オブジェクト選択指示器20に表示する。ユーザはこ
れらの情報に従って、統合処理を行うオブジェクトを選
定し、その指示をオブジェクト選択指示器20に与える。
On the other hand, if the number of objects obtained by the object counter 10 is larger than the number of decodable objects, the number of decodable objects is
Enter 21. The object selector 21 displays the state of each object (for example, the image shown in FIG. 15), information on each object, and information such as the number of objects to be integrated on the object selection indicator 20. The user selects an object to be integrated according to the information, and gives an instruction to the object selection indicator 20.

【0081】ここで、第3実施形態における復号器207は
Coreプロファイル・レベル1による復号を行なうため、
復号可能なオブジェクト数は4つまでである。従って、
例えば図15に示す画像は5つのオブジェクトを有するた
め、そのうちの2つを統合して1つのオブジェクトとする
ことにより、復号器207において復号可能な符号化デー
タを得ることができる。以下、図15に示す画像において
オブジェクト2003とオブジェクト2004を統合することを
ユーザが指示した場合を例として、以下に説明する。
Here, the decoder 207 in the third embodiment is
In order to perform decoding by Core profile level 1,
The number of objects that can be decrypted is up to four. Therefore,
For example, since the image shown in FIG. 15 has five objects, by combining two of them into one object, encoded data that can be decoded by the decoder 207 can be obtained. Hereinafter, an example in which the user instructs to integrate the object 2003 and the object 2004 in the image illustrated in FIG. 15 will be described.

【0082】ユーザにより、オブジェクト選択指示器20
を介して統合対象のオブジェクトが指示されると、プロ
ファイル・レベル判定器13はヘッダ変更器15を動作さ
せ、PLIの内容を復号器207に合わせて変更して、更にオ
ブジェクト選択器21による選択結果に基づいて、統合し
て得られる新たなオブジェクトに関するヘッダ情報の生
成、及び統合により廃棄されるオブジェクトに関するヘ
ッダ情報の削除を行なう。具体的には、オブジェクト20
03及び2004のオブジェクト配置情報に基づいて、統合結
果として得られる新たなオブジェクトの配置情報を生成
し、元のオブジェクト2003及び2004のオブジェクト配置
情報を削除する。そして、オブジェクト2003及び2004の
ヘッダ情報に基づいて、統合して得られるオブジェクト
の大きさやその他の情報をヘッダ情報として生成し、元
のオブジェクト2003及び2004のヘッダ情報を削除する。
The user selects the object selection indicator 20
When the object to be integrated is specified via the, the profile / level determiner 13 operates the header changer 15 to change the contents of the PLI according to the decoder 207, and further selects the result of the selection by the object selector 21. , Header information relating to a new object obtained by integration and deletion of header information relating to an object discarded by integration are performed. Specifically, object 20
Based on the object arrangement information of 03 and 2004, new object arrangement information obtained as a result of integration is generated, and the original object 2003 and 2004 object arrangement information is deleted. Then, based on the header information of the objects 2003 and 2004, the size and other information of the object obtained by integration are generated as header information, and the header information of the original objects 2003 and 2004 is deleted.

【0083】オブジェクト選択器21は、オブジェクト20
03及び2004の符号化データに関してはオブジェクト統合
器23において後述する統合処理を行い、その他の符号化
データに関してはオブジェクト統合器23を介さないよう
に、セレクタ22,24の入出力を制御する。
The object selector 21 selects the object 20
For the encoded data of 03 and 2004, the object integrator 23 performs an integration process described later, and for the other encoded data, the input / output of the selectors 22 and 24 is controlled so as not to pass through the object integrator 23.

【0084】そして、ヘッダ変更器15及びオブジェクト
2000〜2002の符号化データを格納した符号メモリ4,5,
6の内容を入力された順に読み出し、セレクタ22,24を
介して多重化器25で多重化する。一方、統合対象である
オブジェクト2003,2004の符号データを格納した符号メ
モリ7,8の内容は、セレクタ22を介してオブジェクト統
合器23に入力される。
Then, the header changer 15 and the object
Code memories 4, 5, which store coded data of 2000 to 2002
The contents of 6 are read out in the input order and multiplexed by the multiplexer 25 via the selectors 22 and 24. On the other hand, the contents of the code memories 7 and 8 storing the code data of the objects 2003 and 2004 to be integrated are input to the object integrator 23 via the selector 22.

【0085】図6は、オブジェクト統合器23の詳細構成
を示すブロック図である。同図において、50,51は符号
メモリであり、統合するオブジェクトの符号化データを
それぞれ格納する。52,54はセレクタであり、オブジェ
クト毎に入出力を切り替える。53はオブジェクト復号器
であり、符号化データを復号し、オブジェクトの画像を
再生する。55,56はフレームメモリであり、再生された
画像をオブジェクト毎に格納する。57は合成器であり、
ヘッダメモリ3に格納されている統合対象のオブジェク
トの配置情報に従って、オブジェクトを合成する。58は
オブジェクト符号化器であり、合成して得られた画像デ
ータを符号化して出力する。
FIG. 6 is a block diagram showing a detailed configuration of the object integrator 23. In the figure, reference numerals 50 and 51 denote code memories which store coded data of objects to be integrated. 52 and 54 are selectors, which switch input and output for each object. An object decoder 53 decodes encoded data and reproduces an object image. Reference numerals 55 and 56 denote frame memories for storing reproduced images for each object. 57 is a synthesizer,
The objects are synthesized according to the arrangement information of the objects to be integrated stored in the header memory 3. An object encoder 58 encodes and outputs the image data obtained by the synthesis.

【0086】以下、オブジェクト統合器23の動作につい
て詳細に説明する。符号メモリ50,51には、それぞれ統
合対象であるオブジェクト2003,2004の符号化データが
格納される。まず、セレクタ52は符号メモリ50側の入力
を選択し、セレクタ54はフレームメモリ55側の出力を選
択する。その後、符号メモリ50から符号化データが読み
出され、オブジェクト復号器53で復号された後、セレク
タ54を介してフレームメモリ55にオブジェクト2003の画
像情報が書き込まれる。このオブジェクト2003の画像デ
ータは、カラー画像を表す画像データと形状を表すマス
ク情報からなる。続いて、セレクタ52,54の入出力をそ
れぞれ他方側に切り替えて同様の処理を行なうことによ
り、オブジェクト2004の画像情報をフレームメモリ56に
格納する。
Hereinafter, the operation of the object integrator 23 will be described in detail. The coded memories 50 and 51 store coded data of the objects 2003 and 2004 to be integrated, respectively. First, the selector 52 selects an input on the code memory 50 side, and the selector 54 selects an output on the frame memory 55 side. Thereafter, the encoded data is read from the code memory 50 and decoded by the object decoder 53, and then the image information of the object 2003 is written to the frame memory 55 via the selector 54. The image data of the object 2003 includes image data representing a color image and mask information representing a shape. Subsequently, the input / output of the selectors 52 and 54 is switched to the other side, and the same processing is performed, so that the image information of the object 2004 is stored in the frame memory 56.

【0087】合成器57は、ヘッダメモリ3からオブジェ
クト2003,2004の位置情報及びサイズ情報を取得して、
統合後の新たなオブジェクトのサイズ、該新たなオブジ
ェクト内における元のオブジェクト2003,2004のそれぞ
れの相対位置を求めることができる。そして、フレーム
メモリ55,56の情報を読み出し、カラー画像情報とマス
ク情報のそれぞれを合成する。カラー画像情報の合成結
果を図9に示し、マスク情報の合成結果を図10に示す。
これらのカラー画像情報及びマスク情報は、オブジェク
ト符号化器58においてMPEG4のオブジェクト符号化方式
に従って符号化された後、オブジェクト統合器23から出
力される。
The synthesizer 57 acquires the position information and the size information of the objects 2003 and 2004 from the header memory 3, and
The size of the new object after integration and the relative positions of the original objects 2003 and 2004 in the new object can be obtained. Then, the information in the frame memories 55 and 56 is read, and the color image information and the mask information are combined. FIG. 9 shows the synthesis result of the color image information, and FIG. 10 shows the synthesis result of the mask information.
These color image information and mask information are encoded by the object encoder 58 according to the MPEG4 object encoding scheme, and then output from the object integrator 23.

【0088】オブジェクト統合器23から出力された符号
化データは、セレクタ24を介して多重化器25で他の符号
化データに多重化され、符号化データ26を得る。図7
に、符号化データ26のビットストリームを示す。図7は
即ち、図3(a)に示す符号化データ1に対して、第3実施形
態の統合処理を施した結果を示す。図7によれば、統合
結果として新たに得られたオブジェクトの配置情報を含
むオブジェクト配置情報γに続いて、VOSSC符号、ビジ
ュアルオブジェクトデータγ-1,γ-2,γ-3、及びVOSE
C符号が存在する。このビジュアルオブジェクトデータ
γ-1,γ-2,γ-3は、図3(a)に示す元のビジュアルオブ
ジェクトデータα-1,α-2,α-3に対して、オブジェク
トの統合調整を施したものである。例えばビジュアルオ
ブジェクトデータγ-1は、Visual Object SC符号に続
き、復号器207に適したプロファイル・レベルを表すPLI
_γ、オブジェクト2000〜2002の各符号化データであるV
OデータA,VOデータB,VOデータC、及びオブジェクト20
03及び2004を統合して得られた符号化データVOデータG
により構成されている。
The encoded data output from the object integrator 23 is multiplexed with other encoded data by the multiplexer 25 via the selector 24 to obtain encoded data 26. Fig. 7
Shows a bit stream of the encoded data 26. FIG. 7 shows the result of performing the integration process of the third embodiment on the encoded data 1 shown in FIG. 3 (a). According to FIG. 7, following the object arrangement information γ including the object arrangement information newly obtained as the integration result, the VOSSC code, the visual object data γ-1, γ-2, γ-3, and VOSE
C code exists. The visual object data γ-1, γ-2, γ-3 are subjected to object integration adjustment with the original visual object data α-1, α-2, α-3 shown in FIG. It was done. For example, the visual object data γ-1 is a PLI representing a profile level suitable for the decoder 207 following the Visual Object SC code.
_γ, V which is each encoded data of objects 2000 to 2002
O data A, VO data B, VO data C, and object 20
Coded data VO data G obtained by integrating 03 and 2004
It consists of.

【0089】このようにして得られた符号化データ26
は、記憶装置206に格納されたり、又は復号器207で復号
されて図15に示す画像として復元され、表示器208に表
示される。
The coded data 26 thus obtained
Are stored in the storage device 206 or decoded by the decoder 207 to be restored as the image shown in FIG.

【0090】尚、第3実施形態においては、オブジェク
ト選択指示器20によって、ユーザが画像内における統合
対象オブジェクトを選択指示する例について説明した
が、本発明はもちろんこの例に限定されるものではな
い。例えば、まずオブジェクト選択指示器20によって画
像のオブジェクト毎に、予め統合の順番を設定してお
く。そして、復号器207で復号可能なオブジェクト数が
該画像のオブジェクト数が下回り、オブジェクト統合の
必要が生じた場合に、該設定された順番に従って自動的
にオブジェクト統合を行なうように構成することも可能
である。
In the third embodiment, an example has been described in which the user selects and instructs an object to be integrated in an image using the object selection indicator 20, but the present invention is not limited to this example. . For example, first, the order of integration is set in advance by the object selection indicator 20 for each object of the image. When the number of objects that can be decoded by the decoder 207 is smaller than the number of objects in the image and the need for object integration arises, the object integration can be automatically performed in the set order. It is.

【0091】以上説明したように第3実施形態によれ
ば、符号器と復号器においてプロファイルやレベルが異
なる場合においても、符号化データの復号が可能にな
る。また、オブジェクトを統合して復号することによっ
て、復号後のオブジェクトの喪失を防ぐことができる。
As described above, according to the third embodiment, it is possible to decode encoded data even when the profiles and levels are different between the encoder and the decoder. Further, by integrating and decoding the objects, it is possible to prevent loss of the objects after the decoding.

【0092】さらに、オブジェクト選択指示器20とオブ
ジェクト選択器21に代えて、オブジェクト統合器を第1
及び第2実施形態で示した符号長比較器14やサイズ比較
器18等を備えることにより、符号長の短いオブジェクト
順や、サイズの小さいオブジェクト順に統合処理を行な
うことが可能である。
Further, instead of the object selection indicator 20 and the object selector 21, an object integrator is
By providing the code length comparator 14 and the size comparator 18 and the like shown in the second embodiment, it is possible to perform the integration processing in the order of the object having the shorter code length or the object having the smaller size.

【0093】<<変形例>>図8は、第3実施形態におけ
るオブジェクト統合器23の変形構成例を示すブロック図
である。図8において、図6と同様の構成には同一番号を
付し、説明を省略する。図8においては、符号長カウン
タ59を更に設けることを特徴とする。符号長カウンタ59
により統合前の各オブジェクトの符号化データの符号長
を計数し、オブジェクト符号化器58の出力の符号長が該
係数結果と同じになるように、オフジェクト符号化器58
のパラメータ(例えば量子化パラメータ等)を調整す
る。これにより、全体の符号長を増やすことなく、オブ
ジェクト合成を行なうことが可能となる。
<< Modified Example >> FIG. 8 is a block diagram showing a modified configuration example of the object integrator 23 in the third embodiment. 8, the same components as those in FIG. 6 are denoted by the same reference numerals, and description thereof will be omitted. FIG. 8 is characterized in that a code length counter 59 is further provided. Code length counter 59
, The code length of the coded data of each object before integration is counted, and the object coder 58 is output so that the code length of the output of the object coder 58 becomes the same as the coefficient result.
(For example, a quantization parameter, etc.) are adjusted. This makes it possible to perform object composition without increasing the overall code length.

【0094】<第4実施形態>以下、本発明に係る第4実
施形態について説明する。第4実施形態においては、上
述した第3実施形態と同様に、オブジェクトの統合処理
を行なうことを特徴とする。尚、第4実施形態における
動画像処理装置の概要構成、及びプロファイル・レベル
調整部205の詳細構成は、上述した第1及び第3実施形態
における図1及び図5と同様であるため、説明を省略す
る。
<Fourth Embodiment> Hereinafter, a fourth embodiment according to the present invention will be described. The fourth embodiment is characterized in that an object integration process is performed as in the third embodiment. Note that the schematic configuration of the moving image processing apparatus in the fourth embodiment and the detailed configuration of the profile / level adjustment unit 205 are the same as those in FIGS. 1 and 5 in the first and third embodiments described above. Omitted.

【0095】図11は、第4実施形態におけるオブジェク
ト統合器23の詳細構成を示すブロック図である。図11に
おいて、第3実施形態の図6と同様の構成には同一番号を
付し、説明を省略する。
FIG. 11 is a block diagram showing a detailed configuration of the object integrator 23 in the fourth embodiment. 11, the same components as those in FIG. 6 of the third embodiment are denoted by the same reference numerals, and description thereof will be omitted.

【0096】図11において、60,61は分離器であり、入
力された符号化データを、形状を表すマスク情報に関す
る符号化データと、カラー画像情報を表す符号化データ
とに分離して出力する。62,63,64,65は符号メモリで
あり、符号メモリ62,64はカラー画像情報を表す符号化
データを、符号メモリ63,65はマスク情報に関する符号
化データを、それぞれのオブジェクト毎に格納する。66
はカラー画像情報を表す符号化データを符号化データの
ままで合成するカラー画像情報符号合成器である。67は
マスク情報を表す符号化データを合成するマスク情報符
号合成器である。
In FIG. 11, reference numerals 60 and 61 denote separators, which separate input coded data into coded data relating to mask information representing a shape and coded data representing color image information, and output them. . Reference numerals 62, 63, 64, and 65 denote code memories. The code memories 62 and 64 store coded data representing color image information, and the code memories 63 and 65 store coded data related to mask information for each object. . 66
Is a color image information code synthesizer for synthesizing encoded data representing color image information as encoded data. Reference numeral 67 denotes a mask information code synthesizer that synthesizes encoded data representing mask information.

【0097】以下、第4実施形態におけるオブジェクト
統合器23の動作について詳細に説明する。第3実施形態
と同様に、まず符号メモリ50,51にオブジェクト2003,
2004の符号化データがそれぞれ格納される。符号メモリ
50に格納されたオブジェクト2003の符号化データは、フ
レーム単位(VOP単位)で読み出され、分離器60でカラ
ー画像情報符号化データとマスク情報符号化データとに
分離され、それぞれの符号化データは符号メモリ62,63
に格納される。同様に、オブジェクト2004のカラー画像
情報符号化データ及びマスク情報符号化データは、それ
ぞれ符号メモリ64,65に格納される。
Hereinafter, the operation of the object integrator 23 in the fourth embodiment will be described in detail. As in the third embodiment, first, the objects 2003, 2003 are stored in the code memories 50, 51.
2004 encoded data are stored. Code memory
The coded data of the object 2003 stored in the 50 is read out in frame units (VOP units), separated into color image information coded data and mask information coded data by the separator 60, and Are code memories 62 and 63
Is stored in Similarly, the color image information coded data and the mask information coded data of the object 2004 are stored in the code memories 64 and 65, respectively.

【0098】この後、カラー画像情報符号合成器66は、
符号メモリ62,64からカラー画像情報符号化データをそ
れぞれ読み出す。また、第3実施形態と同様に、ヘッダ
メモリ3からオブジェクト2003,2004の位置情報及びサ
イズ情報を取得して、統合後の新たなオブジェクトのサ
イズ、該新たなオブジェクト内における元のオブジェク
ト2003,2004のそれぞれの相対位置を求める。即ちカラ
ー画像情報符号合成器66においては、これらのカラー画
像情報符号化データを統合した後に復号すると、図9に
示す様な画像が1つのオブジェクトとして得られること
を想定した合成を行なう。
After that, the color image information code synthesizer 66
The color image information encoded data is read from the code memories 62 and 64, respectively. Further, similarly to the third embodiment, the position information and the size information of the objects 2003 and 2004 are acquired from the header memory 3, and the size of the new object after integration and the original objects 2003 and 2004 in the new object are obtained. Find the relative position of each. That is, the color image information code synthesizer 66 performs synthesis on the assumption that when the color image information encoded data is integrated and then decoded, an image as shown in FIG. 9 is obtained as one object.

【0099】ここでMPEG4符号化方式においては、スラ
イスというデータ構造を持っており、複数のマクロブロ
ックを主走査方向に連続する1つの魂として定義するこ
とができる。図9に示すオブジェクトに対してスライス
構造を適用した例を図12に示す。図12においては、太枠
で囲まれた領域が1つのスライスとして定義され、各ス
ライス毎に先頭のマクロブロックをハッチングにより示
している。
Here, the MPEG4 encoding system has a data structure called a slice, and a plurality of macroblocks can be defined as one soul that is continuous in the main scanning direction. FIG. 12 shows an example in which the slice structure is applied to the object shown in FIG. In FIG. 12, a region surrounded by a thick frame is defined as one slice, and the leading macroblock is indicated by hatching for each slice.

【0100】カラー画像情報符号合成器66は、図12に示
すように、統合結果として得られる画像の左上に相当す
るマクロブロックのデータから順に、右方向(主走査方
向)に読み出しを行う。即ち、まずオブジェクト2003の
符号化データのうち、先頭スライスの先頭マクロブロッ
クに相当する符号化データが符号メモリ62から読み出さ
れる。そして、スライスのヘッダ情報を付加した後、先
頭マクロブロックの符号化データをそのまま出力し、次
に右方向のマクロブロックの読み出し及び出力を、当該
スライスの間順次繰り返す。
As shown in FIG. 12, the color image information code synthesizer 66 reads data in the right direction (main scanning direction) in order from the macroblock data corresponding to the upper left of the image obtained as the integration result. That is, first, among the encoded data of the object 2003, the encoded data corresponding to the first macroblock of the first slice is read from the code memory 62. Then, after adding the header information of the slice, the encoded data of the first macroblock is output as it is, and then reading and outputting of the rightward macroblock are sequentially repeated during the slice.

【0101】尚、オブジェクト2003,2004の間の新たに
データが発生した部分に関しても新たなスライスとして
考える。この部分はマスク情報によって復号されても表
示されない部分であるため、適当な画素を補填する。即
ち、これらの部分はオブジェクトを含む最後のマクロブ
ロックのDC成分のみで構成されるとする。するとDC差分
は0であり、AC係数も全て0であるため、符号は発生しな
い。
Note that a portion where data newly occurs between the objects 2003 and 2004 is also considered as a new slice. Since this portion is a portion that is not displayed even if decoded by the mask information, an appropriate pixel is supplemented. That is, it is assumed that these portions are composed of only the DC component of the last macroblock including the object. Then, since the DC difference is 0 and the AC coefficients are all 0, no sign is generated.

【0102】そして、オブジェクト2004の境界におい
て、新たなスライスが開始されたとして、図12において
ハッチングで示されたマクロブロックを新たなスライス
の先頭とし、スライスのヘッダ情報を付加する。この場
合、先頭のマクロブロックのアドレスは相対アドレスで
あるため、前のオブジェクトを含むマクロブロックから
の相対アドレスに変換する。尚、マクロブロックが他の
マクロブロックを参照してDC等の予測を行っていれば、
その部分は再符号化し、その後は順次右方向に、マクロ
ブロックの符号データをそのまま出力していく。即ち、
オブジェクトの境界でスライスヘッダを付加し、スライ
ス先頭のマクロブロックの予測を、初期化した状態の符
号に置き換える。こうして得られた符号は、多重化器68
に出力される。
Then, assuming that a new slice has started at the boundary of the object 2004, the macroblock indicated by hatching in FIG. 12 is set as the head of the new slice, and header information of the slice is added. In this case, since the address of the first macroblock is a relative address, it is converted to a relative address from the macroblock including the previous object. If a macroblock predicts DC or the like with reference to another macroblock,
The part is re-encoded, and thereafter, the code data of the macro block is output as it is sequentially to the right. That is,
The slice header is added at the boundary of the object, and the prediction of the macroblock at the head of the slice is replaced with the code in the initialized state. The code thus obtained is output to the multiplexer 68
Is output to

【0103】カラー画像情報符号合成器66の動作と並行
して、マスク情報符号合成器67においては、符号メモリ
63,65からマスク情報符号化データをそれぞれ読み出
す。そして、ヘッダメモリ3からオブジェクト2003,200
4の位置情報及びサイズ情報を取得して、統合後の新た
なオブジェクトのサイズ、該新たなオブジェクト内にお
ける元のオブジェクト2003,2004のそれぞれの相対位置
を求める。そして、入力されたマスク情報符号化データ
を復号し、合成することによって、図10に示すマスク画
像を得る。このマスク画像を、MPEG4の形状情報符号化
方式である算術符号化方式により符号化する。こうして
得られた符号は、多重化器68に出力される。
In parallel with the operation of the color image information code synthesizer 66, the mask information code synthesizer 67
The mask information encoded data is read from 63 and 65, respectively. Then, from the header memory 3, the objects 2003, 200
The position information and the size information of 4 are acquired, and the size of the new object after integration and the relative positions of the original objects 2003 and 2004 in the new object are obtained. Then, the input mask information encoded data is decoded and combined to obtain a mask image shown in FIG. The mask image is encoded by an arithmetic encoding method which is an MPEG4 shape information encoding method. The code thus obtained is output to multiplexer 68.

【0104】但し、マスク情報の符号化としては、MPEG
4における算術符号化方式に限らない。例えば、マスク
情報符号化データの合成結果においては、オブジェクト
境界間における0ランが長くなるだけであるので、ファ
クシミリ装置において使用される0ランを符号化する方
式等を適用することにより、マスク情報符号合成器67に
おいて復号を行なうことなく、0ラン長を表す符号を置
換えるだけで合成が行える。一般に、マスク情報を算術
符号化方式又はその他の符号化方式により符号化した際
に、その符号長の変化は僅かである。
However, the encoding of the mask information is performed by MPEG.
4 is not limited to the arithmetic coding method. For example, in the synthesis result of the mask information coded data, only the 0 run between the object boundaries becomes longer. Therefore, by applying a method of encoding the 0 run used in the facsimile apparatus, the mask information code Without performing decoding in the synthesizer 67, synthesis can be performed only by replacing the code representing the 0 run length. In general, when mask information is encoded by an arithmetic coding method or another coding method, a change in the code length is small.

【0105】多重化器68においては、統合されたカラー
画像情報に関する符号化データと、マスク情報符号化デ
ータとを多重化して、1つのオブジェクトの符号化デー
タとする。以降の処理は上述した第3実施形態と同様で
あり、多重化器25において他の符号化データと多重化さ
れて出力される。
In the multiplexer 68, the encoded data relating to the integrated color image information and the mask information encoded data are multiplexed to form encoded data of one object. Subsequent processing is the same as in the third embodiment described above, and is multiplexed with other encoded data by the multiplexer 25 and output.

【0106】以上説明したように第4実施形態によれ
ば、符号器と復号器においてプロファイルやレベルが異
なる場合においても、符号化データの復号が可能にな
る。また、オブジェクトを符号化データのままで統合す
ることによって、ヘッダ情報を僅かに付加するのみで、
復号後のオブジェクトの喪失を防ぐことができる。
As described above, according to the fourth embodiment, it is possible to decode encoded data even when the profiles and levels are different between the encoder and the decoder. Also, by integrating objects as encoded data, only a small amount of header information is added,
Loss of the object after decryption can be prevented.

【0107】更に、第4実施形態におけるオブジェクト
統合処理において、新たに付加されるヘッダは僅かな演
算によって得られ、また、符号の変更もスライスの先頭
ブロックに限定されるため、第3実施形態に示した復号
・再符号化によるオブジェクト統合処理に比べて高速化
が図れる。
Furthermore, in the object integration processing in the fourth embodiment, a newly added header can be obtained by a small operation, and the code change is limited to the first block of the slice. Speeding up can be achieved as compared to the object integration processing by decoding and re-encoding shown above.

【0108】<第5実施形態>以下、本発明に係る第5実
施形態について説明する。第5実施形態においては、上
述した第3実施形態と同様に、オブジェクトの統合処理
を行なうことを特徴とする。尚、第5実施形態における
動画像処理装置の概要構成は、上述した第1実施形態の
図1と同様であるため、説明を省略する。
<Fifth Embodiment> Hereinafter, a fifth embodiment according to the present invention will be described. The fifth embodiment is characterized in that an object integration process is performed as in the third embodiment. Note that the schematic configuration of the moving image processing apparatus according to the fifth embodiment is the same as that of FIG. 1 of the above-described first embodiment, and a description thereof will not be repeated.

【0109】図13は、第5実施形態におけるプロファイ
ル・レベル調整部205の詳細構成を示すブロック図であ
る。図13において、第3実施形態の図5と同様の構成には
同一番号を付し、説明を省略する。第5実施形態におい
ては、動画像符号化方式としてMPEG4符号化方式を用い
た場合について説明するが、画像内の複数のオブジェク
トを各々符号化することができれば、どのような符号化
方式でも適用可能である。
FIG. 13 is a block diagram showing a detailed configuration of the profile / level adjusting unit 205 in the fifth embodiment. 13, the same components as those in FIG. 5 of the third embodiment are denoted by the same reference numerals, and description thereof will be omitted. In the fifth embodiment, a case will be described in which an MPEG4 encoding method is used as a moving image encoding method, but any encoding method can be applied as long as a plurality of objects in an image can be encoded. It is.

【0110】図13において、70はオブジェクト配置情報
判定器であり、統合対象となるオブジェクトを決定す
る。
In FIG. 13, reference numeral 70 denotes an object arrangement information judging unit, which determines an object to be integrated.

【0111】プロファイル・レベル判定器13においては
第3実施形態と同様に、復号器207のプロファイル及びレ
ベル情報と、符号化データ1のプロファイル・レベルと
を比較するが、ここで、復号器207のプロファイル及び
レベルが符号化データ1のプロファイル及びレベルより
も上位または同じであっても、また、下位であって
も、、オブジェクト計数器10で得られたオブジェクト数
が復号器207において復号可能なオブジェクト数以下で
あれば、第3実施形態と同様の手順で符号化データ26を
生成する。
The profile / level determiner 13 compares the profile and level information of the decoder 207 with the profile / level of the encoded data 1 as in the third embodiment. Even if the profile and level are higher or the same as or lower than the profile and level of the encoded data 1, the number of objects obtained by the object counter 10 is the number of objects that can be decoded by the decoder 207. If it is less than or equal to the number, the coded data 26 is generated in the same procedure as in the third embodiment.

【0112】一方、オブジェクト計数器10で得られたオ
ブジェクト数が、復号器207において復号可能なオブジ
ェクト数よりも大きければ、復号可能なオブジェクト数
をオブジェクト配置情報判定器70に入力する。ここで、
第3実施形態と同様に、復号器207において復号可能なオ
ブジェクト数は4つまでである。従って、図15に示す5つ
のオブジェクトを有する画像において、2つのオブジェ
クトを統合することにより、復号可能な符号化データを
得ることができる。
On the other hand, if the number of objects obtained by the object counter 10 is larger than the number of objects that can be decoded by the decoder 207, the number of objects that can be decoded is input to the object arrangement information determiner 70. here,
As in the third embodiment, the number of objects that can be decoded by the decoder 207 is up to four. Therefore, in the image having five objects shown in FIG. 15, by integrating the two objects, it is possible to obtain decoded data that can be decoded.

【0113】オブジェクト配置情報判定器70において
は、ヘッダメモリ3から各オブジェクトの位置情報及び
サイズ情報を抽出し、統合する2つのオブジェクトを下
記の条件に基づいて決定する。尚、上記条件は、(1),
(2)の順に優先とする。
The object arrangement information judging unit 70 extracts position information and size information of each object from the header memory 3 and determines two objects to be integrated based on the following conditions. The above conditions are (1),
The priority is given in the order of (2).

【0114】(1)一方のオブジェクトが他方のオブジ
ェクトに包含されている (2)両オブジェクト間の距離が最も短い 図15に示す画像においては、オブジェクト2001〜2004
が、オブジェクト2000に含まれている。従って、オブジ
ェクト配置情報判定器70においては、オブジェクト2000
とオブジェクト2001を統合対象として決定する。
(1) One object is included in the other object. (2) The distance between the two objects is shortest. In the image shown in FIG.
Is included in the object 2000. Therefore, in the object arrangement information judgment unit 70, the object 2000
And the object 2001 are determined as integration targets.

【0115】統合対象オブジェクトが決定されると、第
3実施例と同様にプロファイル・レベル判定器13はヘッ
ダ変更器15を動作させ、PLIの内容を復号器207に合わせ
て変更して符号化し、更にオブジェクト配置情報判定器
70による判定結果に基づいて、統合して得られる新たな
オブジェクトに関するヘッダ情報の生成、及び統合によ
り廃棄されるオブジェクトに関するヘッダ情報の削除を
行なう。具体的には、オブジェクト2000及び2001のオブ
ジェクト配置情報に基づいて、統合結果として得られる
新たなオブジェクトの配置情報を生成し、元のオブジェ
クト2000及び2001のオブジェクト配置情報を削除する。
そして、オブジェクト2000及び2001のヘッダ情報に基づ
いて、統合して得られるオブジェクトの大きさやその他
の情報をヘッダ情報として生成し、元のオブジェクト20
00及び2001のヘッダ情報を削除する。
When the object to be integrated is determined, the
As in the third embodiment, the profile / level judging unit 13 operates the header changing unit 15 to change and encode the contents of the PLI according to the decoder 207,
Based on the determination result by 70, header information relating to a new object obtained by integration and deletion of header information relating to an object discarded by integration are performed. Specifically, based on the object arrangement information of the objects 2000 and 2001, the new object arrangement information obtained as the integration result is generated, and the original object 2000 and 2001 object arrangement information is deleted.
Then, based on the header information of the objects 2000 and 2001, the size and other information of the object obtained by integration are generated as header information, and the original object 20 is generated.
Delete the header information of 00 and 2001.

【0116】オブジェクト配置判定器70は、オブジェク
ト2000及び2001の符号化データに関してはオブジェクト
統合器23において統合処理を行い、その他の符号化デー
タに関してはオブジェクト統合器23を介さないように、
セレクタ22,24の入出力を制御する。
The object arrangement determiner 70 performs an integration process on the coded data of the objects 2000 and 2001 in the object integrator 23, and does not pass the other coded data through the object integrator 23.
The input / output of the selectors 22 and 24 is controlled.

【0117】そして、ヘッダ変更器15及びオブジェクト
2002〜2004の符号化データを格納した符号メモリ6,7,
8の内容を入力された順に読み出し、セレクタ22,24を
介して多重化器25に入力される。一方、統合対象である
オブジェクト2000,2001の符号データを格納した符号メ
モリ4,5の内容は、セレクタ22を介してオブジェクト統
合器23で統合された後、多重化器25に入力される。そし
て多重化器25でこれらの符号化データを多重化すること
により、符号化データ26が得られる。尚、オブジェクト
統合器23における統合処理は、上述した第3実施形態又
は第4実施形態と同様に実現される。
The header changer 15 and the object
Code memory 6, 7, which stores the encoded data of 2002-2004
8 are read out in the order in which they are input, and input to the multiplexer 25 via the selectors 22 and 24. On the other hand, the contents of the code memories 4 and 5 storing the code data of the objects 2000 and 2001 to be integrated are integrated by the object integrator 23 via the selector 22 and then input to the multiplexer 25. Then, the multiplexed data is multiplexed by the multiplexer 25, so that the coded data 26 is obtained. Note that the integration process in the object integrator 23 is realized in the same manner as in the above-described third or fourth embodiment.

【0118】ここで、図14に、第5実施形態における符
号化データ26のビットストリームを示す。図14は即ち、
図3(a)に示す符号化データ1に対して、第5実施形態の統
合処理を施した結果を示す。図14によれば、統合結果と
して新たに得られたオブジェクトの配置情報を含むオブ
ジェクト配置情報δに続いて、VOSSC符号、ビジュアル
オブジェクトデータδ-1,δ-2,δ-3、及びVOSEC符号
が存在する。このビジュアルオブジェクトデータδ-1,
δ-2,δ-3は、図3(a)に示す元のビジュアルオブジェク
トデータα-1,α-2,α-3に対して、オブジェクトの統
合調整を施したものである。例えばビジュアルオブジェ
クトデータδ-1は、Visual Object SC符号に続き、復号
器207に適したプロファイル・レベルを表すPLI_δ、オ
ブジェクト2000及び2001を統合して得られた符号化デー
タVOデータH、オブジェクト2002〜2004の各符号化デー
タであるVOデータC,VOデータD,VOデータEにより構成
されている。
FIG. 14 shows a bit stream of the encoded data 26 in the fifth embodiment. FIG.
6 shows a result of performing the integration processing of the fifth embodiment on the encoded data 1 shown in FIG. According to FIG. 14, following the object arrangement information δ including the object arrangement information newly obtained as the integration result, the VOSSC code, the visual object data δ-1, δ-2, δ-3, and the VOSEC code are used. Exists. This visual object data δ-1,
δ-2, δ-3 are obtained by subjecting the original visual object data α-1, α-2, α-3 shown in FIG. 3 (a) to object integration adjustment. For example, following the Visual Object SC code, PLI_δ representing a profile level suitable for the decoder 207, encoded data VO data H obtained by integrating objects 2000 and 2001, and objects 2002 to It is composed of VO data C, VO data D and VO data E which are the respective encoded data of 2004.

【0119】このようにして得られた符号化データ26
は、記憶装置206に格納されたり、又は復号器207で復号
されて図15に示す画像として復元され、表示器208に表
示される。
The encoded data 26 thus obtained is
Are stored in the storage device 206 or decoded by the decoder 207 to be restored as the image shown in FIG.

【0120】尚、上述した第1又は第2実施形態と同様
に、各オブジェクトの符号長やオブジェクトサイズ等
を、第5実施形態における統合オブジェクトの判定条件
に加えても良い。
As in the first or second embodiment, the code length and object size of each object may be added to the integrated object determination condition in the fifth embodiment.

【0121】以上説明したように第5実施形態によれ
ば、符号器と復号器においてプロファイルやレベルが異
なる場合においても、符号化データの復号が可能にな
る。
As described above, according to the fifth embodiment, it is possible to decode encoded data even when the profiles and levels are different between the encoder and the decoder.

【0122】また、オブジェクトの位置関係に基づいて
統合することによって、統合によって変化してしまう符
号量を最小限に抑制しつつ、復号後のオブジェクトの喪
失を防ぐことができる。
Further, by integrating based on the positional relationship of the objects, it is possible to prevent the loss of the object after decoding while minimizing the amount of code changed by the integration.

【0123】尚、第5実施形態においてはオブジェクト
の位置関係に基づいて統合するオブジェクトを決定する
例について説明したが、上述した第1及び第2実施形態に
おいても、廃棄するオブジェクトをオブジェクトの位置
関係に基づいて選択することも可能である。
In the fifth embodiment, the example in which the object to be integrated is determined based on the positional relationship between the objects has been described. It is also possible to make a selection based on

【0124】尚、第3乃至第5実施形態においては、2つ
のオブジェクトを統合して1つのオブジェクトを生成す
る例について説明したが、もちろん3つ以上のオブジェ
クトを統合したり、または、2組以上の統合を行なうこ
とも可能である。
In the third to fifth embodiments, an example has been described in which two objects are integrated to generate one object. Of course, three or more objects may be integrated or two or more sets may be integrated. It is also possible to perform integration.

【0125】尚、上述した第1乃至第5実施形態における
符号メモリ4〜8やヘッダメモリ3の構成は図2に示す例に
限定されず、より多くの符号メモリを設けても構わない
し、1つのメモリを複数領域に分割して使用したり、磁
気ディスク等の記憶媒体を使用してもちろん構わない。
The configurations of the code memories 4 to 8 and the header memory 3 in the above-described first to fifth embodiments are not limited to the example shown in FIG. 2, and more code memories may be provided. One memory may be divided into a plurality of areas and used, or a storage medium such as a magnetic disk may be used.

【0126】また、廃棄又は統合対象となるオブジェク
トの選択についても、オブジェクトのサイズや符号長、
位置関係、ユーザによる指示等、複数の条件を組み合わ
せて決定しても良い。
The selection of the object to be discarded or integrated also includes the object size, code length,
It may be determined by combining a plurality of conditions, such as a positional relationship and a user's instruction.

【0127】また、本発明を画像編集装置に適用すれ
ば、編集処理によってオブジェクトの数が変化しても、
その出力を任意のプロファイルやレベルに適合させるこ
とが可能となる。
When the present invention is applied to an image editing apparatus, even if the number of objects changes due to the editing process,
The output can be adapted to any profile or level.

【0128】<他の実施形態>なお、本発明は、複数の
機器(例えばホストコンピュータ,インタフェイス機
器,リーダ,プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機,ファクシミリ装置など)に適用してもよい。
<Other Embodiments> Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), a device including one device (for example, For example, the present invention may be applied to a copying machine, a facsimile machine, and the like.

【0129】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。
An object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or the apparatus.
And MPU) read and execute the program code stored in the storage medium.

【0130】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。
In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

【0131】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。
As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

【0132】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。
When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.

【0133】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。本発明を上記記憶
媒体に適用する場合、その記憶媒体には、先に説明した
フローチャートに対応するプログラムコードを格納する
ことになる。
Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments. When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowcharts described above.

【0134】[0134]

【発明の効果】以上説明したように本発明によれば、複
数の画像情報(オブジェクト)毎に符号化された符号化
データを、任意仕様の復号器で復号することが可能とな
る。
As described above, according to the present invention, encoded data encoded for each of a plurality of pieces of image information (objects) can be decoded by a decoder of any specification.

【0135】また、符号化データに含まれるオブジェク
ト数を調整することが可能となる。
Further, the number of objects included in the encoded data can be adjusted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した動画像処理装置の構成を示す
ブロック図、
FIG. 1 is a block diagram illustrating a configuration of a moving image processing device to which the present invention has been applied.

【図2】第1実施形態におけるプロファイル・レベル調整
部の構成を示すブロック図、
FIG. 2 is a block diagram illustrating a configuration of a profile / level adjustment unit according to the first embodiment.

【図3】動画像の符号化データの構成例を示す図、FIG. 3 is a diagram showing a configuration example of encoded data of a moving image,

【図4】第2実施形態におけるプロファイル・レベル調整
部の構成を示すブロック図、
FIG. 4 is a block diagram illustrating a configuration of a profile / level adjusting unit according to the second embodiment.

【図5】第3実施形態におけるプロファイル・レベル調整
部の構成を示すブロック図、
FIG. 5 is a block diagram illustrating a configuration of a profile / level adjusting unit according to a third embodiment;

【図6】第3実施形態におけるオブジェクト統合器の構成
を示すブロック図、
FIG. 6 is a block diagram illustrating a configuration of an object integrator according to a third embodiment;

【図7】第3実施形態における統合後の符号化データの構
成例を示す図、
FIG. 7 is a diagram illustrating a configuration example of encoded data after integration according to the third embodiment;

【図8】第3実施形態の変形例におけるオブジェクト統合
器の構成を示すブロック図、
FIG. 8 is a block diagram illustrating a configuration of an object integrator according to a modification of the third embodiment;

【図9】第3実施形態におけるカラー画像情報の合成例を
示す図、
FIG. 9 is a diagram illustrating a synthesis example of color image information according to the third embodiment.

【図10】第3実施形態におけるマスク情報の合成例を示
す図、
FIG. 10 is a diagram illustrating a synthesis example of mask information according to the third embodiment;

【図11】第4実施形態におけるオブジェクト統合器の構
成を示すブロック図、
FIG. 11 is a block diagram illustrating a configuration of an object integrator according to a fourth embodiment.

【図12】第4実施形態におけるカラー画像情報のスライ
ス構造を示す図、
FIG. 12 is a diagram illustrating a slice structure of color image information according to a fourth embodiment.

【図13】第5実施形態におけるプロファイル・レベル調
整部の構成を示すブロック図、
FIG. 13 is a block diagram illustrating a configuration of a profile / level adjusting unit according to a fifth embodiment.

【図14】第5実施形態における統合後の動画像符号化デ
ータの構成例を示す図、
FIG. 14 is a diagram showing a configuration example of moving image encoded data after integration in the fifth embodiment;

【図15】符号化データの表す画像の構成例を示す図、FIG. 15 is a diagram illustrating a configuration example of an image represented by encoded data;

【図16】符号化データの表す画像の構成例を示す図、FIG. 16 is a diagram illustrating a configuration example of an image represented by encoded data;

【図17】MPEG4規格による符号化器の構成例を示す図、FIG. 17 is a diagram illustrating a configuration example of an encoder according to the MPEG4 standard.

【図18】MPEG4規格による復号器の構成例を示す図、FIG. 18 is a diagram illustrating a configuration example of a decoder according to the MPEG4 standard.

【図19】MPEG4規格による動画像符号化データの構成例
を示す図、
FIG. 19 is a diagram illustrating a configuration example of moving image encoded data according to the MPEG4 standard.

【図20】MPEG4規格によるプロファイル表、である。FIG. 20 is a profile table according to the MPEG4 standard.

【符号の説明】[Explanation of symbols]

1,17,26 符号化データ 2,60,61,1006 分離器 3 ヘッダメモリ 4,5,6,7,8,50,51,62,63,64,65 符号メモリ 9 プロファイル・レベル抽出器 10 オブジェクト計数器 11 復号器状態受信器 12 プロファイル・レベル入力器 13 プロファイル・レベル判定器 14 符号長比較器 15 ヘッダ変更器 16,25,68,1005 多重化器 18 サイズ比較器 20 オブジェクト選択指示器 21 オブジェクト選択器 22,24,52,54 セレクタ 23 オブジェクト統合器 53,1007,1008,1009 オブジェクト復号器 55,56 フレームメモリ 57,1010 合成器 58,1002,1003,1004 オブジェクト符号化器 59 符号長カウンタ 66 カラー画像情報符号合成器 67 マスク情報符号合成器 70 オブジェクト配置情報判定器 201 符号化器 202,206 記憶装置 203 送信器 204 受信器 205 プロファイル・レベル調整部 207 復号器 208 表示器 1001 オブジェクト定義器 1011 配置情報符号化器 1012 配置情報復号器 2000,2001,2002,2003,2004 オブジェクト 1, 17, 26 Coded data 2, 60, 61, 1006 Separator 3 Header memory 4, 5, 6, 7, 8, 50, 51, 62, 63, 64, 65 Code memory 9 Profile level extractor 10 Object counter 11 Decoder status receiver 12 Profile level input unit 13 Profile level judgment unit 14 Code length comparator 15 Header changer 16, 25, 68, 1005 Multiplexer 18 Size comparator 20 Object selection indicator 21 Object selector 22, 24, 52, 54 Selector 23 Object integrator 53, 1007, 1008, 1009 Object decoder 55, 56 Frame memory 57, 1010 Compositor 58, 1002, 1003, 1004 Object encoder 59 Code length counter 66 Color image information code synthesizer 67 Mask information code synthesizer 70 Object placement information determiner 201 Encoder 202, 206 Storage device 203 Transmitter 204 Receiver 205 Profile / level adjuster 207 Decoder 208 Display 1001 Object definer 1011 Allocation information encoder 1012 Allocation information decoder 2000, 2001, 2002, 2003, 2004 Objects

フロントページの続き Fターム(参考) 5B057 BA23 CA01 CA16 CA18 CB01 CB16 CB18 CE08 CG07 5C057 AA06 AA07 CA01 CE10 EL01 EM00 GF07 GG01 GH00 5C059 KK22 KK36 MA00 MB01 MB11 MB12 MB21 ME11 PP04 PP28 PP29 SS01 SS06 SS20 SS26 TA60 TB18 TC18 TC25 TD11 UA02 UA05 UA35 5C078 AA09 BA44 BA57 CA14 DA06 DA07 9A001 EE04 HH27 JZ19 Continued on the front page F-term (reference) 5B057 BA23 CA01 CA16 CA18 CB01 CB16 CB18 CE08 CG07 5C057 AA06 AA07 CA01 CE10 EL01 EM00 GF07 GG01 GH00 5C059 KK22 KK36 MA00 MB01 MB11 MB12 MB21 ME11 PP04 PP28 PP29 SS26 TC18 SS20 SS18 SS18 UA02 UA05 UA35 5C078 AA09 BA44 BA57 CA14 DA06 DA07 9A001 EE04 HH27 JZ19

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】 符号化された複数の画像情報により1つ
の画像を構成するデータ列を処理するデータ処理装置で
あって、 前記データ列中の画像情報の数を変更する変更手段を有
することを特徴とするデータ処理装置。
1. A data processing apparatus for processing a data sequence forming one image by using a plurality of encoded image information, comprising a changing unit for changing the number of image information in the data sequence. Characteristic data processing device.
【請求項2】 前記変更手段は、前記データ列中の画像
情報の数を検出する検出手段を備え、前記検出手段によ
って検出された画像情報の数が所定数よりも多い場合
に、画像情報数を減らすことを特徴とする請求項1記載
のデータ処理装置。
2. The image processing apparatus according to claim 1, wherein the changing unit includes a detecting unit configured to detect a number of image information in the data string, and when the number of the image information detected by the detecting unit is larger than a predetermined number, the number of the image information is changed. 2. The data processing apparatus according to claim 1, wherein the data processing number is reduced.
【請求項3】 前記変更手段は、画像情報を廃棄するこ
とにより画像情報数を減らすことを特徴とする請求項2
記載のデータ処理装置。
3. The image processing apparatus according to claim 2, wherein the changing unit reduces the number of image information by discarding the image information.
The data processing device according to claim 1.
【請求項4】 前記変更手段は、前記データ列中の画像
情報毎の符号長を監視する符号長監視手段を備え、該符
号長の短い画像情報から順次廃棄することを特徴とする
請求項3記載のデータ処理装置。
4. The image processing apparatus according to claim 3, wherein said changing means includes code length monitoring means for monitoring a code length of each image information in said data sequence, and sequentially discards image information having a shorter code length. The data processing device according to claim 1.
【請求項5】 前記変更手段は、前記データ列中の画像
情報毎のサイズを監視するサイズ監視手段を備え、該サ
イズの小さい画像情報から順次廃棄することを特徴とす
る請求項3記載のデータ処理装置。
5. The data according to claim 3, wherein said changing means includes a size monitoring means for monitoring a size of each image information in said data string, and sequentially discards image information having a smaller size. Processing equipment.
【請求項6】 前記変更手段は、複数の画像情報を統合
することにより画像情報数を減らすことを特徴とする請
求項2記載のデータ処理装置。
6. The data processing apparatus according to claim 2, wherein the change unit reduces the number of pieces of image information by integrating a plurality of pieces of image information.
【請求項7】 前記変更手段は、前記データ列中におい
て複数の画像情報を選択する選択手段と、 該選択された複数の画像情報を統合する統合手段と、を
有することを特徴とする請求項6記載のデータ処理装
置。
7. The image processing apparatus according to claim 1, wherein the changing unit includes: a selecting unit that selects a plurality of pieces of image information in the data string; and an integrating unit that integrates the plurality of pieces of selected image information. 7. The data processing device according to 6.
【請求項8】 前記選択手段は、ユーザによるマニュア
ル選択を行なうことを特徴とする請求項7記載のデータ
処理装置。
8. The data processing apparatus according to claim 7, wherein said selection means performs a manual selection by a user.
【請求項9】 前記統合手段は、 前記選択手段により選択された複数の画像情報を復号す
る復号手段と、 該復号された複数の画像情報を合成する合成手段と、 該合成された画像情報を符号化する符号化手段と、を有
することを特徴とする請求項7記載のデータ処理装置。
9. The integrating means, decoding means for decoding a plurality of pieces of image information selected by the selecting means, synthesizing means for synthesizing the decoded plural pieces of image information, 8. The data processing apparatus according to claim 7, further comprising: an encoding unit that performs encoding.
【請求項10】 更に、前記選択手段により選択された
画像情報の符号長を計数する計数手段を備え、 前記符号化手段は、該計数手段による計数結果に基づい
て、符号化パラメータを制御することを特徴とする請求
項9記載のデータ処理装置。
10. A counting means for counting a code length of image information selected by said selection means, wherein said coding means controls a coding parameter based on a counting result by said counting means. The data processing apparatus according to claim 9, wherein:
【請求項11】 前記統合手段は、前記選択手段により
選択された複数の画像情報をそれぞれ色情報とマスク情
報とに分離する分離手段と、 該分離された色情報を合成する色情報合成手段と、 該分離されたマスク情報を合成するマスク情報合成手段
と、 合成された色情報及びマスク情報を多重化する多重化手
段と、を有することを特徴とする請求項7記載のデータ
処理装置。
11. The separating means for separating the plurality of pieces of image information selected by the selecting means into color information and mask information, respectively, and a color information synthesizing means for synthesizing the separated color information. 8. The data processing apparatus according to claim 7, comprising: mask information combining means for combining the separated mask information; and multiplexing means for multiplexing the combined color information and mask information.
【請求項12】 前記選択手段は、前記画像情報の位置
に基づいて複数の画像情報を選択することを特徴とする
請求項7記載のデータ処理装置。
12. The data processing apparatus according to claim 7, wherein said selection means selects a plurality of pieces of image information based on a position of said image information.
【請求項13】 前記選択手段は、互いに包含関係にあ
る複数の画像情報を選択することを特徴とする請求項1
2記載のデータ処理装置。
13. The apparatus according to claim 1, wherein said selecting means selects a plurality of pieces of image information that are inclusive of each other.
2. The data processing device according to 2.
【請求項14】 前記選択手段は、互いの距離が所定値
以下である複数の画像情報を選択することを特徴とする
請求項12記載のデータ処理装置。
14. The data processing apparatus according to claim 12, wherein said selecting means selects a plurality of pieces of image information whose distance from each other is equal to or less than a predetermined value.
【請求項15】 前記変更手段は、前記データ列中の画
像情報毎の符号長を監視する符号長監視手段を備え、該
符号長の短い画像情報から順次統合することを特徴とす
る請求項6記載のデータ処理装置。
15. The image processing apparatus according to claim 6, wherein the changing unit includes a code length monitoring unit that monitors a code length of each image information in the data sequence, and sequentially integrates the image information having the short code length. The data processing device according to claim 1.
【請求項16】 前記変更手段は、前記データ列中の画
像情報毎のサイズを監視するサイズ監視手段を備え、該
サイズの小さい画像情報から順次統合することを特徴と
する請求項6記載のデータ処理装置。
16. The data according to claim 6, wherein said changing means includes a size monitoring means for monitoring a size of each image information in said data sequence, and sequentially integrates the image information having the smaller size. Processing equipment.
【請求項17】 前記変更手段は、前記データ列中の画
像情報毎に優先順位を付加する順位付加手段を備え、該
優先順位に基づいて画像情報を廃棄することを特徴とす
る請求項3記載のデータ処理装置。
17. The image processing apparatus according to claim 3, wherein the changing unit includes a priority adding unit that adds a priority to each image information in the data sequence, and discards the image information based on the priority. Data processing equipment.
【請求項18】 前記変更手段は、前記データ列中の画
像情報毎に優先順位を付加する順位付加手段を備え、該
優先順位に基づいて画像情報を統合することを特徴とす
る請求項6記載のデータ処理装置。
18. The image processing apparatus according to claim 6, wherein the change unit includes a priority adding unit that adds a priority to each image information in the data sequence, and integrates the image information based on the priority. Data processing equipment.
【請求項19】 前記所定数は、前記データ列の出力仕
様に基づく復号可能な画像情報の数であることを特徴と
する請求項2記載のデータ処理装置。
19. The data processing apparatus according to claim 2, wherein the predetermined number is the number of image information that can be decoded based on the output specification of the data string.
【請求項20】 前記データ列はMPEG4規格に基づいて
符号化されており、前記出力仕様は、MPEG4規格に準じ
る符号化仕様であることを特徴とする請求項19記載の
データ処理装置。
20. The data processing apparatus according to claim 19, wherein the data sequence is encoded based on the MPEG4 standard, and the output specification is an encoding specification conforming to the MPEG4 standard.
【請求項21】 複数の画像情報をそれぞれ符号化して
1つの画像を構成するデータ列を生成する符号化手段
と、 前記データ列中の画像情報の数を変更する変更手段と、 該変更された前記データ列を復号する復号手段と、を有
することを特徴とするデータ処理システム。
21. Encoding means for encoding each of a plurality of pieces of image information to generate a data sequence constituting one image; changing means for changing the number of image information in the data sequence; A data processing system, comprising: decoding means for decoding the data sequence.
【請求項22】 前記変更手段は、前記データ列中の画
像情報の数を検出する検出手段を備え、前記検出手段に
よって検出された画像情報の数が前記復号手段において
復号可能な画像情報数よりも多い場合に、前記データ列
中の画像情報数を減らすことを特徴とする請求項21記
載のデータ処理システム。
22. The image processing apparatus according to claim 19, wherein the changing unit includes a detecting unit configured to detect a number of pieces of image information in the data string, wherein a number of the image information detected by the detecting unit is larger than a number of image information that can be decoded by the decoding unit. 22. The data processing system according to claim 21, wherein the number of image information in the data sequence is reduced when the number of image information is large.
【請求項23】 符号化された複数の画像情報により1
つの画像を構成するデータ列を処理するデータ処理方法
であって、 前記データ列中の画像情報の数を変更することを特徴と
するデータ処理方法。
23. One of a plurality of encoded image information
A data processing method for processing a data sequence forming one image, wherein the number of image information in the data sequence is changed.
【請求項24】 前記データ列中の画像情報の数を検出
する検出工程と、該検出された画像情報の数が所定数よ
りも多い場合に、画像情報数を減らす減数工程と、を有
することを特徴とする請求項23記載のデータ処理方
法。
24. A method comprising: detecting a number of pieces of image information in the data sequence; and reducing the number of pieces of image information when the number of pieces of detected image information is larger than a predetermined number. 24. The data processing method according to claim 23, wherein:
【請求項25】 前記減数工程においては、画像情報を
廃棄することにより画像情報数を減らすことを特徴とす
る請求項24記載のデータ処理方法。
25. The data processing method according to claim 24, wherein in the subtraction step, the number of image information is reduced by discarding the image information.
【請求項26】 前記減数工程においては、画像情報を
統合することにより画像情報数を減らすことを特徴とす
る請求項24記載のデータ処理方法。
26. The data processing method according to claim 24, wherein in the subtraction step, the number of image information is reduced by integrating the image information.
【請求項27】 符号化された複数の画像情報により1
つの画像を構成するデータ列を処理するデータ処理のプ
ログラムコードが記録された記録媒体であって、該プロ
グラムは、 前記データ列中の画像情報の数を検出する検出工程のコ
ードと、 該検出された画像情報の数が所定数よりも多い場合に、
画像情報数を減らす減数工程のコードと、を含むことを
特徴とする記録媒体。
27. One of a plurality of encoded image information
A recording medium on which a program code of data processing for processing a data sequence constituting one image is recorded, wherein the program comprises: a code of a detection step for detecting the number of image information in the data sequence; If the number of image information is larger than the predetermined number,
A code for a subtraction step for reducing the number of image information.
JP32563598A 1998-04-28 1998-11-16 Data processing apparatus and method, and data processing system Expired - Fee Related JP3854737B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP32563598A JP3854737B2 (en) 1998-11-16 1998-11-16 Data processing apparatus and method, and data processing system
EP99303221A EP0954181B1 (en) 1998-04-28 1999-04-26 Data processing apparatus and method
DE69937816T DE69937816T2 (en) 1998-04-28 1999-04-26 Data processing device and method
US09/298,951 US6512793B1 (en) 1998-04-28 1999-04-26 Data processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32563598A JP3854737B2 (en) 1998-11-16 1998-11-16 Data processing apparatus and method, and data processing system

Publications (2)

Publication Number Publication Date
JP2000152234A true JP2000152234A (en) 2000-05-30
JP3854737B2 JP3854737B2 (en) 2006-12-06

Family

ID=18179051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32563598A Expired - Fee Related JP3854737B2 (en) 1998-04-28 1998-11-16 Data processing apparatus and method, and data processing system

Country Status (1)

Country Link
JP (1) JP3854737B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002082822A1 (en) * 2001-03-30 2002-10-17 Mitsubishi Denki Kabushiki Kaisha Dynamic image receiver and dynamic image transmitter
JP2005341076A (en) * 2004-05-26 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> Image communication system, communication conference system, hierarchical encoder, server device, image communication method, image communication program, and image communication program recording medium
US7444024B2 (en) 2004-04-26 2008-10-28 Fujitsu Limited Image compression method
JP2009077452A (en) * 2002-02-01 2009-04-09 Panasonic Corp Method for encoding and decoding moving image
JP2010505330A (en) * 2006-09-29 2010-02-18 アビニティ・システムズ・ベスローテン・フェンノートシャップ Method, system, and computer software for streaming parallel user sessions
US9021541B2 (en) 2010-10-14 2015-04-28 Activevideo Networks, Inc. Streaming digital video between video devices using a cable television system
US9042454B2 (en) 2007-01-12 2015-05-26 Activevideo Networks, Inc. Interactive encoded content system including object models for viewing on a remote device
US9077860B2 (en) 2005-07-26 2015-07-07 Activevideo Networks, Inc. System and method for providing video content associated with a source image to a television in a communication network
US9123084B2 (en) 2012-04-12 2015-09-01 Activevideo Networks, Inc. Graphical application integration with MPEG objects
US9204203B2 (en) 2011-04-07 2015-12-01 Activevideo Networks, Inc. Reduction of latency in video distribution networks using adaptive bit rates
US9219922B2 (en) 2013-06-06 2015-12-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9294785B2 (en) 2013-06-06 2016-03-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9326047B2 (en) 2013-06-06 2016-04-26 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
US10275128B2 (en) 2013-03-15 2019-04-30 Activevideo Networks, Inc. Multiple-mode system and method for providing user selectable video content
US10409445B2 (en) 2012-01-09 2019-09-10 Activevideo Networks, Inc. Rendering of an interactive lean-backward user interface on a television

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002082822A1 (en) * 2001-03-30 2002-10-17 Mitsubishi Denki Kabushiki Kaisha Dynamic image receiver and dynamic image transmitter
JP2004241793A (en) * 2001-03-30 2004-08-26 Mitsubishi Electric Corp Dynamic image receiver and dynamic image transmitter
US7715478B2 (en) 2002-02-01 2010-05-11 Panasonic Corporation Moving picture coding method and moving picture decoding method
US7936825B2 (en) 2002-02-01 2011-05-03 Panasonic Corporation Moving image coding method and moving image decoding method
JP2009077452A (en) * 2002-02-01 2009-04-09 Panasonic Corp Method for encoding and decoding moving image
US7664178B2 (en) 2002-02-01 2010-02-16 Panasonic Corporation Moving picture coding method and moving picture decoding method
US7664179B2 (en) 2002-02-01 2010-02-16 Panasonic Corporation Moving picture coding method and moving picture decoding method
US8737473B2 (en) 2002-02-01 2014-05-27 Panasonic Corporation Moving picture coding method and moving picture decoding method
US8396132B2 (en) 2002-02-01 2013-03-12 Panasonic Corporation Moving picture coding method and moving picture decoding method
JP2012010380A (en) * 2002-02-01 2012-01-12 Panasonic Corp Moving image encoding device
JP2011254535A (en) * 2002-02-01 2011-12-15 Panasonic Corp Moving image encoding device, moving image encoding method, and moving image encoding program
US7444024B2 (en) 2004-04-26 2008-10-28 Fujitsu Limited Image compression method
JP2005341076A (en) * 2004-05-26 2005-12-08 Nippon Telegr & Teleph Corp <Ntt> Image communication system, communication conference system, hierarchical encoder, server device, image communication method, image communication program, and image communication program recording medium
US9077860B2 (en) 2005-07-26 2015-07-07 Activevideo Networks, Inc. System and method for providing video content associated with a source image to a television in a communication network
JP2010505330A (en) * 2006-09-29 2010-02-18 アビニティ・システムズ・ベスローテン・フェンノートシャップ Method, system, and computer software for streaming parallel user sessions
US9355681B2 (en) 2007-01-12 2016-05-31 Activevideo Networks, Inc. MPEG objects and systems and methods for using MPEG objects
US9042454B2 (en) 2007-01-12 2015-05-26 Activevideo Networks, Inc. Interactive encoded content system including object models for viewing on a remote device
US9826197B2 (en) 2007-01-12 2017-11-21 Activevideo Networks, Inc. Providing television broadcasts over a managed network and interactive content over an unmanaged network to a client device
US9021541B2 (en) 2010-10-14 2015-04-28 Activevideo Networks, Inc. Streaming digital video between video devices using a cable television system
US9204203B2 (en) 2011-04-07 2015-12-01 Activevideo Networks, Inc. Reduction of latency in video distribution networks using adaptive bit rates
US10409445B2 (en) 2012-01-09 2019-09-10 Activevideo Networks, Inc. Rendering of an interactive lean-backward user interface on a television
US9123084B2 (en) 2012-04-12 2015-09-01 Activevideo Networks, Inc. Graphical application integration with MPEG objects
US10275128B2 (en) 2013-03-15 2019-04-30 Activevideo Networks, Inc. Multiple-mode system and method for providing user selectable video content
US11073969B2 (en) 2013-03-15 2021-07-27 Activevideo Networks, Inc. Multiple-mode system and method for providing user selectable video content
US9219922B2 (en) 2013-06-06 2015-12-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9294785B2 (en) 2013-06-06 2016-03-22 Activevideo Networks, Inc. System and method for exploiting scene graph information in construction of an encoded video sequence
US9326047B2 (en) 2013-06-06 2016-04-26 Activevideo Networks, Inc. Overlay rendering of user interface onto source video
US10200744B2 (en) 2013-06-06 2019-02-05 Activevideo Networks, Inc. Overlay rendering of user interface onto source video

Also Published As

Publication number Publication date
JP3854737B2 (en) 2006-12-06

Similar Documents

Publication Publication Date Title
US6512793B1 (en) Data processing apparatus and method
KR101610419B1 (en) Image signal decoding device, image signal decoding method, image signal encoding device, image signal encoding method, and recording medium
US6546189B1 (en) Method and apparatus for editing compressed moving pictures and storage medium
KR100750520B1 (en) Encoded stream generating device and method, data transmission system and method, and editing system and method
JP4964595B2 (en) Image decoding apparatus and method
JP4838253B2 (en) Image encoding device, image encoding method, image decoding device, image decoding method, and recording method
JP2000152234A (en) Processor and method for data processing, and data processing system
US20050243922A1 (en) High definition scalable array encoding system and method
KR100701443B1 (en) Method of transcoding coded video signals and corresponding transcoder with motion vector selection
JP2004187161A (en) Moving video data processing equipment and moving video data processing method
US20070258009A1 (en) Image Processing Device, Image Processing Method, and Image Processing Program
JP2007074450A (en) Encoding device and encoding method of moving image signal, and computer-readable recording medium
JP4410414B2 (en) Video signal compression processing method
JP2004186811A (en) Encoded data conversion apparatus and method thereof
JP2005175710A (en) Digital recording and reproducing apparatus and digital recording and reproducing method
JP3748234B2 (en) MPEG data recording method
JP3854738B2 (en) Data processing apparatus and method, and data processing system
JP4528043B2 (en) Video signal conversion apparatus, conversion method, and video signal recording apparatus using the same
JP3854717B2 (en) Decoding apparatus and method
JP3897499B2 (en) Encoding apparatus and encoding method
JP4193224B2 (en) Moving picture coding apparatus and method, and moving picture decoding apparatus and method
KR20140136474A (en) Image encoding device, image decoding device, image encoding method, and image decoding method
JP2001218206A (en) Image coder and its method, and medium
JP3748243B2 (en) MPEG data recording device
JP4192861B2 (en) MPEG image data recording apparatus and MPEG image data recording method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060731

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060911

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130915

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees