JPH11346363A - Image processing unit and its method - Google Patents
Image processing unit and its methodInfo
- Publication number
- JPH11346363A JPH11346363A JP15176698A JP15176698A JPH11346363A JP H11346363 A JPH11346363 A JP H11346363A JP 15176698 A JP15176698 A JP 15176698A JP 15176698 A JP15176698 A JP 15176698A JP H11346363 A JPH11346363 A JP H11346363A
- Authority
- JP
- Japan
- Prior art keywords
- shape information
- shape
- dividing
- image processing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は画像処理装置及びそ
の方法に関し、特に動画像内のオブジェクトを抽出して
処理する画像処理装置及びその方法に関する。The present invention relates to an image processing apparatus and method, and more particularly, to an image processing apparatus and method for extracting and processing objects in a moving image.
【0002】[0002]
【従来の技術】近年、動画像をその背景とオブジェクト
とに分離し、それぞれを符号化するオブジェクト符号化
の技術が開発されつつある。その代表としてMPEG-4符号
化方式が知られており、標準化作業が進んでいる。MPEG
-4符号化方式は、動画像を背景とオブジェクトと呼ばれ
る符号化の対象とに分離し、それぞれを符号化する方式
である。これにより、従来のMPEG-1,MPEG-2,h.261,
h.263等に代表されるフレーム単位での符号化と異な
り、動きの無い(または少ない)背景の部分の符号化を
2度以上行わないので、低ビットレートでの符号化が可
能になる。さらに、復号側でオブジェクトの取捨選択や
拡大縮小や回転などの編集作業を行うことが容易にでき
るため、ユーザの好みを反映した復号が可能になった。2. Description of the Related Art In recent years, an object coding technique for separating a moving image into its background and objects and coding each of them has been developed. The MPEG-4 coding method is known as a representative example, and standardization work is in progress. MPEG
The -4 coding method is a method in which a moving image is separated into a background and a coding target called an object, and each is coded. As a result, the conventional MPEG-1, MPEG-2, h.261,
Unlike encoding in units of frames represented by h.263 or the like, encoding of a background portion with no (or little) motion is not performed twice or more, so that encoding at a low bit rate becomes possible. Furthermore, since it is possible to easily perform an editing operation such as selection of an object, enlargement / reduction, rotation, and the like on the decoding side, decoding that reflects the user's preference has become possible.
【0003】以下、MPEG-4符号化方式における符号化の
一例について説明する。尚、画像内における背景とオブ
ジェクトの抽出方法についてはMPEG-4の標準の対象外で
あり、自由である。例えば「スポーツ番組における事前
知識情報を用いたモルフォロジカルセグメンテーショ
ン」(1997年映像メディア処理シンポジウム(IMPS97)I-
3,15 1997.10.8苗村他)に示されるような手法を用
いることができる。これは、オブジェクトである選手の
いないグラウンド等の情報を背景として予め取得してお
き、該背景の情報に基づいて動画像からオブジェクト
(選手)を抽出するという方法である。[0003] An example of encoding in the MPEG-4 encoding method will be described below. It should be noted that the method of extracting the background and the object in the image is outside the scope of the MPEG-4 standard and is free. For example, "Morphological Segmentation Using Prior Knowledge Information in Sports Programs" (1997 Visual Media Processing Symposium (IMPS97) I-
3,15 1997.10.8 Naemura et al.). This is a method in which information such as a ground without a player as an object is acquired in advance as a background, and an object (player) is extracted from a moving image based on the background information.
【0004】図18は、従来の画像入力装置の構成を示す
ブロック図である。同図において、最初にTVカメラ1001
により撮像された動画像データを背景メモリ1002に格納
する。以下、図19に示すような、海上を航行するヨット
と戦艦の画像を例として説明する。この画像から、カラ
ーヒストグラムを作成して背景の領域を抽出した場合、
図20に示すように、上半分の空の部分と下半分の海の部
分を検出できる。この図20に示す背景画像は静止画像で
あるから、背景画像符号化器1003で静止画像の符号化が
される。FIG. 18 is a block diagram showing a configuration of a conventional image input device. In the figure, first, the TV camera 1001
Is stored in the background memory 1002. Hereinafter, an image of a yacht and a battleship navigating at sea as shown in FIG. 19 will be described as an example. If you create a color histogram from this image and extract the background area,
As shown in FIG. 20, the upper half of the sky and the lower half of the sea can be detected. Since the background image shown in FIG. 20 is a still image, the still image is encoded by the background image encoder 1003.
【0005】続いて、オブジェクトであるヨットと戦艦
が入った画像を動画像として撮像し、オブジェクト抽出
器1004において背景画像との差分をとったり、色の異な
る領域を抽出することでオブジェクトを抽出することが
できる。抽出されたオブジェクトは図21に示すとおりと
なる。これをオブジェクト符号化器1005で符号化する。Subsequently, an image containing the yacht and the battleship, which are objects, is captured as a moving image, and the object is extracted by taking a difference from the background image in the object extractor 1004 or extracting regions having different colors. Can be. The extracted objects are as shown in FIG. This is encoded by the object encoder 1005.
【0006】図22に、オブジェクト符号化器1005の詳細
ブロック構成を示す。端子1020から形状(shape)情報を
入力し、形状メモリ1022に格納する。この形状情報はオ
ブジェクトを表す画素を白、それ以外を黒とするような
2値画像で表される。境界抽出器1023でこの画像から白
黒が反転する画素を境界として抽出し、動き補償器1024
に入力する。フレームモードがIフレームであれば動き
補償器1024は動作せず、PフレームやBフレームであれ
ば過去のフレームの境界状態を格納した境界メモリ1025
の内容と比較して動き補償を行い、その結果を算術符号
化する。その後、入力された形状情報の境界の情報を境
界メモリ1025に格納する。FIG. 22 shows a detailed block configuration of the object encoder 1005. Shape information is input from the terminal 1020 and stored in the shape memory 1022. This shape information is represented by a binary image in which the pixel representing the object is white and the others are black. The boundary extractor 1023 extracts a pixel where black and white are inverted from this image as a boundary, and a motion compensator 1024
To enter. If the frame mode is the I frame, the motion compensator 1024 does not operate. If the frame mode is the P frame or the B frame, the boundary memory 1025 storing the boundary state of the past frame.
And performs motion compensation, and arithmetically encodes the result. After that, the boundary information of the input shape information is stored in the boundary memory 1025.
【0007】一方、図21に表されるオブジェクトの画像
データは、端子1021から入力されてオブジェクトメモリ
1027に格納される。オブジェクトメモリ1027と形状メモ
リ1022の画像データは補填器1028に入力される。補填器
1028はオブジェクトの外の画素、即ち、形状情報が黒で
ある画素を、近くのオブジェクト内の画素値によってマ
クロブロック単位に補填する。補填した結果を図23に示
す。ここで、補填は垂直方向と水平方向の繰り返しによ
り行なう。オブジェクトから離れたマクロブロックには
補填器1028から補填画素が入力される。On the other hand, the image data of the object shown in FIG.
Stored in 1027. The image data in the object memory 1027 and the shape memory 1022 are input to the compensator 1028. Compensator
Reference numeral 1028 compensates for pixels outside the object, that is, pixels whose shape information is black, in macroblock units using pixel values in nearby objects. The result of the compensation is shown in FIG. Here, the compensation is performed by repeating the vertical direction and the horizontal direction. A supplementary pixel is input from a compensator 1028 to a macroblock away from the object.
【0008】このようにして補填された画像データは、
差分器1029で動き補償器1037の出力との差分が求めら
れ、DCT変換器1030でDCT変換され、量子化器1031で所定
の量子化マトリクスで量子化された後、係数符号化器10
32でハフマン符号化される。量子化結果は逆量子化器10
33で逆量子化され、逆DCT変換器1034で予測差分値に戻
されて動き補償器1037の出力と加えて画素値を復号し、
オブジェクトメモリ1036に格納して次の動き補償に用い
る。動き補償器1037はPフレームとBフレームの時、オ
ブジェクトメモリ1036とオブジェクトメモリ1027の内容
を比較して動き補償を行い、その予測値と動きベクトル
を算出する。動きベクトルは符号化され、合成器1038に
入力される。算術符号器1026、動き補償器1037、係数符
号化器1032の出力は合成器1038でヘッダ等を加えられて
MPEG-4の符号化データに整えられ、端子1039から出力さ
れる。[0008] The image data thus supplemented is
A difference from the output of the motion compensator 1037 is obtained by a differentiator 1029, DCT-transformed by a DCT transformer 1030, and quantized by a predetermined quantization matrix by a quantizer 1031.
It is Huffman coded at 32. Quantization result is inverse quantizer 10
The pixel value is inversely quantized at 33, returned to the prediction difference value at the inverse DCT transformer 1034 and added to the output of the motion compensator 1037 to decode the pixel value,
The data is stored in the object memory 1036 and used for the next motion compensation. The motion compensator 1037 compares the contents of the object memory 1036 and the object memory 1027 for the P frame and the B frame, performs motion compensation, and calculates a predicted value and a motion vector. The motion vector is encoded and input to the synthesizer 1038. The outputs of the arithmetic encoder 1026, the motion compensator 1037, and the coefficient encoder 1032 are added with a header and the like by a synthesizer 1038.
The data is arranged into MPEG-4 encoded data and output from the terminal 1039.
【0009】図18に戻り、合成器1006は、背景符号化器
1003とオブジェクト符号化器1005の出力を合成し、ヘッ
ダ等を加えてMPEG-4の符号化データに整えた後、通信イ
ンタフェース1007を介して通信回線1008に送出したり、
記憶装置1009に蓄積したりする。Returning to FIG. 18, the synthesizer 1006 is a background encoder.
After synthesizing the output of the object encoder 1005 with the output of the object encoder 1005 and adding headers and the like to prepare encoded data of MPEG-4, it is transmitted to the communication line 1008 via the communication interface 1007,
It is stored in the storage device 1009.
【0010】[0010]
【発明が解決しようとする課題】しかしながら、上述し
たオブジェクトの抽出方法では、背景以外をオブジェク
トとするため、本来異なるべきである複数のオブジェク
ト、例えば図21ではヨットと戦艦の両方が1つのオブジ
ェクトとして扱われてしまうため、個別のオブジェクト
として扱うことは非常に困難であった。However, in the above-described object extraction method, since objects other than the background are used as objects, a plurality of objects that should be originally different, for example, both the yacht and the battleship in FIG. Therefore, it was very difficult to handle them as individual objects.
【0011】また、図24に示すように、次のフレームで
オブジェクトどうしが離れていく場合等においては、1
オブジェクトとしてまとめられたオブジェクト全体の大
きさは大きくなる。従って、復号側では復号した形状情
報やオブジェクトの画像が大きくなり、メモリを不要に
大きく占有してしまうため、処理効率が悪くなってしま
う。Also, as shown in FIG. 24, when objects are separated from each other in the next frame, etc.
The size of the entire object collected as an object increases. Therefore, on the decoding side, the decoded shape information and the image of the object become large and unnecessarily occupy a large amount of memory, resulting in poor processing efficiency.
【0012】また、フレーム単位でオブジェクトの抽出
を行うため、たとえオブジェクト毎に切り出せてもフレ
ーム間での関係が分からないため、フレーム間相関を用
いた符号化は困難である。Further, since objects are extracted in units of frames, even if the objects are extracted for each object, the relationship between frames is not known, so that encoding using inter-frame correlation is difficult.
【0013】前記課題を考慮して、本発明は、動画像内
のオブジェクトを分割して抽出し、効率のよい符号化処
理を可能とする画像処理装置及びその方法を提供するこ
とを目的とする。In view of the above problems, it is an object of the present invention to provide an image processing apparatus and method for dividing and extracting an object in a moving image and enabling efficient encoding processing. .
【0014】[0014]
【課題を解決するための手段】上記目的を達成するため
の一手段として、本発明の画像処理装置は以下の構成を
備える。As one means for achieving the above object, the image processing apparatus of the present invention has the following arrangement.
【0015】即ち、動画像データを入力する入力手段
と、該動画像から少なくとも1つのオブジェクトを抽出
し、その形状情報と共に出力するオブジェクト抽出手段
と、前記形状情報を分割する形状分割手段と、前記形状
分割手段における分割結果に基づき、前記オブジェクト
を分割するオブジェクト分割手段と、備えることを特徴
とする。[0015] That is, input means for inputting moving picture data, object extracting means for extracting at least one object from the moving picture and outputting it together with its shape information, shape dividing means for dividing the shape information, An object dividing unit configured to divide the object based on a result of the division by the shape dividing unit.
【0016】また、符号化された動画像データを入力す
る入力手段と、該動画像データを背景の符号化データと
オブジェクトの符号化データとに分離する分離手段と、
該分離されたオブジェクトの符号化データから形状情報
を抽出する抽出手段と、該形状情報を分割する形状分割
手段と、前記形状分割手段における分割結果に基づき、
前記オブジェクトの符号化データを分割するオブジェク
ト分割手段と、を備えることを特徴とする。Input means for inputting encoded moving image data; separating means for separating the moving image data into background encoded data and object encoded data;
Extracting means for extracting shape information from the encoded data of the separated object; shape dividing means for dividing the shape information; and a dividing result in the shape dividing means.
Object dividing means for dividing the encoded data of the object.
【0017】本発明がこのように構成されることによ
り、形状情報を用いて対象を分割する動作を容易に、且
つ確実に行うことが可能になる。According to the present invention, an operation of dividing an object using shape information can be easily and reliably performed.
【0018】[0018]
【発明の実施の形態】以下、本発明に係る一実施形態に
ついて、図面を参照して詳細に説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below in detail with reference to the drawings.
【0019】<第一実施形態>図1は本実施形態として
の動画像入力装置の構成を示すブロック図である。本実
施形態においては、画像内のオブジェクトを抽出する方
法として前記「スポーツ番組における事前知識情報を用
いたモルフォロジカルセグメンテーション」を用い、符
号化方式としてMPEG-4符号化方式を用いた場合について
説明する。<First Embodiment> FIG. 1 is a block diagram showing the configuration of a moving image input apparatus according to this embodiment. In the present embodiment, a case will be described in which the aforementioned “morphological segmentation using prior knowledge information in a sports program” is used as a method for extracting objects in an image, and an MPEG-4 encoding method is used as an encoding method. .
【0020】図1において、101はTVカメラである。な
お、このTVカメラ101は動画像を撮像し、ディジタル信
号として出力するものであればどんなものでもよい。10
2は背景メモリであり、事前に撮像された背景画像を格
納する。103は背景画像を符号化する背景符号化器であ
る。104は前述のモルフォロジカルセグメンテーション
にてオブジェクトの抽出を行うオブジェクト抽出器であ
る。105は本実施形態の特徴である、オブジェクトを分
割するオブジェクト分割器である。106は分割されたオ
ブジェクトをそれぞれ符号化するオブジェクト符号化器
である。107は得られた符号化データにヘッダ等を付加
し、MPEG-4の符号化書式に適応するように符号化データ
を合成する合成器である。108は通信インタフェースで
あり、109は通信回線である。110は符号化データを蓄積
する記憶装置である。In FIG. 1, reference numeral 101 denotes a TV camera. The TV camera 101 may be any type as long as it captures a moving image and outputs it as a digital signal. Ten
A background memory 2 stores a background image captured in advance. Reference numeral 103 denotes a background encoder that encodes a background image. Reference numeral 104 denotes an object extractor that extracts an object by the above-described morphological segmentation. Reference numeral 105 denotes an object divider that divides an object, which is a feature of the present embodiment. An object encoder 106 encodes each of the divided objects. Reference numeral 107 denotes a synthesizer that adds a header or the like to the obtained encoded data and synthesizes the encoded data so as to adapt to the MPEG-4 encoding format. 108 is a communication interface, and 109 is a communication line. 110 is a storage device for storing encoded data.
【0021】以下、本実施形態において動画像を撮像
し、該画像を符号化して出力する処理について詳細に説
明する 以下、説明をより明解にするために、図19に示
す画像を撮像する場合を例として説明する。Hereinafter, a process of capturing a moving image, encoding the image, and outputting the image in the present embodiment will be described in detail. In order to make the description clearer, the case of capturing an image shown in FIG. This will be described as an example.
【0022】図1に示す構成において、ユーザは、まず
各部の初期化を行い、TVカメラ101からオブジェクトの
ない、即ち背景のみの画像を撮像する。撮像された例え
ば図20に示すような背景画像は、背景メモリ102に入力
される。背景メモリ102の内容は背景符号化器103で符号
化され、合成器107でMPEG-4の符号化データとして整え
られた後、通信インタフェース108を介して通信回線109
に送出されたり、記憶装置110に蓄積されたりする。In the configuration shown in FIG. 1, the user first initializes each section and captures an image without an object, that is, an image of only the background from the TV camera 101. The captured background image as shown in FIG. 20, for example, is input to the background memory 102. The content of the background memory 102 is encoded by a background encoder 103 and prepared as MPEG-4 encoded data by a synthesizer 107, and then transmitted via a communication interface 108 via a communication interface 108.
Or stored in the storage device 110.
【0023】続いてTVカメラ101により、オブジェクト
を含めた動画像を撮像し、オブジェクト抽出器104に入
力する。オブジェクト抽出器104は、上述したモルフォ
ロジカルセグメンテーションによって、背景画像の特性
から異なる性質の領域をオブジェクトとして抽出し、オ
ブジェクト分割器105にその形状情報と画像データを入
力する。Subsequently, the moving image including the object is captured by the TV camera 101 and input to the object extractor 104. The object extractor 104 extracts a region having a different characteristic from the characteristics of the background image as an object by the above-described morphological segmentation, and inputs the shape information and the image data to the object divider 105.
【0024】オブジェクト分割器105の詳細ブロック構
成を図2に示す。同図において、端子120はオブジェクト
抽出器104から形状情報である2値画像を入力する。端
子121はオブジェクト抽出器104からオブジェクトの画像
データを入力する。122は形状メモリであり、入力され
た形状情報をフレーム毎に格納する。132はオブジェク
トメモリであり、入力されたオブジェクトの画像データ
をフレーム毎に格納する。123は領域抽出器であり、形
状情報から閉領域を抽出し、閉領域毎に矩形で切り出し
て抽出する。124は抽出された領域を格納する領域メモ
リであり、125はそのデータを変倍し変形させる変形器
である。126は領域抽出器123から出力された各領域のデ
ータと変形器125の出力との排他的論理和を求めること
により領域を比較する領域比較器であり、127はこの領
域比較結果に基づいて最も類似する領域を選択する領域
選択器である。128は抽出された領域の情報を格納する
領域情報メモリであり、端子129は抽出された領域の情
報を出力する。130は領域情報に従って領域抽出器123か
らそれぞれの領域を新たな形状情報として格納する形状
メモリである。131は形状メモリ130に格納された各領域
の形状情報を出力する端子である。133は領域データ抽
出器であり、オブジェクトメモリ132から画像データを
読み出し、領域情報メモリ128内の領域情報と形状メモ
リ130内の形状情報に従って、いずれの閉領域に属する
ものかを判定し、それぞれの閉領域毎に画像データをオ
ブジェクトメモリ134に格納する。FIG. 2 shows a detailed block configuration of the object divider 105. In the figure, a terminal 120 inputs a binary image as shape information from the object extractor 104. A terminal 121 inputs image data of the object from the object extractor 104. A shape memory 122 stores the input shape information for each frame. Reference numeral 132 denotes an object memory which stores input image data of the object for each frame. Reference numeral 123 denotes an area extractor that extracts a closed area from the shape information, and cuts out and extracts a rectangle for each closed area. 124 is an area memory for storing the extracted area, and 125 is a deformer for scaling and deforming the data. Reference numeral 126 denotes an area comparator that compares the areas by calculating the exclusive OR of the data of each area output from the area extractor 123 and the output of the deformer 125. 127 is the most based on the area comparison result. It is an area selector for selecting a similar area. An area information memory 128 stores information on the extracted area, and a terminal 129 outputs information on the extracted area. Reference numeral 130 denotes a shape memory for storing each area from the area extractor 123 as new shape information according to the area information. Reference numeral 131 denotes a terminal for outputting the shape information of each area stored in the shape memory 130. An area data extractor 133 reads out image data from the object memory 132, determines which closed area belongs to which area according to the area information in the area information memory 128 and the shape information in the shape memory 130, and determines each of them. The image data is stored in the object memory 134 for each closed area.
【0025】このような構成において、オブジェクトを
含む第1のフレームについて、端子120と端子121からフ
レームの形状情報(図3)とオブジェクトの画像データ
(図21)がそれぞれ入力され、形状メモリ122とオブジ
ェクトメモリ132にそれぞれ格納される。領域抽出器123
は形状メモリ122から2値画像を読み出し、形状情報に
含まれる閉領域を抽出する。例えば図3においては、2
つの閉領域があることがわかる。1つはヨットであり、
もう1つは戦艦である。領域抽出器123では、最初に左
側の閉領域(ヨット)について図4に示すように外接矩
形で切り出し、領域メモリ124と形状メモリ130に格納す
る。処理フレームが第1フレームである場合には領域比
較器126、領域選択器127は作動せず、領域情報メモリ12
8は抽出された閉領域を新たな形状情報としてその位置
や大きさ等の情報を格納する。続いて、右側の閉領域
(戦艦)についても同様に図5に示すように外接矩形で
切り出し、領域メモリ124、形状メモリ130、領域情報メ
モリ128への格納を行う。In such a configuration, for the first frame including the object, the frame shape information (FIG. 3) and the object image data (FIG. 21) are input from the terminals 120 and 121, respectively. Each is stored in the object memory 132. Region extractor 123
Reads a binary image from the shape memory 122 and extracts a closed region included in the shape information. For example, in FIG.
It can be seen that there are two closed regions. One is a yacht,
The other is a battleship. In the area extractor 123, first, the closed area (yacht) on the left side is cut out as a circumscribed rectangle as shown in FIG. 4, and stored in the area memory 124 and the shape memory 130. When the processing frame is the first frame, the area comparator 126 and the area selector 127 do not operate, and the area information memory 12
Numeral 8 stores information such as the position and size of the extracted closed region as new shape information. Subsequently, the closed area (battleship) on the right side is similarly cut out as a circumscribed rectangle as shown in FIG. 5, and stored in the area memory 124, the shape memory 130, and the area information memory 128.
【0026】その後、領域データ抽出器133においてオ
ブジェクトメモリ132から画像データが読み出され、領
域情報メモリ128内の領域情報と形状メモリ130内の形状
情報に従って、いずれの閉領域に属するものかを判定
し、それぞれの閉領域毎に画像データをオブジェクトメ
モリ134に格納する。本実施形態においては、オブジェ
クトメモリ134に格納された画像データが、分割された
新たなオブジェクトとなる。Thereafter, the image data is read from the object memory 132 by the area data extractor 133, and it is determined which closed area belongs to which area according to the area information in the area information memory 128 and the shape information in the shape memory 130. Then, the image data is stored in the object memory 134 for each closed area. In the present embodiment, the image data stored in the object memory 134 becomes a new divided object.
【0027】以上が、オブジェクト分割器105における
1フレームの分割処理である。以下、符号化するフレー
ム順にオブジェクト分割器105への入力を行なう。ここ
で、続くフレームの画像を図24として、オブジェクト分
割器105における第1フレーム以降の処理について説明す
る。The above is the processing of dividing one frame by the object divider 105. Hereinafter, input to the object divider 105 is performed in the order of encoding frames. Here, the processing of the first and subsequent frames in the object divider 105 will be described with the image of the subsequent frame as FIG.
【0028】図24によれば、ヨットは画面左に舵を切り
ながら進んでおり、戦艦はこちらに向かって前進してい
ることが分かる。このとき、オブジェクト分割器105の
端子120と端子121からはフレームの形状情報とオブジェ
クトの画像データが入力され、形状メモリ122とオブジ
ェクトメモリ132に格納される。第1フレームの場合と同
様に、領域抽出器123は形状メモリ122から2値画像を読
み出し、形状情報に含まれる閉領域を抽出する。抽出さ
れたヨットの閉領域を最初に処理するが、ここで、抽出
された閉領域を図6に示す。変形器125は、最初に領域メ
モリ124に格納されている複数の領域をそれぞれ読み出
し、領域比較器126に入力される形状情報(図6に対応)と
同じ大きさになるように変倍が行われる。According to FIG. 24, it can be seen that the yacht is moving while turning the rudder to the left of the screen, and the battleship is moving toward this. At this time, frame shape information and object image data are input from the terminals 120 and 121 of the object divider 105, and stored in the shape memory 122 and the object memory 132. As in the case of the first frame, the area extractor 123 reads the binary image from the shape memory 122 and extracts a closed area included in the shape information. The extracted closed area of the yacht is processed first, wherein the extracted closed area is shown in FIG. The deformer 125 first reads a plurality of areas stored in the area memory 124, and performs scaling so as to have the same size as the shape information (corresponding to FIG. 6) input to the area comparator 126. Will be
【0029】領域比較器126では、変倍された結果と入
力された領域との差分を求めることにより、比較を行
う。ここで、図7に前フレームのヨットの形状情報を変
形させて、新たに入力された閉領域画像との排他的論理
和をとった結果を示し、図8に前フレームの戦艦の形状
情報を変形させて排他的論理和をとった結果を示す。即
ち、図7及び図8においては、黒で示される画素が両閉領
域間において異なる画素であることを表している。図7
と図8から明らかなように、図8の方が黒画素が多いこと
がわかる。即ち、領域比較器126においては、黒画素数
をカウントし、該カウント値の少ないほうの閉領域が、
入力領域との類似度がより高いことを示す。The area comparator 126 performs a comparison by obtaining a difference between the scaled result and the input area. Here, FIG. 7 shows the result of transforming the shape information of the yacht of the previous frame and performing an exclusive OR operation with the newly input closed area image, and FIG. 8 shows the shape information of the battleship of the previous frame. This shows the result of exclusive OR operation after transformation. That is, FIGS. 7 and 8 show that the pixels shown in black are different pixels between both closed regions. Fig. 7
It is clear from FIG. 8 that there are more black pixels in FIG. That is, in the area comparator 126, the number of black pixels is counted, and the closed area having the smaller count value is
Indicates that the similarity with the input area is higher.
【0030】領域比較器126は、このカウント結果を領
域選択器127に入力する。領域選択器127では、領域比較
器126からのカウント結果に基づき、端子120より入力さ
れた閉領域が前フレームで検出されたヨットの閉領域と
同じオブジェクトを表すことを検知し、新たに検出した
閉領域がヨットと同じオブジェクトであること、及びそ
の位置、大きさ等の領域情報を、領域情報メモリ128に
書き込む。The area comparator 126 inputs the count result to the area selector 127. The area selector 127 detects that the closed area input from the terminal 120 represents the same object as the closed area of the yacht detected in the previous frame, based on the count result from the area comparator 126, and newly detects the closed area. The area information such as the fact that the closed area is the same object as the yacht and its position, size, etc. is written to the area information memory 128.
【0031】続いて、図24に示す右側の戦艦領域につい
ても同様に、複数の閉領域との排他的論理和をとり、そ
の比較結果に基づいて、領域情報メモリ128は新たに検
出した閉領域が戦艦と同じオブジェクトであること、及
びその位置、大きさ等の領域情報を領域情報メモリ128
に格納する。尚、領域情報メモリ128の内容は、符号化
時にオブジェクトの情報として図1に示すオブジェクト
符号化器106で符号を割り当てられ、合成器107でヘッダ
等に記録される。Subsequently, an exclusive OR operation with a plurality of closed areas is similarly performed on the right battleship area shown in FIG. 24, and based on the comparison result, the area information memory 128 stores the newly detected closed area. Is the same object as the battleship, and the area information such as its position and size is stored in the area information memory 128.
To be stored. The contents of the area information memory 128 are assigned a code by the object encoder 106 shown in FIG. 1 as object information at the time of encoding, and are recorded in a header or the like by the synthesizer 107.
【0032】上述したようにして検出された閉領域は、
それぞれ形状メモリ130に格納される。領域データ抽出
器133は、領域情報メモリ128の内容と形状メモリ130の
内容とに基づいて、オブジェクトメモリ132からそれぞ
れのオブジェクトデータを切り出し、オブジェクトメモ
リ134に別々に格納する。ここで、図9にヨットの切り出
し結果を、図10に戦艦の切り出し結果を示す。形状メモ
リ130とオブジェクトメモリ134の内容は、符号化時にそ
れぞれ端子131、135から読み出される。The closed area detected as described above is
Each is stored in the shape memory 130. The area data extractor 133 cuts out each object data from the object memory 132 based on the contents of the area information memory 128 and the contents of the shape memory 130, and stores them separately in the object memory 134. Here, FIG. 9 shows a cutout result of a yacht, and FIG. 10 shows a cutout result of a battleship. The contents of the shape memory 130 and the object memory 134 are read from the terminals 131 and 135 at the time of encoding.
【0033】以上がオブジェクト分割器105における分
割処理の説明である。The above is the description of the dividing process in the object divider 105.
【0034】図1に戻り、オブジェクト符号化器106は、
オブジェクト分割器105から出力される領域情報メモリ1
28の内容、形状メモリ130、オブジェクトメモリ134の内
容をそれぞれMPEG-4符号化方式の書式に従って符号化
し、合成器107に出力する。形状の符号化とオブジェク
トの画像データの符号化は、上述した図22のブロック図
に示す構成によって行える。合成器107は、背景符号化
器103とオブジェクト符号化器106の出力を合成し、ヘッ
ダ等を加えてMPEG-4の符号化データに整えた後、通信イ
ンタフェース108を介して通信回線109に送出したり、記
憶装置110に蓄積したりする。Returning to FIG. 1, the object encoder 106
Area information memory 1 output from object divider 105
The content of 28, the content of the shape memory 130, and the content of the object memory 134 are encoded according to the MPEG-4 encoding format, and output to the synthesizer 107. Encoding of a shape and encoding of image data of an object can be performed by the configuration shown in the block diagram of FIG. 22 described above. A combiner 107 combines the outputs of the background encoder 103 and the object encoder 106, prepares MPEG-4 encoded data by adding a header and the like, and sends the data to the communication line 109 via the communication interface 108. Or store it in the storage device 110.
【0035】以上説明したように本実施形態によれば、
一連の選択動作により形状情報からオブジェクトを分割
し、フレーム毎に類似度を測定することで、連続するオ
ブジェクトを容易に決定することができる。これによ
り、符号化効率を向上させるとともに、オブジェクト毎
に編集を施したり、別の符号化データとして扱ったりす
ることができる。As described above, according to this embodiment,
By dividing the object from the shape information by a series of selection operations and measuring the similarity for each frame, a continuous object can be easily determined. As a result, the encoding efficiency can be improved, and editing can be performed for each object, or the object can be handled as different encoded data.
【0036】また、符号化側、復号側においては、1オ
ブジェクトのサイズを最小とすることができるため、補
填を行う領域を縮小することで処理を軽減することがで
き、また同時に、復号側ではオブジェクトを復号するた
めのメモリ容量を小さく抑えることも可能になる。Further, since the size of one object can be minimized on the encoding side and the decoding side, the processing can be reduced by reducing the area to be compensated. It is also possible to reduce the memory capacity for decoding the object.
【0037】尚、本実施形態においては、領域の類似性
を計るのに形状情報の不一致画素の数を参照する例につ
いて説明したが、本発明は必ずしもこの例に限定され
ず、形状の重心や、形状自体を用いても構わない。例え
ば形状自体を比較する方法としては、輪郭追跡による曲
り方や分岐のし方等の特徴を判定に用いれば良い。Although the present embodiment has been described with reference to the example in which the number of unmatched pixels of the shape information is referred to in order to measure the similarity of the regions, the present invention is not necessarily limited to this example. Alternatively, the shape itself may be used. For example, as a method of comparing the shapes themselves, it is only necessary to use characteristics such as how to bend or branch by contour tracing.
【0038】また、符号化方式もMPEG-4方式に限定され
ない。例えば、形状の符号化としてチェイン符号化等の
別の符号化方式を用いても良いし、オブジェクトの画像
データの符号化としてフレーム間相関を用いない符号化
を行なっても構わない。The encoding method is not limited to the MPEG-4 method. For example, another coding method such as chain coding may be used as shape coding, or coding without using inter-frame correlation may be performed as coding of image data of an object.
【0039】また、得られた符号化データの出力方法と
しても本実施形態に限定されるものではない。また、オ
ブジェクトの分割後、符号化せずに画像を編集する装置
等に直接入力し、オブジェクトの配置を変えたり、オブ
ジェクト自体に回転・拡大縮小等の画像編集作用を施す
ことももちろん可能である。The method of outputting the obtained encoded data is not limited to the present embodiment. Further, after the object is divided, the image can be directly input to a device that edits an image without encoding, for example, to change the arrangement of the object, or to apply an image editing function such as rotation / enlargement / reduction to the object itself. .
【0040】<第2実施形態>以下、本発明に係る第2
実施形態について説明する。第2実施形態においては、
処理対象となる画像データが符号化データとして入力さ
れることを特徴とする。<Second Embodiment> Hereinafter, a second embodiment according to the present invention will be described.
An embodiment will be described. In the second embodiment,
The image data to be processed is input as encoded data.
【0041】図11は、第2実施形態に係る画像処理装置
の構成を示すブロック図である。ここで、上述した第1
実施形態において示した図1と同様の構成要素について
は同一番号を付し、その詳細な説明を省略する。尚、第
2実施形態においては、その入力データはMPEG-4符号化
方式による符号化データである。ただし、第2実施形態
における符号化方式はこれに限定されるものではない。FIG. 11 is a block diagram showing a configuration of an image processing apparatus according to the second embodiment. Here, the first
The same components as those in FIG. 1 shown in the embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted. In addition,
In the second embodiment, the input data is coded data according to the MPEG-4 coding method. However, the encoding method in the second embodiment is not limited to this.
【0042】図11において、201は記憶装置であり、MPE
G-4符号化方式で符号化された画像データが蓄積されて
いる。202は分離器であり、入力されたMPEG-4符号化デ
ータを、背景画像に関する符号化データとオブジェクト
に関する符号化データとに分離する。203は背景符号メ
モリであり、分離された背景画像に関する符号化データ
を格納する。204は第2実施形態の特徴であるところのオ
ブジェクト分割部であり、その詳細については後述す
る。In FIG. 11, reference numeral 201 denotes a storage device, which is an MPE.
Image data encoded by the G-4 encoding method is stored. Reference numeral 202 denotes a separator, which separates the input MPEG-4 encoded data into encoded data relating to a background image and encoded data relating to an object. Reference numeral 203 denotes a background code memory, which stores encoded data relating to the separated background image. Reference numeral 204 denotes an object division unit which is a feature of the second embodiment, and details thereof will be described later.
【0043】図11に示す構成においては、記憶装置201
からMPEG-4符号化方式で符号化されたデータを読み込
み、分離器202に入力する。ここで、入力される符号化
データの構成を図12に示す。同図によれば符号化データ
は、まずその先頭に画像や符号全体の情報を表すヘッダ
を有する。そして、背景画像に関する符号化データが続
くが、この中には背景画像の大きさ等の情報を含む背景
ヘッダ、及び、Iフレームモードで符号化された背景画
像のデータが含まれる。そしてその後に、含まれるオブ
ジェクトの数分、オブジェクトに関する符号化データが
続く。各オブジェクトの符号化データは、それぞれオブ
ジェクトの大きさ等の情報を含むオブジェクトヘッダを
有し、その後にMPEG-4符号化方式で符号化されたオブジ
ェクトの符号化データが続く。各オブジェクトの符号化
データとしては、各フレームの符号化データが連なり、
各フレームの符号化データはフレームのモードや同期の
コードを含むフレームヘッダと符号化データの本体から
なる。尚、この符号化データにはオブジェクトの形状を
表す形状情報の符号化データと、画像データの符号化デ
ータが含まれている。In the configuration shown in FIG.
, The data encoded by the MPEG-4 encoding method is read and input to the separator 202. Here, the configuration of the input encoded data is shown in FIG. According to the figure, the encoded data first has a header representing the information of the image and the entire code at the beginning. Then, encoded data on the background image follows, which includes a background header including information such as the size of the background image, and data of the background image encoded in the I frame mode. After that, encoded data on the objects continues for the number of included objects. The encoded data of each object has an object header including information such as the size of the object, followed by the encoded data of the object encoded by the MPEG-4 encoding method. As encoded data of each object, encoded data of each frame is linked,
The encoded data of each frame is composed of a frame header including a frame mode and a synchronization code, and a main body of the encoded data. Note that the encoded data includes encoded data of shape information representing the shape of the object and encoded data of image data.
【0044】分離器202においては、図12に示す符号化
データのヘッダを解析し、各ヘッダは合成器107へ、背
景画像に関する符号化データは背景符号メモリ203へ、
各オブジェクトの符号化データはオブジェクト分割部20
4へと分離する。背景符号メモリ203は、背景画像の符号
化データを蓄積する。In the separator 202, the header of the encoded data shown in FIG. 12 is analyzed, each header is sent to the synthesizer 107, and the encoded data relating to the background image is sent to the background code memory 203.
The encoded data of each object is stored in the object division unit 20.
Separate into 4. The background code memory 203 stores coded data of the background image.
【0045】ここで、オブジェクト分割部204の詳細ブ
ロック構成を図13に示す。同図において上述した図2と
同じ機能を果たすものについては同一番号を付与し、詳
細な説明は省略する。FIG. 13 shows a detailed block configuration of the object division unit 204. In the same drawing, the same reference numerals are given to those which fulfill the same functions as those in FIG. 2 described above, and detailed description will be omitted.
【0046】図13において、210は分離器202からオブジ
ェクトに関する符号化データを入力する端子である。21
1は入力された符号化データを形状情報の符号化データ
と画像データの符号化データに分離する分離器である。
212は形状情報復号器であり、MPEG-4符号化方式の形状
情報の復号を行う。213は形状メモリであり、復号され
た形状情報である2値画像を格納する。214はヒストグ
ラム処理器であり、領域抽出器123から出力される各領
域単位にヒストグラムを生成する。215は生成されたヒ
ストグラムを各領域毎に格納するヒストグラムメモリで
ある。216は領域抽出器123から出力された各領域のデー
タとヒストグラム処理器215の出力に基づき、領域の類
似度を求めるヒストグラム比較器であり、217はヒスト
グラムの比較結果に基づいてもっとも類似する領域を選
択する領域選択器である。223は抽出された領域の情報
を出力する端子である。In FIG. 13, reference numeral 210 denotes a terminal for inputting encoded data relating to an object from the separator 202. twenty one
Reference numeral 1 denotes a separator for separating the input encoded data into encoded data of shape information and encoded data of image data.
Reference numeral 212 denotes a shape information decoder that decodes shape information of the MPEG-4 encoding method. A shape memory 213 stores a binary image as decoded shape information. Reference numeral 214 denotes a histogram processor, which generates a histogram for each area output from the area extractor 123. A histogram memory 215 stores the generated histogram for each area. Reference numeral 216 denotes a histogram comparator for calculating the similarity between the regions based on the data of each region output from the region extractor 123 and the output of the histogram processor 215, and 217 determines the most similar region based on the histogram comparison result. An area selector to be selected. A terminal 223 outputs information on the extracted area.
【0047】220は領域情報メモリ128の領域情報に従っ
て領域抽出器123からそれぞれの領域を新たな形状情報
としてそれぞれを符号化する形状情報符号化器である。
224は形状情報符号化器220で符号化された各領域の形状
情報の符号化データを出力する端子である。219は分離
器211で分離された各オブジェクトの符号化データを格
納するオブジェクト符号メモリである。221は領域情報
メモリ128の領域情報に従ってオブジェクト符号メモリ2
19の符号化データを抽出されたオブジェクト毎の符号化
データに分割する符号分割器である。222は分割された
符号化データを格納するメモリであり、225はオブジェ
クト符号メモリ222に格納された各オブジェクトの画像
の符号化データを出力する端子である。Reference numeral 220 denotes a shape information encoder for encoding each area as new shape information from the area extractor 123 in accordance with the area information in the area information memory 128.
Reference numeral 224 denotes a terminal that outputs encoded data of the shape information of each area encoded by the shape information encoder 220. An object code memory 219 stores encoded data of each object separated by the separator 211. 221 is an object code memory 2 according to the area information of the area information memory 128.
This is a code divider that divides 19 encoded data into extracted encoded data for each object. Reference numeral 222 denotes a memory that stores the divided encoded data, and reference numeral 225 denotes a terminal that outputs encoded data of an image of each object stored in the object code memory 222.
【0048】このような構成からなるオブジェクト分割
部204において、最初にオブジェクトを含む第1のフレー
ムの符号化データが、端子210から入力される。尚、第1
のフレームの符号化データはフレーム内符号化が行われ
ており、動き補償は行われていない。入力された符号化
データは分離器211で形状情報の符号化データと画像デ
ータの符号化データに分離され、形状情報の符号化デー
タは形状情報復号器212へ、画像データはオブジェクト
符号メモリ219に入力される。形状情報復号器212は符号
化データの復号を行い、2値画像を再生して形状メモリ
213に格納する。領域抽出器123は第1実施例と同様に閉
領域の抽出を行う。抽出された各領域の形状情報は、領
域毎にヒストグラム処理器214に入力される。In the object dividing unit 204 having such a configuration, first, the encoded data of the first frame including the object is input from the terminal 210. The first
The encoded data of the frame is subjected to intra-frame encoding, and no motion compensation is performed. The input encoded data is separated into encoded data of shape information and encoded data of image data by a separator 211, the encoded data of shape information is sent to a shape information decoder 212, and the image data is sent to an object code memory 219. Is entered. The shape information decoder 212 decodes the encoded data, reproduces a binary image, and
213 is stored. The region extractor 123 extracts a closed region as in the first embodiment. The extracted shape information of each area is input to the histogram processor 214 for each area.
【0049】ヒストグラム処理器214では、閉領域の領
域内を黒(1)とし、領域外を白(0)として、最初に各主走
査方向に画素値を計数してヒストグラムを生成する。続
いて副走査方向に画素値を計数してヒストグラムを生成
する。ここで、図19に示す画像についてヒストグラム処
理を行なう場合について考えると、左側の閉領域である
ヨットについてのヒストグラム処理結果は図14に示すグ
ラフの様になる。図14(a)は主走査方向のヒストグラム
であり、図14(b)は副走査方向のヒストグラムである。
これらのヒストグラムのデータは、各領域毎にヒストグ
ラムメモリ215に格納される。同様にして、右側の閉領
域である戦艦についてヒストグラム処理を行うことによ
り、図15(a)に示す主走査方向のヒストグラムと、図15
(b)に示す副走査方向のヒストグラムが得られる。これ
らのヒストグラムのデータは各領域毎にヒストグラムメ
モリ215に格納される。尚、ヒストグラム比較器216は最
初のフレームでは動作しない。領域選択器217は、抽出
された2つの領域をぞれぞれ新しいオブジェクトとす
る。領域情報メモリ128は、抽出されたオブジェクトの
新たな形状情報の位置や大きさ等の情報を格納する。The histogram processor 214 generates a histogram by first counting pixel values in each main scanning direction with black (1) inside the closed area and white (0) outside the closed area. Subsequently, a histogram is generated by counting the pixel values in the sub-scanning direction. Here, considering the case where the histogram processing is performed on the image shown in FIG. 19, the result of the histogram processing on the yacht which is the closed area on the left side is as shown in the graph of FIG. FIG. 14A shows a histogram in the main scanning direction, and FIG. 14B shows a histogram in the sub scanning direction.
These histogram data are stored in the histogram memory 215 for each region. Similarly, by performing the histogram processing on the battleship that is the closed area on the right side, the histogram in the main scanning direction shown in FIG.
The histogram in the sub-scanning direction shown in (b) is obtained. These histogram data are stored in the histogram memory 215 for each area. Note that the histogram comparator 216 does not operate in the first frame. The area selector 217 sets each of the two extracted areas as a new object. The area information memory 128 stores information such as the position and size of new shape information of the extracted object.
【0050】その後、形状メモリ213から形状情報が読
み出され、領域抽出器123でそれぞれのオブジェクトに
分けられ、形状情報符号化器220に入力される。形状情
報符号化器220は、各オブジェクトの形状情報をMPEG-4
符号化方式の形状情報符号化にしたがって符号化する。
さらに、オブジェクト符号メモリ219から画像データの
符号化データが読み出され、符号分割器221は領域情報
メモリ128の情報と領域抽出器123の示す新しいオブジェ
クトの形状情報に従って、いずれの閉領域に属するもの
かを判定し、それぞれの閉領域毎に符号化データ分割す
る。After that, the shape information is read from the shape memory 213, divided into the respective objects by the area extractor 123, and input to the shape information encoder 220. The shape information encoder 220 converts the shape information of each object into an MPEG-4
Encoding is performed according to the shape information encoding of the encoding method.
Further, encoded data of image data is read from the object code memory 219, and the code divider 221 belongs to any closed area according to the information of the area information memory 128 and the shape information of the new object indicated by the area extractor 123. Is determined, and the encoded data is divided for each closed region.
【0051】ここで、入力される符号化データはマクロ
ブロック単位で符号化されている。図16は、図19の画像
からオブジェクトを抽出した画像をマクロブロックで分
割した例を示している。同図によれば、抽出されたオブ
ジェクトは、分割すべきオブジェクトであるヨットの領
域250と戦艦の領域251を含んでいることが分かる。図16
における方眼の一マスが、1つのマクロブロックを示
す。第2実施形態においては、このマクロブロック単位
に符号化データを読み出す。Here, the input coded data is coded in macroblock units. FIG. 16 illustrates an example in which an image obtained by extracting an object from the image of FIG. 19 is divided into macroblocks. According to the drawing, it can be seen that the extracted objects include a yacht area 250 and a battleship area 251 which are objects to be divided. FIG.
Indicates one macroblock. In the second embodiment, encoded data is read out in units of macroblocks.
【0052】マクロブロックが、領域250,251で示され
る分割されるべきオブジェクトのいずれにも含まれない
場合、符号化データは破棄される。一方、マクロブロッ
クが完全にオブジェクトに含まれている場合は、符号化
データをそのまま使用する。また、領域が重なる部分の
マクロブロックについては、マクロブロックが符号化さ
れているか否かを表すnot_coded符号がマクロブロック
単位で付加される。すなわち領域250において、領域251
と重なる56個のマクロブロックはオブジェクト(ヨット
の絵柄)の外であるため、領域250について56個のnot_co
ded符号がそれぞれ付加される。If the macro block is not included in any of the objects to be divided shown by the regions 250 and 251, the encoded data is discarded. On the other hand, when the macro block is completely included in the object, the encoded data is used as it is. In addition, for a macroblock in a portion where regions overlap, a not_coded code indicating whether or not the macroblock is coded is added in macroblock units. That is, in the region 250, the region 251
The 56 macroblocks that overlap with are outside the object (yacht pattern), so 56 not_co
A ded code is respectively added.
【0053】ここで、もう一方の領域に接するマクロブ
ロック(図16においては、252から254で示されるブロッ
ク)に関しては、符号の置き換えを行う可能性を含んで
いる。マクロブロックの直前または直上が別な領域のマ
クロブロックである場合については、符号の置換が発生
する。すなわちこれらのマクロブロックでは、周囲のマ
クロブロックからの予測を行っており、参照するマクロ
ブロックの内容が変化することにより復号できなくなる
ことがあるからである。このため、周囲のマクロブロッ
クを参照して符号化されているマクロブロックについて
は、該マクロブロックの符号化データを一旦復号し、周
囲のマクロブロックで他の領域のブロックであるマクロ
ブロックに対して領域情報メモリ128の値を入れて再度
符号化を行う。このようにして符号化データを各オブジ
ェクト毎に分割し、オブジェクト符号メモリ222に格納
する。Here, regarding the macro block (blocks 252 to 254 in FIG. 16) which is in contact with the other area, there is a possibility of replacing the code. If the macroblock immediately before or immediately above the macroblock is a macroblock in another area, code replacement occurs. That is, in these macroblocks, prediction is performed from surrounding macroblocks, and decoding may not be possible due to a change in the contents of the referenced macroblock. For this reason, for a macroblock that has been encoded with reference to the surrounding macroblock, the encoded data of the macroblock is temporarily decoded, and the surrounding macroblock is compared with a macroblock that is a block in another area. Encoding is performed again with the value of the area information memory 128 inserted. In this way, the encoded data is divided for each object and stored in the object code memory 222.
【0054】以上が、オブジェクト分割部204における
1フレームの分割処理である。以下、後続のフレーム順
にオブジェクト分割部204への入力を行なう。ここで、
続くフレームの画像を図24として、オブジェクト分割部
204における第1フレーム以降の処理について説明する。
第1フレームと同様に、入力された符号化データは分
離器211で形状情報の符号化データと画像データの符号
化データに分離され、形状情報復号器212は符号化デー
タを復号して形状メモリ213に格納する。領域抽出器123
は閉領域の抽出を行い、各領域の形状情報はヒストグラ
ム処理器214に入力され、領域毎にヒストグラムが生成
される。図24において、左側の閉領域であるヨットにつ
いてヒストグラム処理を行った結果を示すグラフが、図
17である。図17(a)は主走査方向のヒストグラムであ
り、図17(b)は副走査方向のヒストグラムである。これ
らヒストグラムのデータは、ヒストグラム比較器216に
おいてヒストグラムメモリ215に格納されている各領域
毎のヒストグラムと比較され、類似度が算出される。こ
こでは比較の方法は限定しないが、たとえば極大値の位
置の相関や頻度の分布等を用いればよい。The above is the process of dividing one frame by the object dividing unit 204. Hereinafter, input to the object dividing unit 204 is performed in the order of the subsequent frames. here,
The image of the subsequent frame is shown in FIG.
The processing of the first and subsequent frames in 204 will be described.
Similarly to the first frame, the input coded data is separated into coded data of shape information and coded data of image data by a separator 211, and a shape information decoder 212 decodes the coded data to form a shape memory. 213 is stored. Region extractor 123
Performs extraction of a closed region, shape information of each region is input to the histogram processor 214, and a histogram is generated for each region. In FIG. 24, a graph showing the result of performing the histogram processing on the yacht that is the closed area on the left is
It is 17. FIG. 17A shows a histogram in the main scanning direction, and FIG. 17B shows a histogram in the sub scanning direction. These histogram data are compared by the histogram comparator 216 with the histogram for each area stored in the histogram memory 215, and the similarity is calculated. Here, the method of comparison is not limited, but for example, the correlation of the position of the local maximum value, the distribution of frequency, or the like may be used.
【0055】そして領域選択器217においては、もっと
も類似度が高いものを同じオブジェクトとし、領域情報
メモリ128に、前のフレームの該当するオブジェクトの
情報に位置や大きさ等の情報を付け加えて格納する。同
様にして、図24における右側の閉領域である戦艦につい
ても、同様の処理を行う。その後、これらのヒストグラ
ムのデータは各領域毎にヒストグラムメモリ215に格納
される。In the area selector 217, the object having the highest similarity is regarded as the same object, and information such as the position and size is added to the information of the corresponding object in the previous frame and stored in the area information memory 128. . Similarly, the same processing is performed for the battleship that is the closed area on the right side in FIG. After that, these histogram data are stored in the histogram memory 215 for each area.
【0056】その後、形状メモリ213から形状情報が読
み出され、領域抽出器123でそれぞれのオブジェクトに
分けられ、形状情報符号化器220で符号化される。After that, the shape information is read from the shape memory 213, divided into respective objects by the area extractor 123, and encoded by the shape information encoder 220.
【0057】さらにオブジェクト符号メモリ219から画
像データの符号化データが読み出され、領域情報メモリ
128の情報と領域抽出器123の示す新しいオブジェクトの
形状情報に従って、いずれの閉領域に属するものかを判
定し、符号分割器221でそれぞれの閉領域毎に符号化デ
ータを分割する。Further, encoded data of image data is read from the object code memory 219, and is stored in the area information memory.
According to the information of 128 and the shape information of the new object indicated by the region extractor 123, it is determined which closed region belongs to, and the code divider 221 divides the coded data for each closed region.
【0058】尚、第2フレーム以降については動き補償
が行われる場合がある。動き補償が無いマクロブロック
については、前述のとおり、符号の分割はマクロブロッ
ク単位で行われる。一方、動き補償を行っているマクロ
ブロックについては、その動きベクトルが領域外を参照
した時に、参照するマクロブロックの内容が変化した場
合には復号できなくなることがある。そこで、動きベク
トルのみを復号し、領域外や領域内で他の領域と重なる
部分を参照している場合に限り、マクロブロックを一旦
復号し、フレーム内符号化するか、直前のマクロブロッ
クを一旦復号してから、これを参照マクロブロックとし
て動き補償を行い、符号化する。以上の処理により、マ
クロブロック単位で符号の分割を行い、各オブジェクト
毎に分割し、オブジェクト符号メモリ222に格納する。Note that motion compensation may be performed for the second and subsequent frames. For macroblocks without motion compensation, code division is performed in macroblock units, as described above. On the other hand, a macroblock for which motion compensation has been performed may not be able to be decoded if the content of the macroblock to be referenced changes when the motion vector refers to an area outside the area. Therefore, only when the motion vector is decoded, and only when a part overlapping with another area outside or within the area is referred to, the macroblock is decoded once and is intra-frame coded or the immediately preceding macroblock is temporarily decoded. After decoding, motion compensation is performed using this as a reference macroblock, and encoding is performed. By the above processing, the code is divided in units of macroblocks, divided for each object, and stored in the object code memory 222.
【0059】最終的には、図11に示す合成器107におい
て、背景符号メモリ203とオブジェクト分割部204の出力
を合成し、ヘッダ等を加えてMPEG-4の符号化データに整
え、通信インタフェース108を介して通信回線109に送出
したり、記憶装置110に蓄積したりする。Finally, the synthesizer 107 shown in FIG. 11 combines the outputs of the background code memory 203 and the object dividing unit 204, adds a header and the like, and prepares MPEG-4 encoded data. Via the communication line 109 or stored in the storage device 110.
【0060】以上説明したように第2実施形態によれ
ば、全ての符号化データを復号すること無く、オブジェ
クトを分割することが可能になる。このため、オブジェ
クトの分割を高速に行うことが可能になる上、復号画像
を格納する必要がないため、メモリを削減することも可
能になった。As described above, according to the second embodiment, it is possible to divide an object without decoding all encoded data. For this reason, the object can be divided at high speed, and it is not necessary to store the decoded image, so that the memory can be reduced.
【0061】さらに、オブジェクトの細分化を形状情報
から抽出した特徴量をもって行うことで、過去の形状情
報を画像としてではなく数値で持つため、過去の形状情
報を格納するメモリ量を減少させることが可能になっ
た。従って、過去の形状情報は画像情報でなくても構わ
ないことが分かる。Further, since the segmentation of the object is performed by using the feature amount extracted from the shape information, the past shape information is not represented by an image but by a numerical value. Therefore, the amount of memory for storing the past shape information can be reduced. It is now possible. Therefore, it is understood that the past shape information need not be image information.
【0062】なお、第2実施形態では記憶装置110と
記憶装置201をそれぞれ独立に記載したが、例えばこ
れらを同一の装置で構成し、異なるメモリ領域に書き込
むようにしても良い。Although the storage device 110 and the storage device 201 are described independently in the second embodiment, for example, they may be configured by the same device and written in different memory areas.
【0063】また、第2実施形態では類似度をヒストグ
ラムから求める例について説明したが、本発明はこの例
に限定されず、第1実施例と同様な手段を用いてもかま
わないし、一般に知られているOCRの技術を用いて、
格納された形状ともっとも類似度の高い領域を選択する
ことも十分に可能である。In the second embodiment, an example in which the similarity is obtained from the histogram has been described. However, the present invention is not limited to this example, and the same means as in the first embodiment may be used. Using OCR technology,
It is also possible to select a region having the highest similarity to the stored shape.
【0064】また、第2実施形態におけるメモリの構成
等はこれに限定されない。また、各機能の一部または全
てをCPU等を用いたソフトウェアで実現してもかまわ
ない。The configuration and the like of the memory in the second embodiment are not limited to this. In addition, some or all of the functions may be realized by software using a CPU or the like.
【0065】また、符号化方式もMPEG-4に限定されな
い。例えば、形状情報を2値画像符号化方式であるJBIG
符号化方式やMMR符号化方式で符号化しても良いし、オ
ブジェクトの画像データをフレーム単位で圧縮しても、
MPEG-1,2、h.261等で符号化してももちろん構わない。The encoding method is not limited to MPEG-4. For example, JBIG which is a binary image encoding method
Encoding may be performed by an encoding method or an MMR encoding method, or image data of an object may be compressed in frame units,
Of course, encoding with MPEG-1, 2, h.261 or the like is also acceptable.
【0066】<他の実施形態>なお、本発明は、複数の
機器(例えばホストコンピュータ,インタフェイス機
器,リーダ,プリンタなど)から構成されるシステムに
適用しても、一つの機器からなる装置(例えば、複写
機,ファクシミリ装置など)に適用してもよい。<Other Embodiments> Even if the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), an apparatus including one device (for example, For example, the present invention may be applied to a copying machine, a facsimile machine, and the like.
【0067】また、本発明の目的は、前述した実施形態
の機能を実現するソフトウェアのプログラムコードを記
録した記憶媒体を、システムあるいは装置に供給し、そ
のシステムあるいは装置のコンピュータ(またはCPU
やMPU)が記憶媒体に格納されたプログラムコードを
読出し実行することによっても、達成されることは言う
までもない。Another object of the present invention is to provide a storage medium storing a program code of software for realizing the functions of the above-described embodiments to a system or an apparatus, and to provide a computer (or CPU) of the system or apparatus.
And MPU) read and execute the program code stored in the storage medium.
【0068】この場合、記憶媒体から読出されたプログ
ラムコード自体が前述した実施形態の機能を実現するこ
とになり、そのプログラムコードを記憶した記憶媒体は
本発明を構成することになる。In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
【0069】プログラムコードを供給するための記憶媒
体としては、例えば、フロッピディスク,ハードディス
ク,光ディスク,光磁気ディスク,CD−ROM,CD
−R,磁気テープ,不揮発性のメモリカード,ROMな
どを用いることができる。As a storage medium for supplying the program code, for example, a floppy disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD
-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
【0070】また、コンピュータが読出したプログラム
コードを実行することにより、前述した実施形態の機能
が実現されるだけでなく、そのプログラムコードの指示
に基づき、コンピュータ上で稼働しているOS(オペレ
ーティングシステム)などが実際の処理の一部または全
部を行い、その処理によって前述した実施形態の機能が
実現される場合も含まれることは言うまでもない。When the computer executes the readout program code, not only the functions of the above-described embodiment are realized, but also the OS (Operating System) running on the computer based on the instruction of the program code. ) May perform some or all of the actual processing, and the processing may realize the functions of the above-described embodiments.
【0071】さらに、記憶媒体から読出されたプログラ
ムコードが、コンピュータに挿入された機能拡張ボード
やコンピュータに接続された機能拡張ユニットに備わる
メモリに書込まれた後、そのプログラムコードの指示に
基づき、その機能拡張ボードや機能拡張ユニットに備わ
るCPUなどが実際の処理の一部または全部を行い、そ
の処理によって前述した実施形態の機能が実現される場
合も含まれることは言うまでもない。Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, based on the instruction of the program code, It goes without saying that the CPU included in the function expansion board or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
【0072】[0072]
【発明の効果】以上の説明したように本発明によれば、
動画像内の複数のオブジェクトを分割して抽出すること
ができる。そしてさらに、分割されたオブジェクトのフ
レーム間における相間を把握することができるため、効
率のよい符号化処理が可能となる。As described above, according to the present invention,
A plurality of objects in a moving image can be divided and extracted. Furthermore, since the phases between frames of the divided object can be grasped, efficient coding processing can be performed.
【0073】これにより、画像内におけるオブジェクト
単位の編集作業等が効率良く行えるとともに、さらに符
号化を施すことにより効率のよいデータ転送や蓄積が可
能になる。As a result, an editing operation or the like for each object in an image can be efficiently performed, and by performing further encoding, efficient data transfer and accumulation can be performed.
【0074】[0074]
【図1】本発明に係る一実施形態における動画像入力装
置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a moving image input device according to an embodiment of the present invention.
【図2】本実施形態におけるオブジェクト分割器の詳細
構成を示すブロック図である。FIG. 2 is a block diagram illustrating a detailed configuration of an object divider according to the embodiment.
【図3】本実施形態におけるオブジェクトの領域の一例
の様子を示す図である。FIG. 3 is a diagram illustrating an example of an object area according to the present embodiment.
【図4】本実施形態におけるオブジェクトの領域の一例
の様子を示す図である。FIG. 4 is a diagram illustrating an example of an object area according to the present embodiment.
【図5】本実施形態におけるオブジェクトの領域の一例
の様子を示す図である。FIG. 5 is a diagram illustrating an example of an object area according to the present embodiment.
【図6】本実施形態におけるオブジェクトの領域の一例
の様子を示す図である。FIG. 6 is a diagram illustrating an example of an object area according to the present embodiment.
【図7】本実施形態における形状情報の差分の様子を説
明するための図である。FIG. 7 is a diagram illustrating a state of a difference in shape information according to the present embodiment.
【図8】本実施形態における形状情報の差分の様子を説
明するための図である。FIG. 8 is a diagram illustrating a state of a difference in shape information according to the present embodiment.
【図9】本実施形態におけるオブジェクトの分割の様子
を説明するための図である。FIG. 9 is a diagram for describing a state of dividing an object in the present embodiment.
【図10】本実施形態におけるオブジェクトの分割の様子
を説明するための図である。FIG. 10 is a diagram for describing a state of dividing an object in the present embodiment.
【図11】本発明に係る第2実施形態における画像処理装
置の構成を示すブロック図である。FIG. 11 is a block diagram illustrating a configuration of an image processing device according to a second embodiment of the present invention.
【図12】第2実施形態における符号化データの構成を説
明するための図である。FIG. 12 is a diagram for describing a configuration of encoded data according to the second embodiment.
【図13】第2実施形態のオブジェクト分割部の詳細構成
を示すブロック図である。FIG. 13 is a block diagram illustrating a detailed configuration of an object division unit according to the second embodiment.
【図14】第2実施形態におけるヒストグラムの様子を説
明するための図である。FIG. 14 is a diagram for explaining a state of a histogram in the second embodiment.
【図15】第2実施形態におけるヒストグラムの様子を説
明するための図である。FIG. 15 is a diagram for explaining a state of a histogram in the second embodiment.
【図16】第2実施形態におけるマクロブロックの分割の
様子を説明するための図である。FIG. 16 is a diagram for explaining a state of division of a macroblock in the second embodiment.
【図17】第2実施形態におけるヒストグラムの様子を説
明するための図である。FIG. 17 is a diagram for explaining a state of a histogram according to the second embodiment.
【図18】従来の画像入力装置の構成を示すブロック図で
ある。FIG. 18 is a block diagram illustrating a configuration of a conventional image input device.
【図19】一例としての動画像の1フレームの内容を表す
図である。FIG. 19 is a diagram illustrating the contents of one frame of a moving image as an example.
【図20】背景画像の一例を表す図である。FIG. 20 is a diagram illustrating an example of a background image.
【図21】抽出されたオブジェクトの一例を表す図であ
る。FIG. 21 is a diagram illustrating an example of an extracted object.
【図22】MPEG-4符号化方式を説明するための図である。[Fig. 22] Fig. 22 is a diagram for describing the MPEG-4 encoding method.
【図23】従来例におけるオブジェクトの補填の様子を示
す図である。FIG. 23 is a diagram illustrating a state of supplementing an object in a conventional example.
【図24】一例としての動画像の1フレームの内容を表す
図である。FIG. 24 is a diagram illustrating the contents of one frame of a moving image as an example.
101,1001 TVカメラ 102,1002 背景メモリ 103,1003 背景符号化器 104,1004 オブジェクト抽出器 105 オブジェクト分割器 106,1005 オブジェクト符号化器 107,1006 合成器 108,1007 通信インタフェース 109,1008 通信回線 110,201,1009 記憶装置 120,121,129,131,135,210,223,224,225 端子 122,130,213 形状メモリ 123 領域抽出器 133 領域データ抽出器 124 領域メモリ 125 変形器 126 領域比較器 127,217 領域選択器 128 領域情報メモリ 132,134 オブジェクトメモリ 202,211 分離器 203 背景符号メモリ 204 オブジェクト分割部 212 形状情報復号器 214 ヒストグラム処理器 215 ヒストグラムメモリ 216 ヒストグラム比較器 219,222 オブジェクト符号メモリ 220 形状情報符号化器 221 符号分割器 250,251 領域 252,253,254 マクロブロック 101, 1001 TV camera 102, 1002 Background memory 103, 1003 Background encoder 104, 1004 Object extractor 105 Object divider 106, 1005 Object encoder 107, 1006 Compositor 108, 1007 Communication interface 109, 1008 Communication line 110 , 201, 1009 Storage devices 120, 121, 129, 131, 135, 210, 223, 224, 225 Terminals 122, 130, 213 Shape memory 123 Area extractor 133 Area data extractor 124 Area memory 125 Transformer 126 Area comparator 127, 217 region selector 128 region information memory 132, 134 object memory 202, 211 separator 203 background code memory 204 object division unit 212 shape information decoder 214 histogram processor 215 histogram memory 216 histogram comparator 219, 222 object code memory 220 Shape information encoder 221 Code divider 250,251 Area 252,253,254 Macro block
Claims (22)
その形状情報と共に出力するオブジェクト抽出手段と、 前記形状情報を分割する形状分割手段と、 前記形状分割手段における分割結果に基づき、前記オブ
ジェクトを分割するオブジェクト分割手段と、を備える
ことを特徴とする画像処理装置。An input unit for inputting moving image data; extracting at least one object from the moving image;
An image, comprising: an object extracting unit that outputs the shape information together with the shape information; a shape dividing unit that divides the shape information; and an object dividing unit that divides the object based on a division result in the shape dividing unit. Processing equipment.
の閉領域毎に分割することを特徴とする請求項1記載の
画像処理装置。2. The image processing apparatus according to claim 1, wherein the shape dividing unit divides the shape information for each closed area.
する選択手段と、を有することを特徴とする請求項2記
載の画像処理装置。3. The method according to claim 1, wherein the shape dividing means includes: comparing means for comparing the shape information with past shape information; and selecting means for selecting an area to which the shape information belongs based on the comparison result. The image processing device according to claim 2.
形状情報との差分に基づいて、その類似度を比較するこ
とを特徴とする請求項3記載の画像処理装置。4. The image processing apparatus according to claim 3, wherein the comparing unit compares similarities based on a difference between the shape information and past shape information.
て出力された形状情報によって前記過去の形状情報を更
新する形状情報更新手段を備えることを特徴とする請求
項3記載の画像処理装置。5. The image processing apparatus according to claim 3, further comprising a shape information updating unit that updates the past shape information with the shape information output by the object extracting unit.
分割されたオブジェクトのそれぞれを符号化する符号化
手段を備えることを特徴とする請求項1記載の画像処理
装置。6. The image processing apparatus according to claim 1, further comprising encoding means for encoding each of the objects divided by said object dividing means.
より分割された形状情報のそれぞれを対応するオブジェ
クトと共に符号化することを特徴とする請求項6記載の
画像処理装置。7. An image processing apparatus according to claim 6, wherein said encoding means encodes each of the shape information divided by said shape dividing means together with a corresponding object.
よる符号化を行なうことを特徴とする請求項6記載の画
像処理装置。8. The image processing apparatus according to claim 6, wherein said encoding means performs encoding according to an MPEG-4 encoding method.
持する背景保持手段を有し、 前記オブジェクト抽出手段は、該背景保持手段に保持さ
れた背景画像に基づいて前記動画像データからオブジェ
クトを抽出することを特徴とする請求項1記載の画像処
理装置。9. The image processing apparatus according to claim 1, further comprising a background holding unit that holds a background image of the moving image data, wherein the object extracting unit extracts an object from the moving image data based on the background image held by the background holding unit. The image processing apparatus according to claim 1, wherein the image is extracted.
符号化手段と、 前記オブジェクト分割手段により分割されたオブジェク
トのそれぞれを符号化するオブジェクト符号化手段と、 前記背景符号化手段により符号化された背景画像と前記
オブジェクト符号化手段により符号化されたオブジェク
トとを合成する合成手段と、を有することを特徴とする
請求項9記載の画像処理装置。10. A background encoding unit that encodes the background image, an object encoding unit that encodes each of the objects divided by the object division unit, and a background image that is encoded by the background encoding unit. The image processing apparatus according to claim 9, further comprising: a combining unit configured to combine the background image and the object encoded by the object encoding unit.
クト符号化手段は、MPEG-4符号化方式による符号化を行
なうことを特徴とする請求項10記載の画像処理装置。11. The image processing apparatus according to claim 10, wherein said background encoding unit and said object encoding unit perform encoding according to an MPEG-4 encoding method.
入力手段と、 該動画像データを背景の符号化データとオブジェクトの
符号化データとに分離する分離手段と、 該分離されたオブジェクトの符号化データから形状情報
を抽出する抽出手段と、 該形状情報を分割する形状分割手段と、 前記形状分割手段における分割結果に基づき、前記オブ
ジェクトの符号化データを分割するオブジェクト分割手
段と、を備えることを特徴とする画像処理装置。12. Input means for inputting encoded moving image data, separating means for separating the moving image data into background encoded data and object encoded data, and code of the separated object Extraction means for extracting shape information from the encoded data; shape division means for dividing the shape information; and object division means for dividing the encoded data of the object based on the division result in the shape division means. An image processing apparatus characterized by the above-mentioned.
その閉領域毎に分割することを特徴とする請求項12記
載の画像処理装置。13. The image processing apparatus according to claim 12, wherein the shape dividing unit divides the shape information for each closed area.
する選択手段と、を有することを特徴とする請求項13
記載の画像処理装置。14. The apparatus according to claim 1, wherein the shape dividing means includes: comparing means for comparing the shape information with past shape information; and selecting means for selecting an area to which the shape information belongs based on the comparison result. Claim 13
The image processing apparatus according to any one of the preceding claims.
トグラムを過去の形状情報のヒストグラムと比較するこ
とを特徴とする請求項14記載の画像処理装置。15. The image processing apparatus according to claim 14, wherein the comparing unit compares the histogram of the shape information with a histogram of past shape information.
た形状情報によって前記過去の形状情報を更新する形状
情報更新手段を備えることを特徴とする請求項14記載
の画像処理装置。16. The image processing apparatus according to claim 14, further comprising shape information updating means for updating said past shape information with the shape information extracted by said extracting means.
た背景の符号化データと前記オブジェクト分割手段によ
り分割されたオブジェクトの符号化データとを合成する
合成手段を有することを特徴とする請求項12記載の画
像処理装置。17. The apparatus according to claim 12, further comprising combining means for combining the encoded data of the background separated by said separating means and the encoded data of the object divided by said object dividing means. Image processing device.
より符号化された動画像データを入力することを特徴と
する請求項12記載の画像処理装置。18. An image processing apparatus according to claim 12, wherein said input means inputs moving image data encoded by an MPEG-4 encoding method.
その形状情報と共に出力するオブジェクト抽出工程と、 前記形状情報を分割する形状分割工程と、 前記形状分割工程における分割結果に基づき、前記オブ
ジェクトを分割するオブジェクト分割工程と、を備える
ことを特徴とする画像処理方法。19. An inputting step of inputting moving image data, extracting at least one object from the moving image,
An image extracting step of outputting an object together with the shape information; a shape dividing step of dividing the shape information; and an object dividing step of dividing the object based on a division result in the shape dividing step. Processing method.
入力工程と、 該動画像データを背景の符号化データとオブジェクトの
符号化データとに分離する分離工程と、 該分離されたオブジェクトの符号化データから形状情報
を抽出する抽出工程と、 該形状情報を分割する形状分割工程と、 前記形状分割工程における分割結果に基づき、前記オブ
ジェクトの符号化データを分割するオブジェクト分割工
程と、を備えることを特徴とする画像処理方法。20. An input step of inputting encoded moving image data, a separating step of separating the moving image data into background encoded data and object encoded data, and a code of the separated object. An extraction step of extracting shape information from encoded data; a shape division step of dividing the shape information; and an object division step of dividing encoded data of the object based on a division result in the shape division step. An image processing method characterized by the following.
れた記録媒体であって、 動画像データを入力する入力工程のコードと、 該動画像から少なくとも1つのオブジェクトを抽出し、
その形状情報と共に出力するオブジェクト抽出工程のコ
ードと、 前記形状情報を分割する形状分割工程のコードと、 前記形状分割工程における分割結果に基づき、前記オブ
ジェクトを分割するオブジェクト分割工程のコードと、
を備えることを特徴とする記録媒体。21. A recording medium on which a program code for image processing is recorded, wherein a code of an input step of inputting moving image data, and at least one object is extracted from the moving image,
A code of an object extraction step to be output together with the shape information, a code of a shape division step of dividing the shape information, and a code of an object division step of dividing the object based on a division result in the shape division step.
A recording medium comprising:
れた記録媒体であって、 符号化された動画像データを入力する入力工程のコード
と、 該動画像データを背景の符号化データとオブジェクトの
符号化データとに分離する分離工程のコードと、 該分離されたオブジェクトの符号化データから形状情報
を抽出する抽出工程のコードと、 該形状情報を分割する形状分割工程のコードと、 前記形状分割工程における分割結果に基づき、前記オブ
ジェクトの符号化データを分割するオブジェクト分割工
程のコードと、を備えることを特徴とする記録媒体。22. A recording medium on which a program code for image processing is recorded, wherein: a code of an input step of inputting encoded moving image data; and said moving image data are encoded with background encoded data and an object code. Code for a separation step for separating the data into coded data; code for an extraction step for extracting shape information from the coded data of the separated object; code for a shape division step for dividing the shape information; A code for an object division step of dividing the encoded data of the object based on the division result in the above.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15176698A JP3854721B2 (en) | 1998-06-01 | 1998-06-01 | Image processing apparatus and method |
US09/323,254 US6625316B1 (en) | 1998-06-01 | 1999-06-01 | Image processing apparatus and method, and image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15176698A JP3854721B2 (en) | 1998-06-01 | 1998-06-01 | Image processing apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11346363A true JPH11346363A (en) | 1999-12-14 |
JP3854721B2 JP3854721B2 (en) | 2006-12-06 |
Family
ID=15525835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15176698A Expired - Fee Related JP3854721B2 (en) | 1998-06-01 | 1998-06-01 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3854721B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008537391A (en) * | 2005-03-31 | 2008-09-11 | ユークリッド・ディスカバリーズ・エルエルシー | Apparatus and method for processing video data |
JP2009027368A (en) * | 2007-07-18 | 2009-02-05 | Fujifilm Corp | Unit and method for processing image, and program |
WO2015132881A1 (en) * | 2014-03-04 | 2015-09-11 | 三菱電機株式会社 | Image encoding apparatus, image decoding apparatus, image encoding method, image decoding method, and program |
-
1998
- 1998-06-01 JP JP15176698A patent/JP3854721B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008537391A (en) * | 2005-03-31 | 2008-09-11 | ユークリッド・ディスカバリーズ・エルエルシー | Apparatus and method for processing video data |
JP2010259087A (en) * | 2005-03-31 | 2010-11-11 | Euclid Discoveries Llc | Apparatus and method for processing video data |
JP2009027368A (en) * | 2007-07-18 | 2009-02-05 | Fujifilm Corp | Unit and method for processing image, and program |
WO2015132881A1 (en) * | 2014-03-04 | 2015-09-11 | 三菱電機株式会社 | Image encoding apparatus, image decoding apparatus, image encoding method, image decoding method, and program |
GB2538196A (en) * | 2014-03-04 | 2016-11-09 | Mitsubishi Electric Corp | Image encoding apparatus, image decoding apparatus, image encoding method, image decoding method, and program |
JPWO2015132881A1 (en) * | 2014-03-04 | 2017-03-30 | 三菱電機株式会社 | Image encoding device, image decoding device, image encoding method, image decoding method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP3854721B2 (en) | 2006-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1389016B1 (en) | Improved motion estimation and block matching pattern | |
US6625316B1 (en) | Image processing apparatus and method, and image processing system | |
US6798977B2 (en) | Image data encoding and decoding using plural different encoding circuits | |
US20090122164A1 (en) | Roi setting method and apparatus, electronic camera apparatus, program, and recording medium | |
EP2169961A1 (en) | Image encoder and image decoder | |
JPH1155667A (en) | Image coder, image decoder, and recording medium recorded with image coded data | |
US20150117540A1 (en) | Coding apparatus, decoding apparatus, coding data, coding method, decoding method, and program | |
KR101906614B1 (en) | Video decoding using motion compensated example-based super resolution | |
JP4520994B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US6636644B1 (en) | Image processing suitable for use with MPEG4, avoiding false-color problems in extraction of portions of an image | |
CN111586415B (en) | Video coding method, video coding device, video coder and storage device | |
JP2000152234A (en) | Processor and method for data processing, and data processing system | |
US20080253670A1 (en) | Image Signal Re-Encoding Apparatus And Image Signal Re-Encoding Method | |
JP3893350B2 (en) | Encoded data conversion apparatus and method | |
CN106134198A (en) | Utilize video coding apparatus and the method thereof of depth information | |
JP3854721B2 (en) | Image processing apparatus and method | |
US5915043A (en) | Image reproducing apparatus | |
JP6409792B2 (en) | Image feature descriptor encoding device, image feature descriptor decoding device, image feature descriptor encoding method, and image feature descriptor decoding method | |
JP2914320B2 (en) | Module switching type image compression / playback device | |
KR100281685B1 (en) | Moving object segmentation device and method of compressed image | |
JP2002199395A (en) | Method for processing image and image processor | |
JP2009260747A (en) | Image encoding device, and control method thereof | |
JPH11313319A (en) | Decoder and its method | |
JP4136403B2 (en) | Image processing apparatus, image processing method, program, and storage medium | |
KR100568531B1 (en) | Contour extraction method for video coding and decoding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060203 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060602 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060728 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060825 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060911 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090915 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100915 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100915 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110915 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110915 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120915 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120915 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (prs date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130915 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |