JP2005123921A - Apparatus and program of deciding composing order of image segment - Google Patents

Apparatus and program of deciding composing order of image segment Download PDF

Info

Publication number
JP2005123921A
JP2005123921A JP2003357290A JP2003357290A JP2005123921A JP 2005123921 A JP2005123921 A JP 2005123921A JP 2003357290 A JP2003357290 A JP 2003357290A JP 2003357290 A JP2003357290 A JP 2003357290A JP 2005123921 A JP2005123921 A JP 2005123921A
Authority
JP
Japan
Prior art keywords
image
segment
image segment
reference image
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003357290A
Other languages
Japanese (ja)
Other versions
JP4140501B2 (en
Inventor
Yutaka Kuramochi
裕 倉持
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Victor Company of Japan Ltd
Original Assignee
Victor Company of Japan Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Victor Company of Japan Ltd filed Critical Victor Company of Japan Ltd
Priority to JP2003357290A priority Critical patent/JP4140501B2/en
Publication of JP2005123921A publication Critical patent/JP2005123921A/en
Application granted granted Critical
Publication of JP4140501B2 publication Critical patent/JP4140501B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that a conventional method for replacing the upper and lower positional relation between two overlapping segments to search a combination having the smallest error with a reference image causes an increase in the number of combinations resulting in the huge cost of error calculation. <P>SOLUTION: An intrusion quantity calculator 127 receives, as an input, overlap information to be outputted from a segment pasting section 126 and segment information of a reference image to be output from a segmentation section 122, and obtains mutual intrusion quantity thereof to output the quantity. A Z-Order deciding section 128 decides a composing order of overlapped images so that the image segment of a reference image having the smaller number of intrusion pixels may be arranged on the upper part. By doing this, even if the shape of a segment segmented from the standard image differs from the shape of a segment segmented from the reference image, the upper and lower positional relation can be decided by a simple inspection method. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は画像セグメントの合成順序決定装置及び合成順序決定プログラムに係り、特にテレビ画像など時間的に連続する2次元画像を任意形状のセグメントに分割し、そのセグメントにより予測画像を生成する画像セグメントの合成順序決定装置及び合成順序決定プログラムに関する。   The present invention relates to a composition order determination apparatus and composition order determination program for image segments, and in particular, a segment of an image segment that divides a temporally continuous two-dimensional image such as a television image into segments of arbitrary shapes and generates a predicted image using the segments. The present invention relates to a composition order determination apparatus and a composition order determination program.

従来、ディジタル記録装置やディジタル放送などに代表される画像高能率符号化方式として、MPEG2(Moving Picture Experts Group phase 2)方式が広く用いられている。このMPEG2方式では、2次元画像をオーバーラップすることのない矩形領域に分割して符号化する。ここでは本発明と関係のあるフレーム間の予測符号化部を中心にこの矩形領域の処理方法を説明する。   Conventionally, the MPEG2 (Moving Picture Experts Group phase 2) system has been widely used as an image high-efficiency encoding system typified by digital recording devices and digital broadcasting. In this MPEG2 system, a two-dimensional image is divided into rectangular areas that do not overlap and encoded. Here, a processing method of this rectangular area will be described with a focus on a predictive encoding unit between frames which is related to the present invention.

フレーム間予測では前記矩形領域の画像に対して、時間的に前後する画像(以後、参照画像と表記)から画素値の誤差の少ない領域を予測値として選択し、選択された領域の位置を示す情報と選択された領域と実画像(以後、リファレンス画像と表記)との予測誤差か符号化される。   In inter-frame prediction, an area with a small pixel value error is selected as a predicted value from an image that is temporally mixed (hereinafter referred to as a reference image) with respect to the image of the rectangular area, and the position of the selected area is indicated. The prediction error between the information, the selected area, and the actual image (hereinafter referred to as a reference image) is encoded.

一例として、図11(a)の画像を基に図11(b)の予測画像を作成することを考える。図11(a)と同図(b)は時間的に連続するフレームで、始めに円1aと三角形2aが図11(a)に示すように互いに離れた位置関係にあり、次のフレーム(リファレンス画像)で図11(b)に1bで示すように円が三角形2bと重なった位置関係に移動したものとする。   As an example, consider creating the predicted image of FIG. 11B based on the image of FIG. FIG. 11A and FIG. 11B are temporally continuous frames. First, as shown in FIG. 11A, the circle 1a and the triangle 2a are positioned apart from each other, and the next frame (reference) In FIG. 11B, it is assumed that the circle has moved to the positional relationship where the circle overlaps the triangle 2b.

この場合、まず、図12(b)に破線で示すように一定間隔で区切られた矩形状のブロックを作成する。このブロックが符号化される単位となる。なお、図12(a)は図11(a)と同一画像であり、図11(b)と図12(b)も同一画像である。次に、図12(b)のブロック3の予測値を図12(a)の1フレーム前の画像中から探索する場合には、図12(a)のブロック5やブロック6が予測候補となるが、誤差のより少ないブロック5が予測値として選択される。同様に、図12(b)のブロック4の予測値として、図12(a)のブロック7やブロック8が考えられるが、より誤差の少ないブロック7が予測値として選択される。   In this case, first, rectangular blocks divided at regular intervals as shown by broken lines in FIG. This block is a unit to be encoded. Note that FIG. 12A is the same image as FIG. 11A, and FIG. 11B and FIG. 12B are also the same image. Next, when searching for the predicted value of block 3 in FIG. 12B from the image one frame before in FIG. 12A, block 5 and block 6 in FIG. 12A become prediction candidates. However, the block 5 with less error is selected as the predicted value. Similarly, as the predicted value of the block 4 in FIG. 12B, the block 7 and the block 8 in FIG. 12A can be considered, but the block 7 with less error is selected as the predicted value.

以後、図12(b)の全ブロックに対して、上述の探索を行い、図12(c)に示すように、選択した前記ブロック5及び7を含む予測画像を得る。この予測画像を作成するための各ブロックのベクトル情報と、予測画像である図12(c)とリファレンス画像である図12(b)との予測誤差が、DCT(Discrete Cosine Transform:離散コサイン変換)による直交変換や量子化の過程を経てハフマン符号など可変長符号化され符号器から出力される。復号化器では、前記ベクトル情報から予測画像を生成し、前記予測誤差を加えることで画像が復元される。   Thereafter, the above-described search is performed for all the blocks in FIG. 12B, and a predicted image including the selected blocks 5 and 7 is obtained as shown in FIG. 12C. The vector information of each block for creating the predicted image and the prediction error between the predicted image of FIG. 12C and the reference image of FIG. 12B are DCT (Discrete Cosine Transform). After being subjected to orthogonal transformation and quantization in accordance with the above, variable length coding such as Huffman code is performed and output from the encoder. In the decoder, a prediction image is generated from the vector information, and the image is restored by adding the prediction error.

これに対して、セグメント単位の符号化技術が知られている。これは、画像中の同じ特徴量を持つ領域を任意形状に分割する方式である。特徴量とは、例えば輝度値や色、周波数などが挙げられる。このセグメント単位の符号化が前記のブロック単位の符号化と大きく異なる点は、予測画像の探索単位がブロックからセグメントに変わったことである。   On the other hand, a segment unit encoding technique is known. This is a method of dividing an area having the same feature amount in an image into an arbitrary shape. The feature amount includes, for example, a luminance value, a color, and a frequency. The difference between the segment unit encoding and the block unit encoding is that the predicted image search unit is changed from a block to a segment.

このセグメントの探索手法の一例として、2フレーム間で前方(時間順)と後方(時間逆順)の両方向でセグメントのマッチングを取るセグメント探索法が知られている。このセグメント探索法により、セグメントの一部が隠蔽されていても、前方マッチングまたは後方マッチングのどちらかが成功するため、セグメント単位の動き補償が可能となる。   As an example of this segment search method, a segment search method is known in which matching of segments is performed in both forward (in time order) and backward (in reverse time order) between two frames. By this segment search method, even if a part of the segment is concealed, either forward matching or backward matching succeeds, so that motion compensation can be performed on a segment basis.

図11の例にこのセグメント探索法を適用すると、図11(a)と同一の画像を示す図13(a)において、円1aはその外周に沿って切り出され、図13(a)中の三角形2aもその外周に沿って切り出される。切り出された円1aは図13(b)の円1cの位置に移動され、次いで三角形2aが図13(c)の三角形2bのように円1cにオーバーラップするように配置される。この図13(c)が予測画像となる。   When this segment search method is applied to the example of FIG. 11, in FIG. 13 (a) showing the same image as FIG. 11 (a), the circle 1a is cut out along the outer periphery, and the triangle in FIG. 2a is also cut out along its outer periphery. The cut circle 1a is moved to the position of the circle 1c in FIG. 13B, and then the triangle 2a is arranged so as to overlap the circle 1c like the triangle 2b in FIG. 13C. FIG. 13C is a predicted image.

図12(c)の予測画像と図13(c)の予測画像から明らかなように、セグメント単位の符号化技術を用いた予測画像の方がリファレンス画像である図11(b)との予測誤差が少なくなる可能性がある。その理由の一つに、セグメントのオーバーラップが許可されている点がある。前記特許文献1では、このオーバーラップの上下関係(隠蔽関係)をZオーダー(Z−Order)と呼んでいる。ただし、2つのセグメントのオーバーラップの上下関係には、図14(a)に示すように円1cの上に三角形2bが貼り付けられる場合と、図14(b)に示すように三角形2bの上に円1cが貼り付けられる場合の2通りがある。前記特許文献1では、この上下関係を入れ替えながらリファレンス画像との誤差を計算し、誤差の少ない上下関係を選択する方法が開示されている。   As is clear from the prediction image in FIG. 12C and the prediction image in FIG. 13C, the prediction error with respect to FIG. 11B in which the prediction image using the segment-by-segment coding technique is the reference image. May be reduced. One reason is that segment overlap is allowed. In the above-mentioned patent document 1, the vertical relationship (hiding relationship) of this overlap is called Z order (Z-Order). However, the vertical relationship of the overlap of the two segments is that the triangle 2b is pasted on the circle 1c as shown in FIG. 14 (a) and the triangle 2b as shown in FIG. 14 (b). There are two ways in which the circle 1c is pasted. Patent Document 1 discloses a method of calculating an error with a reference image while switching the vertical relationship and selecting a vertical relationship with a small error.

国際公開第02/13127号パンフレットInternational Publication No. 02/13127 Pamphlet

前記特許文献1では、セグメントを同じ動きをする画素の集まりとして定義しているが、厳密には1つのセグメントが剛体であることが必須であり、2フレーム間でセグメントの大きさや形が変化しないという前提条件に基づいている。しかし、実際の映像では被写体の移動により、撮影しているカメラから被写体までの距離の変化や新たな隠蔽が発生するため、被写体画像に関するセグメントの大きさや形が変化しないことは稀であり、前記特許文献1の技術をそのまま適用することはできない。セグメントの大きさや形が変化することを前提に予測画像を作成すると、リファレンス画像のセグメントとは異なる形状のセグメントを貼り付けなければならないからである。   In Patent Document 1, a segment is defined as a group of pixels that move in the same manner. However, strictly speaking, it is essential that one segment is a rigid body, and the size and shape of the segment do not change between two frames. Is based on the precondition. However, in the actual video, the movement of the subject causes a change in the distance from the camera that is shooting to the subject and a new concealment, so it is rare that the size and shape of the segment related to the subject image do not change, The technique of Patent Document 1 cannot be applied as it is. This is because if a predicted image is created on the assumption that the size or shape of the segment changes, a segment having a shape different from that of the reference image must be pasted.

従って、現実的に画像を扱おうとする場合には、リファレンス画像のセグメントとは大きさや形状の異なるセグメントを対象に上下関係(合成順序)を決定しなければならない。しかるに、前記特許文献1には、オーバーラップする2つのセグメントの上下関係を入れ替えてリファレンス画像との誤差が最小になる組み合わせを探索する発明が開示されているが、画像中のセグメントの大部分で形状変化が起こることを考慮すると、組み合わせ数が増加して誤差計算のコストが膨大になる。   Therefore, when an image is to be handled practically, the vertical relationship (combination order) must be determined for a segment having a size or shape different from that of the reference image. However, Patent Document 1 discloses an invention for searching for a combination that minimizes an error from a reference image by exchanging the upper and lower relations of two overlapping segments. Considering that the shape change occurs, the number of combinations increases and the cost of error calculation becomes enormous.

本発明は上記の点に鑑みなされたもので、時間連続する2フレームのうち参照画像から切り出されたセグメントを用いて動き補償し、リファレンス画像と誤差の少ない予測画像を作ることにより、オーバーラップするセグメントの上下関係(隠蔽関係)を容易に、かつ、少ない計算量で判定して画像セグメントの合成順序を決定し得る画像セグメントの合成順序決定装置及び合成順序決定プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and overlaps by making motion compensation using a segment cut out from a reference image out of two consecutive frames and creating a prediction image with little error from the reference image. An object of the present invention is to provide an image segment composition order determination apparatus and composition order determination program capable of determining the composition order of image segments by easily determining the hierarchical relationship (hiding relation) of the segments with a small amount of calculation. .

上記の目的を達成するため、第1の発明の画像セグメントの合成順序決定装置は、時間連続する2枚の2次元画像のうち時間的に過去の一方の2次元画像を参照画像とし、他方の2次元画像をリファレンス画像としたとき、参照画像から切り出した同じ特徴を持つ画素の集合である任意形状の第1の画像セグメントと、リファレンス画像から切り出した同じ特徴を持つ画素の集合である任意形状の第2の画像セグメントとの合成順序を決定する画像セグメントの合成順序決定装置であって、第1の画像セグメントと第2の画像セグメントを、それぞれ参照画像及びリファレンス画像から別々に切り出すセグメンテーション手段と、第1の画像セグメントと第2の画像セグメントに基づき、第1の画像セグメントを移動してリファレンス画像を近似するための、第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、第1の画像セグメントを動きベクトルに従って移動したときに、対応する第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、第1の画像セグメントを動きベクトルに従って移動したときに、第1の画像セグメントに対応する第2の画像セグメントのセグメント境界を越えて、隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、オーバーラップ情報に基づき隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、侵食量算出手段により算出された複数の面積のうち、少ない面積の第1の画像セグメントほど上に表示されるように、第1の画像セグメントの合成順序を決定する合成順序決定手段とを有する構成としたものである。   In order to achieve the above object, an image segment composition order determination apparatus according to a first aspect of the present invention uses one of the two time-continuous two-dimensional images as a reference image, and sets the other two-dimensional image as a reference image. When a two-dimensional image is used as a reference image, a first image segment having an arbitrary shape that is a set of pixels having the same characteristics cut out from the reference image, and an arbitrary shape that is a set of pixels having the same characteristics cut out from the reference image An image segment composition order determination device for determining a composition order with the second image segment, segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively Based on the first image segment and the second image segment, the first image segment is moved to move the reference image Motion vector detecting means for detecting a motion vector indicating a destination of the first image segment for similarity, and a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector A segment pasting unit that generates overlap information indicating a concealment relationship of a plurality of first image segments that are in a relationship of overlapping at least part of the first image segment, and when the first image segment is moved according to a motion vector The portion of the second image segment corresponding to the first image segment crosses the segment boundary and overlaps with the other second image segment corresponding to the other first image segment in the concealment relationship. The area to be covered is the number of the first image segments that are concealed based on the overlap information. Erosion amount calculation means for calculating each, and the first image segment composition order so that the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculation means is displayed above. And a composition order determining means for determining.

この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、侵食量(侵食面積)が小さい画像セグメントほど上に表示されるように決定できる。   In the present invention, even when the image segment shape of the reference image is different from the image segment shape of the reference image, it can be determined that an image segment having a smaller erosion amount (erosion area) is displayed above.

また、上記の目的を達成するため、第2の発明の画像セグメントの合成順序決定装置は、第1の画像セグメントと第2の画像セグメントを、それぞれ参照画像及びリファレンス画像から別々に切り出すセグメンテーション手段と、第1の画像セグメントと第2の画像セグメントに基づき、第1の画像セグメントを移動してリファレンス画像を近似するための、第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、第1の画像セグメントを動きベクトルに従って移動したときに、対応する第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、第1の画像セグメントを動きベクトルに従って移動したときに、第1の画像セグメントに対応する第2の画像セグメントのセグメント境界を越えて、隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分における第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和を、オーバーラップ情報に基づき隠蔽関係にある複数の第1及び第2の画像セグメントのそれぞれについて算出する誤差量算出手段と、誤差量算出手段により算出された複数の絶対値誤差の和のうち、絶対値誤差の和が少ない第1の画像セグメントほど上に表示されるように、第1の画像セグメントの合成順序を決定する合成順序決定手段とを有する構成としたものである。   In order to achieve the above object, a composition order determining apparatus for image segments according to a second aspect of the present invention includes a segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively. Motion vector detection for detecting a motion vector indicating a destination of a first image segment for approximating a reference image by moving the first image segment based on the first image segment and the second image segment And a concealment relationship of a plurality of first image segments in which at least a part of the first image segment overlaps the segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the first image segment Another second image corresponding to another first image segment in a concealment relationship across the segment boundary of the second image segment corresponding to the first image segment when moving the image according to the motion vector The sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in the overlapping portion in the segment is calculated based on the overlap information of the plurality of first and second image segments that are concealed. The first image segment having a smaller sum of absolute value errors among the sum of the error amount calculating means calculated for each and the plurality of absolute value errors calculated by the error amount calculating means is displayed on the top. And a composition order determining means for determining the composition order of one image segment.

この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、オーバーラップする部分における第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和が小さい画像セグメントほど上に表示されるように決定できる。   In the present invention, even when the image segment shape of the reference image and the image segment shape of the reference image are different, the sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in the overlapping portion is small. The image segment can be determined to be displayed above.

また、上記の目的を達成するため、第3の発明の画像セグメントの合成順序決定プログラムは、第1の発明の画像セグメントの合成順序決定装置をコンピュータにより実現させるためのプログラムであって、コンピュータを、
第1の画像セグメントと第2の画像セグメントを、それぞれ参照画像及びリファレンス画像から別々に切り出すセグメンテーション手段と、第1の画像セグメントと第2の画像セグメントに基づき、第1の画像セグメントを移動してリファレンス画像を近似するための、第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、第1の画像セグメントを動きベクトルに従って移動したときに、対応する第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、第1の画像セグメントを動きベクトルに従って移動したときに、第1の画像セグメントに対応する第2の画像セグメントのセグメント境界を越えて、隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、オーバーラップ情報に基づき隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、侵食量算出手段により算出された複数の面積のうち、少ない面積の第1の画像セグメントほど上に表示されるように、第1の画像セグメントの合成順序を決定する合成順序決定手段として機能させることを特徴とする。
In order to achieve the above object, an image segment composition order determination program according to a third aspect of the invention is a program for causing a computer to implement the image segment composition order determination device according to the first aspect of the invention. ,
Segmentation means for separately cutting the first image segment and the second image segment from the reference image and the reference image, respectively, and moving the first image segment based on the first image segment and the second image segment; Motion vector detecting means for detecting a motion vector indicating a destination of the first image segment for approximating the reference image, and a corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the concealment relationship of a plurality of first image segments that are in a relationship of overlapping at least partially beyond the segment boundary, and moving the first image segment according to a motion vector The second corresponding to the first image segment The area eroded by the overlapping portion in another second image segment corresponding to another first image segment in the concealment relationship beyond the segment boundary of the image segment is changed to the concealment relationship based on the overlap information. The erosion amount calculation means for calculating each of a plurality of first image segments, and the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculation means, is displayed above. It is characterized by functioning as a composition order determining means for determining the composition order of the first image segments.

この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、侵食量(侵食面積)が小さい画像セグメントほど上に表示されるように決定できる。   In the present invention, even when the image segment shape of the reference image is different from the image segment shape of the reference image, it can be determined that an image segment having a smaller erosion amount (erosion area) is displayed above.

更に、上記の目的を達成するため、第4の発明の画像セグメントの合成順序決定プログラムは、第2の発明の画像セグメントの合成順序決定装置をコンピュータにより実現させるためのプログラムとしたことを特徴とする。   Furthermore, in order to achieve the above object, the image segment composition order determination program of the fourth invention is a program for causing a computer to realize the image segment composition order determination apparatus of the second invention. To do.

この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、オーバーラップする部分における第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和が小さい画像セグメントほど上に表示されるように決定できる。   In the present invention, even when the image segment shape of the reference image and the image segment shape of the reference image are different, the sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in the overlapping portion is small. The image segment can be determined to be displayed above.

上記の各発明では、第1の画像セグメントを動きベクトルに基づき移動して予測画像に貼り付けた際に、リファレンス画像をセグメンテーションして得られた第2の画像セグメントのセグメント境界からはみ出している部分が、周辺のどの画像セグメントに何画素侵食しているかを求める。前記操作を全ての画像セグメントで行い、オーバーラップしている2つの画像セグメントがお互いに侵食している画素数を比較し、侵食している画素数が少ない方を上の階層に決定する。前記侵食画素数の比較をオーバーラップしているセグメントについて全て求め、上下関係を調べることで第1の画像セグメントの合成順序が決定される。これは、同じ特徴(すなわち、同じような輝度値又は色差値)を持つ画素の集まりが画像セグメントであるため、侵食部分の1画素当りの誤差も略一様に同じ値になるので、
全誤差量=(1画素の誤差)×(画素数)
と表せるからである。ここで、1画素の誤差とは、動きベクトルに基づき移動した後の侵食し合う2つの第1の画像セグメントの1画素あたりの輝度値の絶対値誤差である。
In each of the above-described inventions, when the first image segment is moved based on the motion vector and pasted on the predicted image, the portion protruding from the segment boundary of the second image segment obtained by segmenting the reference image Finds how many pixels are eroding in which peripheral image segment. The above operation is performed for all the image segments, the number of pixels in which two overlapping image segments are eroded is compared, and the one with the smaller number of eroded pixels is determined as the upper layer. The comparison of the number of eroded pixels is obtained for all overlapping segments, and the composition order of the first image segments is determined by examining the vertical relationship. This is because a group of pixels having the same characteristics (that is, similar luminance values or color difference values) is an image segment, and therefore, the error per pixel of the eroded portion is substantially the same value.
Total error amount = (1 pixel error) x (number of pixels)
It is because it can be expressed. Here, the error of one pixel is an absolute value error of luminance values per pixel of the two first image segments that erode after moving based on the motion vector.

または、侵食部分の絶対値誤差の和の大小により第1の画像セグメントの合成順序を決定することもできる。この結果、第1乃至第4の発明によれば、画素数のカウントまたは絶対値誤差の和を求め比較するという簡便な方法でセグメント間の合成順序決定を実現することができる。   Alternatively, the synthesis order of the first image segments can be determined based on the magnitude of the sum of absolute value errors of the eroded portions. As a result, according to the first to fourth inventions, it is possible to realize the composition order determination between segments by a simple method of obtaining and comparing the count of the number of pixels or the sum of absolute value errors.

本発明によれば、参照画像から切り出した第1の画像セグメントの形状とリファレンス画像から切り出した第2の画像セグメントの形状が互いに異なる場合でも、侵食面積の比率、すなわち画素数の比率、または侵食部分のみの絶対値誤差の和という簡便な検査方法で上下関係(隠蔽関係)を決定できるので、任意形状符号化におけるオーバーラップ処理を低廉な計算コストで実現できる。   According to the present invention, even when the shape of the first image segment cut out from the reference image and the shape of the second image segment cut out from the reference image are different from each other, the ratio of the erosion area, that is, the ratio of the number of pixels, or the erosion Since the vertical relationship (the concealment relationship) can be determined by a simple inspection method that is the sum of the absolute value errors of only the portions, the overlap processing in the arbitrary shape coding can be realized at a low calculation cost.

次に、本発明を実施するための最良の形態について図面と共に説明する。図1は本発明になる画像セグメントの合成順序決定装置を含む画像高能率符号化装置(エンコーダ)の一例のブロック図を示す。この画像高能率符号化装置(エンコーダ)は、入力された時間的に連続する2フレームの2次元画像信号から予測画像を生成し、ハフマン符号や算術符号などによりセグメント形状情報、動きベクトル、画像セグメント(以下、単に「セグメント」ともいう)の合成順序を示すZオーダー(Z−Order)情報及び、予測誤差を符号化して出力する。   Next, the best mode for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of an image high-efficiency encoding apparatus (encoder) including an image segment composition order determining apparatus according to the present invention. This high-efficiency image encoding device (encoder) generates a prediction image from two-dimensionally input two-dimensional image signals that are temporally continuous, and uses segment shape information, motion vectors, image segments, etc. by Huffman code or arithmetic code The Z order (Z-Order) information indicating the synthesis order (hereinafter also simply referred to as “segment”) and the prediction error are encoded and output.

ここでは、予め参照画像を構成するデータが符号化された後、出力端子19から出力され復号化装置(デコーダ)に伝送されると共に、セグメント単位画像符号化装置(エンコーダ)内のローカルデコーダ18にも入力され、復号化された参照画像信号がローカルデコーダ18から出力されているものとして以下では説明する。   Here, after the data constituting the reference image is encoded in advance, it is output from the output terminal 19 and transmitted to the decoding device (decoder), and also to the local decoder 18 in the segment unit image encoding device (encoder). In the following description, it is assumed that the decoded reference image signal is also output from the local decoder 18.

まず、入力端子11から符号化されるべき2次元のリファレンス画像信号が入力される。この時間的に連続する入力リファレンス画像信号とローカルデコーダ18から出力される参照画像信号は、本発明の画像セグメントの合成順序決定装置であるZ−Order決定器12へそれぞれ入力される。Z−Order決定器12は、時間的に連続する2フレームの画像信号(リファレンス画像信号及び参照画像信号)のうち、参照画像を任意形状の画像セグメントに分割した(切り出した)後、リファレンス画像から前記画像セグメントの移動先を示す動きベクトルを検出し、分割して得た前記画像セグメントを、検出した動きベクトルに従って移動する。   First, a two-dimensional reference image signal to be encoded is input from the input terminal 11. The time-sequential input reference image signal and the reference image signal output from the local decoder 18 are respectively input to the Z-Order determiner 12 which is an image segment combination order determination device of the present invention. The Z-Order determiner 12 divides (cuts out) the reference image into image segments of arbitrary shapes from two temporally continuous image signals (reference image signal and reference image signal), and then extracts the reference image from the reference image. A motion vector indicating a movement destination of the image segment is detected, and the image segment obtained by the division is moved according to the detected motion vector.

この際に、前記画像セグメント間でオーバーラップが発生する部分があれば上下関係を決定する(すなわち、画像セグメントの合成順序を決定する)。以上の処理により求められたセグメント形状情報が端子13より出力されると共に、Z−Order情報が端子14より出力され、さらに動きベクトル情報が端子15より出力される。   At this time, if there is a portion where overlap occurs between the image segments, the vertical relationship is determined (that is, the composition order of the image segments is determined). The segment shape information obtained by the above processing is output from the terminal 13, the Z-Order information is output from the terminal 14, and the motion vector information is output from the terminal 15.

次に、予測誤差器16では、端子13〜15から入力される情報をもとに予測画像信号を生成した後、この生成した予測画像信号と入力端子11より入力されるリファレンス画像信号との誤差を求めて、その予測誤差信号を可変長符号化器17へ出力する。可変長符号化器17では、端子13〜15から入力されるセグメント形状情報、動きベクトル、Z−Order情報及び、予測誤差器16から入力される予測誤差信号をDCTなどの公知の直交変換や量子化処理の後、ハフマン符号や算術符号などにより符号化する。   Next, the prediction error unit 16 generates a prediction image signal based on information input from the terminals 13 to 15, and then an error between the generated prediction image signal and the reference image signal input from the input terminal 11. And the prediction error signal is output to the variable length encoder 17. The variable length encoder 17 converts the segment shape information, motion vector, Z-Order information input from the terminals 13 to 15 and the prediction error signal input from the prediction error unit 16 into a known orthogonal transform such as DCT or quantum. After the encoding process, encoding is performed using a Huffman code or an arithmetic code.

可変長符号化器17から出力される符号化信号は出力端子19から出力されると共に、ローカルデコーダ18へ入力される。ローカルデコーダ18では、可変長符号化器17から入力された符号化信号を復号して、リファレンス画像信号を再構成する。この再構成されたリファレンス画像信号は、次の時間のリファレンス画像信号を符号化するための参照画像信号としてローカルデコーダ18から出力され、Z−Order決定器12へ入力される。   The encoded signal output from the variable length encoder 17 is output from the output terminal 19 and also input to the local decoder 18. The local decoder 18 decodes the encoded signal input from the variable length encoder 17 to reconstruct the reference image signal. The reconstructed reference image signal is output from the local decoder 18 as a reference image signal for encoding the reference image signal of the next time, and is input to the Z-Order determiner 12.

次に、本発明になる画像セグメントの合成順序決定装置を構成するZ−Order決定器12の構成と動作について詳述する。図2は本発明になる画像セグメントの合成順序決定装置の一実施の形態のブロック図、図3は図2の一例の動作説明用フローチャートである。図2中、図1と同一構成部分には同一符号を付してある。図2において、本発明になる画像セグメントの合成順序決定装置を構成するZ−Order決定器12の入力端子11に入力された符号化されるべき2次元のリファレンス画像信号は、画像メモリ121により所定フレーム分蓄積された後セグメンテーション部122により画像セグメント単位に分割される。また、これと同時に、図1のローカルデコーダ18から出力された参照画像信号は、図2の入力端子20を介して画像メモリ123に供給されて所定フレーム分蓄積された後セグメンテーション部124により画像セグメント単位に分割される(以上、図3のステップS1)。   Next, the configuration and operation of the Z-Order determiner 12 constituting the composition order determining apparatus for image segments according to the present invention will be described in detail. FIG. 2 is a block diagram of an embodiment of a composition order determining apparatus for image segments according to the present invention, and FIG. 3 is a flowchart for explaining the operation of an example of FIG. 2, the same components as those in FIG. 1 are denoted by the same reference numerals. In FIG. 2, a two-dimensional reference image signal to be encoded input to the input terminal 11 of the Z-Order determiner 12 constituting the image segment composition order determining apparatus according to the present invention is predetermined by an image memory 121. After being accumulated for the frame, it is divided into image segments by the segmentation unit 122. At the same time, the reference image signal output from the local decoder 18 in FIG. 1 is supplied to the image memory 123 via the input terminal 20 in FIG. Divided into units (step S1 in FIG. 3).

この際、セグメンテーション部124より出力されるセグメント情報は、符号化に用いるため出力端子13より外部へ出力される。ここでは、本発明はセグメンテーションの方法とは独立して考えることができるので、その方法の詳細な説明は省略するが、例えば特開平10−69544号公報の公知の画像セグメント化方法などを用いることができる。   At this time, the segment information output from the segmentation unit 124 is output to the outside from the output terminal 13 for use in encoding. Here, since the present invention can be considered independently of the segmentation method, a detailed description of the method is omitted. For example, a known image segmentation method disclosed in Japanese Patent Laid-Open No. 10-69544 is used. Can do.

図4は本実施の形態を説明するための2枚の画像例であり、図4(a)は参照画像の一例、図4(b)はリファレンス画像の一例を示す。図4(a)に示す参照画像は、セグメンテーション部124により四角形41a、三角形42a及び円43aの3つのセグメントに分割される。また、図4(b)に示すリファレンス画像は、セグメンテーション部122により四角形41b、三角形42b及び円43bの3つのセグメントに分割される。   FIG. 4 is an example of two images for explaining the present embodiment, FIG. 4A shows an example of a reference image, and FIG. 4B shows an example of a reference image. The reference image shown in FIG. 4A is divided by the segmentation unit 124 into three segments of a quadrangle 41a, a triangle 42a, and a circle 43a. Also, the reference image shown in FIG. 4B is divided into three segments of a square 41b, a triangle 42b, and a circle 43b by the segmentation unit 122.

次に、上記のステップS1で得られた参照画像のセグメントが、動きベクトル情報に基づいて移動される(図3のステップS2)。すなわち、このステップS2では、図2の動きベクトル検出部125にセグメンテーション部122、124より出力されるセグメント情報が入力され、動きベクトルが求められる。この動きベクトルの探索手法については本発明の要旨とは直接の関係はなく、また公知であるので詳細な説明は省略するが、例えば前記特許文献1に記載の方法などを利用できる。   Next, the segment of the reference image obtained in step S1 is moved based on the motion vector information (step S2 in FIG. 3). That is, in step S2, the segment information output from the segmentation units 122 and 124 is input to the motion vector detection unit 125 in FIG. 2, and the motion vector is obtained. This motion vector search method is not directly related to the gist of the present invention, and is well known and will not be described in detail. For example, the method described in Patent Document 1 can be used.

動きベクトル検出部125で求められた動きベクトル情報は、出力端子15より外部へ出力されると共に、セグメント貼り付け部126へ入力される。セグメント貼り付け部126は、動きベクトル検出部125より入力される動きベクトル情報に基づいて、セグメンテーション部124より入力される参照画像のセグメントを移動する。以上の処理が図3のステップS2である。   The motion vector information obtained by the motion vector detection unit 125 is output to the outside from the output terminal 15 and also input to the segment pasting unit 126. The segment pasting unit 126 moves the segment of the reference image input from the segmentation unit 124 based on the motion vector information input from the motion vector detection unit 125. The above processing is step S2 in FIG.

図4の例では、図4(a)の参照画像のセグメントを移動して図4(b)のリファレンス画像のセグメントを近似する予測画像を作成することになる。すなわち、図4(a)に示す四角形41aを図4(b)に示す四角形41bへ、同図(a)の三角形42aを同図(b)の三角形42bへ、同図(a)の円43aを同図(b)の円43bの位置へ移動させる。実際の画像では、円43aに一部が隠蔽されていた三角形42aは、四角形41bに一部隠蔽され、大きさの大きくなった三角形42bとなっている。また、四角形41aは大きさが41bに示すように小さくなり、三角形42bの一部を隠蔽している。さらに三角形42aの一部を隠蔽していた円43aは、大きさも位置も変化なく単独で存在する円43bとなる。   In the example of FIG. 4, the predicted image that approximates the segment of the reference image in FIG. 4B is created by moving the segment of the reference image in FIG. That is, the quadrangle 41a shown in FIG. 4A is changed to the quadrangle 41b shown in FIG. 4B, the triangle 42a shown in FIG. 4A is changed to the triangle 42b shown in FIG. 4B, and the circle 43a shown in FIG. Is moved to the position of the circle 43b in FIG. In the actual image, the triangle 42a partially concealed in the circle 43a is a triangle 42b that is partially concealed by the quadrangle 41b and has a large size. In addition, the quadrangular 41a is reduced in size as indicated by 41b, and partially hides the triangle 42b. Furthermore, the circle 43a that has concealed a part of the triangle 42a becomes a circle 43b that exists independently without changing its size or position.

図5(a)は、図4(a)の参照画像をセグメンテーションした結果のセグメント境界を破線51a、52a、53aで示したものであり、図5(b)は、図4(b)のリファレンス画像をセグメンテーションした結果のセグメント境界を破線51b、52b、53bで示したものである。動きベクトルにより生成される予測画像としては、図5(b)の破線で示されるセグメント境界51b及び52bの内部に図4(a)の四角形41aと三角形42aを配置した場合に、図6と図7の2通りの配置が考えられる。   FIG. 5A shows segment boundaries as a result of segmenting the reference image of FIG. 4A by broken lines 51a, 52a, and 53a. FIG. 5B shows the reference of FIG. 4B. Segment boundaries as a result of segmenting the image are indicated by broken lines 51b, 52b, and 53b. As the predicted image generated by the motion vector, when the rectangle 41a and the triangle 42a in FIG. 4 (a) are arranged inside the segment boundaries 51b and 52b indicated by the broken line in FIG. 5 (b), FIG. 6 and FIG. 7 can be considered.

すなわち、図6は四角形41aが41a’に、三角形42aが42a’で示すように、それぞれセグメント境界51b及び52bの内部に配置されることにより、四角形41a’が三角形42a’の一部を隠蔽している場合である。一方、図7は四角形41aが41a”に、三角形42aが42a”で示すように、それぞれセグメント境界51b及び52bの内部に配置されることにより、三角形42a”により四角形41a”の一部が隠蔽されている場合である。この隠蔽関係の存在をオーバーラップ情報として図2のセグメント貼り付け部126は出力する。   That is, in FIG. 6, the quadrangular 41 a is hidden by 41 a ′, and the triangle 42 a is indicated by 42 a ′, so that the quadrangular 41 a ′ conceals a part of the triangular 42 a ′. It is a case. On the other hand, FIG. 7 shows that the quadrangular 41a is 41a "and the triangular 42a is indicated by 42a", so that a part of the quadrilateral 41a "is concealed by the triangle 42a" by being arranged inside the segment boundaries 51b and 52b. It is a case. The segment pasting unit 126 in FIG. 2 outputs the existence of the concealment relationship as overlap information.

次に、図3のステップS2のセグメント移動により発生したオーバーラップする2つのセグメントを、対応するリファレンス画像のセグメント境界に基づき、お互いに侵食する画素数をカウントする(図3のステップS3)。すなわち、このステップS3において、図2の侵食量算出部127は、セグメント貼り付け部126より出力されるオーバーラップ情報とセグメンテーション部122より出力されるリファレンス画像のセグメント情報を入力として受け、それらの互いの侵食量を求めて出力する。ここで、侵食量とは、参照画像のセグメントを対応するリファレンス画像のセグメント境界内に嵌め込んだ時に、リファレンス画像のオーバーラップしている他のセグメントの領域にはみ出している面積をいう。   Next, based on the segment boundary of the corresponding reference image, the number of pixels eroding each other is counted based on the segment boundary of the corresponding reference image (step S3 in FIG. 3). That is, in this step S3, the erosion amount calculation unit 127 in FIG. 2 receives the overlap information output from the segment pasting unit 126 and the segment information of the reference image output from the segmentation unit 122 as inputs, and receives the mutual information. The amount of erosion is calculated and output. Here, the amount of erosion refers to an area protruding from a region of another segment that overlaps the reference image when the segment of the reference image is fitted into the segment boundary of the corresponding reference image.

一例として、図4(a)の参照画像中の四角形41aと三角形42aの侵食画素数をカウントする操作を説明する。この場合、図3のステップS1で求めたリファレンス画像のセグメンテーション結果である図5(b)の四角破線枠のセグメント境界51bが、図4(a)の参照画像のセグメントの四角形41aに対応し、リファレンス画像のセグメンテーション結果である図5(b)の三角破線枠のセグメント境界52bが、図4(a)の参照画像のセグメントの三角形42aに対応している。   As an example, an operation for counting the number of eroded pixels of the rectangle 41a and the triangle 42a in the reference image of FIG. 4A will be described. In this case, the segment boundary 51b of the square broken line frame of FIG. 5B, which is the segmentation result of the reference image obtained in step S1 of FIG. 3, corresponds to the segment rectangle 41a of the reference image of FIG. The segment boundary 52b of the triangular broken line frame in FIG. 5B, which is the segmentation result of the reference image, corresponds to the triangle 42a of the segment of the reference image in FIG.

従って、四角形41aが三角破線枠のセグメント境界52bへ侵食している画素数は、図8に示すように、四角破線枠のセグメント境界51bと四角形41aの外枠60の間に存在し、かつ、三角破線枠のセグメント境界52bの内部に存在する領域61の画素数となる。また、三角形42aが四角破線枠のセグメント境界51bへ侵食している画素数は、図9に示すように、三角破線枠のセグメント境界52bと三角形42aの外枠62の間に存在し、かつ、四角破線枠のセグメント境界51bの内部に存在する画素数であるが、図9から分かるようにこの場合の侵食画素はない。   Therefore, as shown in FIG. 8, the number of pixels in which the square 41a erodes into the segment boundary 52b of the triangular broken line frame exists between the segment boundary 51b of the square broken line frame and the outer frame 60 of the square 41a, and This is the number of pixels in the region 61 existing inside the segment boundary 52b of the triangular broken line frame. Further, as shown in FIG. 9, the number of pixels in which the triangle 42a erodes the segment boundary 51b of the square broken line frame exists between the segment boundary 52b of the triangular broken line frame and the outer frame 62 of the triangle 42a, and Although it is the number of pixels existing inside the segment boundary 51b of the square broken line frame, as can be seen from FIG. 9, there is no eroded pixel in this case.

最後に、図3のステップS3で求めた侵食画素数の少ない画像セグメントが上に配置されるように画像セグメントの合成順序であるZ−Orderを決定する(図3のステップS4)。すなわち、このステップS4において、図2のZ−Order決定部128は、侵食量算出部127より入力される侵食量に基づき、侵食画素数の少ない参照画像の画像セグメントが上に配置されるようにオーバーラップする画像セグメントの合成順序を決定し、決定したその画像セグメントの合成順序情報(Z−Order情報)を出力端子14より外部へ出力する。   Finally, Z-Order, which is the image segment combination order, is determined so that the image segment with a small number of eroded pixels obtained in step S3 in FIG. 3 is arranged on top (step S4 in FIG. 3). That is, in this step S4, the Z-Order determining unit 128 in FIG. 2 arranges the image segment of the reference image with a small number of eroded pixels on the basis of the erosion amount input from the erosion amount calculation unit 127. The composition order of overlapping image segments is determined, and the determined composition order information (Z-Order information) of the image segments is output from the output terminal 14 to the outside.

図8と図9の例では、三角形42aの侵食画素数(この場合は零画素)の方が少ないため、三角形42aが四角形41aの上に配置される図7に42a”、41a”で示す配置が予測画像として選択される。以上で、1組のオーバーラップする画像セグメントの合成順序(Z−Order)が求められる。この動作を全てのオーバーラップする画像セグメントについて行うことで、予測画像が完成する。   In the example of FIGS. 8 and 9, since the number of eroded pixels of the triangle 42a (in this case, zero pixels) is smaller, the triangle 42a is arranged on the quadrangle 41a. The arrangement shown by 42a ″ and 41a ″ in FIG. Are selected as predicted images. As described above, the synthesis order (Z-Order) of a set of overlapping image segments is obtained. By performing this operation for all overlapping image segments, a predicted image is completed.

次に、本発明のオーバーラップする画像セグメントの上下関係を決定する他の手法について、図10のフローチャートと共に説明する。ただし、図10中、図3と同じ動作をするステップには同一の番号が付与されている。図中のステップS1とS2は上述しているので説明を省略する。本実施の形態では、図10のステップS11において図3のステップS3の画素数の代わりに、リファレンス画像との画素の絶対値誤差の和を求める点に特徴がある。すなわち、図8の侵食領域61内にある四角形41aの画素の輝度値Y(x)と、図8の侵食領域61内にある三角形42aの画素の輝度値D(x)の絶対値誤差の和Eを次式により求める。   Next, another method for determining the vertical relationship of overlapping image segments according to the present invention will be described with reference to the flowchart of FIG. However, in FIG. 10, the same number is given to the step which performs the same operation as FIG. Since steps S1 and S2 in the figure have been described above, a description thereof will be omitted. The present embodiment is characterized in that in step S11 in FIG. 10, the sum of absolute value errors of pixels with the reference image is obtained instead of the number of pixels in step S3 in FIG. That is, the sum of the absolute value errors of the luminance value Y (x) of the pixel of the quadrangle 41a in the erosion area 61 of FIG. 8 and the luminance value D (x) of the pixel of the triangle 42a in the erosion area 61 of FIG. E is obtained by the following equation.

Figure 2005123921
ただし、上式中、xは侵食領域61の内部にある画素を示す値である。同様に、図9で三角形42aが四角形51bに侵食している部分の絶対値誤差の和を求めるが、この例では零である。ここで、上記の数1の数式中、|Y(x)−D(x)|は、xによらず略一定値になることが予想され、Q=|Y(x)−D(x)|とすると、上式はE=Q・xと表すことができる。
Figure 2005123921
However, in the above formula, x is a value indicating a pixel inside the erosion area 61. Similarly, in FIG. 9, the sum of absolute value errors of the portion where the triangle 42a erodes the quadrangle 51b is obtained. In this example, it is zero. Here, in the above mathematical formula 1, | Y (x) −D (x) | is expected to be a substantially constant value regardless of x, and Q = | Y (x) −D (x) If |, then the above equation can be expressed as E = Q · x.

次に、図10のステップS11で求めた侵食している領域の絶対値誤差の和の少ないセグメントを上に配置するようにZ−Orderを決定する(図10のステップS12)。ここで、例えばオーバーラップしている2つのセグメントA、Bのうち、Aの1画素当りの輝度値をPa、BのそれをPbとすると、AがBに侵食している部分の誤差はQa=|Pa−Pb|となり、BがAに侵食している部分の誤差はQb=|Pb−Pa|となるが、絶対値をとっているため、Qa=Qbとなる。   Next, Z-Order is determined so that a segment with a small sum of absolute value errors of the eroded area obtained in step S11 of FIG. 10 is arranged on top (step S12 of FIG. 10). Here, of two overlapping segments A and B, for example, assuming that the luminance value per pixel of A is Pa and that of B is Pb, the error of the portion where A erodes B is Qa. = | Pa−Pb |, and the error of the portion where B erodes A is Qb = | Pb−Pa |. However, since the absolute value is taken, Qa = Qb.

一方、AがBに侵食している部分の誤差量は、数1に基づき、Ea=Qa・xaと表せ、同様に、BがAに侵食している部分の誤差量はEb=Qb・xbと表すことができる(ただし、xa、xbは、侵食している領域のセグメントA、Bの画素数)。ここで、上記のようにQa=Qbであるから、EaとEbの大小関係はxaとxbの大小関係で決定される。従って、上記のステップS12では、侵食している領域の絶対値誤差の和の少ないセグメントを上に配置するのである。なお、図10の実施の形態では、演算量は増加するものの図3の実施の形態よりも正確な画像セグメントの合成順序を求めることが可能である。   On the other hand, the error amount of the portion where A erodes B can be expressed as Ea = Qa · xa based on Equation 1. Similarly, the error amount of the portion where B erodes A is Eb = Qb · xb. (Where xa and xb are the number of pixels in segments A and B in the eroded area). Here, since Qa = Qb as described above, the magnitude relationship between Ea and Eb is determined by the magnitude relationship between xa and xb. Therefore, in the above step S12, a segment having a small sum of absolute value errors of the eroded area is arranged on the upper side. In the embodiment of FIG. 10, although the amount of calculation increases, it is possible to obtain a more accurate image segment synthesis order than in the embodiment of FIG.

なお、以上の実施の形態では2つの画像セグメントがオーバーラップしている様子で説明したが、本発明はこれに限定されるものではなく、例えば同じ領域に3つ以上の画像セグメントがオーバーラップしている場合でも、その中の2つの画像セグメントの組を選択しながら上下関係を決定することで本発明を適用できる。この場合、オーバーラップしている部分の侵食面積が小さいものほど上に表示されるような順序で画像セグメントが合成される。また、図1以外の構成のセグメント単位画像符号化装置にも本発明の適用は可能である。   In the above embodiment, two image segments are described as overlapping. However, the present invention is not limited to this. For example, three or more image segments overlap in the same region. Even in such a case, the present invention can be applied by determining the vertical relationship while selecting a pair of two image segments. In this case, the image segments are synthesized in such an order that the smaller the erosion area of the overlapping portion is displayed on the upper side. In addition, the present invention can be applied to a segment unit image encoding apparatus having a configuration other than that shown in FIG.

また、本発明は、上記の装置の機能をコンピュータに実現させるためのコンピュータプログラムも含むものである。このコンピュータプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークからダウンロードしてコンピュータに取り込まれてもよい。   The present invention also includes a computer program for causing a computer to realize the functions of the above apparatus. This computer program may be read from a recording medium and taken into a computer, or may be downloaded from a communication network and taken into a computer.

本発明の画像セグメントの合成順序決定装置を含む画像高能率符号化装置(エンコーダ)の一例のブロック図である。1 is a block diagram of an example of an image high efficiency encoding device (encoder) including an image segment composition order determination device of the present invention. FIG. 本発明になる画像セグメントの合成順序決定装置の一実施の形態のブロック図である。It is a block diagram of one embodiment of a composition order determining apparatus for image segments according to the present invention. 本発明によるオーバーラップするセグメントの上下関係の決定処理方法の一例の説明用フローチャートである。It is a flowchart for description of an example of a determination processing method of the vertical relationship of overlapping segments according to the present invention. 参照画像とリファレンス画像の一例である。It is an example of a reference image and a reference image. セグメンテーション結果の一例の説明図である。It is explanatory drawing of an example of a segmentation result. セグメント貼り付けによる予測画像の一例を説明する図である。It is a figure explaining an example of a prediction picture by segment pasting. セグメント貼り付けによる予測画像の他の例を説明する図である。It is a figure explaining other examples of a prediction picture by segment pasting. 侵食面積の一例の説明図である。It is explanatory drawing of an example of an erosion area. 侵食面積の他の例の説明図である。It is explanatory drawing of the other example of an erosion area. 本発明によるオーバーラップするセグメントの上下関係の決定方法の他の例のフローチャートである。It is a flowchart of the other example of the determination method of the vertical relationship of the segment which overlaps by this invention. 予測画像を生成する過程を説明するための参照画像とリファレンス画像の一例である。It is an example of the reference image and reference image for demonstrating the process which produces | generates a predicted image. ブロック単位符号化における予測画像の生成過程の説明図である。It is explanatory drawing of the production process of the prediction picture in block unit coding. セグメント単位符号化における予測画像の生成過程の説明図である。It is explanatory drawing of the production | generation process of the estimated image in segment unit coding. セグメント単位符号化におけるセグメント貼り付け順の違いにより生成される予測画像の違いを説明する図である。It is a figure explaining the difference in the prediction image produced | generated by the difference in the segment sticking order in segment unit encoding.

符号の説明Explanation of symbols

11 リファレンス画像入力端子
12 Z−Order決定器
13、14、15、19 出力端子
16 予測誤差器
17 可変長符号化器
18 ローカルデコーダ
20 参照画像入力端子
41a、41b 四角形
42a、42b 三角形
43a、43b 円
51a、51b 四角破線枠のセグメント境界
52a、52b 三角破線枠のセグメント境界
53a、53b 円破線枠のセグメント境界
60、62 外枠
61 画素の侵食領域
121、123 画像メモリ
122、124 セグメンテーション部
125 動きベクトル検出部
126 セグメント貼り付け部
127 侵食量算出部
128 Z−Order決定部


DESCRIPTION OF SYMBOLS 11 Reference image input terminal 12 Z-Order determiner 13, 14, 15, 19 Output terminal 16 Prediction error device 17 Variable length encoder 18 Local decoder 20 Reference image input terminal 41a, 41b Rectangle 42a, 42b Triangle
43a, 43b Circles 51a, 51b Square broken line frame boundary 52a, 52b Triangular broken line segment boundary 53a, 53b Circular broken line segment boundary 60, 62 Outer frame 61 Pixel erosion area 121, 123 Image memory 122, 124 Segmentation Unit 125 motion vector detecting unit 126 segment pasting unit 127 erosion amount calculating unit 128 Z-Order determining unit


Claims (4)

時間連続する2枚の2次元画像のうち時間的に過去の一方の2次元画像を参照画像とし、他方の2次元画像をリファレンス画像としたとき、前記参照画像から切り出した同じ特徴を持つ画素の集合である任意形状の第1の画像セグメントと、前記リファレンス画像から切り出した同じ特徴を持つ画素の集合である任意形状の第2の画像セグメントとの合成順序を決定する画像セグメントの合成順序決定装置であって、
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、
前記侵食量算出手段により算出された複数の前記面積のうち、少ない面積の前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
を有することを特徴とする画像セグメントの合成順序決定装置。
Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Because
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. An erosion amount calculating means for calculating an erosion area of an overlapping portion in another second image segment corresponding to each of the plurality of first image segments in the concealment relationship based on the overlap information; ,
Composition order determining means for determining the composition order of the first image segments so that the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculating means is displayed above. An image segment composition order determination apparatus characterized by comprising:
時間連続する2枚の2次元画像のうち時間的に過去の一方の2次元画像を参照画像とし、他方の2次元画像をリファレンス画像としたとき、前記参照画像から切り出した同じ特徴を持つ画素の集合である任意形状の第1の画像セグメントと、前記リファレンス画像から切り出した同じ特徴を持つ画素の集合である任意形状の第2の画像セグメントとの合成順序を決定する画像セグメントの合成順序決定装置であって、
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分における該第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1及び第2の画像セグメントのそれぞれについて算出する誤差量算出手段と、
前記誤差量算出手段により算出された複数の前記絶対値誤差の和のうち、該絶対値誤差の和が少ない前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
を有することを特徴とする画像セグメントの合成順序決定装置。
Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Because
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. The sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in a portion overlapping in another second image segment corresponding to the above-described concealment relationship based on the overlap information An error amount calculating means for calculating each of a plurality of first and second image segments;
Of the plurality of absolute value errors calculated by the error amount calculation means, the first image segment of the first image segment is displayed so that the first image segment having the smaller absolute value error sum is displayed higher. An image segment composition order determination apparatus comprising: composition order determination means for determining a composition order.
時間連続する2枚の2次元画像のうち時間的に過去の一方の2次元画像を参照画像とし、他方の2次元画像をリファレンス画像としたとき、前記参照画像から切り出した同じ特徴を持つ画素の集合である任意形状の第1の画像セグメントと、前記リファレンス画像から切り出した同じ特徴を持つ画素の集合である任意形状の第2の画像セグメントとの合成順序を決定する画像セグメントの合成順序決定装置をコンピュータにより実現させるためのプログラムであって、
前記コンピュータを、
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、
前記侵食量算出手段により算出された複数の前記面積のうち、少ない面積の前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
して機能させることを特徴とする画像セグメントの合成順序決定プログラム。
Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Is a program for realizing by a computer,
The computer,
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. An erosion amount calculating means for calculating an erosion area of an overlapping portion in another second image segment corresponding to each of the plurality of first image segments in the concealment relationship based on the overlap information; ,
Composition order determining means for determining the composition order of the first image segments so that the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculating means is displayed above. A program for determining the composition order of image segments, characterized in that it functions as an image segment.
時間連続する2枚の2次元画像のうち時間的に過去の一方の2次元画像を参照画像とし、他方の2次元画像をリファレンス画像としたとき、前記参照画像から切り出した同じ特徴を持つ画素の集合である任意形状の第1の画像セグメントと、前記リファレンス画像から切り出した同じ特徴を持つ画素の集合である任意形状の第2の画像セグメントとの合成順序を決定する画像セグメントの合成順序決定装置をコンピュータにより実現させるためのプログラムであって、
前記コンピュータを、
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分における該第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1及び第2の画像セグメントのそれぞれについて算出する誤差量算出手段と、
前記誤差量算出手段により算出された複数の前記絶対値誤差の和のうち、該絶対値誤差の和が少ない前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
して機能させることを特徴とする画像セグメントの合成順序決定プログラム。
Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Is a program for realizing by a computer,
The computer,
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. The sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in a portion overlapping in another second image segment corresponding to the above-described concealment relationship based on the overlap information An error amount calculating means for calculating each of a plurality of first and second image segments;
Of the plurality of absolute value errors calculated by the error amount calculation means, the first image segment of the first image segment is displayed so that the first image segment having the smaller absolute value error sum is displayed higher. An image segment composition order determination program which functions as a composition order determination means for determining a composition order.
JP2003357290A 2003-10-17 2003-10-17 Image segment composition order determination apparatus and composition order determination program Expired - Fee Related JP4140501B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003357290A JP4140501B2 (en) 2003-10-17 2003-10-17 Image segment composition order determination apparatus and composition order determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003357290A JP4140501B2 (en) 2003-10-17 2003-10-17 Image segment composition order determination apparatus and composition order determination program

Publications (2)

Publication Number Publication Date
JP2005123921A true JP2005123921A (en) 2005-05-12
JP4140501B2 JP4140501B2 (en) 2008-08-27

Family

ID=34614219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003357290A Expired - Fee Related JP4140501B2 (en) 2003-10-17 2003-10-17 Image segment composition order determination apparatus and composition order determination program

Country Status (1)

Country Link
JP (1) JP4140501B2 (en)

Also Published As

Publication number Publication date
JP4140501B2 (en) 2008-08-27

Similar Documents

Publication Publication Date Title
CN110830802B (en) Video Compression Based on Machine Learning
US7616782B2 (en) Mesh based frame processing and applications
JP4047879B2 (en) Motion vector detection apparatus and motion vector detection method
JP3753578B2 (en) Motion vector search apparatus and method
CN114208197A (en) Block dividing method for video coding and decoding
JP2001507541A (en) Sprite-based video coding system
US7440613B2 (en) Binary mask interpolation
TWI652934B (en) Method and apparatus for adaptive video decoding
EP2355515B1 (en) Scalable video coding
JP2000224593A (en) Method and device for interpolating frame and recording medium recording the method
JP6435029B2 (en) Video encoding apparatus and video encoding program
WO2015056712A1 (en) Moving image encoding method, moving image decoding method, moving image encoding device, moving image decoding device, moving image encoding program, and moving image decoding program
JP4140501B2 (en) Image segment composition order determination apparatus and composition order determination program
CA2812890A1 (en) Mesh based frame processing and applications
JP4245587B2 (en) Motion compensation prediction method
JP3734488B2 (en) Image encoding device
JP2006236317A (en) Image processing method
Décombas et al. Seam carving modeling for semantic video coding in security applications
JP4100321B2 (en) Segment unit image encoding apparatus and segment unit image encoding program
Meuel et al. Region of interest coding for aerial video sequences using landscape models
CN116781911A (en) Window-based generation type parallel coding method and system
JP2005175943A (en) Image processor, image processing method, computer program, and recording medium
JP2015073192A (en) Video encoder and video encoding program
JPH0937240A (en) Moving image coder and moving image decoder
JP2009033266A (en) Motion vector search method, motion vector search device, coder and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080226

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080520

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080602

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110620

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120620

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees