JP2005123921A - Apparatus and program of deciding composing order of image segment - Google Patents
Apparatus and program of deciding composing order of image segment Download PDFInfo
- Publication number
- JP2005123921A JP2005123921A JP2003357290A JP2003357290A JP2005123921A JP 2005123921 A JP2005123921 A JP 2005123921A JP 2003357290 A JP2003357290 A JP 2003357290A JP 2003357290 A JP2003357290 A JP 2003357290A JP 2005123921 A JP2005123921 A JP 2005123921A
- Authority
- JP
- Japan
- Prior art keywords
- image
- segment
- image segment
- reference image
- motion vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は画像セグメントの合成順序決定装置及び合成順序決定プログラムに係り、特にテレビ画像など時間的に連続する2次元画像を任意形状のセグメントに分割し、そのセグメントにより予測画像を生成する画像セグメントの合成順序決定装置及び合成順序決定プログラムに関する。 The present invention relates to a composition order determination apparatus and composition order determination program for image segments, and in particular, a segment of an image segment that divides a temporally continuous two-dimensional image such as a television image into segments of arbitrary shapes and generates a predicted image using the segments. The present invention relates to a composition order determination apparatus and a composition order determination program.
従来、ディジタル記録装置やディジタル放送などに代表される画像高能率符号化方式として、MPEG2(Moving Picture Experts Group phase 2)方式が広く用いられている。このMPEG2方式では、2次元画像をオーバーラップすることのない矩形領域に分割して符号化する。ここでは本発明と関係のあるフレーム間の予測符号化部を中心にこの矩形領域の処理方法を説明する。 Conventionally, the MPEG2 (Moving Picture Experts Group phase 2) system has been widely used as an image high-efficiency encoding system typified by digital recording devices and digital broadcasting. In this MPEG2 system, a two-dimensional image is divided into rectangular areas that do not overlap and encoded. Here, a processing method of this rectangular area will be described with a focus on a predictive encoding unit between frames which is related to the present invention.
フレーム間予測では前記矩形領域の画像に対して、時間的に前後する画像(以後、参照画像と表記)から画素値の誤差の少ない領域を予測値として選択し、選択された領域の位置を示す情報と選択された領域と実画像(以後、リファレンス画像と表記)との予測誤差か符号化される。 In inter-frame prediction, an area with a small pixel value error is selected as a predicted value from an image that is temporally mixed (hereinafter referred to as a reference image) with respect to the image of the rectangular area, and the position of the selected area is indicated. The prediction error between the information, the selected area, and the actual image (hereinafter referred to as a reference image) is encoded.
一例として、図11(a)の画像を基に図11(b)の予測画像を作成することを考える。図11(a)と同図(b)は時間的に連続するフレームで、始めに円1aと三角形2aが図11(a)に示すように互いに離れた位置関係にあり、次のフレーム(リファレンス画像)で図11(b)に1bで示すように円が三角形2bと重なった位置関係に移動したものとする。
As an example, consider creating the predicted image of FIG. 11B based on the image of FIG. FIG. 11A and FIG. 11B are temporally continuous frames. First, as shown in FIG. 11A, the
この場合、まず、図12(b)に破線で示すように一定間隔で区切られた矩形状のブロックを作成する。このブロックが符号化される単位となる。なお、図12(a)は図11(a)と同一画像であり、図11(b)と図12(b)も同一画像である。次に、図12(b)のブロック3の予測値を図12(a)の1フレーム前の画像中から探索する場合には、図12(a)のブロック5やブロック6が予測候補となるが、誤差のより少ないブロック5が予測値として選択される。同様に、図12(b)のブロック4の予測値として、図12(a)のブロック7やブロック8が考えられるが、より誤差の少ないブロック7が予測値として選択される。
In this case, first, rectangular blocks divided at regular intervals as shown by broken lines in FIG. This block is a unit to be encoded. Note that FIG. 12A is the same image as FIG. 11A, and FIG. 11B and FIG. 12B are also the same image. Next, when searching for the predicted value of
以後、図12(b)の全ブロックに対して、上述の探索を行い、図12(c)に示すように、選択した前記ブロック5及び7を含む予測画像を得る。この予測画像を作成するための各ブロックのベクトル情報と、予測画像である図12(c)とリファレンス画像である図12(b)との予測誤差が、DCT(Discrete Cosine Transform:離散コサイン変換)による直交変換や量子化の過程を経てハフマン符号など可変長符号化され符号器から出力される。復号化器では、前記ベクトル情報から予測画像を生成し、前記予測誤差を加えることで画像が復元される。
Thereafter, the above-described search is performed for all the blocks in FIG. 12B, and a predicted image including the
これに対して、セグメント単位の符号化技術が知られている。これは、画像中の同じ特徴量を持つ領域を任意形状に分割する方式である。特徴量とは、例えば輝度値や色、周波数などが挙げられる。このセグメント単位の符号化が前記のブロック単位の符号化と大きく異なる点は、予測画像の探索単位がブロックからセグメントに変わったことである。 On the other hand, a segment unit encoding technique is known. This is a method of dividing an area having the same feature amount in an image into an arbitrary shape. The feature amount includes, for example, a luminance value, a color, and a frequency. The difference between the segment unit encoding and the block unit encoding is that the predicted image search unit is changed from a block to a segment.
このセグメントの探索手法の一例として、2フレーム間で前方(時間順)と後方(時間逆順)の両方向でセグメントのマッチングを取るセグメント探索法が知られている。このセグメント探索法により、セグメントの一部が隠蔽されていても、前方マッチングまたは後方マッチングのどちらかが成功するため、セグメント単位の動き補償が可能となる。 As an example of this segment search method, a segment search method is known in which matching of segments is performed in both forward (in time order) and backward (in reverse time order) between two frames. By this segment search method, even if a part of the segment is concealed, either forward matching or backward matching succeeds, so that motion compensation can be performed on a segment basis.
図11の例にこのセグメント探索法を適用すると、図11(a)と同一の画像を示す図13(a)において、円1aはその外周に沿って切り出され、図13(a)中の三角形2aもその外周に沿って切り出される。切り出された円1aは図13(b)の円1cの位置に移動され、次いで三角形2aが図13(c)の三角形2bのように円1cにオーバーラップするように配置される。この図13(c)が予測画像となる。
When this segment search method is applied to the example of FIG. 11, in FIG. 13 (a) showing the same image as FIG. 11 (a), the
図12(c)の予測画像と図13(c)の予測画像から明らかなように、セグメント単位の符号化技術を用いた予測画像の方がリファレンス画像である図11(b)との予測誤差が少なくなる可能性がある。その理由の一つに、セグメントのオーバーラップが許可されている点がある。前記特許文献1では、このオーバーラップの上下関係(隠蔽関係)をZオーダー(Z−Order)と呼んでいる。ただし、2つのセグメントのオーバーラップの上下関係には、図14(a)に示すように円1cの上に三角形2bが貼り付けられる場合と、図14(b)に示すように三角形2bの上に円1cが貼り付けられる場合の2通りがある。前記特許文献1では、この上下関係を入れ替えながらリファレンス画像との誤差を計算し、誤差の少ない上下関係を選択する方法が開示されている。
As is clear from the prediction image in FIG. 12C and the prediction image in FIG. 13C, the prediction error with respect to FIG. 11B in which the prediction image using the segment-by-segment coding technique is the reference image. May be reduced. One reason is that segment overlap is allowed. In the above-mentioned
前記特許文献1では、セグメントを同じ動きをする画素の集まりとして定義しているが、厳密には1つのセグメントが剛体であることが必須であり、2フレーム間でセグメントの大きさや形が変化しないという前提条件に基づいている。しかし、実際の映像では被写体の移動により、撮影しているカメラから被写体までの距離の変化や新たな隠蔽が発生するため、被写体画像に関するセグメントの大きさや形が変化しないことは稀であり、前記特許文献1の技術をそのまま適用することはできない。セグメントの大きさや形が変化することを前提に予測画像を作成すると、リファレンス画像のセグメントとは異なる形状のセグメントを貼り付けなければならないからである。
In
従って、現実的に画像を扱おうとする場合には、リファレンス画像のセグメントとは大きさや形状の異なるセグメントを対象に上下関係(合成順序)を決定しなければならない。しかるに、前記特許文献1には、オーバーラップする2つのセグメントの上下関係を入れ替えてリファレンス画像との誤差が最小になる組み合わせを探索する発明が開示されているが、画像中のセグメントの大部分で形状変化が起こることを考慮すると、組み合わせ数が増加して誤差計算のコストが膨大になる。
Therefore, when an image is to be handled practically, the vertical relationship (combination order) must be determined for a segment having a size or shape different from that of the reference image. However,
本発明は上記の点に鑑みなされたもので、時間連続する2フレームのうち参照画像から切り出されたセグメントを用いて動き補償し、リファレンス画像と誤差の少ない予測画像を作ることにより、オーバーラップするセグメントの上下関係(隠蔽関係)を容易に、かつ、少ない計算量で判定して画像セグメントの合成順序を決定し得る画像セグメントの合成順序決定装置及び合成順序決定プログラムを提供することを目的とする。 The present invention has been made in view of the above points, and overlaps by making motion compensation using a segment cut out from a reference image out of two consecutive frames and creating a prediction image with little error from the reference image. An object of the present invention is to provide an image segment composition order determination apparatus and composition order determination program capable of determining the composition order of image segments by easily determining the hierarchical relationship (hiding relation) of the segments with a small amount of calculation. .
上記の目的を達成するため、第1の発明の画像セグメントの合成順序決定装置は、時間連続する2枚の2次元画像のうち時間的に過去の一方の2次元画像を参照画像とし、他方の2次元画像をリファレンス画像としたとき、参照画像から切り出した同じ特徴を持つ画素の集合である任意形状の第1の画像セグメントと、リファレンス画像から切り出した同じ特徴を持つ画素の集合である任意形状の第2の画像セグメントとの合成順序を決定する画像セグメントの合成順序決定装置であって、第1の画像セグメントと第2の画像セグメントを、それぞれ参照画像及びリファレンス画像から別々に切り出すセグメンテーション手段と、第1の画像セグメントと第2の画像セグメントに基づき、第1の画像セグメントを移動してリファレンス画像を近似するための、第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、第1の画像セグメントを動きベクトルに従って移動したときに、対応する第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、第1の画像セグメントを動きベクトルに従って移動したときに、第1の画像セグメントに対応する第2の画像セグメントのセグメント境界を越えて、隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、オーバーラップ情報に基づき隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、侵食量算出手段により算出された複数の面積のうち、少ない面積の第1の画像セグメントほど上に表示されるように、第1の画像セグメントの合成順序を決定する合成順序決定手段とを有する構成としたものである。 In order to achieve the above object, an image segment composition order determination apparatus according to a first aspect of the present invention uses one of the two time-continuous two-dimensional images as a reference image, and sets the other two-dimensional image as a reference image. When a two-dimensional image is used as a reference image, a first image segment having an arbitrary shape that is a set of pixels having the same characteristics cut out from the reference image, and an arbitrary shape that is a set of pixels having the same characteristics cut out from the reference image An image segment composition order determination device for determining a composition order with the second image segment, segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively Based on the first image segment and the second image segment, the first image segment is moved to move the reference image Motion vector detecting means for detecting a motion vector indicating a destination of the first image segment for similarity, and a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector A segment pasting unit that generates overlap information indicating a concealment relationship of a plurality of first image segments that are in a relationship of overlapping at least part of the first image segment, and when the first image segment is moved according to a motion vector The portion of the second image segment corresponding to the first image segment crosses the segment boundary and overlaps with the other second image segment corresponding to the other first image segment in the concealment relationship. The area to be covered is the number of the first image segments that are concealed based on the overlap information. Erosion amount calculation means for calculating each, and the first image segment composition order so that the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculation means is displayed above. And a composition order determining means for determining.
この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、侵食量(侵食面積)が小さい画像セグメントほど上に表示されるように決定できる。 In the present invention, even when the image segment shape of the reference image is different from the image segment shape of the reference image, it can be determined that an image segment having a smaller erosion amount (erosion area) is displayed above.
また、上記の目的を達成するため、第2の発明の画像セグメントの合成順序決定装置は、第1の画像セグメントと第2の画像セグメントを、それぞれ参照画像及びリファレンス画像から別々に切り出すセグメンテーション手段と、第1の画像セグメントと第2の画像セグメントに基づき、第1の画像セグメントを移動してリファレンス画像を近似するための、第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、第1の画像セグメントを動きベクトルに従って移動したときに、対応する第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、第1の画像セグメントを動きベクトルに従って移動したときに、第1の画像セグメントに対応する第2の画像セグメントのセグメント境界を越えて、隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分における第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和を、オーバーラップ情報に基づき隠蔽関係にある複数の第1及び第2の画像セグメントのそれぞれについて算出する誤差量算出手段と、誤差量算出手段により算出された複数の絶対値誤差の和のうち、絶対値誤差の和が少ない第1の画像セグメントほど上に表示されるように、第1の画像セグメントの合成順序を決定する合成順序決定手段とを有する構成としたものである。 In order to achieve the above object, a composition order determining apparatus for image segments according to a second aspect of the present invention includes a segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively. Motion vector detection for detecting a motion vector indicating a destination of a first image segment for approximating a reference image by moving the first image segment based on the first image segment and the second image segment And a concealment relationship of a plurality of first image segments in which at least a part of the first image segment overlaps the segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the first image segment Another second image corresponding to another first image segment in a concealment relationship across the segment boundary of the second image segment corresponding to the first image segment when moving the image according to the motion vector The sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in the overlapping portion in the segment is calculated based on the overlap information of the plurality of first and second image segments that are concealed. The first image segment having a smaller sum of absolute value errors among the sum of the error amount calculating means calculated for each and the plurality of absolute value errors calculated by the error amount calculating means is displayed on the top. And a composition order determining means for determining the composition order of one image segment.
この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、オーバーラップする部分における第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和が小さい画像セグメントほど上に表示されるように決定できる。 In the present invention, even when the image segment shape of the reference image and the image segment shape of the reference image are different, the sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in the overlapping portion is small. The image segment can be determined to be displayed above.
また、上記の目的を達成するため、第3の発明の画像セグメントの合成順序決定プログラムは、第1の発明の画像セグメントの合成順序決定装置をコンピュータにより実現させるためのプログラムであって、コンピュータを、
第1の画像セグメントと第2の画像セグメントを、それぞれ参照画像及びリファレンス画像から別々に切り出すセグメンテーション手段と、第1の画像セグメントと第2の画像セグメントに基づき、第1の画像セグメントを移動してリファレンス画像を近似するための、第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、第1の画像セグメントを動きベクトルに従って移動したときに、対応する第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、第1の画像セグメントを動きベクトルに従って移動したときに、第1の画像セグメントに対応する第2の画像セグメントのセグメント境界を越えて、隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、オーバーラップ情報に基づき隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、侵食量算出手段により算出された複数の面積のうち、少ない面積の第1の画像セグメントほど上に表示されるように、第1の画像セグメントの合成順序を決定する合成順序決定手段として機能させることを特徴とする。
In order to achieve the above object, an image segment composition order determination program according to a third aspect of the invention is a program for causing a computer to implement the image segment composition order determination device according to the first aspect of the invention. ,
Segmentation means for separately cutting the first image segment and the second image segment from the reference image and the reference image, respectively, and moving the first image segment based on the first image segment and the second image segment; Motion vector detecting means for detecting a motion vector indicating a destination of the first image segment for approximating the reference image, and a corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the concealment relationship of a plurality of first image segments that are in a relationship of overlapping at least partially beyond the segment boundary, and moving the first image segment according to a motion vector The second corresponding to the first image segment The area eroded by the overlapping portion in another second image segment corresponding to another first image segment in the concealment relationship beyond the segment boundary of the image segment is changed to the concealment relationship based on the overlap information. The erosion amount calculation means for calculating each of a plurality of first image segments, and the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculation means, is displayed above. It is characterized by functioning as a composition order determining means for determining the composition order of the first image segments.
この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、侵食量(侵食面積)が小さい画像セグメントほど上に表示されるように決定できる。 In the present invention, even when the image segment shape of the reference image is different from the image segment shape of the reference image, it can be determined that an image segment having a smaller erosion amount (erosion area) is displayed above.
更に、上記の目的を達成するため、第4の発明の画像セグメントの合成順序決定プログラムは、第2の発明の画像セグメントの合成順序決定装置をコンピュータにより実現させるためのプログラムとしたことを特徴とする。 Furthermore, in order to achieve the above object, the image segment composition order determination program of the fourth invention is a program for causing a computer to realize the image segment composition order determination apparatus of the second invention. To do.
この発明では、参照画像の画像セグメント形状とリファレンス画像の画像セグメント形状とが異なる場合でも、オーバーラップする部分における第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和が小さい画像セグメントほど上に表示されるように決定できる。 In the present invention, even when the image segment shape of the reference image and the image segment shape of the reference image are different, the sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in the overlapping portion is small. The image segment can be determined to be displayed above.
上記の各発明では、第1の画像セグメントを動きベクトルに基づき移動して予測画像に貼り付けた際に、リファレンス画像をセグメンテーションして得られた第2の画像セグメントのセグメント境界からはみ出している部分が、周辺のどの画像セグメントに何画素侵食しているかを求める。前記操作を全ての画像セグメントで行い、オーバーラップしている2つの画像セグメントがお互いに侵食している画素数を比較し、侵食している画素数が少ない方を上の階層に決定する。前記侵食画素数の比較をオーバーラップしているセグメントについて全て求め、上下関係を調べることで第1の画像セグメントの合成順序が決定される。これは、同じ特徴(すなわち、同じような輝度値又は色差値)を持つ画素の集まりが画像セグメントであるため、侵食部分の1画素当りの誤差も略一様に同じ値になるので、
全誤差量=(1画素の誤差)×(画素数)
と表せるからである。ここで、1画素の誤差とは、動きベクトルに基づき移動した後の侵食し合う2つの第1の画像セグメントの1画素あたりの輝度値の絶対値誤差である。
In each of the above-described inventions, when the first image segment is moved based on the motion vector and pasted on the predicted image, the portion protruding from the segment boundary of the second image segment obtained by segmenting the reference image Finds how many pixels are eroding in which peripheral image segment. The above operation is performed for all the image segments, the number of pixels in which two overlapping image segments are eroded is compared, and the one with the smaller number of eroded pixels is determined as the upper layer. The comparison of the number of eroded pixels is obtained for all overlapping segments, and the composition order of the first image segments is determined by examining the vertical relationship. This is because a group of pixels having the same characteristics (that is, similar luminance values or color difference values) is an image segment, and therefore, the error per pixel of the eroded portion is substantially the same value.
Total error amount = (1 pixel error) x (number of pixels)
It is because it can be expressed. Here, the error of one pixel is an absolute value error of luminance values per pixel of the two first image segments that erode after moving based on the motion vector.
または、侵食部分の絶対値誤差の和の大小により第1の画像セグメントの合成順序を決定することもできる。この結果、第1乃至第4の発明によれば、画素数のカウントまたは絶対値誤差の和を求め比較するという簡便な方法でセグメント間の合成順序決定を実現することができる。 Alternatively, the synthesis order of the first image segments can be determined based on the magnitude of the sum of absolute value errors of the eroded portions. As a result, according to the first to fourth inventions, it is possible to realize the composition order determination between segments by a simple method of obtaining and comparing the count of the number of pixels or the sum of absolute value errors.
本発明によれば、参照画像から切り出した第1の画像セグメントの形状とリファレンス画像から切り出した第2の画像セグメントの形状が互いに異なる場合でも、侵食面積の比率、すなわち画素数の比率、または侵食部分のみの絶対値誤差の和という簡便な検査方法で上下関係(隠蔽関係)を決定できるので、任意形状符号化におけるオーバーラップ処理を低廉な計算コストで実現できる。 According to the present invention, even when the shape of the first image segment cut out from the reference image and the shape of the second image segment cut out from the reference image are different from each other, the ratio of the erosion area, that is, the ratio of the number of pixels, or the erosion Since the vertical relationship (the concealment relationship) can be determined by a simple inspection method that is the sum of the absolute value errors of only the portions, the overlap processing in the arbitrary shape coding can be realized at a low calculation cost.
次に、本発明を実施するための最良の形態について図面と共に説明する。図1は本発明になる画像セグメントの合成順序決定装置を含む画像高能率符号化装置(エンコーダ)の一例のブロック図を示す。この画像高能率符号化装置(エンコーダ)は、入力された時間的に連続する2フレームの2次元画像信号から予測画像を生成し、ハフマン符号や算術符号などによりセグメント形状情報、動きベクトル、画像セグメント(以下、単に「セグメント」ともいう)の合成順序を示すZオーダー(Z−Order)情報及び、予測誤差を符号化して出力する。 Next, the best mode for carrying out the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an example of an image high-efficiency encoding apparatus (encoder) including an image segment composition order determining apparatus according to the present invention. This high-efficiency image encoding device (encoder) generates a prediction image from two-dimensionally input two-dimensional image signals that are temporally continuous, and uses segment shape information, motion vectors, image segments, etc. by Huffman code or arithmetic code The Z order (Z-Order) information indicating the synthesis order (hereinafter also simply referred to as “segment”) and the prediction error are encoded and output.
ここでは、予め参照画像を構成するデータが符号化された後、出力端子19から出力され復号化装置(デコーダ)に伝送されると共に、セグメント単位画像符号化装置(エンコーダ)内のローカルデコーダ18にも入力され、復号化された参照画像信号がローカルデコーダ18から出力されているものとして以下では説明する。
Here, after the data constituting the reference image is encoded in advance, it is output from the
まず、入力端子11から符号化されるべき2次元のリファレンス画像信号が入力される。この時間的に連続する入力リファレンス画像信号とローカルデコーダ18から出力される参照画像信号は、本発明の画像セグメントの合成順序決定装置であるZ−Order決定器12へそれぞれ入力される。Z−Order決定器12は、時間的に連続する2フレームの画像信号(リファレンス画像信号及び参照画像信号)のうち、参照画像を任意形状の画像セグメントに分割した(切り出した)後、リファレンス画像から前記画像セグメントの移動先を示す動きベクトルを検出し、分割して得た前記画像セグメントを、検出した動きベクトルに従って移動する。
First, a two-dimensional reference image signal to be encoded is input from the
この際に、前記画像セグメント間でオーバーラップが発生する部分があれば上下関係を決定する(すなわち、画像セグメントの合成順序を決定する)。以上の処理により求められたセグメント形状情報が端子13より出力されると共に、Z−Order情報が端子14より出力され、さらに動きベクトル情報が端子15より出力される。 At this time, if there is a portion where overlap occurs between the image segments, the vertical relationship is determined (that is, the composition order of the image segments is determined). The segment shape information obtained by the above processing is output from the terminal 13, the Z-Order information is output from the terminal 14, and the motion vector information is output from the terminal 15.
次に、予測誤差器16では、端子13〜15から入力される情報をもとに予測画像信号を生成した後、この生成した予測画像信号と入力端子11より入力されるリファレンス画像信号との誤差を求めて、その予測誤差信号を可変長符号化器17へ出力する。可変長符号化器17では、端子13〜15から入力されるセグメント形状情報、動きベクトル、Z−Order情報及び、予測誤差器16から入力される予測誤差信号をDCTなどの公知の直交変換や量子化処理の後、ハフマン符号や算術符号などにより符号化する。
Next, the
可変長符号化器17から出力される符号化信号は出力端子19から出力されると共に、ローカルデコーダ18へ入力される。ローカルデコーダ18では、可変長符号化器17から入力された符号化信号を復号して、リファレンス画像信号を再構成する。この再構成されたリファレンス画像信号は、次の時間のリファレンス画像信号を符号化するための参照画像信号としてローカルデコーダ18から出力され、Z−Order決定器12へ入力される。
The encoded signal output from the
次に、本発明になる画像セグメントの合成順序決定装置を構成するZ−Order決定器12の構成と動作について詳述する。図2は本発明になる画像セグメントの合成順序決定装置の一実施の形態のブロック図、図3は図2の一例の動作説明用フローチャートである。図2中、図1と同一構成部分には同一符号を付してある。図2において、本発明になる画像セグメントの合成順序決定装置を構成するZ−Order決定器12の入力端子11に入力された符号化されるべき2次元のリファレンス画像信号は、画像メモリ121により所定フレーム分蓄積された後セグメンテーション部122により画像セグメント単位に分割される。また、これと同時に、図1のローカルデコーダ18から出力された参照画像信号は、図2の入力端子20を介して画像メモリ123に供給されて所定フレーム分蓄積された後セグメンテーション部124により画像セグメント単位に分割される(以上、図3のステップS1)。
Next, the configuration and operation of the Z-
この際、セグメンテーション部124より出力されるセグメント情報は、符号化に用いるため出力端子13より外部へ出力される。ここでは、本発明はセグメンテーションの方法とは独立して考えることができるので、その方法の詳細な説明は省略するが、例えば特開平10−69544号公報の公知の画像セグメント化方法などを用いることができる。
At this time, the segment information output from the
図4は本実施の形態を説明するための2枚の画像例であり、図4(a)は参照画像の一例、図4(b)はリファレンス画像の一例を示す。図4(a)に示す参照画像は、セグメンテーション部124により四角形41a、三角形42a及び円43aの3つのセグメントに分割される。また、図4(b)に示すリファレンス画像は、セグメンテーション部122により四角形41b、三角形42b及び円43bの3つのセグメントに分割される。
FIG. 4 is an example of two images for explaining the present embodiment, FIG. 4A shows an example of a reference image, and FIG. 4B shows an example of a reference image. The reference image shown in FIG. 4A is divided by the
次に、上記のステップS1で得られた参照画像のセグメントが、動きベクトル情報に基づいて移動される(図3のステップS2)。すなわち、このステップS2では、図2の動きベクトル検出部125にセグメンテーション部122、124より出力されるセグメント情報が入力され、動きベクトルが求められる。この動きベクトルの探索手法については本発明の要旨とは直接の関係はなく、また公知であるので詳細な説明は省略するが、例えば前記特許文献1に記載の方法などを利用できる。
Next, the segment of the reference image obtained in step S1 is moved based on the motion vector information (step S2 in FIG. 3). That is, in step S2, the segment information output from the
動きベクトル検出部125で求められた動きベクトル情報は、出力端子15より外部へ出力されると共に、セグメント貼り付け部126へ入力される。セグメント貼り付け部126は、動きベクトル検出部125より入力される動きベクトル情報に基づいて、セグメンテーション部124より入力される参照画像のセグメントを移動する。以上の処理が図3のステップS2である。
The motion vector information obtained by the motion
図4の例では、図4(a)の参照画像のセグメントを移動して図4(b)のリファレンス画像のセグメントを近似する予測画像を作成することになる。すなわち、図4(a)に示す四角形41aを図4(b)に示す四角形41bへ、同図(a)の三角形42aを同図(b)の三角形42bへ、同図(a)の円43aを同図(b)の円43bの位置へ移動させる。実際の画像では、円43aに一部が隠蔽されていた三角形42aは、四角形41bに一部隠蔽され、大きさの大きくなった三角形42bとなっている。また、四角形41aは大きさが41bに示すように小さくなり、三角形42bの一部を隠蔽している。さらに三角形42aの一部を隠蔽していた円43aは、大きさも位置も変化なく単独で存在する円43bとなる。
In the example of FIG. 4, the predicted image that approximates the segment of the reference image in FIG. 4B is created by moving the segment of the reference image in FIG. That is, the
図5(a)は、図4(a)の参照画像をセグメンテーションした結果のセグメント境界を破線51a、52a、53aで示したものであり、図5(b)は、図4(b)のリファレンス画像をセグメンテーションした結果のセグメント境界を破線51b、52b、53bで示したものである。動きベクトルにより生成される予測画像としては、図5(b)の破線で示されるセグメント境界51b及び52bの内部に図4(a)の四角形41aと三角形42aを配置した場合に、図6と図7の2通りの配置が考えられる。
FIG. 5A shows segment boundaries as a result of segmenting the reference image of FIG. 4A by
すなわち、図6は四角形41aが41a’に、三角形42aが42a’で示すように、それぞれセグメント境界51b及び52bの内部に配置されることにより、四角形41a’が三角形42a’の一部を隠蔽している場合である。一方、図7は四角形41aが41a”に、三角形42aが42a”で示すように、それぞれセグメント境界51b及び52bの内部に配置されることにより、三角形42a”により四角形41a”の一部が隠蔽されている場合である。この隠蔽関係の存在をオーバーラップ情報として図2のセグメント貼り付け部126は出力する。
That is, in FIG. 6, the quadrangular 41 a is hidden by 41 a ′, and the
次に、図3のステップS2のセグメント移動により発生したオーバーラップする2つのセグメントを、対応するリファレンス画像のセグメント境界に基づき、お互いに侵食する画素数をカウントする(図3のステップS3)。すなわち、このステップS3において、図2の侵食量算出部127は、セグメント貼り付け部126より出力されるオーバーラップ情報とセグメンテーション部122より出力されるリファレンス画像のセグメント情報を入力として受け、それらの互いの侵食量を求めて出力する。ここで、侵食量とは、参照画像のセグメントを対応するリファレンス画像のセグメント境界内に嵌め込んだ時に、リファレンス画像のオーバーラップしている他のセグメントの領域にはみ出している面積をいう。
Next, based on the segment boundary of the corresponding reference image, the number of pixels eroding each other is counted based on the segment boundary of the corresponding reference image (step S3 in FIG. 3). That is, in this step S3, the erosion
一例として、図4(a)の参照画像中の四角形41aと三角形42aの侵食画素数をカウントする操作を説明する。この場合、図3のステップS1で求めたリファレンス画像のセグメンテーション結果である図5(b)の四角破線枠のセグメント境界51bが、図4(a)の参照画像のセグメントの四角形41aに対応し、リファレンス画像のセグメンテーション結果である図5(b)の三角破線枠のセグメント境界52bが、図4(a)の参照画像のセグメントの三角形42aに対応している。
As an example, an operation for counting the number of eroded pixels of the
従って、四角形41aが三角破線枠のセグメント境界52bへ侵食している画素数は、図8に示すように、四角破線枠のセグメント境界51bと四角形41aの外枠60の間に存在し、かつ、三角破線枠のセグメント境界52bの内部に存在する領域61の画素数となる。また、三角形42aが四角破線枠のセグメント境界51bへ侵食している画素数は、図9に示すように、三角破線枠のセグメント境界52bと三角形42aの外枠62の間に存在し、かつ、四角破線枠のセグメント境界51bの内部に存在する画素数であるが、図9から分かるようにこの場合の侵食画素はない。
Therefore, as shown in FIG. 8, the number of pixels in which the square 41a erodes into the
最後に、図3のステップS3で求めた侵食画素数の少ない画像セグメントが上に配置されるように画像セグメントの合成順序であるZ−Orderを決定する(図3のステップS4)。すなわち、このステップS4において、図2のZ−Order決定部128は、侵食量算出部127より入力される侵食量に基づき、侵食画素数の少ない参照画像の画像セグメントが上に配置されるようにオーバーラップする画像セグメントの合成順序を決定し、決定したその画像セグメントの合成順序情報(Z−Order情報)を出力端子14より外部へ出力する。
Finally, Z-Order, which is the image segment combination order, is determined so that the image segment with a small number of eroded pixels obtained in step S3 in FIG. 3 is arranged on top (step S4 in FIG. 3). That is, in this step S4, the Z-
図8と図9の例では、三角形42aの侵食画素数(この場合は零画素)の方が少ないため、三角形42aが四角形41aの上に配置される図7に42a”、41a”で示す配置が予測画像として選択される。以上で、1組のオーバーラップする画像セグメントの合成順序(Z−Order)が求められる。この動作を全てのオーバーラップする画像セグメントについて行うことで、予測画像が完成する。
In the example of FIGS. 8 and 9, since the number of eroded pixels of the
次に、本発明のオーバーラップする画像セグメントの上下関係を決定する他の手法について、図10のフローチャートと共に説明する。ただし、図10中、図3と同じ動作をするステップには同一の番号が付与されている。図中のステップS1とS2は上述しているので説明を省略する。本実施の形態では、図10のステップS11において図3のステップS3の画素数の代わりに、リファレンス画像との画素の絶対値誤差の和を求める点に特徴がある。すなわち、図8の侵食領域61内にある四角形41aの画素の輝度値Y(x)と、図8の侵食領域61内にある三角形42aの画素の輝度値D(x)の絶対値誤差の和Eを次式により求める。
Next, another method for determining the vertical relationship of overlapping image segments according to the present invention will be described with reference to the flowchart of FIG. However, in FIG. 10, the same number is given to the step which performs the same operation as FIG. Since steps S1 and S2 in the figure have been described above, a description thereof will be omitted. The present embodiment is characterized in that in step S11 in FIG. 10, the sum of absolute value errors of pixels with the reference image is obtained instead of the number of pixels in step S3 in FIG. That is, the sum of the absolute value errors of the luminance value Y (x) of the pixel of the
次に、図10のステップS11で求めた侵食している領域の絶対値誤差の和の少ないセグメントを上に配置するようにZ−Orderを決定する(図10のステップS12)。ここで、例えばオーバーラップしている2つのセグメントA、Bのうち、Aの1画素当りの輝度値をPa、BのそれをPbとすると、AがBに侵食している部分の誤差はQa=|Pa−Pb|となり、BがAに侵食している部分の誤差はQb=|Pb−Pa|となるが、絶対値をとっているため、Qa=Qbとなる。 Next, Z-Order is determined so that a segment with a small sum of absolute value errors of the eroded area obtained in step S11 of FIG. 10 is arranged on top (step S12 of FIG. 10). Here, of two overlapping segments A and B, for example, assuming that the luminance value per pixel of A is Pa and that of B is Pb, the error of the portion where A erodes B is Qa. = | Pa−Pb |, and the error of the portion where B erodes A is Qb = | Pb−Pa |. However, since the absolute value is taken, Qa = Qb.
一方、AがBに侵食している部分の誤差量は、数1に基づき、Ea=Qa・xaと表せ、同様に、BがAに侵食している部分の誤差量はEb=Qb・xbと表すことができる(ただし、xa、xbは、侵食している領域のセグメントA、Bの画素数)。ここで、上記のようにQa=Qbであるから、EaとEbの大小関係はxaとxbの大小関係で決定される。従って、上記のステップS12では、侵食している領域の絶対値誤差の和の少ないセグメントを上に配置するのである。なお、図10の実施の形態では、演算量は増加するものの図3の実施の形態よりも正確な画像セグメントの合成順序を求めることが可能である。
On the other hand, the error amount of the portion where A erodes B can be expressed as Ea = Qa · xa based on
なお、以上の実施の形態では2つの画像セグメントがオーバーラップしている様子で説明したが、本発明はこれに限定されるものではなく、例えば同じ領域に3つ以上の画像セグメントがオーバーラップしている場合でも、その中の2つの画像セグメントの組を選択しながら上下関係を決定することで本発明を適用できる。この場合、オーバーラップしている部分の侵食面積が小さいものほど上に表示されるような順序で画像セグメントが合成される。また、図1以外の構成のセグメント単位画像符号化装置にも本発明の適用は可能である。 In the above embodiment, two image segments are described as overlapping. However, the present invention is not limited to this. For example, three or more image segments overlap in the same region. Even in such a case, the present invention can be applied by determining the vertical relationship while selecting a pair of two image segments. In this case, the image segments are synthesized in such an order that the smaller the erosion area of the overlapping portion is displayed on the upper side. In addition, the present invention can be applied to a segment unit image encoding apparatus having a configuration other than that shown in FIG.
また、本発明は、上記の装置の機能をコンピュータに実現させるためのコンピュータプログラムも含むものである。このコンピュータプログラムは、記録媒体から読み取られてコンピュータに取り込まれてもよいし、通信ネットワークからダウンロードしてコンピュータに取り込まれてもよい。 The present invention also includes a computer program for causing a computer to realize the functions of the above apparatus. This computer program may be read from a recording medium and taken into a computer, or may be downloaded from a communication network and taken into a computer.
11 リファレンス画像入力端子
12 Z−Order決定器
13、14、15、19 出力端子
16 予測誤差器
17 可変長符号化器
18 ローカルデコーダ
20 参照画像入力端子
41a、41b 四角形
42a、42b 三角形
43a、43b 円
51a、51b 四角破線枠のセグメント境界
52a、52b 三角破線枠のセグメント境界
53a、53b 円破線枠のセグメント境界
60、62 外枠
61 画素の侵食領域
121、123 画像メモリ
122、124 セグメンテーション部
125 動きベクトル検出部
126 セグメント貼り付け部
127 侵食量算出部
128 Z−Order決定部
DESCRIPTION OF
43a,
Claims (4)
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、
前記侵食量算出手段により算出された複数の前記面積のうち、少ない面積の前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
を有することを特徴とする画像セグメントの合成順序決定装置。 Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Because
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. An erosion amount calculating means for calculating an erosion area of an overlapping portion in another second image segment corresponding to each of the plurality of first image segments in the concealment relationship based on the overlap information; ,
Composition order determining means for determining the composition order of the first image segments so that the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculating means is displayed above. An image segment composition order determination apparatus characterized by comprising:
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分における該第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1及び第2の画像セグメントのそれぞれについて算出する誤差量算出手段と、
前記誤差量算出手段により算出された複数の前記絶対値誤差の和のうち、該絶対値誤差の和が少ない前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
を有することを特徴とする画像セグメントの合成順序決定装置。 Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Because
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. The sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in a portion overlapping in another second image segment corresponding to the above-described concealment relationship based on the overlap information An error amount calculating means for calculating each of a plurality of first and second image segments;
Of the plurality of absolute value errors calculated by the error amount calculation means, the first image segment of the first image segment is displayed so that the first image segment having the smaller absolute value error sum is displayed higher. An image segment composition order determination apparatus comprising: composition order determination means for determining a composition order.
前記コンピュータを、
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分が侵食する面積を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1の画像セグメントのそれぞれについて算出する侵食量算出手段と、
前記侵食量算出手段により算出された複数の前記面積のうち、少ない面積の前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
して機能させることを特徴とする画像セグメントの合成順序決定プログラム。 Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Is a program for realizing by a computer,
The computer,
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. An erosion amount calculating means for calculating an erosion area of an overlapping portion in another second image segment corresponding to each of the plurality of first image segments in the concealment relationship based on the overlap information; ,
Composition order determining means for determining the composition order of the first image segments so that the first image segment having a smaller area among the plurality of areas calculated by the erosion amount calculating means is displayed above. A program for determining the composition order of image segments, characterized in that it functions as an image segment.
前記コンピュータを、
前記第1の画像セグメントと前記第2の画像セグメントを、それぞれ前記参照画像及び前記リファレンス画像から別々に切り出すセグメンテーション手段と、
前記第1の画像セグメントと前記第2の画像セグメントに基づき、前記第1の画像セグメントを移動して前記リファレンス画像を近似するための、前記第1の画像セグメントの移動先を示す動きベクトルを検出する動きベクトル検出手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、対応する前記第2の画像セグメントのセグメント境界を越えて少なくとも一部がオーバーラップする関係にある複数の前記第1の画像セグメントの隠蔽関係を示すオーバーラップ情報を生成するセグメント貼り付け手段と、
前記第1の画像セグメントを前記動きベクトルに従って移動したときに、前記第1の画像セグメントに対応する前記第2の画像セグメントのセグメント境界を越えて、前記隠蔽関係にある別の第1の画像セグメントに対応する別の第2の画像セグメント内にオーバーラップする部分における該第1及び第2の画像セグメントの各画素の輝度値の絶対値誤差の和を、前記オーバーラップ情報に基づき前記隠蔽関係にある複数の第1及び第2の画像セグメントのそれぞれについて算出する誤差量算出手段と、
前記誤差量算出手段により算出された複数の前記絶対値誤差の和のうち、該絶対値誤差の和が少ない前記第1の画像セグメントほど上に表示されるように、前記第1の画像セグメントの合成順序を決定する合成順序決定手段と
して機能させることを特徴とする画像セグメントの合成順序決定プログラム。 Of two time-continuous two-dimensional images, when one of the past two-dimensional images is used as a reference image and the other two-dimensional image is used as a reference image, pixels having the same characteristics cut out from the reference image are displayed. Image segment composition order determination apparatus for determining a composition order of a first image segment having an arbitrary shape as a set and a second image segment having an arbitrary shape as a set of pixels cut out from the reference image. Is a program for realizing by a computer,
The computer,
Segmentation means for separately cutting out the first image segment and the second image segment from the reference image and the reference image, respectively.
Based on the first image segment and the second image segment, a motion vector indicating a movement destination of the first image segment for moving the first image segment to approximate the reference image is detected. Motion vector detecting means for performing,
Concealing a plurality of first image segments in a relationship where at least a portion thereof overlaps across a segment boundary of the corresponding second image segment when the first image segment is moved according to the motion vector Segment pasting means for generating overlap information indicating the relationship;
When the first image segment is moved according to the motion vector, another first image segment that is in the concealment relationship exceeds the segment boundary of the second image segment corresponding to the first image segment. The sum of the absolute value errors of the luminance values of the pixels of the first and second image segments in a portion overlapping in another second image segment corresponding to the above-described concealment relationship based on the overlap information An error amount calculating means for calculating each of a plurality of first and second image segments;
Of the plurality of absolute value errors calculated by the error amount calculation means, the first image segment of the first image segment is displayed so that the first image segment having the smaller absolute value error sum is displayed higher. An image segment composition order determination program which functions as a composition order determination means for determining a composition order.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003357290A JP4140501B2 (en) | 2003-10-17 | 2003-10-17 | Image segment composition order determination apparatus and composition order determination program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003357290A JP4140501B2 (en) | 2003-10-17 | 2003-10-17 | Image segment composition order determination apparatus and composition order determination program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005123921A true JP2005123921A (en) | 2005-05-12 |
JP4140501B2 JP4140501B2 (en) | 2008-08-27 |
Family
ID=34614219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003357290A Expired - Fee Related JP4140501B2 (en) | 2003-10-17 | 2003-10-17 | Image segment composition order determination apparatus and composition order determination program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4140501B2 (en) |
-
2003
- 2003-10-17 JP JP2003357290A patent/JP4140501B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP4140501B2 (en) | 2008-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110830802B (en) | Video Compression Based on Machine Learning | |
US7616782B2 (en) | Mesh based frame processing and applications | |
JP4047879B2 (en) | Motion vector detection apparatus and motion vector detection method | |
JP3753578B2 (en) | Motion vector search apparatus and method | |
CN114208197A (en) | Block dividing method for video coding and decoding | |
JP2001507541A (en) | Sprite-based video coding system | |
US7440613B2 (en) | Binary mask interpolation | |
TWI652934B (en) | Method and apparatus for adaptive video decoding | |
EP2355515B1 (en) | Scalable video coding | |
JP2000224593A (en) | Method and device for interpolating frame and recording medium recording the method | |
JP6435029B2 (en) | Video encoding apparatus and video encoding program | |
WO2015056712A1 (en) | Moving image encoding method, moving image decoding method, moving image encoding device, moving image decoding device, moving image encoding program, and moving image decoding program | |
JP4140501B2 (en) | Image segment composition order determination apparatus and composition order determination program | |
CA2812890A1 (en) | Mesh based frame processing and applications | |
JP4245587B2 (en) | Motion compensation prediction method | |
JP3734488B2 (en) | Image encoding device | |
JP2006236317A (en) | Image processing method | |
Décombas et al. | Seam carving modeling for semantic video coding in security applications | |
JP4100321B2 (en) | Segment unit image encoding apparatus and segment unit image encoding program | |
Meuel et al. | Region of interest coding for aerial video sequences using landscape models | |
CN116781911A (en) | Window-based generation type parallel coding method and system | |
JP2005175943A (en) | Image processor, image processing method, computer program, and recording medium | |
JP2015073192A (en) | Video encoder and video encoding program | |
JPH0937240A (en) | Moving image coder and moving image decoder | |
JP2009033266A (en) | Motion vector search method, motion vector search device, coder and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060331 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080226 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080422 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080520 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080602 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110620 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110620 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120620 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |