JPWO2007069350A1 - Image encoding and decoding method and apparatus - Google Patents

Image encoding and decoding method and apparatus Download PDF

Info

Publication number
JPWO2007069350A1
JPWO2007069350A1 JP2007550070A JP2007550070A JPWO2007069350A1 JP WO2007069350 A1 JPWO2007069350 A1 JP WO2007069350A1 JP 2007550070 A JP2007550070 A JP 2007550070A JP 2007550070 A JP2007550070 A JP 2007550070A JP WO2007069350 A1 JPWO2007069350 A1 JP WO2007069350A1
Authority
JP
Japan
Prior art keywords
image
virtual
difference
image frames
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007550070A
Other languages
Japanese (ja)
Inventor
シトニコフ ミカイル ツプコ
シトニコフ ミカイル ツプコ
イゴール ボロビコフ
イゴール ボロビコフ
山下 伸一
伸一 山下
増春 遠藤
増春 遠藤
Original Assignee
株式会社モノリス
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社モノリス filed Critical 株式会社モノリス
Publication of JPWO2007069350A1 publication Critical patent/JPWO2007069350A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation

Abstract

符号化技術は、3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行するステップと、マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成するステップと、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定するステップと、許容値以上の差分を有する中間画像フレームが存在すると判定された場合、その中間画像フレームの画像上において差分が大きい領域を特定するステップと、特定された領域に関する差分情報と、両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データを生成するステップとを含む。The encoding technique includes a step of performing matching calculation between both end image frames of an image group including three or more image frames, and a corresponding end point image based on corresponding point information between both end image frames obtained as a result of the matching calculation. The step of virtually generating an intermediate image frame sandwiched between frames by interpolation, and whether any of the virtually generated intermediate image frames has a difference greater than or equal to an allowable value from the actual intermediate image frame Determining whether or not there is an intermediate image frame having a difference greater than or equal to an allowable value, and identifying a region having a large difference on the image of the intermediate image frame; Generating encoded data including difference information regarding the identified region, at least one of the two-end image frames, and corresponding point information. And a step of.

Description

この発明は、画像、とくに動画像の符号化および復号技術に関する。   The present invention relates to encoding and decoding techniques for images, particularly moving images.

MPEG(Motion Picture Experts Group)は動画圧縮のひとつの標準技術である。MPEGでは、ブロックマッチングが利用される。このマッチングは、ブロック間の差分が最小になるようブロック探索を行う。そのため、差分は確かに小さくなるが、必ずしもフレーム間で本来対応しあう領域どうしが対応づけられるわけではない。
特許第2927350号
MPEG (Motion Picture Experts Group) is one standard technology for video compression. In MPEG, block matching is used. In this matching, a block search is performed so that the difference between blocks is minimized. For this reason, the difference is surely small, but areas that originally correspond to each other between frames are not necessarily associated with each other.
Patent No. 2927350

MPEGでは、圧縮率を上げようとすると、いわゆるブロックノイズが問題になる。このノイズの発生を抑え、フレーム間コヒーレンシに注目した圧縮率をさらに上げるためには、現状のブロックマッチングベースの技術を改める必要がある。求める技術は、本来対応しあう領域なり画素なりが正しく対応するよう符号化すべきであり、また、単純なブロックマッチングは避けることが望ましい。   In MPEG, so-called block noise becomes a problem when trying to increase the compression rate. In order to suppress the generation of this noise and further increase the compression ratio focused on inter-frame coherency, it is necessary to modify the current block matching-based technology. The technique to be obtained should be encoded so that the originally corresponding areas or pixels correspond correctly, and it is desirable to avoid simple block matching.

この発明の目的は以下のとおりである。まず、MPEGで問題になるブロックノイズが出ない動画像圧縮技術、すなわち動画像符号化技術を提供する。また、その動画像符号化技術に対応する動画像復号技術を提供する。他の目的として、MPEGとは異なる画像マッチング技術を利用する新しい動画像符号化および復号技術を提供する。さらに他の目的として、MPEG同様の画像マッチング技術を用いつつ、全体として異なる画像符号化および復号技術を提供する。   The object of the present invention is as follows. First, a moving picture compression technique that does not cause block noise that is a problem in MPEG, that is, a moving picture coding technique is provided. Also provided is a moving picture decoding technique corresponding to the moving picture encoding technique. As another object, a new moving picture encoding and decoding technique using an image matching technique different from MPEG is provided. Still another object is to provide different image encoding and decoding techniques as a whole while using an image matching technique similar to MPEG.

本発明の画像符号化方法のある態様は、第1、第2の画像フレーム間の対応点情報をもとに補間計算によって中間画像フレームを生成する。この中間画像フレームと現実に存在する中間画像フレームとの差分が大きい場合、実際にそのような差分が大きい領域を画像内で特定する。つぎに、特定された領域に関する差分情報と、少なくとも第1または第2の画像フレームのデータと、対応点情報とを含む形で符号化データを生成する。復号技術は逆のプロセスをたどる。   In one aspect of the image encoding method of the present invention, an intermediate image frame is generated by interpolation calculation based on corresponding point information between the first and second image frames. When the difference between the intermediate image frame and the actually existing intermediate image frame is large, an area where the difference is actually large is specified in the image. Next, encoded data is generated in a form including difference information regarding the identified region, at least data of the first or second image frame, and corresponding point information. Decoding techniques follow the reverse process.

以上の各ステップを入れ替えたり、方法と装置の間で表現を一部または全部入れ替え、または追加したり、表現をコンピュータプログラム、記録媒体等に変更したものもまた、本発明として有効である。   It is also effective as the present invention to exchange the above steps, to exchange or add part or all of the expression between the method and the apparatus, or to change the expression to a computer program, a recording medium, or the like.

本発明により、上記目的に対応する効果が得られる。   According to the present invention, an effect corresponding to the above object can be obtained.

図1(a)と図1(b)は、ふたりの人物の顔に平均化フィルタを施して得られる画像、図1(c)と図1(d)は、ふたりの人物の顔に関して前提技術で求められるp(5,0)の画像、図1(e)と図1(f)は、ふたりの人物の顔に関して前提技術で求められるp(5,1)の画像、図1(g)と図1(h)は、ふたりの人物の顔に関して前提技術で求められるp(5,2)の画像、図1(i)と図1(j)は、ふたりの人物の顔に関して前提技術で求められるp(5,3)の画像をそれぞれディスプレイ上に表示した中間調画像の写真である。1 (a) and 1 (b) are images obtained by applying an averaging filter to the faces of two persons, and FIGS. 1 (c) and 1 (d) are prerequisite technologies relating to the faces of the two persons. 1 (e) and FIG. 1 (f) are images of p (5,1) obtained by the base technology regarding the faces of two persons, FIG. 1 (g). And FIG. 1 (h) is an image of p (5, 2) required by the base technology regarding the faces of the two persons, and FIGS. 1 (i) and 1 (j) are base technologies regarding the faces of the two persons. It is the photograph of the halftone image which each displayed the image of calculated | required p (5, 3) on a display. 図2(R)はもとの四辺形を示す図、図2(A)、図2(B)、図2(C)、図2(D)、図2(E)はそれぞれ相続四辺形を示す図である。FIG. 2 (R) is a diagram showing the original quadrilateral, and FIG. 2 (A), FIG. 2 (B), FIG. 2 (C), FIG. 2 (D), and FIG. FIG. 始点画像と終点画像の関係、および第mレベルと第m−1レベルの関係を相続四辺形を用いて示す図である。It is a figure which shows the relationship between a starting point image and an end point image, and the relationship between the m-th level and the m-1st level using an inheritance quadrilateral. パラメータηとエネルギーCfの関係を示す図である。It is a figure which shows the relationship between parameter (eta) and energy Cf. 図5(a)、図5(b)は、ある点に関する写像が全単射条件を満たすか否かを外積計算から求める様子を示す図である。FIG. 5A and FIG. 5B are diagrams illustrating a state in which whether or not a mapping related to a certain point satisfies the bijection condition is calculated from outer product calculation. 前提技術の全体手順を示すフローチャートである。It is a flowchart which shows the whole procedure of a premise technique. 図6のS1の詳細を示すフローチャートである。It is a flowchart which shows the detail of S1 of FIG. 図7のS10の詳細を示すフローチャートである。It is a flowchart which shows the detail of S10 of FIG. 第mレベルの画像の一部と、第m−1レベルの画像の一部の対応関係を示す図である。It is a figure which shows the correspondence of a part of image of a m-th level, and a part of image of a m-1st level. 前提技術で生成された始点階層画像を示す図である。It is a figure which shows the starting point hierarchy image produced | generated by the base technology. 図6のS2に進む前に、マッチング評価の準備の手順を示す図である。It is a figure which shows the procedure of the preparation of matching evaluation before progressing to S2 of FIG. 図6のS2の詳細を示すフローチャートである。It is a flowchart which shows the detail of S2 of FIG. 第0レベルにおいて副写像を決定する様子を示す図である。It is a figure which shows a mode that a submapping is determined in the 0th level. 第1レベルにおいて副写像を決定する様子を示す図である。It is a figure which shows a mode that a submapping is determined in a 1st level. 図12のS21の詳細を示すフローチャートである。It is a flowchart which shows the detail of S21 of FIG. あるf(m,s)についてλを変えながら求められたf(m,s)(λ=iΔλ)に対応するエネルギーC(m,s)fの挙動を示す図である。It is a figure which shows the behavior of energy C (m, s) f corresponding to f (m, s) (λ = iΔλ) obtained while changing λ for a certain f (m, s). ηを変えながら求められたf(n)(η=iΔη)(i=0,1,…)に対応するエネルギーC(n)fの挙動を示す図である。It is a figure which shows the behavior of energy C (n) f corresponding to f (n) (η = iΔη) (i = 0, 1,...) obtained while changing η. 改良後の前提技術において第mレベルにおける副写像を求めるフローチャートである。It is a flowchart which calculates | requires the submapping in the m-th level in the premise technique after improvement. 第1の実施の形態に係る画像符号化技術のフローおよび画像符号化装置の構成を示す図である。It is a figure which shows the structure of the flow of the image coding technique which concerns on 1st Embodiment, and an image coding apparatus. 図20(a)〜(c)は、対象画像フレームの例を示す図である。20A to 20C are diagrams illustrating examples of target image frames. 第1の実施の形態に係る画像符号化技術のデータフォーマットを示す図である。It is a figure which shows the data format of the image coding technique which concerns on 1st Embodiment. 第1の実施の形態に係る画像復号技術のフローおよび画像復号装置の構成を示す図である。It is a figure which shows the structure of the flow of the image decoding technique which concerns on 1st Embodiment, and an image decoding apparatus. 第2の実施の形態に係る画像復号技術のフローおよび画像復号装置の構成を示す図である。It is a figure which shows the flow of the image decoding technique which concerns on 2nd Embodiment, and the structure of an image decoding apparatus. 第2の実施の形態に係る画像復号技術のフローおよび画像復号装置の構成を示す図である。It is a figure which shows the flow of the image decoding technique which concerns on 2nd Embodiment, and the structure of an image decoding apparatus. 実施の形態に係る図23のDE+NRの構成を示す図である。It is a figure which shows the structure of DE + NR of FIG. 23 which concerns on embodiment.

以下の実施の形態では、画像マッチング技術を用いる。この技術は本出願人が先に特許第2927350号にて提案した技術(以下「前提技術」という)を利用することができる。ただし、それ以外のマッチング技術を用いてもよい。以下、いずれの態様においても、いずれかの個所で述べた変形例や配慮は、別の個所における同様の技術に適用してもよいものとする。   In the following embodiment, an image matching technique is used. For this technique, the technique previously proposed by the present applicant in Japanese Patent No. 2927350 (hereinafter referred to as “premise technique”) can be used. However, other matching techniques may be used. Hereinafter, in any aspect, the modifications and considerations described in any part may be applied to the same technique in another part.

はじめに、実施の形態で利用する多重解像度特異点フィルタ技術とそれを用いた画像マッチング処理を「前提技術」として詳述する。   First, the multi-resolution singularity filter technique used in the embodiment and the image matching process using the technique will be described in detail as a “premise technique”.

[前提技術の実施の形態]
最初に[1]で前提技術の要素技術を詳述し、[2]で処理手順を具体的に説明する。さらに[3]で前提技術に基づき改良を施した点について述べる。
[1]要素技術の詳細
[1.1]イントロダクション
特異点フィルタと呼ばれる新たな多重解像度フィルタを導入し、画像間のマッチングを正確に計算する。オブジェクトに関する予備知識は一切不要である。画像間のマッチングの計算は、解像度の階層を進む間、各解像度において計算される。その際、粗いレベルから精細なレベルへと順に解像度の階層を辿っていく。計算に必要なパラメータは、人間の視覚システムに似た動的計算によって完全に自動設定される。画像間の対応点を人手で特定する必要はない。
[Embodiment of prerequisite technology]
First, the elemental technology of the prerequisite technology is described in detail in [1], and the processing procedure is specifically described in [2]. In [3], the point of improvement based on the prerequisite technology is described.
[1] Details of element technology [1.1] Introduction A new multi-resolution filter called a singularity filter is introduced to accurately calculate matching between images. No prior knowledge of objects is required. The calculation of matching between images is calculated at each resolution while proceeding through the resolution hierarchy. At that time, the resolution hierarchy is sequentially traced from the coarse level to the fine level. The parameters required for the calculation are set completely automatically by dynamic calculations similar to the human visual system. There is no need to manually identify corresponding points between images.

本前提技術は、例えば完全に自動的なモーフィング、物体認識、立体写真測量、ボリュームレンダリング、少ないフレームからの滑らかな動画像の生成などに応用できる。モーフィングに用いる場合、与えられた画像を自動的に変形することができる。ボリュームレンダリングに用いる場合、断面間の中間的な画像を正確に再構築することができる。断面間の距離が遠く、断面の形状が大きく変化する場合でも同様である。   The base technology can be applied to, for example, fully automatic morphing, object recognition, stereoscopic photogrammetry, volume rendering, and generation of a smooth moving image from a small number of frames. When used for morphing, a given image can be automatically transformed. When used for volume rendering, an intermediate image between cross sections can be accurately reconstructed. The same applies to the case where the distance between the cross sections is long and the shape of the cross section changes greatly.

[1.2]特異点フィルタの階層
前提技術に係る多重解像度特異点フィルタは、画像の解像度を落としながら、しかも画像に含まれる各特異点の輝度及び位置を保存することができる。ここで画像の幅をN、高さをMとする。以下簡単のため、N=M=2n(nは自然数)と仮定する。また、区間[0,N]⊂RをIと記述する。(i,j)における画像の画素をp(i,j)と記述する(i,j∈I)。
[1.2] Hierarchy of Singularity Filter The multi-resolution singularity filter according to the base technology can preserve the luminance and position of each singularity included in the image while reducing the resolution of the image. Here, the width of the image is N, and the height is M. Hereinafter, for simplicity, it is assumed that N = M = 2n (n is a natural number). The section [0, N] NR is described as I. The pixel of the image at (i, j) is described as p (i, j) (i, jεI).

ここで多重解像度の階層を導入する。階層化された画像群は多重解像度フィルタで生成される。多重解像度フィルタは、もとの画像に対して二次元的な探索を行って特異点を検出し、検出された特異点を抽出してもとの画像よりも解像度の低い別の画像を生成する。ここで第mレベルにおける各画像のサイズは2m×2m(0≦m≦n)とする。特異点フィルタは次の4種類の新たな階層画像をnから下がる方向で再帰的に構築する。

Figure 2007069350

ただしここで、
Figure 2007069350

とする。以降これら4つの画像を副画像(サブイメージ)と呼ぶ。minx≦t≦x+1、maxx≦t≦x+1をそれぞれα及びβと記述すると、副画像はそれぞれ以下のように記述できる。Here, a multi-resolution hierarchy is introduced. The hierarchized image group is generated by a multi-resolution filter. The multi-resolution filter performs a two-dimensional search on the original image to detect singular points, and generates another image having a lower resolution than the original image even if the detected singular points are extracted. . Here, the size of each image at the m-th level is 2m × 2m (0 ≦ m ≦ n). The singularity filter recursively constructs the following four types of new hierarchical images in a direction descending from n.
Figure 2007069350

Where
Figure 2007069350

And Hereinafter, these four images are called sub-images. If minx ≦ t ≦ x + 1 and maxx ≦ t ≦ x + 1 are described as α and β, respectively, the sub-images can be described as follows.

P(m,0)=α(x)α(y)p(m+1,0)
P(m,1)=α(x)β(y)p(m+1,1)
P(m,2)=β(x)α(y)p(m+1,2)
P(m,3)=β(x)β(y)p(m+1,3)
すなわち、これらはαとβのテンソル積のようなものと考えられる。副画像はそれぞれ特異点に対応している。これらの式から明らかなように、特異点フィルタはもとの画像について2×2画素で構成されるブロックごとに特異点を検出する。その際、各ブロックのふたつの方向、つまり縦と横について、最大画素値または最小画素値をもつ点を探索する。画素値として、前提技術では輝度を採用するが、画像に関するいろいろな数値を採用することができる。ふたつの方向の両方について最大画素値となる画素は極大点、ふたつの方向の両方について最小画素値となる画素は極小点、ふたつの方向の一方について最大画素値となるとともに、他方について最小画素値となる画素は鞍点として検出される。
P (m, 0) = α (x) α (y) p (m + 1,0)
P (m, 1) = α (x) β (y) p (m + 1,1)
P (m, 2) = β (x) α (y) p (m + 1, 2)
P (m, 3) = β (x) β (y) p (m + 1,3)
That is, these are considered to be like tensor products of α and β. Each sub-image corresponds to a singular point. As is clear from these equations, the singularity filter detects a singularity for each block composed of 2 × 2 pixels in the original image. At this time, a point having the maximum pixel value or the minimum pixel value is searched for in two directions of each block, that is, vertical and horizontal. As the pixel value, luminance is adopted in the base technology, but various numerical values relating to the image can be adopted. The pixel with the maximum pixel value in both directions is the maximum point, the pixel with the minimum pixel value in both directions is the minimum point, the maximum pixel value in one of the two directions, and the minimum pixel value in the other direction Are detected as saddle points.

特異点フィルタは、各ブロックの内部で検出された特異点の画像(ここでは1画素)でそのブロックの画像(ここでは4画素)を代表させることにより、画像の解像度を落とす。特異点の理論的な観点からすれば、α(x)α(y)は極小点を保存し、β(x)β(y)は極大点を保存し、α(x)β(y)及びβ(x)α(y)は鞍点を保存する。   The singularity filter reduces the resolution of the image by representing the image (4 pixels here) of the block with the image (1 pixel here) of the singularity detected inside each block. From the theoretical point of view of singularities, α (x) α (y) preserves the minimum point, β (x) β (y) preserves the maximum point, α (x) β (y) and β (x) α (y) preserves saddle points.

はじめに、マッチングをとるべき始点(ソース)画像と終点(デスティネーション)画像に対して別々に特異点フィルタ処理を施し、それぞれ一連の画像群、すなわち始点階層画像と終点階層画像を生成しておく。始点階層画像と終点階層画像は、特異点の種類に対応してそれぞれ4種類ずつ生成される。   First, the singular point filtering process is separately performed on the start point (source) image and the end point (destination) image to be matched, and a series of images, that is, a start point hierarchical image and an end point hierarchical image are generated. Four types of start point hierarchical images and end point hierarchical images are generated corresponding to the types of singular points.

この後、一連の解像度レベルの中で始点階層画像と終点階層画像のマッチングがとれらていく。まずp(m,0)を用いて極小点のマッチングがとられる。次に、その結果に基づき、p(m,1)を用いて鞍点のマッチングがとられ、p(m,2)を用いて他の鞍点のマッチングがとられる。そして最後にp(m,3)を用いて極大点のマッチングがとられる。   Thereafter, matching between the start point layer image and the end point layer image is performed within a series of resolution levels. First, the minimum point is matched using p (m, 0). Next, based on the result, matching of saddle points is performed using p (m, 1), and matching of other saddle points is performed using p (m, 2). Finally, the maximum points are matched using p (m, 3).

図1(c)と図1(d)はそれぞれ図1(a)と図1(b)の副画像p(5,0)を示している。同様に、図1(e)と図1(f)はp(5,1)、図1(g)と図1(h)はp(5,2)、図1(i)と図1(j)はp(5,3)をそれぞれ示している。これらの図からわかるとおり、副画像によれば画像の特徴部分のマッチングが容易になる。まずp(5,0)によって目が明確になる。目は顔の中で輝度の極小点だからである。p(5,1)によれば口が明確になる。口は横方向で輝度が低いためである。p(5,2)によれば首の両側の縦線が明確になる。最後に、p(5,3)によって耳や頬の最も明るい点が明確になる。これらは輝度の極大点だからである。   FIGS. 1C and 1D show the sub-image p (5, 0) of FIGS. 1A and 1B, respectively. Similarly, FIG. 1 (e) and FIG. 1 (f) are p (5, 1), FIG. 1 (g) and FIG. 1 (h) are p (5, 2), FIG. 1 (i) and FIG. j) represents p (5, 3), respectively. As can be seen from these figures, the sub-image facilitates the matching of the feature portions of the image. First, the eye becomes clear by p (5,0). This is because the eyes are the minimum brightness points in the face. According to p (5,1), the mouth becomes clear. This is because the mouth is low in luminance in the horizontal direction. According to p (5, 2), the vertical lines on both sides of the neck become clear. Finally, p (5,3) makes the brightest point of the ear and cheek clear. This is because these are the maximum points of luminance.

特異点フィルタによれば画像の特徴が抽出できるため、例えばカメラで撮影された画像の特徴と、予め記録しておいたいくつかのオブジェクトの特徴を比較することにより、カメラに映った被写体を識別することができる。   The feature of the image can be extracted by using the singular point filter. For example, by comparing the features of the image captured by the camera with the features of several objects that have been recorded in advance, the subject reflected in the camera is identified. can do.

[1.3]画像間の写像の計算
始点画像の位置(i,j)の画素をp(n)(i,j)と書き、同じく終点画像の位置(k,l)の画素をq(n)(k,l)で記述する。i,j,k,l∈Iとする。画像間の写像のエネルギー(後述)を定義する。このエネルギーは、始点画像の画素の輝度と終点画像の対応する画素の輝度の差、及び写像の滑らかさによって決まる。最初に最小のエネルギーを持つp(m,0)とq(m,0)間の写像f(m,0):p(m,0)→q(m,0)が計算される。f(m,0)に基づき、最小エネルギーを持つp(m,1)、q(m,1)間の写像f(m,1)が計算される。この手続は、p(m,3)とq(m,3)の間の写像f(m,3)の計算が終了するまで続く。各写像f(m,i)(i=0,1,2,…)を副写像と呼ぶことにする。f(m,i)の計算の都合のために、iの順序は次式のように並べ替えることができる。並べ替えが必要な理由は後述する。
[1.3] Calculation of mapping between images The pixel at the position (i, j) of the start point image is written as p (n) (i, j), and the pixel at the position (k, l) of the end point image is also q ( n) Described by (k, l). Let i, j, k, lεI. Defines the energy of mapping between images (described later). This energy is determined by the difference between the luminance of the pixel of the start point image and the luminance of the corresponding pixel of the end point image, and the smoothness of the mapping. First, a mapping f (m, 0): p (m, 0) → q (m, 0) between p (m, 0) and q (m, 0) having the minimum energy is calculated. Based on f (m, 0), a mapping f (m, 1) between p (m, 1) and q (m, 1) having the minimum energy is calculated. This procedure continues until the computation of the mapping f (m, 3) between p (m, 3) and q (m, 3) is completed. Each map f (m, i) (i = 0, 1, 2,...) Is called a sub-map. For convenience of calculation of f (m, i), the order of i can be rearranged as follows: The reason why the rearrangement is necessary will be described later.

Figure 2007069350

ここでσ(i)∈{0,1,2,3}である。
Figure 2007069350

Here, σ (i) ε {0, 1, 2, 3}.

[1.3.1]全単射
始点画像と終点画像の間のマッチングを写像で表現する場合、その写像は両画像間で全単射条件を満たすべきである。両画像に概念上の優劣はなく、互いの画素が全射かつ単射で接続されるべきだからである。しかしながら通常の場合とは異なり、ここで構築すべき写像は全単射のディジタル版である。前提技術では、画素は格子点によって特定される。
[1.3.1] Bijection When the matching between the start point image and the end point image is expressed by mapping, the mapping should satisfy the bijection condition between the two images. This is because there is no conceptual superiority or inferiority between the two images, and the pixels of each other should be connected both surjectively and injectively. However, unlike the normal case, the map to be constructed here is a bijective digital version. In the base technology, a pixel is specified by a grid point.

始点副画像(始点画像について設けられた副画像)から終点副画像(終点画像について設けられた副画像)への写像は、f(m,s):I/2n−m×I/2n−m→I/2n−m×I/2n−m(s=0,1,…)によって表される。ここで、f(m,s)(i,j)=(k,l)は、始点画像のp(m,s)(i,j)が終点画像のq(m,s)(k,l)に写像されることを意味する。簡単のために、f(i,j)=(k,l)が成り立つとき画素q(k,l)をqf(i,j)と記述する。   The mapping from the start point sub-image (sub-image provided for the start-point image) to the end-point sub-image (sub-image provided for the end-point image) is f (m, s): I / 2n−m × I / 2n−m → I / 2n−m × I / 2n−m (s = 0, 1,...) Here, f (m, s) (i, j) = (k, l) indicates that p (m, s) (i, j) of the start point image is q (m, s) (k, l) of the end point image. ). For simplicity, the pixel q (k, l) is described as qf (i, j) when f (i, j) = (k, l) holds.

前提技術で扱う画素(格子点)のようにデータが離散的な場合、全単射の定義は重要である。ここでは以下のように定義する(i,i’,j,j’,k,lは全て整数とする)。まず始めに、始点画像の平面においてRによって表記される各正方形領域、

Figure 2007069350

を考える(i=0,…,2m−1、j=0,…,2m−1)。ここでRの各辺(エッジ)の方向を以下のように定める。
Figure 2007069350

この正方形は写像fによって終点画像平面における四辺形に写像されなければならない。f(m,s)(R)によって示される四辺形、
Figure 2007069350

は、以下の全単射条件を満たす必要がある。The definition of bijection is important when data is discrete, such as pixels (grid points) handled in the base technology. Here, it is defined as follows (i, i ', j, j', k, l are all integers). First, each square region denoted by R in the plane of the starting point image,
Figure 2007069350

(I = 0,..., 2m-1, j = 0,..., 2m-1). Here, the direction of each side (edge) of R is determined as follows.
Figure 2007069350

This square must be mapped to a quadrilateral in the endpoint image plane by mapping f. a quadrilateral indicated by f (m, s) (R),
Figure 2007069350

Must meet the following bijective conditions:

1.四辺形f(m,s)(R)のエッジは互いに交差しない。
2.f(m,s)(R)のエッジの方向はRのそれらに等しい(図2の場合、時計回り)。
3.緩和条件として収縮写像(リトラクション:retractions)を許す。
1. The edges of the quadrilateral f (m, s) (R) do not intersect each other.
2. The direction of the edges of f (m, s) (R) is equal to those of R (clockwise in the case of FIG. 2).
3. As a relaxation condition, retraction is allowed.

何らかの緩和条件を設けないかぎり、全単射条件を完全に満たす写像は単位写像しかないためである。ここではf(m,s)(R)のひとつのエッジの長さが0、すなわちf(m,s)(R)は三角形になってもよい。しかし、面積が0となるような図形、すなわち1点または1本の線分になってはならない。図2(R)がもとの四辺形の場合、図2(A)と図2(D)は全単射条件を満たすが、図2(B)、図2(C)、図2(E)は満たさない。   This is because unless there is any relaxation condition, the only map that completely satisfies the bijection condition is the unit map. Here, the length of one edge of f (m, s) (R) is 0, that is, f (m, s) (R) may be a triangle. However, it should not be a figure with an area of 0, that is, one point or one line segment. When FIG. 2 (R) is the original quadrilateral, FIG. 2 (A) and FIG. 2 (D) satisfy the bijection condition, but FIG. 2 (B), FIG. 2 (C), FIG. ) Is not satisfied.

実際のインプリメンテーションでは、写像が全射であることを容易に保証すべく、さらに以下の条件を課してもよい。つまり始点画像の境界上の各画素は、終点画像において同じ位置を占める画素に写影されるというものである。すなわち、f(i,j)=(i,j)(ただしi=0,i=2m−1,j=0,j=2m−1の4本の線上)である。この条件を以下「付加条件」とも呼ぶ。   In an actual implementation, the following conditions may be further imposed to easily guarantee that the mapping is surjective. That is, each pixel on the boundary of the start point image is mapped to a pixel occupying the same position in the end point image. That is, f (i, j) = (i, j) (where, i = 0, i = 2m-1, j = 0, j = 2m-1 on four lines). Hereinafter, this condition is also referred to as “additional condition”.

[1.3.2]写像のエネルギー
[1.3.2.1]画素の輝度に関するコスト
写像fのエネルギーを定義する。エネルギーが最小になる写像を探すことが目的である。エネルギーは主に、始点画像の画素の輝度とそれに対応する終点画像の画素の輝度の差で決まる。すなわち、写像f(m,s)の点(i,j)におけるエネルギーC(m,s)(i,j)は次式によって定まる。

Figure 2007069350

ここで、V(p(m,s)(i,j))及びV(q(m,s)f(i,j))はそれぞれ画素p(m,s)(i,j)及びq(m,s)f(i,j)の輝度である。fのトータルのエネルギーC(m,s)は、マッチングを評価するひとつの評価式であり、つぎに示すC(m,s)(i,j)の合計で定義できる。
Figure 2007069350

[1.3.2.2]滑らかな写像のための画素の位置に関するコスト
滑らかな写像を得るために、写像に関する別のエネルギーDfを導入する。このエネルギーは画素の輝度とは関係なく、p(m,s)(i,j)およびq(m,s)f(i,j)の位置によって決まる(i=0,…,2m−1,j=0,…,2m−1)。点(i,j)における写像f(m,s)のエネルギーD(m,s)(i,j)は次式で定義される。
Figure 2007069350

ただし、係数パラメータηは0以上の実数であり、また、
Figure 2007069350

Figure 2007069350

とする。ここで、
Figure 2007069350

であり、i’<0およびj’<0に対してf(i’,j’)は0と決める。E0は(i,j)及びf(i,j)の距離で決まる。E0は画素があまりにも離れた画素へ写影されることを防ぐ。ただしE0は、後に別のエネルギー関数で置き換える。E1は写像の滑らかさを保証する。E1は、p(i,j)の変位とその隣接点の変位の間の隔たりを表す。以上の考察をもとに、マッチングを評価する別の評価式であるエネルギーDfは次式で定まる。
Figure 2007069350

[1.3.2.3]写像の総エネルギー
写像の総エネルギー、すなわち複数の評価式の統合に係る総合評価式はλC(m,s)f+D(m,s)fで定義される。ここで係数パラメータλは0以上の実数である。目的は総合評価式が極値をとる状態を検出すること、すなわち次式で示す最小エネルギーを与える写像を見いだすことである。
Figure 2007069350

λ=0及びη=0の場合、写像は単位写像になることに注意すべきである(すなわち、全てのi=0,…,2m−1及びj=0,…,2m−1に対してf(m,s)(i,j)=(i,j)となる)。後述のごとく、本前提技術では最初にλ=0及びη=0の場合を評価するため、写像を単位写像から徐々に変形していくことができる。仮に総合評価式のλの位置を変えてC(m,s)f+λD(m,s)fと定義したとすれば、λ=0及びη=0の場合に総合評価式がC(m,s)fだけになり、本来何等関連のない画素どうしが単に輝度が近いというだけで対応づけられ、写像が無意味なものになる。そうした無意味な写像をもとに写像を変形していってもまったく意味をなさない。このため、単位写像が評価の開始時点で最良の写像として選択されるよう係数パラメータの与えかたが配慮されている。[1.3.2] Mapping energy [1.3.2.1] Pixel luminance cost Defines the energy of mapping f. The purpose is to find a map that minimizes energy. The energy is mainly determined by the difference between the luminance of the pixel in the start point image and the luminance of the corresponding pixel in the end point image. That is, the energy C (m, s) (i, j) at the point (i, j) of the map f (m, s) is determined by the following equation.
Figure 2007069350

Where V (p (m, s) (i, j)) and V (q (m, s) f (i, j)) are pixels p (m, s) (i, j) and q ( m, s) is the luminance of f (i, j). The total energy C (m, s) of f is one evaluation formula for evaluating matching, and can be defined by the sum of C (m, s) (i, j) shown below.
Figure 2007069350

[1.3.2.2] Cost of pixel location for smooth mapping In order to obtain a smooth mapping, another energy Df for mapping is introduced. This energy is independent of the luminance of the pixel and is determined by the positions of p (m, s) (i, j) and q (m, s) f (i, j) (i = 0,..., 2m−1, j = 0,..., 2m-1). The energy D (m, s) (i, j) of the map f (m, s) at the point (i, j) is defined by the following equation.
Figure 2007069350

However, the coefficient parameter η is a real number of 0 or more, and
Figure 2007069350

Figure 2007069350

And here,
Figure 2007069350

And f (i ′, j ′) is determined to be 0 for i ′ <0 and j ′ <0. E0 is determined by the distance between (i, j) and f (i, j). E0 prevents the pixel from being mapped to a pixel that is too far away. However, E0 is replaced later with another energy function. E1 guarantees the smoothness of the mapping. E1 represents the distance between the displacement of p (i, j) and the displacement of its neighboring points. Based on the above consideration, energy Df, which is another evaluation formula for evaluating matching, is determined by the following formula.
Figure 2007069350

[1.3.2.3] Total energy of mapping The total energy of mapping, that is, a comprehensive evaluation formula relating to the integration of a plurality of evaluation formulas is defined by λC (m, s) f + D (m, s) f. Here, the coefficient parameter λ is a real number of 0 or more. The purpose is to detect a state in which the comprehensive evaluation formula takes an extreme value, that is, to find a map that gives the minimum energy shown by the following formula.
Figure 2007069350

Note that for λ = 0 and η = 0, the mapping is a unit mapping (ie for all i = 0,..., 2m−1 and j = 0,..., 2m−1). f (m, s) (i, j) = (i, j)). As will be described later, since the base technology first evaluates the case of λ = 0 and η = 0, the mapping can be gradually changed from the unit mapping. If the position of λ in the comprehensive evaluation formula is changed and defined as C (m, s) f + λD (m, s) f, then the comprehensive evaluation formula is C (m, s) when λ = 0 and η = 0. ) F, and the pixels that are not related to each other are associated with each other simply because the luminance is close, and the mapping becomes meaningless. Even if the map is transformed based on such a meaningless map, it does not make any sense. For this reason, consideration is given to how the coefficient parameter is given so that the unit map is selected as the best map at the start of evaluation.

オプティカルフローもこの前提技術同様、画素の輝度の差と滑らかさを考慮する。しかし、オプティカルフローは画像の変換に用いることはできない。オブジェクトの局所的な動きしか考慮しないためである。前提技術に係る特異点フィルタを用いることによって大域的な対応関係を検出することができる。   The optical flow also considers the difference in pixel brightness and the smoothness as in this base technology. However, the optical flow cannot be used for image conversion. This is because only local movement of the object is considered. A global correspondence can be detected by using a singularity filter according to the base technology.

[1.3.3]多重解像度の導入による写像の決定
最小エネルギーを与え、全単射条件を満足する写像fminを多重解像度の階層を用いて求める。各解像度レベルにおいて始点副画像及び終点副画像間の写像を計算する。解像度の階層の最上位(最も粗いレベル)からスタートし、各解像度レベルの写像を、他のレベルの写像を考慮に入れながら決定する。各レベルにおける写像の候補の数は、より高い、つまりより粗いレベルの写像を用いることによって制限される。より具体的には、あるレベルにおける写像の決定に際し、それよりひとつ粗いレベルにおいて求められた写像が一種の拘束条件として課される。
[1.3.3] Determination of mapping by introduction of multi-resolution The minimum energy is given, and the mapping fmin that satisfies the bijection condition is obtained using a multi-resolution hierarchy. The mapping between the start sub-image and the end sub-image is calculated at each resolution level. Starting from the top of the resolution hierarchy (the coarsest level), the mapping of each resolution level is determined taking into account the mappings of the other levels. The number of mapping candidates at each level is limited by using higher or coarser level mappings. More specifically, when determining a mapping at a certain level, a mapping obtained at one coarser level is imposed as a kind of constraint condition.

まず、

Figure 2007069350

が成り立つとき、p(m−1,s)(i’,j’)、q(m−1,s)(i’,j’)をそれぞれp(m,s)(i,j)、q(m,s)(i,j)のparentと呼ぶことにする。[x]はxを越えない最大整数である。またp(m,s)(i,j)、q(m,s)(i,j)をそれぞれp(m−1,s)(i’,j’)、q(m−1,s)(i’,j’)のchildと呼ぶ。関数parent(i,j)は次式で定義される。
Figure 2007069350

p(m,s)(i,j)とq(m,s)(k,l)の間の写像f(m,s)は、エネルギー計算を行って最小になったものを見つけることで決定される。f(m,s)(i,j)=(k,l)の値はf(m−1,s)(m=1,2,…,n)を用いることによって、以下のように決定される。まず、q(m,s)(k,l)は次の四辺形の内部になければならないという条件を課し、全単射条件を満たす写像のうち現実性の高いものを絞り込む。
Figure 2007069350

ただしここで、
Figure 2007069350

である。こうして定めた四辺形を、以下p(m,s)(i,j)の相続(inherited)四辺形と呼ぶことにする。相続四辺形の内部において、エネルギーを最小にする画素を求める。First,
Figure 2007069350

P (m−1, s) (i ′, j ′) and q (m−1, s) (i ′, j ′) are converted to p (m, s) (i, j) and q, respectively. This is called parent of (m, s) (i, j). [X] is a maximum integer not exceeding x. Further, p (m, s) (i, j) and q (m, s) (i, j) are respectively changed to p (m-1, s) (i ', j'), q (m-1, s). It is called a child of (i ′, j ′). The function parent (i, j) is defined by the following equation.
Figure 2007069350

The mapping f (m, s) between p (m, s) (i, j) and q (m, s) (k, l) is determined by performing an energy calculation and finding the smallest one. Is done. The value of f (m, s) (i, j) = (k, l) is determined as follows by using f (m−1, s) (m = 1, 2,..., n). The First, q (m, s) (k, l) imposes a condition that it must be inside the following quadrilateral, and narrows down highly realistic maps that satisfy the bijection condition.
Figure 2007069350

Where
Figure 2007069350

It is. The quadrilateral thus determined is hereinafter referred to as an inherited quadrilateral of p (m, s) (i, j). Find the pixel that minimizes the energy inside the inherited quadrilateral.

図3は以上の手順を示している。同図において、始点画像のA,B,C,Dの画素は、第m−1レベルにおいてそれぞれ終点画像のA’,B’,C’,D’へ写影される。画素p(m,s)(i,j)は、相続四辺形A’B’C’D’の内部に存在する画素q(m,s)f(m)(i,j)へ写影されなければならない。以上の配慮により、第m−1レベルの写像から第mレベルの写像への橋渡しがなされる。   FIG. 3 shows the above procedure. In the figure, the A, B, C, and D pixels of the start point image are mapped to the end point images A ', B', C ', and D', respectively, at the (m-1) th level. Pixel p (m, s) (i, j) is mapped to pixel q (m, s) f (m) (i, j) existing inside inherited quadrangle A′B′C′D ′. There must be. With the above consideration, the mapping from the (m-1) th level mapping to the mth level mapping is performed.

先に定義したエネルギーE0は、第mレベルにおける副写像f(m,0)を計算するために、次式に置き換える。

Figure 2007069350

また、副写像f(m,s)を計算するためには次式を用いる。
Figure 2007069350

こうしてすべての副写像のエネルギーを低い値に保つ写像が得られる。式20により、異なる特異点に対応する副写像が、副写像どうしの類似度が高くなるように同一レベル内で関連づけられる。式19は、f(m,s)(i,j)と、第m−1レベルの画素の一部と考えた場合の(i,j)が射影されるべき点の位置との距離を示している。The previously defined energy E0 is replaced by the following equation in order to calculate the submapping f (m, 0) at the mth level.
Figure 2007069350

Further, the following formula is used to calculate the submapping f (m, s).
Figure 2007069350

This gives a map that keeps the energy of all submaps low. According to Equation 20, the sub-maps corresponding to different singular points are related within the same level so that the similarity between the sub-maps becomes high. Equation 19 shows the distance between f (m, s) (i, j) and the position of the point where (i, j) should be projected when considered as a part of the pixel of the (m-1) th level. ing.

仮に、相続四辺形A’B’C’D’の内部に全単射条件を満たす画素が存在しない場合は以下の措置をとる。まず、A’B’C’D’の境界線からの距離がL(始めはL=1)である画素を調べる。それらのうち、エネルギーが最小になるものが全単射条件を満たせば、これをf(m,s)(i,j)の値として選択する。そのような点が発見されるか、またはLがその上限のL(m)maxに到達するまで、Lを大きくしていく。L(m)maxは各レベルmに対して固定である。そのような点が全く発見されない場合、全単射の第3の条件を一時的に無視して変換先の四辺形の面積がゼロになるような写像も認め、f(m,s)(i,j)を決定する。それでも条件を満たす点が見つからない場合、つぎに全単射の第1及び第2条件を外す。   If there is no pixel satisfying the bijection condition inside the inherited quadrilateral A'B'C'D ', the following measures are taken. First, a pixel whose distance from the boundary line of A′B′C′D ′ is L (initially L = 1) is examined. If the one with the minimum energy satisfies the bijection condition, it is selected as the value of f (m, s) (i, j). L is increased until such a point is found or L reaches its upper limit L (m) max. L (m) max is fixed for each level m. If such a point is not found at all, a mapping in which the area of the quadrilateral to be converted becomes zero by temporarily ignoring the third condition of bijection is recognized, and f (m, s) (i , J). If a point that satisfies the condition is still not found, the bijection first and second conditions are then removed.

多重解像度を用いる近似法は、写像が画像の細部に影響されることを回避しつつ、画像間の大域的な対応関係を決定するために必須である。多重解像度による近似法を用いなければ、距離の遠い画素間の対応関係を見いだすことは不可能である。その場合、画像のサイズはきわめて小さなものに限定しなければならず、変化の小さな画像しか扱うことができない。さらに、通常写像に滑らかさを要求するため、そうした画素間の対応関係を見つけにくくしている。距離のある画素から画素への写像のエネルギーは高いためである。多重解像度を用いた近似法によれば、そうした画素間の適切な対応関係を見いだすことができる。それらの距離は、解像度の階層の上位レベル(粗いレベル)において小さいためである。   An approximation method using multiple resolutions is essential to determine the global correspondence between images while avoiding the mapping being affected by image details. Unless an approximation method based on multi-resolution is used, it is impossible to find a correspondence between distant pixels. In that case, the size of the image must be limited to a very small size, and only an image with small change can be handled. Furthermore, since the normal mapping requires smoothness, it is difficult to find the correspondence between such pixels. This is because the energy of mapping from pixel to pixel at a distance is high. According to the approximation method using multi-resolution, an appropriate correspondence between such pixels can be found. This is because these distances are small at the upper level (coarse level) of the resolution hierarchy.

[1.4]最適なパレメータ値の自動決定
既存のマッチング技術の主な欠点のひとつに、パレメータ調整の困難さがある。大抵の場合、パラメータの調整は人手作業によって行われ、最適な値を選択することはきわめて難しい。前提技術に係る方法によれば、最適なパラメータ値を完全に自動決定することができる。
[1.4] Automatic determination of optimal parameter values One of the main drawbacks of existing matching techniques is the difficulty in adjusting parameters. In most cases, the parameter adjustment is performed manually, and it is extremely difficult to select an optimum value. According to the method according to the base technology, the optimum parameter value can be determined completely automatically.

前提技術に係るシステムはふたつのパレメータ、λ及びηを含む。端的にいえば、λは画素の輝度の差の重みであり、ηは写像の剛性を示している。これらのパラメータの値は初期値が0であり、まずη=0に固定してλを0から徐々に増加させる。λの値を大きくしながら、しかも総合評価式(式14)の値を最小にする場合、各副写像に関するC(m,s)fの値は一般に小さくなっていく。このことは基本的にふたつの画像がよりマッチしなければならないことを意味する。しかし、λが最適値を超えると以下の現象が発生する。   The system according to the base technology includes two parameters, λ and η. In short, λ is the weight of the difference in luminance of the pixels, and η is the stiffness of the mapping. The initial values of these parameters are 0. First, η is fixed at η = 0 and λ is gradually increased from 0. When the value of the overall evaluation formula (Equation 14) is minimized while increasing the value of λ, the value of C (m, s) f for each submapping generally decreases. This basically means that the two images must be better matched. However, when λ exceeds the optimum value, the following phenomenon occurs.

1.本来対応すべきではない画素どうしが、単に輝度が近いというだけで誤って対応づけられる。
2.その結果、画素どうしの対応関係がおかしくなり、写像がくずれはじめる。
1. Pixels that should not be associated with each other are erroneously associated with each other simply because the luminance is close.
2. As a result, the correspondence between the pixels becomes strange and the mapping starts to be broken.

3.その結果、式14においてD(m,s)fが急激に増加しようとする。
4.その結果、式14の値が急激に増加しようとするため、D(m,s)fの急激な増加を抑制するようf(m,s)が変化し、その結果C(m,s)fが増加する。
3. As a result, D (m, s) f in Equation 14 tends to increase rapidly.
4). As a result, since the value of Equation 14 tends to increase rapidly, f (m, s) changes to suppress the rapid increase in D (m, s) f, and as a result, C (m, s) f. Will increase.

したがって、λを増加させながら式14が最小値をとるという状態を維持しつつC(m,s)fが減少から増加に転じる閾値を検出し、そのλをη=0における最適値とする。つぎにηを少しづつ増やしてC(m,s)fの挙動を検査し、後述の方法でηを自動決定する。そのηに対応してλも決まる。   Therefore, a threshold value at which C (m, s) f changes from decreasing to increasing is detected while maintaining a state where Equation 14 takes the minimum value while increasing λ, and λ is set as an optimum value at η = 0. Next, η is increased little by little to check the behavior of C (m, s) f, and η is automatically determined by the method described later. Λ is also determined corresponding to η.

この方法は、人間の視覚システムの焦点機構の動作に似ている。人間の視覚システムでは、一方の目を動かしながら左右両目の画像のマッチングがとられる。オブジェクトがはっきりと認識できるとき、その目が固定される。   This method is similar to the operation of the focus mechanism of the human visual system. In the human visual system, the left and right eyes are matched while moving one eye. When an object can be clearly recognized, its eyes are fixed.

[1.4.1]λの動的決定
λは0から所定の刻み幅で増加されていき、λの値が変わる度に副写像が評価される。式14のごとく、総エネルギーはλC(m,s)f+D(m,s)fによって定義される。式9のD(m,s)fは滑らかさを表すもので、理論的には単位写像の場合に最小になり、写像が歪むほどE0もE1も増加していく。E1は整数であるから、D(m,s)fの最小刻み幅は1である。このため、現在のλC(m,s)(i,j)の変化(減少量)が1以上でなければ、写像を変化させることによって総エネルギーを減らすことはできない。なぜなら、写像の変化に伴ってD(m,s)fは1以上増加するため、λC(m,s)(i,j)が1以上減少しない限り総エネルギーは減らないためである。
[1.4.1] Dynamic determination of λ λ is increased from 0 by a predetermined step size, and the submapping is evaluated each time the value of λ changes. As in Equation 14, the total energy is defined by λC (m, s) f + D (m, s) f. D (m, s) f in Equation 9 represents smoothness, theoretically becomes the minimum in the case of unit mapping, and E0 and E1 increase as the mapping is distorted. Since E1 is an integer, the minimum step size of D (m, s) f is 1. For this reason, if the current change (decrease amount) of λC (m, s) (i, j) is not greater than 1, the total energy cannot be reduced by changing the mapping. This is because D (m, s) f increases by 1 or more as the mapping changes, so that the total energy does not decrease unless λC (m, s) (i, j) decreases by 1 or more.

この条件のもと、λの増加に伴い、正常な場合にC(m,s)(i,j)が減少することを示す。C(m,s)(i,j)のヒストグラムをh(l)と記述する。h(l)はエネルギーC(m,s)(i,j)がl2である画素の数である。λl2≧1が成り立つために、例えばl2=1/λの場合を考える。λがλ1からλ2まで微小量変化するとき、

Figure 2007069350

で示されるA個の画素が、
Figure 2007069350

のエネルギーを持つより安定的な状態に変化する。ここでは仮に、これらの画素のエネルギーがすべてゼロになると近似している。この式はC(m,s)fの値が、
Figure 2007069350

だけ変化することを示し、その結果、
Figure 2007069350

が成立する。h(l)>0であるから、通常C(m,s)fは減少する。しかし、λが最適値を越えようとするとき、上述の現象、つまりC(m,s)fの増加が発生する。この現象を検出することにより、λの最適値を決定する。Under this condition, it is shown that C (m, s) (i, j) decreases in the normal state as λ increases. A histogram of C (m, s) (i, j) is described as h (l). h (l) is the number of pixels whose energy C (m, s) (i, j) is l2. Since λl2 ≧ 1 holds, for example, consider the case of l2 = 1 / λ. When λ changes by a small amount from λ1 to λ2,
Figure 2007069350

A pixels indicated by
Figure 2007069350

Changes to a more stable state with the energy of. Here, it is approximated that the energy of these pixels is all zero. In this equation, the value of C (m, s) f is
Figure 2007069350

Show that only changes, and as a result,
Figure 2007069350

Is established. Since h (l)> 0, C (m, s) f usually decreases. However, when λ is about to exceed the optimum value, the above phenomenon, that is, an increase in C (m, s) f occurs. By detecting this phenomenon, the optimum value of λ is determined.

なお、H(h>0)及びkを定数とするとき、

Figure 2007069350

と仮定すれば、
Figure 2007069350

が成り立つ。このときk≠−3であれば、
Figure 2007069350

となる。これがC(m,s)fの一般式である(Cは定数)。When H (h> 0) and k are constants,
Figure 2007069350

Assuming
Figure 2007069350

Holds. At this time, if k ≠ -3,
Figure 2007069350

It becomes. This is a general formula of C (m, s) f (C is a constant).

λの最適値を検出する際、さらに安全を見て、全単射条件を破る画素の数を検査してもよい。ここで各画素の写像を決定する際、全単射条件を破る確率をp0と仮定する。この場合、

Figure 2007069350

が成立しているため、全単射条件を破る画素の数は次式の率で増加する。
Figure 2007069350

従って、
Figure 2007069350

は定数である。仮にh(l)=Hlkを仮定するとき、例えば、
Figure 2007069350

は定数になる。しかしλが最適値を越えると、上の値は急速に増加する。この現象を検出し、B0λ3/2+k/2/2mの値が異常値B0thresを越えるかどうかを検査し、λの最適値を決定することができる。同様に、B1λ3/2+k/2/2mの値が異常値B1thresを越えるかどうかを検査することにより、全単射の第3の条件を破る画素の増加率B1を確認する。ファクター2mを導入する理由は後述する。このシステムはこれら2つの閾値に敏感ではない。これらの閾値は、エネルギーC(m,s)fの観察では検出し損なった写像の過度の歪みを検出するために用いることができる。When detecting the optimum value of λ, the number of pixels that violate the bijection condition may be inspected for further safety. Here, when determining the mapping of each pixel, it is assumed that the probability of breaking the bijection condition is p0. in this case,
Figure 2007069350

Therefore, the number of pixels that violate the bijection condition increases at the rate of the following equation.
Figure 2007069350

Therefore,
Figure 2007069350

Is a constant. If h (l) = Hlk is assumed, for example,
Figure 2007069350

Becomes a constant. However, when λ exceeds the optimum value, the above value increases rapidly. By detecting this phenomenon, it is possible to determine whether the value of B0λ3 / 2 + k / 2 / 2m exceeds the abnormal value B0thres and determine the optimum value of λ. Similarly, by checking whether the value of B1λ3 / 2 + k / 2 / 2m exceeds the abnormal value B1thres, the pixel increase rate B1 that violates the third condition of bijection is confirmed. The reason for introducing the factor 2m will be described later. This system is not sensitive to these two thresholds. These thresholds can be used to detect excessive distortion of the mapping that was missed by observation of energy C (m, s) f.

なお実験では、副写像f(m,s)を計算する際、もしλが0.1を越えたらf(m,s)の計算は止めてf(m,s+1)の計算に移行した。λ>0.1のとき、画素の輝度255レベル中のわずか「3」の違いが副写像の計算に影響したためであり、λ>0.1のとき正しい結果を得ることは困難だったためである。   In the experiment, when calculating the submapping f (m, s), if λ exceeds 0.1, the calculation of f (m, s) is stopped and the calculation shifts to the calculation of f (m, s + 1). This is because a difference of only “3” in the luminance level of 255 pixels affects the submapping calculation when λ> 0.1, and it is difficult to obtain a correct result when λ> 0.1. .

[1.4.2]ヒストグラムh(l)
C(m,s)fの検査はヒストグラムh(l)に依存しない。全単射及びその第3の条件の検査の際、h(l)に影響を受けうる。実際に(λ,C(m,s)f)をプロットすると、kは通常1付近にある。実験ではk=1を用い、B0λ2とB1λ2を検査した。仮にkの本当の値が1未満であれば、B0λ2とB1λ2は定数にならず、ファクターλ(1−k)/2に従って徐々に増加する。h(l)が定数であれば、例えばファクターはλ1/2である。しかし、こうした差は閾値B0thresを正しく設定することによって吸収することができる。
[1.4.2] Histogram h (l)
The examination of C (m, s) f does not depend on the histogram h (l). It can be affected by h (l) during inspection of bijection and its third condition. When (λ, C (m, s) f) is actually plotted, k is usually near 1. In the experiment, k = 1 was used, and B0λ2 and B1λ2 were examined. If the true value of k is less than 1, B0λ2 and B1λ2 do not become constants, but gradually increase according to the factor λ (1-k) / 2. If h (l) is a constant, for example, the factor is λ1 / 2. However, these differences can be absorbed by setting the threshold value B0thres correctly.

ここで次式のごとく始点画像を中心が(x0,y0)、半径rの円形のオブジェクトであると仮定する。

Figure 2007069350

一方、終点画像は、次式のごとく中心(x1,y1)、半径がrのオブジェクトであるとする。
Figure 2007069350

ここでc(x)はc(x)=xkの形であるとする。中心(x0,y0)及び(x1,y1)が十分遠い場合、ヒストグラムh(l)は次式の形となる。
Figure 2007069350

k=1のとき、画像は背景に埋め込まれた鮮明な境界線を持つオブジェクトを示す。このオブジェクトは中心が暗く、周囲にいくに従って明るくなる。k=−1のとき、画像は曖昧な境界線を持つオブジェクトを表す。このオブジェクトは中心が最も明るく、周囲にいくに従って暗くなる。一般のオブジェクトはこれらふたつのタイプのオブジェクトの中間にあると考えてもさして一般性を失わない。したがって、kは−1≦k≦1として大抵の場合をカバーでき、式27が一般に減少関数であることが保障される。Here, it is assumed that the starting point image is a circular object having a center at (x0, y0) and a radius r as in the following equation.
Figure 2007069350

On the other hand, it is assumed that the end point image is an object having a center (x1, y1) and a radius r as in the following equation.
Figure 2007069350

Here, c (x) is assumed to be in the form of c (x) = xk. When the centers (x0, y0) and (x1, y1) are sufficiently far, the histogram h (l) takes the form of the following equation.
Figure 2007069350

When k = 1, the image shows an object with a sharp border embedded in the background. This object has a dark center and becomes brighter as it goes around. When k = -1, the image represents an object with an ambiguous boundary. This object is brightest at the center and darkens as you move around. Even if you think that a general object is in between these two types of objects, you won't lose generality. Therefore, k can cover most cases with −1 ≦ k ≦ 1, and it is guaranteed that Equation 27 is generally a decreasing function.

なお、式34からわかるように、rは画像の解像度に影響されること、すなわちrは2mに比例することに注意すべきである。このために[1.4.1]においてファクター2mを導入した。   Note that, as can be seen from Equation 34, r is affected by the resolution of the image, i.e., r is proportional to 2 m. For this purpose, a factor of 2 m was introduced in [1.4.1].

[1.4.3]ηの動的決定
パラメータηも同様の方法で自動決定できる。はじめにη=0とし、最も細かい解像度における最終的な写像f(n)及びエネルギーC(n)fを計算する。つづいて、ηをある値Δηだけ増加させ、再び最も細かい解像度における最終写像f(n)及びエネルギーC(n)fを計算し直す。この過程を最適値が求まるまで続ける。ηは写像の剛性を示す。次式の重みだからである。

Figure 2007069350

ηが0のとき、D(n)fは直前の副写像と無関係に決定され、現在の副写像は弾性的に変形され、過度に歪むことになる。一方、ηが非常に大きな値のとき、D(n)fは直前の副写像によってほぼ完全に決まる。このとき副写像は非常に剛性が高く、画素は同じ場所に射影される。その結果、写像は単位写像になる。ηの値が0から次第に増えるとき、後述のごとくC(n)fは徐々に減少する。しかしηの値が最適値を越えると、図4に示すとおり、エネルギーは増加し始める。同図のX軸はη、Y軸はCfである。[1.4.3] Dynamic determination of η The parameter η can be automatically determined by the same method. First, η = 0, and the final map f (n) and energy C (n) f at the finest resolution are calculated. Subsequently, η is increased by a certain value Δη, and the final mapping f (n) and energy C (n) f at the finest resolution are calculated again. This process is continued until the optimum value is obtained. η indicates the rigidity of the mapping. This is because the weight of the following equation.
Figure 2007069350

When η is 0, D (n) f is determined regardless of the immediately preceding submapping, and the current submapping is elastically deformed and excessively distorted. On the other hand, when η is a very large value, D (n) f is almost completely determined by the immediately preceding submapping. At this time, the sub-mapping is very rigid and the pixels are projected to the same location. As a result, the map becomes a unit map. When the value of η increases gradually from 0, C (n) f gradually decreases as described later. However, when the value of η exceeds the optimum value, the energy starts to increase as shown in FIG. In the figure, the X axis is η, and the Y axis is Cf.

この方法でC(n)fを最小にする最適なηの値を得ることができる。しかし、λの場合に比べていろいろな要素が計算に影響する結果、C(n)fは小さく揺らぎながら変化する。λの場合は、入力が微小量変化するたびに副写像を1回計算しなおすだけだが、ηの場合はすべての副写像が計算しなおされるためである。このため、得られたC(n)fの値が最小であるかどうかを即座に判断することはできない。最小値の候補が見つかれば、さらに細かい区間を設定することによって真の最小値を探す必要がある。   With this method, an optimum value of η that minimizes C (n) f can be obtained. However, as a result of various factors affecting the calculation as compared with the case of λ, C (n) f changes with small fluctuations. In the case of λ, the submapping is only recalculated once every time the input changes by a small amount, but in the case of η, all the submappings are recalculated. For this reason, it cannot be immediately determined whether or not the obtained value of C (n) f is minimum. If a candidate for the minimum value is found, it is necessary to search for the true minimum value by setting a finer section.

[1.5]スーパーサンプリング
画素間の対応関係を決定する際、自由度を増やすために、f(m,s)の値域をR×Rに拡張することができる(Rは実数の集合)。この場合、終点画像の画素の輝度が補間され、非整数点、

Figure 2007069350

における輝度を持つf(m,s)が提供される。つまりスーパーサンプリングが行われる。実験では、f(m,s)は整数及び半整数値をとることが許され、
Figure 2007069350

は、
Figure 2007069350

によって与えられた。[1.5] Supersampling When determining the correspondence between pixels, the range of f (m, s) can be expanded to R × R (R is a set of real numbers) in order to increase the degree of freedom. In this case, the luminance of the pixel of the end point image is interpolated, and a non-integer point,
Figure 2007069350

F (m, s) with the brightness at is provided. That is, super sampling is performed. In experiments, f (m, s) is allowed to take integer and half integer values,
Figure 2007069350

Is
Figure 2007069350

Given by.

[1.6]各画像の画素の輝度の正規化
始点画像と終点画像がきわめて異なるオブジェクトを含んでいるとき、写像の計算に元の画素の輝度がそのままでは利用しにくい。輝度の差が大きいために輝度に関するエネルギーC(m,s)fが大きくなりすぎ、正しい評価がしづらいためである。
[1.6] Normalization of luminance of pixels of each image When the start point image and the end point image include very different objects, it is difficult to use the luminance of the original pixel as it is for calculation of mapping. This is because the difference in luminance is large and the energy C (m, s) f relating to luminance becomes too large, making it difficult to perform a correct evaluation.

例えば、人の顔と猫の顔のマッチングをとる場合を考える。猫の顔は毛で覆われており、非常に明るい画素と非常に暗い画素が混じっている。この場合、ふたつの顔の間の副写像を計算するために、まず副画像を正規化する。すなわち、最も暗い画素の輝度を0、最も明るいそれを255に設定し、他の画素の輝度は線形補間によって求めておく。   For example, consider the case of matching a human face and a cat face. The cat's face is covered with hair and contains very bright and very dark pixels. In this case, the sub-image is first normalized in order to calculate the sub-mapping between the two faces. That is, the brightness of the darkest pixel is set to 0, the brightest is set to 255, and the brightness of the other pixels is obtained by linear interpolation.

[1.7]インプリメンテーション
始点画像のスキャンに従って計算がリニアに進行する帰納的な方法を用いる。始めに、1番上の左端の画素(i,j)=(0,0)についてf(m,s)の値を決定する。次にiを1ずつ増やしながら各f(m,s)(i,j)の値を決定する。iの値が画像の幅に到達したとき、jの値を1増やし、iを0に戻す。以降、始点画像のスキャンに伴いf(m,s)(i,j)を決定していく。すべての点について画素の対応が決まれば、ひとつの写像f(m,s)が決まる。
あるp(i,j)について対応点qf(i,j)が決まれば、つぎにp(i,j+1)の対応点qf(i,j+1)が決められる。この際、qf(i,j+1)の位置は全単射条件を満たすために、qf(i,j)の位置によって制限される。したがって、先に対応点が決まる点ほどこのシステムでは優先度が高くなる。つねに(0,0)が最も優先される状態がつづくと、求められる最終の写像に余計な偏向が加わる。本前提技術ではこの状態を回避するために、f(m,s)を以下の方法で決めていく。
[1.7] Implementation Use an inductive method in which the calculation proceeds linearly according to the scan of the starting point image. First, the value of f (m, s) is determined for the top leftmost pixel (i, j) = (0, 0). Next, the value of each f (m, s) (i, j) is determined while increasing i by 1. When the value of i reaches the width of the image, the value of j is increased by 1 and i is returned to 0. Thereafter, f (m, s) (i, j) is determined along with the scan of the starting point image. If pixel correspondence is determined for all points, one mapping f (m, s) is determined.
If the corresponding point qf (i, j) is determined for a certain p (i, j), then the corresponding point qf (i, j + 1) of p (i, j + 1) is determined. At this time, the position of qf (i, j + 1) is limited by the position of qf (i, j) in order to satisfy the bijection condition. Therefore, the priority is higher in this system as the corresponding points are determined first. If (0,0) always has the highest priority, additional deflections are added to the final mapping required. In the base technology, in order to avoid this state, f (m, s) is determined by the following method.

まず(s mod 4)が0の場合、(0,0)を開始点としi及びjを徐々に増やしながら決めていく。(s mod 4)が1の場合、最上行の右端点を開始点とし、iを減少、jを増加させながら決めていく。(s mod 4)が2のとき、最下行の右端点を開始点とし、i及びjを減少させながら決めていく。(s mod 4)が3の場合、最下行の左端点を開始点とし、iを増加、jを減少させながら決めていく。解像度が最も細かい第nレベルには副写像という概念、すなわちパラメータsが存在しないため、仮にs=0及びs=2であるとしてふたつの方向を連続的に計算した。   First, when (s mod 4) is 0, the starting point is (0, 0) and i and j are gradually increased. When (s mod 4) is 1, the right end point of the uppermost row is used as a starting point, and i is decreased and j is increased. When (s mod 4) is 2, the starting point is the rightmost point in the bottom row, and i and j are determined while decreasing. When (s mod 4) is 3, the left end point of the bottom row is used as a starting point, and i is increased and j is decreased. Since the sub-mapping concept, that is, the parameter s does not exist at the nth level with the finest resolution, two directions are calculated continuously assuming that s = 0 and s = 2.

実際のインプリメンテーションでは、全単射条件を破る候補に対してペナルティを与えることにより、候補(k,l)の中からできる限り全単射条件を満たすf(m,s)(i,j)(m=0,…,n)の値を選んだ。第3の条件を破る候補のエネルギーD(k、l)にはφを掛け、一方、第1または第2の条件を破る候補にはψを掛ける。今回はφ=2、ψ=100000を用いた。   In an actual implementation, f (m, s) (i, j) satisfying the bijection condition as much as possible from candidates (k, l) is given by giving a penalty to candidates that violate the bijection condition. ) (M = 0, ..., n) was chosen. Candidate energy D (k, l) that violates the third condition is multiplied by φ, while candidates that violate the first or second condition are multiplied by ψ. This time, φ = 2 and ψ = 100000 were used.

前述の全単射条件のチェックのために、実際の手続として(k,l)=f(m,s)(i,j)を決定する際に以下のテストを行った。すなわちf(m,s)(i,j)の相続四辺形に含まれる各格子点(k,l)に対し、次式の外積のz成分が0以上になるかどうかを確かめる。

Figure 2007069350

ただしここで、
Figure 2007069350

Figure 2007069350

である(ここでベクトルは三次元ベクトルとし、z軸は直交右手座標系において定義される)。もしWが負であれば、その候補についてはD(m,s)(k,l)にψを掛けることによってペナルティを与え、できるかぎり選択しないようにする。In order to check the bijection condition described above, the following test was performed when (k, l) = f (m, s) (i, j) was determined as an actual procedure. That is, it is confirmed whether or not the z component of the outer product of the following equation is 0 or more for each lattice point (k, l) included in the inherited quadrilateral of f (m, s) (i, j).
Figure 2007069350

Where
Figure 2007069350

Figure 2007069350

Where the vector is a three-dimensional vector and the z-axis is defined in an orthogonal right-handed coordinate system. If W is negative, the candidate is penalized by multiplying D (m, s) (k, l) by ψ, and is selected as little as possible.

図5(a)、図5(b)はこの条件を検査する理由を示している。図5(a)はペナルティのない候補、図5(b)はペナルティがある候補をそれぞれ表す。隣接画素(i,j+1)に対する写像f(m,s)(i,j+1)を決定する際、Wのz成分が負であれば始点画像平面上において全単射条件を満足する画素は存在しない。なぜなら、q(m,s)(k,l)は隣接する四辺形の境界線を越えるためである。   FIG. 5A and FIG. 5B show the reason for inspecting this condition. FIG. 5A shows a candidate without a penalty, and FIG. 5B shows a candidate with a penalty. When determining the mapping f (m, s) (i, j + 1) for the adjacent pixel (i, j + 1), if the z component of W is negative, there is no pixel that satisfies the bijection condition on the starting image plane. . This is because q (m, s) (k, l) exceeds the boundary line of the adjacent quadrilateral.

[1.7.1]副写像の順序
インプリメンテーションでは、解像度レベルが偶数のときにはσ(0)=0、σ(1)=1、σ(2)=2、σ(3)=3、σ(4)=0を用い、奇数のときはσ(0)=3、σ(1)=2、σ(2)=1、σ(3)=0、σ(4)=3を用いた。このことで、副写像を適度にシャッフルした。なお、本来副写像は4種類であり、sは0〜3のいずれかである。しかし、実際にはs=4に相当する処理を行った。その理由は後述する。
[1.7.1] Submapping Order In implementation, when the resolution level is even, σ (0) = 0, σ (1) = 1, σ (2) = 2, σ (3) = 3, σ (4) = 0 was used, and when odd, σ (0) = 3, σ (1) = 2, σ (2) = 1, σ (3) = 0, and σ (4) = 3 were used. . This effectively shuffled the submap. Note that there are essentially four types of submappings, and s is one of 0 to 3. However, in practice, processing corresponding to s = 4 was performed. The reason will be described later.

[1.8]補間計算
始点画像と終点画像の間の写像が決定された後、対応しあう画素の輝度が補間される。実験では、トライリニア補間を用いた。始点画像平面における正方形p(i,j)p(i+1,j)p(i,j+1)p(i+1,j+1)が終点画像平面上の四辺形qf(i,j)qf(i+1,j)qf(i,j+1)qf(i+1,j+1)に射影されると仮定する。簡単のため、画像間の距離を1とする。始点画像平面からの距離がt(0≦t≦1)である中間画像の画素r(x,y,t)(0≦x≦N−1,0≦y≦M−1)は以下の要領で求められる。まず画素r(x,y,t)の位置(ただしx,y,t∈R)を次式で求める。

Figure 2007069350

つづいてr(x,y,t)における画素の輝度が次の式を用いて決定される。
Figure 2007069350

ここでdx及びdyはパラメータであり、0から1まで変化する。[1.8] Interpolation calculation After the mapping between the start point image and the end point image is determined, the luminance of the corresponding pixels is interpolated. In the experiment, trilinear interpolation was used. The square p (i, j) p (i + 1, j) p (i, j + 1) p (i + 1, j + 1) in the start image plane is a quadrangle qf (i, j) qf (i + 1, j) qf on the end image plane. Assume that (i, j + 1) qf (i + 1, j + 1) is projected. For simplicity, the distance between images is 1. The pixel r (x, y, t) (0 ≦ x ≦ N−1, 0 ≦ y ≦ M−1) of the intermediate image whose distance from the starting image plane is t (0 ≦ t ≦ 1) is as follows. Is required. First, the position of the pixel r (x, y, t) (where x, y, tεR) is obtained by the following equation.
Figure 2007069350

Subsequently, the luminance of the pixel at r (x, y, t) is determined using the following equation.
Figure 2007069350

Here, dx and dy are parameters and change from 0 to 1.

[1.9]拘束条件を課したときの写像
いままでは拘束条件がいっさい存在しない場合の写像の決定を述べた。しかし、始点画像と終点画像の特定の画素間に予め対応関係が規定されているとき、これを拘束条件としたうえで写像を決定することができる。
[1.9] Mapping when imposing constraint conditions We have described the determination of mapping when no constraint conditions exist. However, when a correspondence is defined in advance between specific pixels of the start point image and the end point image, the mapping can be determined using this as a constraint.

基本的な考えは、まず始点画像の特定の画素を終点画像の特定の画素に移す大まかな写像によって始点画像を大まかに変形し、しかる後、写像fを正確に計算する。   The basic idea is that the starting point image is roughly deformed by a rough mapping in which specific pixels of the starting point image are transferred to specific pixels of the end point image, and then the mapping f is accurately calculated.

まず始めに、始点画像の特定の画素を終点画像の特定の画素に射影し、始点画像の他の画素を適当な位置に射影する大まかな写像を決める。すなわち、特定の画素に近い画素は、その特定の画素が射影される場所の近くに射影されるような写像である。ここで第mレベルの大まかな写像をF(m)と記述する。   First, a specific pixel of the start point image is projected onto a specific pixel of the end point image, and a rough mapping for projecting other pixels of the start point image to an appropriate position is determined. That is, a pixel that is close to a specific pixel is a mapping that is projected near the place where the specific pixel is projected. Here, a rough mapping at the m-th level is described as F (m).

大まかな写像Fは以下の要領で決める。まず、いくつかの画素について写像を特定する。始点画像についてns個の画素、

Figure 2007069350

を特定するとき、以下の値を決める。
Figure 2007069350

始点画像の他の画素の変位量は、p(ih,jh)(h=0,…,ns−1)の変位に重み付けをして求められる平均である。すなわち画素p(i,j)は、終点画像の以下の画素に射影される。
Figure 2007069350

ただしここで、
Figure 2007069350

Figure 2007069350

とする。The rough map F is determined as follows. First, a mapping is specified for several pixels. Ns pixels for the starting image,
Figure 2007069350

When specifying, the following values are determined.
Figure 2007069350

The displacement amount of the other pixels of the starting point image is an average obtained by weighting the displacement of p (ih, jh) (h = 0,..., Ns−1). That is, the pixel p (i, j) is projected onto the following pixels of the end point image.
Figure 2007069350

Where
Figure 2007069350

Figure 2007069350

And

つづいて、F(m)に近い候補写像fがより少ないエネルギーを持つように、その写像fのエネルギーD(m,s)(i,j)を変更する。正確には、D(m,s)(i,j)は、

Figure 2007069350

である。ただし、
Figure 2007069350

であり、κ,ρ≧0とする。最後に、前述の写像の自動計算プロセスにより、fを完全に決定する。Subsequently, the energy D (m, s) (i, j) of the map f is changed so that the candidate map f near F (m) has less energy. To be precise, D (m, s) (i, j) is
Figure 2007069350

It is. However,
Figure 2007069350

And κ, ρ ≧ 0. Finally, f is completely determined by the automatic map calculation process described above.

ここで、f(m,s)(i,j)がF(m)(i,j)に十分近いとき、つまりそれらの距離が、

Figure 2007069350

以内であるとき、E2(m,s)(i,j)が0になることに注意すべきである。そのように定義した理由は、各f(m,s)(i,j)がF(m)(i,j)に十分近い限り、終点画像において適切な位置に落ち着くよう、その値を自動的に決めたいためである。この理由により、正確な対応関係を詳細に特定する必要がなく、始点画像は終点画像にマッチするように自動的にマッピングされる。
[2]具体的な処理手順
[1]の各要素技術による処理の流れを説明する。
図6は前提技術の全体手順を示すフローチャートである。同図のごとく、まず多重解像度特異点フィルタを用いた処理を行い(S1)、つづいて始点画像と終点画像のマッチングをとる(S2)。ただし、S2は必須ではなく、S1で得られた画像の特徴をもとに画像認識などの処理を行ってもよい。Here, when f (m, s) (i, j) is sufficiently close to F (m) (i, j), that is, their distance is
Figure 2007069350

Note that E2 (m, s) (i, j) is 0 when within. The reason for this definition is that as long as each f (m, s) (i, j) is sufficiently close to F (m) (i, j), its value is automatically set so as to settle at an appropriate position in the end point image. Because we want to decide. For this reason, it is not necessary to specify an exact correspondence relationship in detail, and the start point image is automatically mapped so as to match the end point image.
[2] Specific Processing Procedure A processing flow according to each elemental technique of [1] will be described.
FIG. 6 is a flowchart showing the overall procedure of the base technology. As shown in the figure, first, processing using a multi-resolution singularity filter is performed (S1), and then the start point image and the end point image are matched (S2). However, S2 is not essential, and processing such as image recognition may be performed based on the characteristics of the image obtained in S1.

図7は図6のS1の詳細を示すフローチャートである。ここではS2で始点画像と終点画像のマッチングをとることを前提としている。そのため、まず特異点フィルタによって始点画像の階層化を行い(S10)、一連の始点階層画像を得る。つづいて同様の方法で終点画像の階層化を行い(S11)、一連の終点階層画像を得る。ただし、S10とS11の順序は任意であるし、始点階層画像と終点階層画像を並行して生成していくこともできる。   FIG. 7 is a flowchart showing details of S1 of FIG. Here, it is assumed that the start point image and the end point image are matched in S2. Therefore, first, the starting point image is hierarchized by a singular point filter (S10), and a series of starting point hierarchical images are obtained. Subsequently, the end point images are hierarchized by the same method (S11), and a series of end point layer images are obtained. However, the order of S10 and S11 is arbitrary, and the start point hierarchical image and the end point hierarchical image can be generated in parallel.

図8は図7のS10の詳細を示すフローチャートである。もとの始点画像のサイズは2n×2nとする。始点階層画像は解像度が細かいほうから順に作られるため、処理の対象となる解像度レベルを示すパラメータmをnにセットする(S100)。つづいて第mレベルの画像p(m,0)、p(m,1)、p(m,2)、p(m,3)から特異点フィルタを用いて特異点を検出し(S101)、それぞれ第m−1レベルの画像p(m−1,0)、p(m−1,1)、p(m−1,2)、p(m−1,3)を生成する(S102)。ここではm=nであるため、p(m,0)=p(m,1)=p(m,2)=p(m,3)=p(n)であり、ひとつの始点画像から4種類の副画像が生成される。   FIG. 8 is a flowchart showing details of S10 in FIG. The size of the original starting point image is 2n × 2n. Since the start point hierarchical image is created in order from the finer resolution, the parameter m indicating the resolution level to be processed is set to n (S100). Subsequently, a singular point is detected from the m-th level images p (m, 0), p (m, 1), p (m, 2), and p (m, 3) using a singular point filter (S101). The m-1st level images p (m-1, 0), p (m-1, 1), p (m-1, 2), and p (m-1, 3) are generated (S102). Here, since m = n, p (m, 0) = p (m, 1) = p (m, 2) = p (m, 3) = p (n), and 4 from one start point image. A type of sub-image is generated.

図9は第mレベルの画像の一部と、第m−1レベルの画像の一部の対応関係を示している。同図の数値は各画素の輝度を示す。同図のp(m,s)はp(m,0)〜p(m,3)の4つの画像を象徴するもので、p(m−1,0)を生成する場合には、p(m,s)はp(m,0)であると考える。[1.2]で示した規則により、p(m−1,0)は例えば同図で輝度を記入したブロックについて、そこに含まれる4画素のうち「3」、p(m−1,1)は「8」、p(m−1,2)は「6」、p(m−1,3)を「10」をそれぞれ取得し、このブロックをそれぞれ取得したひとつの画素で置き換える。したがって、第m−1レベルの副画像のサイズは2m−1×2m−1になる。   FIG. 9 shows a correspondence relationship between a part of the mth level image and a part of the m−1th level image. The numerical values in the figure indicate the luminance of each pixel. P (m, s) in the figure symbolizes four images of p (m, 0) to p (m, 3). When generating p (m-1, 0), p (m-1, 0) m, s) is considered to be p (m, 0). According to the rule shown in [1.2], p (m-1, 0) is, for example, “3” of the four pixels included in the block in which the luminance is entered in FIG. ) Is “8”, p (m−1,2) is “6”, p (m−1,3) is “10”, and this block is replaced with one acquired pixel. Accordingly, the size of the sub-image at the (m−1) th level is 2m−1 × 2m−1.

つづいてmをデクリメントし(図8のS103)、mが負になっていないことを確認し(S104)、S101に戻ってつぎに解像度の粗い副画像を生成していく。この繰り返し処理の結果、m=0、すなわち第0レベルの副画像が生成された時点でS10が終了する。第0レベルの副画像のサイズは1×1である。   Next, m is decremented (S103 in FIG. 8), it is confirmed that m is not negative (S104), and the process returns to S101 and a sub-image with a coarse resolution is generated. As a result of this iterative process, S10 ends when m = 0, that is, when the 0th level sub-image is generated. The size of the 0th level sub-image is 1 × 1.

図10はS10によって生成された始点階層画像をn=3の場合について例示している。最初の始点画像のみが4つの系列に共通であり、以降特異点の種類に応じてそれぞれ独立に副画像が生成されていく。なお、図8の処理は図7のS11にも共通であり、同様の手順を経て終点階層画像も生成される。以上で図6のS1による処理が完了する。   FIG. 10 illustrates the start point hierarchical image generated in S10 for n = 3. Only the first starting point image is common to the four sequences, and thereafter, sub-images are generated independently according to the types of singular points. Note that the processing in FIG. 8 is common to S11 in FIG. 7, and an end point hierarchical image is also generated through the same procedure. Thus, the process by S1 in FIG. 6 is completed.

前提技術では、図6のS2に進むためにマッチング評価の準備をする。図11はその手順を示している。同図のごとく、まず複数の評価式が設定される(S30)。[1.3.2.1]で導入した画素に関するエネルギーC(m,s)fと[1.3.2.2]で導入した写像の滑らかさに関するエネルギーD(m,s)fがそれである。つぎに、これらの評価式を統合して総合評価式を立てる(S31)。[1.3.2.3]で導入した総エネルギーλC(m,s)f+D(m,s)fがそれであり、[1.3.2.2]で導入したηを用いれば、

Figure 2007069350

となる。ただし、総和はi、jについてそれぞれ0、1…、2m−1で計算する。以上でマッチング評価の準備が整う。In the base technology, preparation for matching evaluation is made in order to proceed to S2 in FIG. FIG. 11 shows the procedure. As shown in the figure, first, a plurality of evaluation formulas are set (S30). The energy C (m, s) f related to the pixel introduced in [1.3.2.1] and the energy D (m, s) f related to the smoothness of the map introduced in [1.3.2.2] is there. Next, a comprehensive evaluation formula is established by integrating these evaluation formulas (S31). That is the total energy λC (m, s) f + D (m, s) f introduced in [1.3.2.3], and using η introduced in [1.3.2.2],
Figure 2007069350

It becomes. However, the sum is calculated with 0, 1,..., 2m−1 for i and j, respectively. The matching evaluation is now complete.

図12は図6のS2の詳細を示すフローチャートである。[1]で述べたごとく、始点階層画像と終点階層画像のマッチングは互いに同じ解像度レベルの画像どうしでとられる。画像間の大域的なマッチングを良好にとるために、解像度が粗いレベルから順にマッチングを計算する。特異点フィルタを用いて始点階層画像および終点階層画像を生成しているため、特異点の位置や輝度は解像度の粗いレベルでも明確に保存されており、大域的なマッチングの結果は従来に比べて非常に優れたものになる。   FIG. 12 is a flowchart showing details of S2 of FIG. As described in [1], matching between the start point hierarchical image and the end point hierarchical image is performed between images having the same resolution level. In order to obtain good global matching between images, matching is calculated in order from the level with the coarser resolution. Since the start and end layer images are generated using the singularity filter, the position and brightness of the singularity are clearly preserved even at a coarse level of resolution, and the results of global matching are compared to the conventional case. It will be very good.

図12のごとく、まず係数パラメータηを0、レベルパラメータmを0に設定する(S20)。つづいて、始点階層画像中の第mレベルの4つの副画像と終点階層画像中の第mレベルの4つの副画像のそれぞれの間でマッチングを計算し、それぞれ全単射条件を満たし、かつエネルギーを最小にするような4種類の副写像f(m,s)(s=0,1,2,3)を求める(S21)。全単射条件は[1.3.3]で述べた相続四辺形を用いて検査される。この際、式17、18が示すように、第mレベルにおける副写像は第m−1レベルのそれらに拘束されるため、より解像度の粗いレベルにおけるマッチングが順次利用されていく。これは異なるレベル間の垂直的参照である。なお、いまm=0であってそれより粗いレベルはないが、この例外的な処理は図13で後述する。
一方、同一レベル内における水平的参照も行われる。[1.3.3]の式20のごとく、f(m,3)はf(m,2)に、f(m,2)はf(m,1)に、f(m,1)はf(m,0)に、それぞれ類似するように決める。その理由は、特異点の種類が違っても、それらがもともと同じ始点画像と終点画像に含まれている以上、副写像がまったく異なるという状況は不自然だからである。式20からわかるように、副写像どうしが近いほどエネルギーは小さくなり、マッチングが良好とみなされる。
As shown in FIG. 12, first, the coefficient parameter η is set to 0 and the level parameter m is set to 0 (S20). Subsequently, a match is calculated between each of the four sub-images at the m-th level in the start point hierarchical image and the four sub-images at the m-th level in the end point hierarchical image, satisfying the bijection condition, and energy. 4 types of sub-mappings f (m, s) (s = 0, 1, 2, 3) are obtained (S21). The bijection condition is checked using the inherited quadrilateral described in [1.3.3]. At this time, as shown in Expressions 17 and 18, since the submapping at the m-th level is constrained to those at the (m-1) -th level, matching at a level with a coarser resolution is sequentially used. This is a vertical reference between different levels. Although m = 0 and there is no coarser level, this exceptional processing will be described later with reference to FIG.
On the other hand, horizontal reference within the same level is also performed. As shown in Equation 1 of [1.3.3], f (m, 3) is f (m, 2), f (m, 2) is f (m, 1), and f (m, 1) is It is determined to be similar to f (m, 0). The reason is that even if the types of singular points are different, it is unnatural that the submappings are completely different as long as they are originally included in the same start point image and end point image. As can be seen from Equation 20, the closer the sub-maps, the smaller the energy and the better the matching.

なお、最初に決めるべきf(m,0)については同一のレベルで参照できる副写像がないため、式19に示すごとくひとつ粗いレベルを参照する。ただし、実験ではf(m,3)まで求まった後、これを拘束条件としてf(m,0)を一回更新するという手続をとった。これは式20にs=4を代入し、f(m,4)を新たなf(m,0)とすることに等しい。f(m,0)とf(m,3)の関連度が低くなり過ぎる傾向を回避するためであり、この措置によって実験結果がより良好になった。この措置に加え、実験では[1.7.1]に示す副写像のシャッフルも行った。これも本来特異点の種類ごとに決まる副写像どうしの関連度を密接に保つ趣旨である。また、処理の開始点に依存する偏向を回避するために、sの値にしたがって開始点の位置を変える点は[1.7]で述べたとおりである。   For f (m, 0) to be determined first, there is no submapping that can be referred to at the same level, so one coarse level is referenced as shown in Equation 19. However, in the experiment, after obtaining up to f (m, 3), the procedure was taken to update f (m, 0) once using this as a constraint. This is equivalent to substituting s = 4 into Equation 20 to make f (m, 4) a new f (m, 0). This is to avoid the tendency that the relation between f (m, 0) and f (m, 3) becomes too low, and this measure has improved the experimental results. In addition to this measure, the sub-map shuffle shown in [1.7.1] was also performed in the experiment. This is also intended to keep the degree of association between the submaps originally determined for each type of singularity closely. In addition, as described in [1.7], the position of the start point is changed according to the value of s in order to avoid deflection depending on the start point of processing.

図13は第0レベルにおいて副写像を決定する様子を示す図である。第0レベルでは各副画像がただひとつの画素で構成されるため、4つの副写像f(0,s)はすべて自動的に単位写像に決まる。図14は第1レベルにおいて副写像を決定する様子を示す図である。第1レベルでは副画像がそれぞれ4画素で構成される。同図ではこれら4画素が実線で示されている。いま、p(1,s)の点xの対応点をq(1,s)の中で探すとき、以下の手順を踏む。   FIG. 13 is a diagram showing how the submapping is determined at the 0th level. At the 0th level, since each sub-image is composed of only one pixel, all four sub-maps f (0, s) are automatically determined as unit maps. FIG. 14 is a diagram showing how the submapping is determined at the first level. At the first level, each sub-image is composed of 4 pixels. In the figure, these four pixels are indicated by solid lines. Now, when searching for a corresponding point of the point x of p (1, s) in q (1, s), the following procedure is taken.

1.第1レベルの解像度で点xの左上点a、右上点b、左下点c、右下点dを求める。
2.点a〜dがひとつ粗いレベル、つまり第0レベルにおいて属する画素を探す。図14の場合、点a〜dはそれぞれ画素A〜Dに属する。ただし、画素A〜Cは本来存在しない仮想的な画素である。
3.第0レベルですでに求まっている画素A〜Dの対応点A’〜D’をq(1,s)の中にプロットする。画素A’〜C’は仮想的な画素であり、それぞれ画素A〜Cと同じ位置にあるものとする。
4.画素Aの中の点aの対応点a’が画素A’の中にあるとみなし、点a’をプロットする。このとき、点aが画素Aの中で占める位置(この場合、右下)と、点a’が画素A’の中で占める位置が同じであると仮定する。
5.4と同様の方法で対応点b’〜d’をプロットし、点a’〜d’で相続四辺形を作る。
6.相続四辺形の中でエネルギーが最小になるよう、点xの対応点x’を探す。対応点x’の候補として、例えば画素の中心が相続四辺形に含まれるものに限定してもよい。図14の場合、4つの画素がすべて候補になる。
1. The upper left point a, the upper right point b, the lower left point c, and the lower right point d of the point x are obtained at the first level resolution.
2. The pixel to which the points a to d belong at one coarse level, that is, the 0th level is searched. In the case of FIG. 14, the points a to d belong to the pixels A to D, respectively. However, the pixels A to C are virtual pixels that do not originally exist.
3. The corresponding points A ′ to D ′ of the pixels A to D already obtained at the 0th level are plotted in q (1, s). Pixels A ′ to C ′ are virtual pixels, and are assumed to be in the same positions as the pixels A to C, respectively.
4). The corresponding point a ′ of the point a in the pixel A is considered to be in the pixel A ′, and the point a ′ is plotted. At this time, it is assumed that the position occupied by the point a in the pixel A (in this case, the lower right) is the same as the position occupied by the point a ′ in the pixel A ′.
Corresponding points b ′ to d ′ are plotted in the same manner as in 5.4, and an inherited quadrilateral is created with the points a ′ to d ′.
6). The corresponding point x ′ of the point x is searched so that the energy is minimized in the inherited quadrilateral. The candidate for the corresponding point x ′ may be limited to, for example, a pixel whose center is included in the inherited quadrilateral. In the case of FIG. 14, all four pixels are candidates.

以上がある点xの対応点の決定手順である。同様の処理を他のすべての点について行い、副写像を決める。第2レベル以上のレベルでは、次第に相続四辺形の形が崩れていくと考えられるため、図3に示すように画素A’〜D’の間隔が空いていく状況が発生する。   This is the procedure for determining the corresponding point of point x. Similar processing is performed for all other points to determine the submapping. At the level higher than the second level, it is considered that the shape of the inherited quadrilateral gradually collapses. Therefore, as shown in FIG.

こうして、ある第mレベルの4つの副写像が決まれば、mをインクリメントし(図12のS22)、mがnを超えていないことを確かめて(S23)、S21に戻る。以下、S21に戻るたびに次第に細かい解像度のレベルの副写像を求め、最後にS21に戻ったときに第nレベルの写像f(n)を決める。この写像はη=0に関して定まったものであるから、f(n)(η=0)と書く。   When four sub-mappings at a certain mth level are determined in this way, m is incremented (S22 in FIG. 12), it is confirmed that m does not exceed n (S23), and the process returns to S21. Thereafter, every time the process returns to S21, a sub-mapping of a finer resolution level is gradually obtained, and when returning to S21 at the end, an n-th level map f (n) is determined. Since this mapping is determined with respect to η = 0, it is written as f (n) (η = 0).

つぎに異なるηに関する写像も求めるべく、ηをΔηだけシフトし、mをゼロクリアする(S24)。新たなηが所定の探索打切り値ηmaxを超えていないことを確認し(S25)、S21に戻り、今回のηに関して写像f(n)(η=Δη)を求める。この処理を繰り返し、S21でf(n)(η=iΔη)(i=0,1,…)を求めていく。ηがηmaxを超えたときS26に進み、後述の方法で最適なη=ηoptを決定し、f(n)(η=ηopt)を最終的に写像f(n)とする。   Next, η is shifted by Δη and m is cleared to zero in order to obtain a mapping for different η (S24). After confirming that the new η does not exceed the predetermined search truncation value ηmax (S25), the process returns to S21, and the mapping f (n) (η = Δη) is obtained for the current η. This process is repeated, and f (n) (η = iΔη) (i = 0, 1,...) Is obtained in S21. When η exceeds ηmax, the process proceeds to S26, an optimum η = ηopt is determined by a method described later, and f (n) (η = ηopt) is finally set as a mapping f (n).

図15は図12のS21の詳細を示すフローチャートである。このフローチャートにより、ある定まったηについて、第mレベルにおける副写像が決まる。副写像を決める際、前提技術では副写像ごとに最適なλを独立して決める。   FIG. 15 is a flowchart showing details of S21 of FIG. According to this flowchart, the submapping at the m-th level is determined for a certain η. When determining the submapping, the base technology determines the optimum λ for each submapping independently.

同図のごとく、まずsとλをゼロクリアする(S210)。つぎに、そのときのλについて(および暗にηについて)エネルギーを最小にする副写像f(m,s)を求め(S211)、これをf(m,s)(λ=0)と書く。異なるλに関する写像も求めるべく、λをΔλだけシフトし、新たなλが所定の探索打切り値λmaxを超えていないことを確認し(S213)、S211に戻り、以降の繰り返し処理でf(m,s)(λ=iΔλ)(i=0,1,…)を求める。λがλmaxを超えたときS214に進み、最適なλ=λoptを決定し、f(m,s)(λ=λopt)を最終的に写像f(m,s)とする(S214)。   As shown in the figure, s and λ are first cleared to zero (S210). Next, a submapping f (m, s) that minimizes energy is obtained for λ at that time (and implicitly for η) (S211), and this is written as f (m, s) (λ = 0). In order to obtain a mapping with respect to different λ, λ is shifted by Δλ, it is confirmed that the new λ does not exceed the predetermined search truncation value λmax (S213), the process returns to S211 and f (m, s) (λ = iΔλ) (i = 0, 1,...) is obtained. When λ exceeds λmax, the process proceeds to S214, where an optimal λ = λopt is determined, and f (m, s) (λ = λopt) is finally set as a mapping f (m, s) (S214).

つぎに、同一レベルにおける他の副写像を求めるべく、λをゼロクリアし、sをインクリメントする(S215)。sが4を超えていないことを確認し(S216)、S211に戻る。s=4になれば上述のごとくf(m,3)を利用してf(m,0)を更新し、そのレベルにおける副写像の決定を終了する。   Next, to obtain another submapping at the same level, λ is cleared to zero and s is incremented (S215). It is confirmed that s does not exceed 4 (S216), and the process returns to S211. When s = 4, f (m, 0) is updated using f (m, 3) as described above, and the submapping at that level is finished.

図16は、あるmとsについてλを変えながら求められたf(m,s)(λ=iΔλ)(i=0,1,…)に対応するエネルギーC(m,s)fの挙動を示す図である。[1.4]で述べたとおり、λが増加すると通常C(m,s)fは減少する。しかし、λが最適値を超えるとC(m,s)fは増加に転じる。そこで本前提技術ではC(m,s)fが極小値をとるときのλをλoptと決める。同図のようにλ>λoptの範囲で再度C(m,s)fが小さくなっていっても、その時点ではすでに写像がくずれていて意味をなさないため、最初の極小点に注目すればよい。λoptは副写像ごとに独立して決めていき、最後にf(n)についてもひとつ定まる。   FIG. 16 shows the behavior of energy C (m, s) f corresponding to f (m, s) (λ = iΔλ) (i = 0, 1,...) Obtained while changing λ for certain m and s. FIG. As described in [1.4], when λ increases, C (m, s) f usually decreases. However, when λ exceeds the optimum value, C (m, s) f starts to increase. Therefore, in the base technology, λ when C (m, s) f takes a minimum value is determined as λopt. Even if C (m, s) f becomes smaller again in the range of λ> λopt as shown in the figure, the mapping is already broken at that point and it does not make sense, so if we pay attention to the first minimum point, Good. λopt is determined independently for each submapping, and finally f (n) is also determined.

一方、図17は、ηを変えながら求められたf(n)(η=iΔη)(i=0,1,…)に対応するエネルギーC(n)fの挙動を示す図である。ここでもηが増加すると通常C(n)fは減少するが、ηが最適値を超えるとC(n)fは増加に転じる。そこでC(n)fが極小値をとるときのηをηoptと決める。図17は図4の横軸のゼロ付近を拡大した図と考えてよい。ηoptが決まればf(n)を最終決定することができる。   On the other hand, FIG. 17 is a diagram showing the behavior of energy C (n) f corresponding to f (n) (η = iΔη) (i = 0, 1,...) Obtained while changing η. Again, when η increases, C (n) f usually decreases, but when η exceeds the optimum value, C (n) f starts to increase. Therefore, η when C (n) f takes the minimum value is determined as ηopt. FIG. 17 may be considered as an enlarged view of the vicinity of zero on the horizontal axis of FIG. If ηopt is determined, f (n) can be finally determined.

以上、本前提技術によれば種々のメリットが得られる。まずエッジを検出する必要がないため、エッジ検出タイプの従来技術の課題を解消できる。また、画像に含まれるオブジェクトに対する先験的な知識も不要であり、対応点の自動検出が実現する。特異点フィルタによれば、解像度の粗いレベルでも特異点の輝度や位置を維持することができ、オブジェクト認識、特徴抽出、画像マッチングに極めて有利である。その結果、人手作業を大幅に軽減する画像処理システムの構築が可能となる。   As described above, according to the base technology, various advantages can be obtained. First, since it is not necessary to detect an edge, it is possible to solve the problem of the conventional technology of the edge detection type. In addition, a priori knowledge about the object included in the image is unnecessary, and automatic detection of corresponding points is realized. The singularity filter can maintain the luminance and position of the singularity even at a coarse resolution level, and is extremely advantageous for object recognition, feature extraction, and image matching. As a result, it is possible to construct an image processing system that greatly reduces manual work.

なお、本前提技術について次のような変形技術も考えられる。
(1)前提技術では始点階層画像と終点階層画像の間でマッチングをとる際にパラメータの自動決定を行ったが、この方法は階層画像間ではなく、通常の2枚の画像間のマッチングをとる場合全般に利用できる。
It should be noted that the following modification technique is also conceivable for this prerequisite technique.
(1) In the base technology, the parameters are automatically determined when matching between the start layer image and the end layer image. However, this method performs matching between two normal images, not between layer images. If available in general.

たとえば2枚の画像間で、画素の輝度の差に関するエネルギーE0と画素の位置的なずれに関するエネルギーE1のふたつを評価式とし、これらの線形和Etot=αE0+E1を総合評価式とする。この総合評価式の極値付近に注目してαを自動決定する。つまり、いろいろなαについてEtotが最小になるような写像を求める。それらの写像のうち、αに関してE1が極小値をとるときのαを最適パラメータと決める。そのパラメータに対応する写像を最終的に両画像間の最適マッチングとみなす。   For example, between two images, the energy E0 related to the difference in pixel brightness and the energy E1 related to the positional deviation of the pixels are used as evaluation expressions, and the linear sum Etot = αE0 + E1 is used as a comprehensive evaluation expression. Focusing on the vicinity of the extreme value of this comprehensive evaluation formula, α is automatically determined. That is, a mapping that minimizes Etot for various α is obtained. Among these maps, α when E1 takes a minimum value with respect to α is determined as an optimum parameter. The mapping corresponding to that parameter is finally regarded as the optimal matching between both images.

これ以外にも評価式の設定にはいろいろな方法があり、例えば1/E1と1/E2のように、評価結果が良好なほど大きな値をとるものを採用してもよい。総合評価式も必ずしも線形和である必要はなく、n乗和(n=2、1/2、−1、−2など)、多項式、任意の関数などを適宜選択すればよい。   In addition to this, there are various methods for setting the evaluation formula. For example, a value that takes a larger value as the evaluation result is better, such as 1 / E1 and 1 / E2, may be adopted. The comprehensive evaluation formula is not necessarily a linear sum, and an n-th power sum (n = 2, 1/2, −1, −2 etc.), a polynomial, an arbitrary function, or the like may be selected as appropriate.

パラメータも、αのみ、前提技術のごとくηとλのふたつの場合、それ以上の場合など、いずれでもよい。パラメータが3以上の場合はひとつずつ変化させて決めていく。
(2)本前提技術では、総合評価式の値が最小になるよう写像を決めた後、総合評価式を構成するひとつの評価式であるC(m,s)fが極小になる点を検出してパラメータを決定した。しかし、こうした二段回処理の代わりに、状況によっては単に総合評価式の最小値が最小になるようにパラメータを決めても効果的である。その場合、例えばαE0+βE1を総合評価式とし、α+β=1なる拘束条件を設けて各評価式を平等に扱うなどの措置を講じてもよい。パラメータの自動決定の本質は、エネルギーが最小になるようにパラメータを決めていく点にあるからである。
(3)前提技術では各解像度レベルで4種類の特異点に関する4種類の副画像を生成した。しかし、当然4種類のうち1、2、3種類を選択的に用いてもよい。例えば、画像中に明るい点がひとつだけ存在する状態であれば、極大点に関するf(m,3)だけで階層画像を生成しても相応の効果が得られるはずである。その場合、同一レベルで異なる副写像は不要になるため、sに関する計算量が減る効果がある。
(4)本前提技術では特異点フィルタによってレベルがひとつ進むと画素が1/4になった。例えば3×3で1ブロックとし、その中で特異点を探す構成も可能であり、その場合、レベルがひとつ進むと画素は1/9になる。
(5)始点画像と終点画像がカラーの場合、それらをまず白黒画像に変換し、写像を計算する。その結果求められた写像を用いて始点のカラー画像を変換する。それ以外の方法として、RGBの各成分について副写像を計算してもよい。
[3]前提技術の改良点
以上の前提技術を基本とし、マッチング精度を向上させるためのいくつかの改良がなされている。ここではその改良点を述べる。
The parameter may be either α, two cases of η and λ as in the base technology, or more than that. If the parameter is 3 or more, change it one by one.
(2) In the base technology, after determining the mapping so that the value of the comprehensive evaluation formula is minimized, a point where C (m, s) f, which is one evaluation formula constituting the comprehensive evaluation formula, is minimized is detected. Parameters were determined. However, instead of such a two-stage process, it is effective to determine parameters so that the minimum value of the comprehensive evaluation formula is minimized in some situations. In that case, for example, αE0 + βE1 may be set as a comprehensive evaluation formula, and a constraint condition of α + β = 1 may be provided to treat each evaluation formula equally. This is because the essence of automatic parameter determination is that the parameter is determined so that the energy is minimized.
(3) In the base technology, four types of sub-images relating to four types of singular points are generated at each resolution level. However, of course, one, two, and three of the four types may be selectively used. For example, if there is only one bright point in the image, a corresponding effect should be obtained even if a hierarchical image is generated using only f (m, 3) related to the maximum point. In this case, since different submappings at the same level are not required, there is an effect of reducing the amount of calculation regarding s.
(4) In the base technology, when the level is advanced by one by the singularity filter, the pixel becomes 1/4. For example, a configuration in which 3 × 3 is one block and a singular point is searched for is possible. In this case, the pixel becomes 1/9 when the level advances by one.
(5) If the start point image and the end point image are in color, they are first converted to a black and white image and a mapping is calculated. The starting point color image is converted using the mapping obtained as a result. As another method, a submapping may be calculated for each component of RGB.
[3] Improvements of Premise Technology Based on the above premise technologies, some improvements have been made to improve matching accuracy. Here are the improvements.

[3.1]色情報を考慮に入れた特異点フィルタおよび副画像
画像の色情報を有効に用いるために、特異点フィルタを以下のように変更した。まず色空間としては、人間の直感に最も合致するといわれているHISを用い、色を輝度に変換する式には、人間の目の感度に最も近いといわれているものを選んだ。

Figure 2007069350

ここで画素aにおけるY(輝度)をY(a)として、次のような記号を定義する。
Figure 2007069350

上の定義を用いて以下のような5つのフィルタを用意する。
Figure 2007069350

このうち上から4つのフィルタは改良前の前提技術におけるフィルタとほぼ同じで、輝度の特異点を色情報も残しながら保存する。最後のフィルタは色の彩度の特異点をこちらも色情報を残しながら保存する。[3.1] Singularity filter and color image taking color information into consideration In order to effectively use the color information of the sub-image, the singularity filter was changed as follows. First, as the color space, HIS, which is said to best match human intuition, was used, and the formula that converts colors into luminance was chosen to be the closest to the human eye sensitivity.
Figure 2007069350

Here, Y (luminance) in the pixel a is defined as Y (a), and the following symbols are defined.
Figure 2007069350

The following five filters are prepared using the above definition.
Figure 2007069350

Of these, the four filters from the top are almost the same as the filters in the base technology before the improvement, and the singular points of luminance are preserved while retaining the color information. The last filter saves the singularity of the color saturation while leaving the color information.

これらのフィルタによって、各レベルにつき5種類の副画像(サブイメージ)が生成される。なお、最も高いレベルの副画像は元画像に一致する。

Figure 2007069350

[3.2]エッジ画像およびその副画像
輝度微分(エッジ)の情報をマッチングに利用するため、一次微分エッジ検出フィルタを用いる。このフィルタはあるオペレータHとの畳み込み積分で実現できる。
Figure 2007069350

ここでHは演算スピードなども考慮し、以下のようなオペレータを用いた。
Figure 2007069350

次にこの画像を多重解像度化する。フィルタにより0を中心とした輝度をもつ画像が生成されるため、次のような平均値画像が副画像としては最も適切である。
Figure 2007069350

式59の画像は後述するForward Stage、すなわち初回副写像導出ステージの計算の際、エネルギー関数に用いられる。With these filters, five types of sub-images (sub-images) are generated for each level. Note that the highest level sub-image matches the original image.
Figure 2007069350

[3.2] Edge image and its sub-image In order to use information on luminance differentiation (edge) for matching, a primary differential edge detection filter is used. This filter can be realized by convolution integration with an operator H.
Figure 2007069350

Here, in consideration of calculation speed and the like, H used the following operator.
Figure 2007069350

Next, this image is converted to multi-resolution. Since an image having luminance centered at 0 is generated by the filter, the following average image is most suitable as a sub-image.
Figure 2007069350

The image of Expression 59 is used as an energy function when calculating a forward stage, that is, a first submapping derivation stage described later.

エッジの大きさ、すなわち絶対値も計算に必要である。

Figure 2007069350

この値は常に正であるため、多重解像度化には最大値フィルタを用いる。
Figure 2007069350

式61の画像は後述するForward Stageの計算の際、計算する順序を決定するのに用いられる。The size of the edge, that is, the absolute value is also necessary for the calculation.
Figure 2007069350

Since this value is always positive, a maximum value filter is used for multiresolution.
Figure 2007069350

The image of Formula 61 is used to determine the order of calculation when calculating the Forward Stage described later.

[3.3]計算処理手順
計算は最も粗い解像度の副画像から順に行う。副画像は5つあるため、各レベルの解像度において計算は複数回行われる。これをターンと呼び、最大計算回数をtで表すことにする。各ターンは前記Forward Stageと、副写像再計算ステージであるRefinement Stageという二つのエネルギー最小化計算から構成される。図18は第mレベルにおける副写像を決める計算のうち改良点に係るフローチャートである。
[3.3] Calculation processing procedure The calculation is performed in order from the sub-image with the coarsest resolution. Since there are five sub-images, the calculation is performed multiple times at each level of resolution. This is called a turn, and the maximum number of calculations is represented by t. Each turn consists of two energy minimization calculations, the Forward Stage and the Refinement Stage, which is a submapping recalculation stage. FIG. 18 is a flowchart according to the improvement in the calculation for determining the submapping at the m-th level.

同図のごとく、sをゼロクリアする(S40)。つぎにForward Stage(S41)において始点画像pから終点画像qへの写像f(m,s)をエネルギー最小化によって求める。ここで最小化するエネルギーは、対応する画素値によるエネルギーCと、写像の滑らかさによるエネルギーDの線形和である。   As shown in the figure, s is cleared to zero (S40). Next, in the forward stage (S41), a map f (m, s) from the start point image p to the end point image q is obtained by energy minimization. Here, the energy to be minimized is a linear sum of energy C by the corresponding pixel value and energy D by the smoothness of the mapping.

エネルギーCは、輝度の差によるエネルギーCI(前記改良前の前提技術におけるエネルギーCと等価)と、色相、彩度によるエネルギーCC、輝度微分(エッジ)の差によるエネルギーCEで構成され、それぞれ次のように表される。

Figure 2007069350

エネルギーDは前記改良前の前提技術と同じものを用いる。ただし前記改良前の前提技術において、写像の滑らかさを保証するエネルギーE1を導出する際、隣接する画素のみを考慮していたが、周囲の何画素を考慮するかをパラメータdで指定できるように改良した。
Figure 2007069350


次のRefinement Stageに備えて、このステージでは終点画像qから始点画像pへの写像g(m,s)も同様に計算する。The energy C is composed of energy CI (equivalent to energy C in the pre-improvement premise technology), luminance CC, energy CC due to hue and saturation, and energy CE due to luminance differential (edge) difference. It is expressed as follows.
Figure 2007069350

The energy D is the same as the base technology before the improvement. However, in the base technology before the improvement, when deriving the energy E1 that guarantees the smoothness of the mapping, only the adjacent pixels are taken into consideration, but the number of surrounding pixels can be specified by the parameter d. Improved.
Figure 2007069350


In preparation for the next Refinement Stage, the mapping g (m, s) from the end point image q to the start point image p is similarly calculated in this stage.

Refinement Stage(S42)ではForward Stageにおいて求めた双方向の写像f(m,s)およびg(m,s)を基に、より妥当な写像f’(m,s)を求める。ここでは新たに定義されるエネルギーMについてエネルギー最小化計算を行う。エネルギーMは終点画像から始点画像への写像gとの整合度M0と、もとの写像との差M1より構成される。

Figure 2007069350

対称性を損なわないように、終点画像qから始点画像pへの写像g’(m,s)も同様の方法で求めておく。In the Refinement Stage (S42), a more appropriate map f ′ (m, s) is obtained based on the bidirectional maps f (m, s) and g (m, s) obtained in the Forward Stage. Here, energy minimization calculation is performed for the newly defined energy M. The energy M is composed of the degree of matching M0 with the mapping g from the end point image to the starting point image, and the difference M1 between the original mapping.
Figure 2007069350

The mapping g ′ (m, s) from the end point image q to the start point image p is also obtained in the same way so as not to impair the symmetry.

その後、sをインクリメントし(S43)、sがtを超えていないことを確認し(S44)、次のターンのForward Stage(S41)に進む。その際前記E0を次のように置き換えてエネルギー最小化計算を行う。

Figure 2007069350

[3.4]写像の計算順序
写像の滑らかさを表すエネルギーE1を計算する際、周囲の点の写像を用いるため、それらの点がすでに計算されているかどうかがエネルギーに影響を与える。すなわち、どの点から順番に計算するかによって、全体の写像の精度が大きく変化する。そこでエッジの絶対値画像を用いる。エッジの部分は情報量を多く含むため、エッジの絶対値が大きいところから先に写像計算を行う。このことによって、特に二値画像のような画像に対して非常に精度の高い写像を求めることができるようになった。Thereafter, s is incremented (S43), it is confirmed that s does not exceed t (S44), and the process proceeds to the Forward Stage (S41) of the next turn. At that time, the energy minimization calculation is performed by replacing E0 as follows.
Figure 2007069350

[3.4] Map Calculation Order Since the map of surrounding points is used when calculating the energy E1 representing the smoothness of the map, whether or not those points have already been calculated affects the energy. That is, the accuracy of the overall mapping varies greatly depending on which point is calculated in order. Therefore, an edge absolute value image is used. Since the edge portion contains a large amount of information, the mapping calculation is performed first from the point where the absolute value of the edge is large. This makes it possible to obtain a highly accurate mapping, particularly for images such as binary images.

前提技術では2枚のキーフレーム間のマッチングをとって対応する位置情報(以下、「対応点情報」ともいう)を生成し、この位置情報をもとに中間フレームを生成した。キーフレームはマッチングの対象となる画像であり、前提技術では始点画像および終点画像と表現されている。この技術は動画の圧縮に利用でき、現実に実験ではMPEGを超える画質と圧縮率の両立が確認されはじめている。   In the base technology, matching between two key frames is performed to generate corresponding position information (hereinafter also referred to as “corresponding point information”), and an intermediate frame is generated based on the position information. The key frame is an image to be matched, and is expressed as a start point image and an end point image in the base technology. This technology can be used to compress moving images, and in reality, both image quality and compression ratio exceeding MPEG have been confirmed in experiments.

(第1の実施の形態)
以下、第1の実施の形態に係る符号化技術、復号化技術について順に説明する。
[1]画像符号化技術
はじめに、図19を参照しつつ、第1の実施の形態に係る画像符号化技術について説明する。図19は、本画像符号化技術のフローを示すものであり、また同時に、後述する画像符号化装置の構成を示すものである。なお、図中、様々な処理を行う機能ブロックとして記載される各要素は、ハードウェア的には、CPU、メモリ、その他のLSIで構成することができ、ソフトウェア的には、メモリにロードされたプログラムなどによって実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。また、図中、同一のブロックが複数箇所に現れる場合、必ずしも同一のブロックが複数存在することを意味するものではなく、1つのブロックが複数回使用されることを意味する場合もある。
(1)処理の対象となる画像フレームの列(以下単に「対象画像フレーム」という)を降順または昇順にF0、F1、・・・、Fn−1、Fn(nは2以上の整数)と表記する。また、画像フレームFi、Fj(i,j=0,1,・・・,n)間で対応しあう点の位置関係を示す対応点情報をMi−jと表記する。画像フレームFi上の点を総括的にpiと書くことにする。対象画像フレームは時間的に等間隔でもよいし、そうでなくともよい。このとき、符号化技術は以下のステップを実行する。
(First embodiment)
Hereinafter, the encoding technique and decoding technique according to the first embodiment will be described in order.
[1] Image Coding Technology First, the image coding technology according to the first embodiment will be described with reference to FIG. FIG. 19 shows the flow of the present image encoding technique, and at the same time, shows the configuration of an image encoding apparatus to be described later. In the figure, each element described as a functional block for performing various processes can be configured with a CPU, a memory, and other LSIs in terms of hardware, and loaded into the memory in terms of software. Realized by programs. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one. Further, in the figure, when the same block appears in a plurality of places, it does not necessarily mean that there are a plurality of the same blocks, but may mean that one block is used a plurality of times.
(1) A sequence of image frames to be processed (hereinafter simply referred to as “target image frames”) is expressed as F0, F1,..., Fn−1, Fn (n is an integer of 2 or more) in descending or ascending order. To do. Corresponding point information indicating the positional relationship of the points corresponding to each other between the image frames Fi and Fj (i, j = 0, 1,..., N) is denoted as Mi-j. The points on the image frame Fi are collectively written as pi. The target image frames may be equally spaced in time or not. At this time, the encoding technique performs the following steps.

ステップa
画像フレームF0とFn間でマッチングを計算して対応点情報M0−nを生成する。マッチングは画像フレーム間で対応しあう領域や点などを特定するための処理である。前提技術を用いる場合、マッチングは画素ベースで行われ、MPEG同様のマッチングにはブロックマッチングが用いられる。画像フレームF0上の点p0と画像フレームFn上の点pnが対応しあうとき、最も簡単な対応点情報M0−nの記述例は「p0→pn」である。これを実際には画像内座標(以下単に「座標」という)で記述する。点piが具体的にはpi0、pi1・・で構成され、これらが互いに対応しあうとき、対応点情報M0−nの記述例は以下のようになる。
「p00→pn0/p01→pn1/p02→pn2/・・」
Step a
Matching is calculated between the image frames F0 and Fn to generate corresponding point information M0-n. Matching is a process for specifying a region or a point that corresponds between image frames. When the base technology is used, matching is performed on a pixel basis, and block matching is used for matching similar to MPEG. When the point p0 on the image frame F0 and the point pn on the image frame Fn correspond to each other, the simplest description example of the corresponding point information M0-n is “p0 → pn”. This is actually described by the coordinates in the image (hereinafter simply referred to as “coordinates”). Specifically, when the point pi is composed of pi0, pi1,... And they correspond to each other, a description example of the corresponding point information M0-n is as follows.
“P00 → pn0 / p01 → pn1 / p02 → pn2 //.”

ステップb
画像フレームF0上の点p0を対応点情報M0−nによって画像フレームFn上の対応する点pnに移動させる経路をn分割し、画像フレームF1上で点p0に対応する点p1、画像フレームF2上で点p0に対応する点p2、・・・、画像フレームFn上でp0に対応する点pnを算出する。対象画像フレームが時間的に等間隔なら「n分割」はn等分であるが、そうでない場合は、画像フレーム間の時間比に応じた分割比による分割となる。例えば、p0の座標が(x0,y0)で、pnのそれが(xn,yn)であり、かつ対象画像フレームが等間隔の場合、piの座標は以下にように一般化される。
((xn−x0)・i/n+x0,(yn−y0)・i/n+y0)
これはいわゆる内挿による座標計算である。なお、この記述はF0とFnとの対応点どうしを直線補間する例だが、後述のごとく、曲線による補間もある。
Step b
A path for moving the point p0 on the image frame F0 to the corresponding point pn on the image frame Fn by the corresponding point information M0-n is divided into n, and the point p1 corresponding to the point p0 on the image frame F1 and the image frame F2 To calculate a point p2 corresponding to the point p0,..., A point pn corresponding to p0 on the image frame Fn. If the target image frames are equally spaced in time, “n division” is divided into n equal parts. If not, division by a division ratio according to the time ratio between image frames is performed. For example, when the coordinates of p0 are (x0, y0), that of pn is (xn, yn), and the target image frames are equally spaced, the coordinates of pi are generalized as follows.
((Xn−x0) · i / n + x0, (yn−y0) · i / n + y0)
This is a coordinate calculation by so-called interpolation. This description is an example in which the corresponding points of F0 and Fn are linearly interpolated, but there is also interpolation by a curve as will be described later.

ステップc
ステップbを画像フレームF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的な画像フレームF1’、点p2の集合を利用して仮想的な画像フレームF2’、・・・、点pnの集合を利用して仮想的な画像フレームFn’をそれぞれ生成する。「所定数の点」の例は、画像フレームを構成する全画素である。ただ、その場合は計算量も大きくなるので、例えば画像フレームのx、y方向に数画素に1画素を抽出してもよい。これは画像フレームをメッシュに分割し、メッシュの格子点に当たる画素だけを抽出することと同じである。例えばx、y方向とも5画素に1画素を取り出せば、「所定数の点」は全画素数の1/25となる。
Step c
By executing step b for a predetermined number of points on the image frame F0, using a set of points p1 corresponding to the predetermined number of points, using a set of virtual image frames F1 ′ and p2 A virtual image frame Fn ′ is generated using a set of virtual image frames F2 ′,. An example of the “predetermined number of points” is all the pixels constituting the image frame. However, in this case, the amount of calculation also increases, and for example, one pixel may be extracted in several pixels in the x and y directions of the image frame. This is the same as dividing an image frame into meshes and extracting only the pixels corresponding to the mesh grid points. For example, if one pixel is extracted for every five pixels in the x and y directions, the “predetermined number of points” is 1/25 of the total number of pixels.

「所定数」が全画素数ではない場合、対応点の計算がなされなかった点の対応点(仮に非格子点という)は、計算がされた対応点(仮に格子点という)をもとに補間により計算される。例えば、画像フレームF0上の非格子点が同F0上のふたつの格子点の間にあり、前者の位置ベクトルをp、後二者のそれをq、rとし、p=(1−α)q+αrと記述できるとき、画像フレームFn上で点pに対応する点p’は、同Fn上でそれぞれq、rに対応する点q’、r’を用いて、p’=(1−α)q’+αr’と書くことができる。これを一般化し、非格子点を3つの格子点で記述する方法がバイリニア補間として知られている。これを利用すればよい。   If the “predetermined number” is not the total number of pixels, the corresponding points for which the corresponding points were not calculated (interpretally called non-grid points) are interpolated based on the calculated corresponding points (tentatively called grid points). Is calculated by For example, a non-grid point on the image frame F0 is between two grid points on the same F0, the former position vector is p, the latter two are q, r, and p = (1-α) q + αr. The point p ′ corresponding to the point p on the image frame Fn can be expressed as p ′ = (1−α) q using the points q ′ and r ′ corresponding to q and r on the same Fn, respectively. It can be written as “+ αr”. A method of generalizing this and describing a non-grid point with three grid points is known as bilinear interpolation. This can be used.

ステップd
仮想的な画像フレームF1’と現実の画像フレームF1の組S1、仮想的な画像フレームF2’と現実の画像フレームF2の組S2、・・・、仮想的な画像フレームFn’と現実の画像フレームFnの組Snの各組に対し、その組に含まれる画像フレーム間の差分が大きな組Sk(k=1,・・・,n)の有無を所定の判定基準をもとに判定する。
「所定の判定基準」は、単に差分を所定のしきい値と比較しそれを超える場合を「大きい」としてもよい。すなわち、差分そのものに着目してもよい。ここでしきい値は実験で定めればよく、以下ほかのパラメータについても同様のことがいえる。
Step d
A set S1 of a virtual image frame F1 ′ and a real image frame F1, a set S2 of a virtual image frame F2 ′ and a real image frame F2,..., A virtual image frame Fn ′ and a real image frame For each set of Fn sets Sn, the presence or absence of a set Sk (k = 1,..., N) having a large difference between image frames included in the set is determined based on a predetermined determination criterion.
The “predetermined determination criterion” may be “large” when the difference is simply compared with a predetermined threshold value and exceeded. That is, you may pay attention to the difference itself. Here, the threshold value may be determined by experiment, and the same can be said for other parameters.

別の「判定基準」として、前提技術で計算したエネルギーの値、すなわち差分の大きさを示唆する物理量を用いてもよい。エネルギーは対応点どうしの位置が遠いほど大きく、画素値が離れるほど大きくなる。したがって、一般には、エネルギーが大きいほど対応が正確に捉えられていない可能性が高い。対応が正確でなければ差分も増える傾向がある。そのため、画像フレーム間のエネルギー値が所定のしきい値より大きければ差分が大きいと判定してもよい。   As another “determination criterion”, an energy value calculated by the base technology, that is, a physical quantity that suggests the magnitude of the difference may be used. The energy increases as the positions of the corresponding points are farther away, and the energy increases as the pixel value increases. Therefore, in general, the greater the energy, the higher the possibility that the response is not accurately captured. If the correspondence is not accurate, the difference tends to increase. Therefore, if the energy value between image frames is larger than a predetermined threshold value, it may be determined that the difference is large.

ステップe,f
差分が大きな組Skが存在する場合、少なくとも、画像フレームFh(h=0,1,・・・,k−1)と画像フレームFk’間でマッチングを計算して対応点情報Mh−kを生成する。つづいて、対応点情報Mh−kの情報を利用し、対応点情報M0−nを修正する(以下、修正前の対応点情報M0−nを単に「原M0−n」あるいは「M0−n」とよび、修正された対応点情報M0−nを「修正M0−n」あるいは「M0−n’」とよぶ)。一例として、h=0とすればM0−kが求められ、点p0に対応する点pkが求まる。修正M0−nは例えば「p0→pk→pn」とされ、これは折れ線形式の表現である。これにより、点p0はpkを経てpnに至るため、原M0−nによる直線形式の表現よりSkの差分は小さくなる。なお、修正M0−nは、折れ線ではなく曲線形式でもよい。その場合、「p0→pk→pn」ないしその近似が実現されるよう例えばスプライン曲線で軌跡を記述すればよい。
Steps e and f
When there is a set Sk having a large difference, at least matching between the image frame Fh (h = 0, 1,..., K−1) and the image frame Fk ′ is generated to generate corresponding point information Mh-k. To do. Subsequently, the corresponding point information M0-n is corrected using the information of the corresponding point information Mh-k (hereinafter, the corresponding point information M0-n before correction is simply referred to as “original M0-n” or “M0-n”. The corrected corresponding point information M0-n is referred to as “corrected M0-n” or “M0-n ′”). As an example, if h = 0, M0-k is obtained, and a point pk corresponding to the point p0 is obtained. The correction M0-n is, for example, “p0 → pk → pn”, which is a representation in a polygonal line format. Thereby, since the point p0 reaches pn via pk, the difference of Sk becomes smaller than the linear form expression by the original M0-n. The correction M0-n may be a curved line instead of a polygonal line. In that case, the trajectory may be described by, for example, a spline curve so that “p0 → pk → pn” or its approximation is realized.

ステップg
少なくとも画像フレームF0と修正M0−nを含む形式の符号化データを出力する。画像フレームF0と修正M0−nがあれば、画像フレームF0上の点p0をpkを経てpnへ至らしめることができるため、符号化データとして成立する。符号化データには画像フレームFnのデータを含めてもよい。その場合、単にp0が移動するだけでなく、画素値も内挿補間で変化させることができる。点p0の画素値をVp0、点pnのそれをVpnとすると、点piの画素値Vpiは以下のように内挿計算できる。非格子点については座標の場合同様バイリニア補間で求めればよい。
Vpi=(Vpn−Vp0)・i/n+Vp0
Step g
Coded data in a format including at least the image frame F0 and the modified M0-n is output. If there is an image frame F0 and a modification M0-n, the point p0 on the image frame F0 can be reached to pn via pk, and therefore it is established as encoded data. The encoded data may include image frame Fn data. In that case, not only p0 moves but also the pixel value can be changed by interpolation. If the pixel value of the point p0 is Vp0 and that of the point pn is Vpn, the pixel value Vpi of the point pi can be interpolated as follows. Non-grid points may be obtained by bilinear interpolation as in the case of coordinates.
Vpi = (Vpn−Vp0) · i / n + Vp0

ただし、もともと点p0とpnは画素値もある程度近いから対応点として検出されたと考えることができるため、画素値の変化の記述は必須ではない。そのため、画像フレームF0とFnのうちF0だけでも符号化データとして成り立つ。   However, since it can be considered that the points p0 and pn are detected as corresponding points because the pixel values are also close to each other, it is not essential to describe the change in the pixel value. Therefore, only F0 of the image frames F0 and Fn is established as encoded data.

以上の方法によれば、比較的小さなデータで比較的高い画質を実現することができる。なぜなら、画像フレームとしては最低1枚のデータがあればよく、修正M0−nは「所定数の点」を適当に減らすことにより、そのデータ量が大幅に減る。したがって、データ総量は小さいながら、差分が大きなSkについては原M0−nを修正して対応するため、画質が大幅に改善される。この事実は実験によっても確認されている。   According to the above method, relatively high image quality can be realized with relatively small data. This is because it is sufficient that there is at least one piece of data as an image frame, and the data amount of the correction M0-n is greatly reduced by appropriately reducing the “predetermined number of points”. Therefore, since the total amount of data is small, Sk having a large difference is dealt with by correcting the original M0-n, so that the image quality is greatly improved. This fact has been confirmed by experiments.

(2)ステップdは、画像フレーム間の差分の大きさを所定の領域単位で判定するものとする。領域は例えば単純に画像フレームをメッシュ分割して得られる。領域の大きさは実験で画質とデータ量の組合せから選択すればよい。
ステップdで領域単位の判定をする場合、仮想的な画像フレームFk’と現実の画像フレームFk間で対応しあう、すなわち位置的に同じ領域間の差分が所定のしきい値より大きくなるとき、Skを「差分の大きな組」と判定する。この場合、仮想的な画像フレームFk’と現実の画像フレームFk間の画像フレーム全体にわたる差分の総計が大きいとは限らないし、その必要もない。あくまでも差分が大きな領域を見出せばよい。なお、ここでも差分そのものに着目することに代え、またはそれに加え、領域ごとにエネルギーの総計を計算し、これをしきい値と比較してもよい。以下、実施の形態では画像フレーム全体ではなく、領域ごとの比較をするものとする。
(2) In step d, the magnitude of the difference between image frames is determined in units of predetermined areas. The region is obtained by simply dividing an image frame into meshes, for example. The size of the area may be selected from a combination of image quality and data amount by experiment.
When determining in units of regions in step d, when the virtual image frame Fk ′ and the actual image frame Fk correspond to each other, that is, when the difference between the same regions in position is larger than a predetermined threshold value, Sk is determined as a “group with a large difference”. In this case, the sum of the differences over the entire image frame between the virtual image frame Fk ′ and the actual image frame Fk is not necessarily large, and it is not necessary. It is only necessary to find an area with a large difference. Here, instead of paying attention to the difference itself, or in addition thereto, a total energy may be calculated for each region and compared with a threshold value. Hereinafter, in the embodiment, comparison is made for each region, not for the entire image frame.

図20(a)〜(d)は、対象画像フレームの例を示す図である。領域ごとの比較が特に有効なのは、図20(a)〜(c)に示すように、対象画像フレームが「ボールのバウンド」を映しており、図20(a)の画像フレームF0はバウンド前、図20(c)の画像フレームFnはバウンド後、図20(b)の画像フレームFkがバウンドの瞬間に対応するような場合である。原M0−nを用いてF1、F2、・・・を補間で生成しても、ボールはバウンド前の位置からバウンド後の位置へ直線的に移動するのみであり、不自然である。図20(a)〜(c)には、実際のボールの軌道が実線で、原M0−nを用いて補間により生成した場合のボールの軌道が破線で示される。領域ごとに差分を計算すれば、しきい値の調整により、Skなり、その前後の組なりを検出することができる。たとえば、図20(a)〜(c)の例では、画像フレームFkにおいて、実際のボールBkと、補間により生成されたボールの位置Bk’を含む領域の差分がしきい値を超え、Skが検出される。それらが検出できれば、修正M0−nに反映できるため、ボールのバウンドの様子をより的確に表現することができる。図20(d)は、修正M0−nにもとづいて再現されるボールの軌道を示している。   20A to 20D are diagrams illustrating examples of target image frames. The comparison for each region is particularly effective, as shown in FIGS. 20A to 20C, in which the target image frame shows “ball bounce”, and the image frame F0 in FIG. The image frame Fn shown in FIG. 20C corresponds to the case where the image frame Fk shown in FIG. Even if F1, F2,... Are generated by interpolation using the original M0-n, the ball only moves linearly from the position before bouncing to the position after bouncing, which is unnatural. 20A to 20C, the actual trajectory of the ball is shown by a solid line, and the trajectory of the ball generated by interpolation using the original M0-n is shown by a broken line. If the difference is calculated for each region, Sk is obtained by adjusting the threshold value, and the group before and after that can be detected. For example, in the examples of FIGS. 20A to 20C, in the image frame Fk, the difference between the actual ball Bk and the region including the ball position Bk ′ generated by interpolation exceeds the threshold, and Sk is Detected. If they can be detected, they can be reflected in the correction M0-n, so that the state of the ball bouncing can be expressed more accurately. FIG. 20D shows the trajectory of the ball reproduced based on the correction M0-n.

なお、差分が大きい領域は同一のSkにおいて複数検出されてもよい。例えば画像フレームF0上の点p00は差分の大きい領域A、点p01は差分の大きな別の領域Bに含まれるとする。この場合も修正M0−nは「p00→pn0/p01→pn1/・・」と形式となり、結局、領域が複数検出されても修正M0−nの形式自体には影響しない。同様の理由で、複数の領域が異なる組に検出されてもよい。   Note that a plurality of areas with large differences may be detected in the same Sk. For example, it is assumed that the point p00 on the image frame F0 is included in the region A having a large difference and the point p01 is included in another region B having a large difference. Also in this case, the correction M0-n has a format of “p00 → pn0 / p01 → pn1 /...”, And eventually, even if a plurality of areas are detected, the format of the correction M0-n itself is not affected. For the same reason, a plurality of regions may be detected in different sets.

(3)ステップeは、以下のサブステップを含んでもよい。
e1)差分が大きな組Skが存在する場合、画像フレームF0とF1間の対応点情報M0−1、F1とF2間のM1−2、・・・、Fk−1とFk間のM(k−1)−kをそれぞれ求める。
e2)M0−1、M1−2、・・・、M(k−1)−kを統合してM0−kを生成する。
これは既述した。
(3) Step e may include the following sub-steps.
e1) When a set Sk having a large difference exists, corresponding point information M0-1 between the image frames F0 and F1, M1-2 between F1 and F2,..., M (k− between Fk−1 and Fk) 1) Find each -k.
e2) M0-1, M1-2,..., M (k-1) -k are integrated to generate M0-k.
This has already been described.

(4)ステップe2は、対応点情報M0−1によって点p0に対応するp1を求め、対応点情報M1−2によって点p1に対応するp2を求め、・・・、対応点情報M(k−1)−kによって点pk−1に対応するpkを求め、p0に対応する点をp1、p2、・・・、pkと順に特定することにより、最終的にp0に対応するpkを特定してM0−kを生成してもよい。これは既述した。 (4) In step e2, p1 corresponding to the point p0 is obtained from the corresponding point information M0-1, p2 corresponding to the point p1 is obtained from the corresponding point information M1-2,..., Corresponding point information M (k− 1) Obtain pk corresponding to the point pk-1 by -k, and specify the points corresponding to p0 in order of p1, p2,..., Pk, and finally specify pk corresponding to p0. M0-k may be generated. This has already been described.

(5)ステップfは、対応点情報M0−kの情報を利用し、点p0がpkを経てpnへ至る軌跡を示す形式にて、修正M0−nを生成してもよい。これは既述した。 (5) Step f may use the information of corresponding point information M0-k, and generate correction M0-n in a format indicating a locus where point p0 reaches pn via pk. This has already been described.

(6)ステップdにて差分が大きな組Skが存在することが判明した場合、ステップgは画像フレームF0と修正M0−nに加え、組Skにおける差分の情報を含む形式の符号化データを出力してもよい。例えば組Skの領域Aの差分が大きい場合、原M0−nを修正M0−nへ変更するだけでは完全な画質が得られないことも考えられる。その場合、まずは対応点情報M0−nの修正によって差分を相当量削減したうえで、さらに残余の差分を符号化データへ領域Aの差分を記述してもよい。この場合、符号化データのフォーマットは、例えば以下のようになる。 (6) If it is determined in step d that a set Sk having a large difference exists, step g outputs encoded data in a format including information on the difference in the set Sk in addition to the image frame F0 and the modified M0-n. May be. For example, when the difference in the region A of the set Sk is large, it is conceivable that complete image quality cannot be obtained only by changing the original M0-n to the modified M0-n. In that case, first, the difference may be reduced by a considerable amount by correcting the corresponding point information M0-n, and the remaining difference may be further described in the encoded data as the difference in the area A. In this case, the format of the encoded data is, for example, as follows.

図21は、第1の実施の形態に係る画像符号化技術における符号化データのフォーマットを示す図である。符号化データD1は、画像フレーム(i)と、修正された対応点情報(ii)と、存否ビット(iii)と、差分情報(iv)と、kの値(v)と、領域の位置/形状方法(vi)と、を含んで構成される。各データの内容は、以下の通りである。
i)F0のデータ、またはF0+Fnのデータ
ii)修正M0−n(折れ線、曲線などの形式)
iii)差分情報の有無を示す「存否ビット」
iv)差分情報(画像データの形式)
v)kの値(複数の場合はk1、k2、・・・)
vi)領域の位置/形状情報(複数の場合はA1(k1)、A2(k2)、・・)
FIG. 21 is a diagram illustrating a format of encoded data in the image encoding technique according to the first embodiment. The encoded data D1 includes the image frame (i), the modified corresponding point information (ii), the presence / absence bit (iii), the difference information (iv), the value of k (v), the position / And a shape method (vi). The contents of each data are as follows.
i) F0 data or F0 + Fn data
ii) Modified M0-n (form of broken line, curve, etc.)
iii) “Presence / absence bit” indicating the presence / absence of difference information
iv) Difference information (image data format)
v) Value of k (in the case of multiple k1, k2,...)
vi) Position / shape information of the area (in the case of multiple areas, A1 (k1), A2 (k2),...)

ここで、差分情報は、「仮想的なFk’と現実のFkの領域Aに関するデータ」であり、領域Aの画像データの形式をとる。存否ビットが差分情報の存在を肯定する場合にかぎり差分情報は有効であり、否定する場合、後述の画像復号の際に差分情報以下の情報が無視される。
差分情報は画像データの形のため、既知の圧縮手法によって圧縮してから符号化データへ格納されることが望ましい。差分情報は画像としては意味を持たないものであり、ゼロを中心にきれいな統計的偏りがでやすいため、比較的高い圧縮率が実現できる点でも有利である。
kの値と、領域の位置/形状情報は、差分情報がいずれの組Skのいずれの個所に関するものであるかを示す。復号装置では、kの値と領域の位置/形状情報を手がかりに差分を適切に加算する。
Here, the difference information is “data relating to the area A between the virtual Fk ′ and the actual Fk”, and takes the form of the image data of the area A. The difference information is valid only when the presence / absence bit affirms the presence of the difference information. When the presence / absence bit is negative, the information below the difference information is ignored in the later-described image decoding.
Since the difference information is in the form of image data, it is desirable that the difference information is compressed by a known compression method and then stored in the encoded data. The difference information has no meaning as an image, and it is easy to make a clear statistical bias around zero, which is advantageous in that a relatively high compression rate can be realized.
The value of k and the position / shape information of the region indicate which part of which set Sk the difference information relates to. In the decoding apparatus, the difference is appropriately added based on the value of k and the position / shape information of the region.

(7)組Skにおける差分情報は、画像フレームの中で差分が大きかった領域についてのみ符号化データへ含められる。これは既述した。 (7) The difference information in the set Sk is included in the encoded data only for the region where the difference is large in the image frame. This has already been described.

(8)差分とともに、少なくともkの値と領域Aの位置情報が符号化データへ含められる。これは既述した。 (8) Along with the difference, at least the value of k and the position information of the area A are included in the encoded data. This has already been described.

(9)差分は圧縮処理を受けた後、符号化データへ含められる。これは既述した。
(10)画像符号化装置のある態様は以下の構成を含む。各構成の処理動作自体は既述した。
・マッチング処理部20
F0とFn間でマッチングを計算してM0−nを生成する。
・中間フレーム生成部22
F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn上でp0に対応する点pnを算出する処理をF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1’、点p2の集合を利用して仮想的なF2’、・・・、点pnの集合を利用して仮想的なFn’をそれぞれ生成する。
(9) The difference is included in the encoded data after being subjected to compression processing. This has already been described.
(10) An aspect of the image encoding device includes the following configuration. The processing operation itself of each configuration has already been described.
Matching processing unit 20
A matching is calculated between F0 and Fn to generate M0-n.
Intermediate frame generator 22
A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, the point p1 corresponding to p0 on F1, the point p2 corresponding to p0 on F2,. By executing the process of calculating the point pn corresponding to p0 on Fn with respect to a predetermined number of points on F0, a virtual F1 ′, point using the set of points p1 corresponding to the predetermined number of points Virtual F2 ′ is generated using the set of p2 and virtual Fn ′ is generated using the set of points pn.

・判定部24
仮想的なF1’と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組に対し、その組に含まれる画像フレーム間の差分が大きな組Sk(k=1,・・・,n)の有無を所定の判定基準をもとに判定する。
以上の構成のもと、マッチング処理部は、差分が大きな組Skが存在する場合、少なくとも、Fh(h=0,1,・・・,k−1)とFk間でマッチングを計算してMh−kを生成し、このMh−kの情報を利用してM0−nを修正する。本装置はさらに、少なくともF0と修正M0−nを含む形式の符号化データを出力する出力部40を含む。
・ Determining unit 24
Virtual F1 ′ and real F1 set S1, virtual F2 and real F2 set S2,..., Virtual Fn and real Fn set Sn included in the set The presence / absence of a set Sk (k = 1,..., N) having a large difference between image frames to be determined is determined based on a predetermined determination criterion.
Based on the above configuration, when there is a set Sk having a large difference, the matching processing unit calculates matching between at least Fh (h = 0, 1,..., K−1) and Fk to obtain Mh. -K is generated, and M0-n is corrected using the information of Mh-k. The apparatus further includes an output unit 40 that outputs encoded data in a format including at least F0 and modified M0-n.

(11)画像符号化方法の別の態様は以下の処理をなす。
処理1: 3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行する。両端画像フレームの例は既述のF0、Fnである。
処理2: マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する。この例は既述の内挿補間によるF1’、F2’、・・の生成である。
(11) Another aspect of the image encoding method performs the following processing.
Process 1: Matching calculation is executed between the two end image frames of an image group including three or more image frames. Examples of both-end image frames are F0 and Fn described above.
Process 2: Based on the corresponding point information between the two-end image frames obtained as a result of the matching calculation, an intermediate image frame sandwiched between the two-end image frames is virtually generated by interpolation. In this example, F1 ′, F2 ′,... Are generated by the interpolation described above.

処理3: 画像上のいずれかの領域について、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定する。すなわち、ふたつの画像フレーム間で、領域を単位とする比較を行う。この例は組Skとして既述した。ここでは「許容値以上の差分」といっており、許容値未満であれば、処理4はスキップできる。
処理4: 両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データを生成する。許容値以上の差分を有する領域が存在すると判定された場合、その領域に関する差分情報をあわせて生成する。これは既述した。
Process 3: For any region on the image, whether or not any of the virtually generated intermediate image frames has a difference greater than the allowable value from the actual intermediate image frame is determined based on a predetermined criterion. Judge with. That is, a comparison is performed in units of regions between two image frames. This example has already been described as set Sk. Here, it is referred to as “difference greater than or equal to the allowable value”, and if it is less than the allowable value, the process 4 can be skipped.
Process 4: Encoded data including at least one of both-end image frames and corresponding point information is generated. When it is determined that there is an area having a difference greater than or equal to the allowable value, difference information regarding the area is also generated. This has already been described.

(12)画像符号化装置の別の態様は以下の構成を含む。各構成による処理は既述した。
・マッチング処理部20
3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行する。
・中間フレーム生成部22
マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する。
(12) Another aspect of the image encoding device includes the following configuration. The processing by each configuration has already been described.
Matching processing unit 20
Matching calculation is performed between the two end image frames of the image group including three or more image frames.
Intermediate frame generator 22
Based on the corresponding point information between the two-end image frames obtained as a result of the matching calculation, an intermediate image frame sandwiched between the two-end image frames is virtually generated by interpolation.

・判定部24
画像上のいずれかの領域について、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定する。
・出力部26
両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データを出力する。許容値以上の差分を有する領域が存在すると判定された場合、その領域に関する差分情報をあわせて出力する。
・ Determining unit 24
For any region on the image, determine whether any of the virtually generated intermediate image frames has a difference greater than the allowable value from the actual intermediate image frame based on a predetermined criterion. To do.
-Output unit 26
Encoded data including at least one of the both end image frames and the corresponding point information is output. When it is determined that there is an area having a difference greater than or equal to the allowable value, difference information regarding the area is output together.

[2]画像復号技術
第1の実施の形態に係る画像復号技術は、[1]の画像符号化技術によって生成された符号化データを復号するよう作用する。したがって、[1]の技術と以下の技術の組合せを有する画像符号化・復号システムは実施の形態の変形例である。以下、全体の通し番号を付して説明する。
[2] Image decoding technique The image decoding technique according to the first embodiment operates to decode the encoded data generated by the image encoding technique of [1]. Therefore, an image encoding / decoding system having a combination of the technique [1] and the following technique is a modification of the embodiment. Hereinafter, description will be made with the whole serial number attached.

図22は、本画像復号技術のフローを示すものであり、また同時に、後述する画像復号装置の構成を示すものである。   FIG. 22 shows the flow of the present image decoding technique, and at the same time, shows the configuration of an image decoding apparatus to be described later.

(13)実施の形態に係る画像復号方法のある態様は以下のステップを実行する。
p)少なくともF0、M0−nおよび所定の差分情報を含む形式の符号化データを入力する。所定の差分情報は、例えば(6)の「iv)差分情報(画像データの形式)」である。
q)F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn−1上でp0に対応する点pn−1を算出する。ステップbと同様である。
(13) An aspect of the image decoding method according to the embodiment executes the following steps.
p) Input encoded data in a format including at least F0, M0-n, and predetermined difference information. For example, the predetermined difference information is “iv) difference information (image data format)” in (6).
q) A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, the point p1 corresponding to p0 on F1, the point p2 corresponding to p0 on F2, Calculate a point pn-1 corresponding to p0 on Fn-1. Same as step b.

r)ステップqをF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1’、点p2の集合を利用して仮想的なF2’、・・・、点pnの集合を利用して仮想的なFn’をそれぞれ生成する。ステップcと同様である。
s)仮想的なF1’と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組のうち、前記差分情報が与えられているSk(k=1,・・・,n)を特定する。この特定は、例えば(6)の「iii)差分情報の有無を示す「存否ビット」」および/または「v)kの値(複数の場合はk1、k2、・・・)」によって行う。
r) By executing step q for a predetermined number of points on F0, a virtual F1 ′ using a set of points p1 corresponding to the predetermined number of points and a virtual using a set of points p2 F2 ′,..., And virtual pn ′ are generated using the set of points pn. Same as step c.
s) The difference among the set S1 of the virtual F1 ′ and the real F1, the set S2 of the virtual F2 and the real F2,..., and the set Sn of the virtual Fn and the real Fn. Sk (k = 1,..., N) to which information is given is specified. This identification is performed by, for example, (iii) “iii)“ existence / non-existence bit ”indicating presence / absence of difference information and / or“ v) k value (k1, k2,.

t)仮想的なFk’に対し、差分情報によって定まる差分を加算することにより、修正された仮想的なFk’’を生成する。差分の加算に当たっては、(6)の「vi)領域の位置/形状情報(複数の場合はA1(k1)、A2(k2)、・・)」を参照する。
u)復号結果として、F0、仮想的なF1’、仮想的なF2’、・・・、修正された仮想的なFk’’、仮想的なFk+1’、・・・、仮想的なFn−1’をこの順に、すなわち表示順に出力する。Fnについては、仮想的なほうを出力してもよいが、現実のFnが存在する場合はそれを出力してもよい。出力先は例えば表示制御ユニットであり、そのユニットで表示装置用に変換される。実施の形態のある態様の画像復号装置は、そうした表示制御ユニットおよび表示装置まで有するものとする。
t) A corrected virtual Fk ″ is generated by adding the difference determined by the difference information to the virtual Fk ′. In addition of the difference, reference is made to “vi) region position / shape information (A1 (k1), A2 (k2),... In a plurality of cases)” in (6).
u) As decoding results, F0, virtual F1 ′, virtual F2 ′,..., modified virtual Fk ″, virtual Fk + 1 ′,..., virtual Fn−1 'Is output in this order, that is, in the display order. As for Fn, the virtual one may be output, but when actual Fn exists, it may be output. The output destination is, for example, a display control unit, and the unit converts the display device. The image decoding apparatus according to an aspect of the embodiment includes such a display control unit and a display apparatus.

(14)差分情報は画像フレーム間の差分が大きな領域についてのみ差分を記述しており、ステップtは差分を加算する際、前記領域の位置情報を特定する。これは既述した。
(15)差分情報は圧縮されており、ステップtは差分情報を伸長してから加算してもよい。
(16)M0−nは、p0がpkを経てpnへ至る軌跡を示す形式にて生成されていてよい。すなわち、ここでいうM0−nは原M0−nではなく、符号化側で生成された修正M0−nということである。この態様によれば、画質が改善される。
(14) The difference information describes the difference only for the region where the difference between the image frames is large, and step t specifies the position information of the region when adding the difference. This has already been described.
(15) The difference information is compressed, and step t may be added after the difference information is expanded.
(16) M0-n may be generated in a format indicating a trajectory where p0 reaches pn via pk. That is, M0-n here is not the original M0-n but a modified M0-n generated on the encoding side. According to this aspect, the image quality is improved.

(17)実施の形態に係る画像復号装置は以下の構成を含む。
・入力部30
少なくともF0、M0−nおよび所定の差分情報を含む形式の符号化データを入力する。入力部はどのようなインタフェイスでもよいし、符号化データが格納されたメモリからそれを読み出す読出制御部であってもよい。
・中間フレーム生成部32
F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn−1上でp0に対応する点pn−1を算出する処理をF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1’、点p2の集合を利用して仮想的なF2’、・・・、点pnの集合を利用して仮想的なFn’をそれぞれ生成する。
(17) The image decoding apparatus according to the embodiment includes the following configuration.
Input unit 30
Encoded data in a format including at least F0, M0-n, and predetermined difference information is input. The input unit may be any interface, or may be a read control unit that reads out from a memory in which encoded data is stored.
Intermediate frame generation unit 32
A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, the point p1 corresponding to p0 on F1, the point p2 corresponding to p0 on F2,. By executing a process of calculating a point pn-1 corresponding to p0 on Fn-1 for a predetermined number of points on F0, a virtual set using the set of points p1 corresponding to the predetermined number of points is used. A virtual Fn ′ is generated using a set of F1 ′, point p2, and a virtual F2 ′,..., Point pn, respectively.

・特定部34
仮想的なF1’と現実のF1の組S1、仮想的なF2’と現実のF2の組S2、・・・、仮想的なFn’と現実のFnの組Snの各組のうち、前記差分情報が与えられているSk(k=1,・・・,n)を特定する。特定の方法の例は既述した。
・中間フレーム修正部36
仮想的なFk’に対し、前記差分情報によって定まる差分を加算することにより、修正された仮想的なFk’’を生成する。
・出力部38
復号結果として、F0、仮想的なF1’、仮想的なF2’、・・・、修正された仮想的なFk’’、仮想的なFk+1、・・・、仮想的なFn−1’を出力する。出力先は表示装置用のデータないし信号を生成する表示制御ユニットでもよい。
本装置はさらに、この表示制御ユニットを含んでもよいし、さらに表示装置自体を含んでもよい。
-Specific part 34
The difference between the set S1 of the virtual F1 ′ and the real F1, the set S2 of the virtual F2 ′ and the real F2,..., And the set Sn of the virtual Fn ′ and the real Fn. Sk (k = 1,..., N) to which information is given is specified. Examples of specific methods have already been mentioned.
Intermediate frame correction unit 36
A corrected virtual Fk ″ is generated by adding the difference determined by the difference information to the virtual Fk ′.
Output unit 38
As a decoding result, F0, virtual F1 ′, virtual F2 ′,..., Modified virtual Fk ″, virtual Fk + 1,..., Virtual Fn−1 ′ are output. To do. The output destination may be a display control unit that generates data or signals for the display device.
The present apparatus may further include this display control unit, and may further include the display apparatus itself.

(18)実施の形態に係る画像復号方法の別の態様は以下の処理を実行する。
処理1: 3以上の画像フレームを含む画像グループの両端画像フレームのうちの一方と、それら両端画像フレーム間の対応点情報と、所定の差分情報とを含む符号化データを入力する。
処理2: 前記対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する。
処理3: 仮想的に生成された中間画像フレームそれぞれとそれに対応する現実の中間画像フレームとによる組のうち、差分が大きな組として符号化データ内に記述された組の中間画像フレームの画像上にて差分が大きい領域を特定する。
処理4: 差分が大きな組に含まれる仮想的な画像フレームに対し、前記領域における差分を加算することにより、修正された仮想的な画像フレームを生成する。
処理5: 復号結果として、両端画像フレームのうちの一方と、差分が大きな組については修正された仮想的な中間画像フレームと、それ以外の組については仮想的な中間画像フレームとを復号データとして出力する。
(18) Another aspect of the image decoding method according to the embodiment executes the following processing.
Process 1: Encoded data including one of both end image frames of an image group including three or more image frames, corresponding point information between the both end image frames, and predetermined difference information is input.
Process 2: Based on the corresponding point information, an intermediate image frame sandwiched between both end image frames is virtually generated by interpolation.
Process 3: On the image of the intermediate image frame of the set described in the encoded data as a set having a large difference among the sets of the virtually generated intermediate image frames and the corresponding actual intermediate image frames To identify areas with large differences.
Process 4: A corrected virtual image frame is generated by adding the difference in the region to a virtual image frame included in a set having a large difference.
Process 5: As decoding results, one of the two-end image frames, a virtual intermediate image frame that has been modified for a set with a large difference, and a virtual intermediate image frame for the other set are used as decoded data. Output.

(19)実施の形態に係る画像復号装置の別の態様は以下の構成を含む。
・入力部30
3以上の画像フレームを含む画像グループの両端画像フレームのうちの一方と、それら両端画像フレーム間の対応点情報と、所定の差分情報とを含む符号化データを入力する。
・中間フレーム生成部32
前記対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する。
(19) Another aspect of the image decoding apparatus according to the embodiment includes the following configuration.
Input unit 30
Encoded data including one of both end image frames of an image group including three or more image frames, corresponding point information between the both end image frames, and predetermined difference information is input.
Intermediate frame generation unit 32
Based on the corresponding point information, an intermediate image frame sandwiched between both end image frames is virtually generated by interpolation.

・領域特定部34’
仮想的に生成された中間画像フレームそれぞれとそれに対応する現実の中間画像フレームとによる組のうち、差分が大きな組として符号化データ内に記述された組の中間画像フレームの画像上にて差分が大きい領域を特定する。特定方法の例は既述した。
・中間フレーム修正部36
差分が大きな組に含まれる仮想的な画像フレームに対し、前記領域における差分を加算することにより、修正された仮想的な画像フレームを生成する。
・出力部38
復号結果として、両端画像フレームのうちの一方と、差分が大きな組については修正された仮想的な中間画像フレームと、それ以外の組については仮想的な中間画像フレームとを復号データとして出力する。ここでも(17)同様の変形例がある。
-Area specifying part 34 '
Among the sets of virtually generated intermediate image frames and the corresponding actual intermediate image frames, the difference is present on the intermediate image frame image of the set described in the encoded data as a set having a large difference. Identify large areas. Examples of specific methods have already been described.
Intermediate frame correction unit 36
A corrected virtual image frame is generated by adding the difference in the region to a virtual image frame included in a set having a large difference.
Output unit 38
As a decoding result, one of the two-end image frames, a virtual intermediate image frame that has been corrected for a set with a large difference, and a virtual intermediate image frame for the other set are output as decoded data. Here again, there is a similar modification (17).

(20)(11)に記載の画像符号化方法、またはそれ以外の個所に記載した画像符号化方法の各ステップをコンピュータプログラムによってコンピュータに実行せしめてもよい。
(21)(18)に記載の画像復号方法、またはそれ以外の個所に記載した画像復号方法の各ステップをコンピュータプログラムによってコンピュータに実行せしめてもよい。
(20) Each step of the image encoding method described in (11) or the image encoding method described elsewhere may be executed by a computer program by a computer program.
(21) Each step of the image decoding method described in (18) or the image decoding method described elsewhere may be executed by a computer using a computer program.

(22)実施の形態に係る画像処理システムは画像符号化ユニット(図19の100)と画像復号ユニット(図22の200)とを有する。このシステムは例えばハードディスクを用いた動画像録画再生装置として利用できる。まず画像符号化ユニットは以下の構成を有する。
・マッチング処理部20
3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行する。
・符号化側中間フレーム生成部22
マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する。
・判定部24
画像上のいずれかの領域について、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定する。
(22) The image processing system according to the embodiment includes an image encoding unit (100 in FIG. 19) and an image decoding unit (200 in FIG. 22). This system can be used as, for example, a moving image recording / playback apparatus using a hard disk. First, the image encoding unit has the following configuration.
Matching processing unit 20
Matching calculation is performed between the two end image frames of the image group including three or more image frames.
Encoding side intermediate frame generation unit 22
Based on the corresponding point information between the two-end image frames obtained as a result of the matching calculation, an intermediate image frame sandwiched between the two-end image frames is virtually generated by interpolation.
・ Determining unit 24
For any region on the image, determine whether any of the virtually generated intermediate image frames has a difference greater than the allowable value from the actual intermediate image frame based on a predetermined criterion. To do.

・書込制御部(26)
両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データをメモリ(図示せず)へ書き込む。許容値以上の差分を有する領域が存在すると判定された場合、その領域に関する差分情報もあわせて書き込む。
.Write control unit (26)
Encoded data including at least one of the both-end image frames and the corresponding point information is written into a memory (not shown). When it is determined that there is an area having a difference equal to or greater than the allowable value, difference information regarding the area is also written.

一方、画像復号ユニットは以下の構成を有する。
・読出制御部(30)
前記のメモリから符号化データを読み出す。
・復号側中間フレーム生成部32
符号化データに含まれる画像フレームのデータと対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する。なお、符号化側中間フレーム生成部と同じ構成を共用してもよい。その場合、符号化側のマッチング処理部の出力と、復号側の読出制御部の出力のいずれかを選択して中間フレーム生成部へ入力するセレクタを設けてもよい。このセレクタは、符号化の際にはマッチング処理部の出力、復号の際には読出制御部の出力をそれぞれ選択する。
On the other hand, the image decoding unit has the following configuration.
Read control unit (30)
Read the encoded data from the memory.
Decoding side intermediate frame generation unit 32
Based on the image frame data and the corresponding point information included in the encoded data, an intermediate image frame sandwiched between both end image frames is virtually generated by interpolation. Note that the same configuration as that of the encoding-side intermediate frame generation unit may be shared. In that case, a selector may be provided that selects either the output of the encoding-side matching processing unit or the output of the decoding-side readout control unit and inputs the selected output to the intermediate frame generation unit. This selector selects the output of the matching processing unit at the time of encoding and the output of the reading control unit at the time of decoding.

・領域特定部34
符号化データに差分情報が含まれている領域を特定する。その方法の例は既述した。
・中間フレーム修正部36
特定された領域を含む仮想的な画像フレームに対し、前記領域における差分を加算することにより、修正された仮想的な画像フレームを生成する。
-Area specifying unit 34
An area in which the difference information is included in the encoded data is specified. Examples of the method have already been described.
Intermediate frame correction unit 36
A corrected virtual image frame is generated by adding the difference in the region to the virtual image frame including the specified region.

・出力部38
復号結果として、両端画像フレームのうちの一方または双方と、前記領域を含む仮想的な画像フレームについては修正された仮想的な中間画像フレームと、前記領域を含まない仮想的な画像フレームについてはその仮想的な中間画像フレーム自体とを復号データとして出力する。
Output unit 38
As a decoding result, one or both of the two end image frames, a virtual intermediate image frame modified for the virtual image frame including the region, and a virtual image frame not including the region The virtual intermediate image frame itself is output as decoded data.

(第2の実施の形態)
以下、第2の実施の形態に係る符号化技術、復号化技術について順に説明する。図23は、第2の実施の形態に係る画像符号化装置の構成を示すものであり、また同時に、当該画像符号化技術のフローを示すものである。
(Second Embodiment)
Hereinafter, an encoding technique and a decoding technique according to the second embodiment will be described in order. FIG. 23 shows the configuration of the image encoding apparatus according to the second embodiment, and at the same time, shows the flow of the image encoding technique.

[1]符号化装置の構成
CPF: 前提技術のCritical Point Filter、すなわち特異点フィルタを用いる画像マッチングプロセッサ。キーフレーム間のマッチングを画素単位で計算し、対応点情報を出力する。この情報はファイルとして出力される。このファイルは、ソース側のキーフレームの各画素がデスティネーション側のキーフレームのいずれの画素に対応するかを記述する。したがって、このファイルをもとに、これらのキーフレーム間で対応しあう画素の位置と画素値を内挿計算すれば、ふたつのキーフレーム間のモーフィング画像が得られる。なお、このファイルをソース側のキーフレームだけに作用させて内挿計算をすれば、単にソース側のキーフレームの各画素をこのファイルに記述した対応画素の位置へ徐々に移動させるモーフィング画像が得られる。この場合、対応画素間で位置だけが内挿されたことになる。
[1] Configuration of Encoding Device CPF: Image Matching Processor that Uses Critical Point Filter as a Premise Technology, that is, Singularity Filter Matching between key frames is calculated for each pixel, and corresponding point information is output. This information is output as a file. This file describes which pixel of the source side key frame corresponds to each pixel of the destination side key frame. Therefore, a morphing image between two key frames can be obtained by interpolating pixel positions and pixel values corresponding to each other between these key frames based on this file. Note that if this file is applied only to the source side key frame and the interpolation calculation is performed, a morphing image is obtained in which each pixel of the source side key frame is gradually moved to the position of the corresponding pixel described in this file. It is done. In this case, only the position is interpolated between the corresponding pixels.

なお、CPFの代わりに、広く画像マッチングプロセッサを利用することができるが、本実施の形態の趣旨からいえば、精度が高い画素マッチングが理想的であり、前提技術はその条件を満たす。   Although an image matching processor can be widely used instead of CPF, pixel matching with high accuracy is ideal for the purpose of the present embodiment, and the prerequisite technology satisfies the condition.

DE: Differential Encoder 差分(誤差)符号化器。ふたつの画像フレーム間の差分をハフマン符号化その他の統計手法に基づき可変長符号化する。   DE: Differential Encoder A differential (error) encoder. The difference between two image frames is variable-length coded based on Huffman coding or other statistical methods.

NR: maskable Noise Reducer ノイズリデューサ。人間の視覚では微細な変化を認識できないことが多い。たとえば輝度の変化の激しい部分、つまり輝度の空間周波数成分が高い成分が強い領域では、輝度変化の誤差は視覚的には把握されない。動画情報にはさまざまな形でノイズが重畳しており、そのようなデータは視覚的には単にノイズとして認識されるだけで画像としての意味を持たない。そのような視覚的無意味なランダム情報、すなわち「視覚的マスク情報」を無視することが、より高い圧縮率を達成するために重要である。   NR: maskable Noise Reducer Noise reducer. In many cases, human vision cannot recognize minute changes. For example, in a portion where the luminance changes drastically, that is, in a region where a component having a high luminance spatial frequency component is strong, the luminance variation error is not visually grasped. Noise is superimposed on the moving image information in various forms, and such data is merely recognized as noise visually and has no meaning as an image. Ignoring such visually insignificant random information, ie “visual mask information”, is important to achieve higher compression ratios.

現在のブロックマッチングにおける量子化は、輝度値に関する視覚的マスク情報を利用したものであるが、輝度値以外にもいくつかの視覚的マスク情報が存在する。NRは、空間位置情報ならびに時間位置情報に関する視覚的マスクを利用する。空間位置情報の視覚的マスクは、位置情報に関して、輝度変化が複雑な画像の場合は空間周波数の位相成分が視覚的に認識されにくいという事実を利用する。時間位置情報の視覚的マスクは、時間方向での変化が激しい部分では時間方向にデータの変化がずれたとしても、視覚的にはその差が認識されにくい事実を利用する。これらはいずれも所定のしきい値との比較して検出する。   The quantization in the current block matching uses visual mask information about luminance values, but there are some visual mask information besides the luminance values. NR utilizes a visual mask for spatial location information as well as temporal location information. The spatial mask of the spatial position information uses the fact that the phase component of the spatial frequency is difficult to visually recognize in the case of an image with a complicated luminance change. The visual mask of the time position information utilizes the fact that even if the change in the data in the time direction is shifted in the portion where the change in the time direction is severe, the difference is not easily recognized visually. These are detected by comparing with a predetermined threshold value.

少なくともブロックマッチングと差分符号化という現在のMPEGのスキームでは、これらのマスクを積極的に利用することは困難である。これに対し、前提技術における復号処理は、視覚的な不自然さをもたらすような不連続性を回避するために、動画上の変化をトリリニアその他の補間で生成するものであり、それは誤差を輝度方向だけでなく、空間方向や時間方向に散らして視覚的に目立たなくする働きを持つ。NRは前提技術との組合せにおいて有用である。   At least in the current MPEG scheme of block matching and differential encoding, it is difficult to actively use these masks. On the other hand, the decoding process in the base technology generates a change on the moving image by trilinear or other interpolation in order to avoid discontinuity that causes visual unnaturalness. Not only the direction but also the function of making it visually inconspicuous by being scattered in the space direction and the time direction. NR is useful in combination with the underlying technology.

DD: Differential Decoder 差分(誤差)復号器。DEで符号化された差分を復号し、その差分が生じた画像フレームに加算することで、その画像フレームの精度を高める。   DD: Differential Decoder A differential (error) decoder. The difference encoded by DE is decoded and added to the image frame in which the difference occurs, thereby improving the accuracy of the image frame.

DC: Differential Comparator 差分比較器。仮想的なF1’と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組に対し、その組に含まれる画像フレーム間の差分が大きな組Sk(k=1,・・・,n)の有無を所定の判定基準をもとに判定する。   DC: Differential Comparator Virtual F1 ′ and real F1 set S1, virtual F2 and real F2 set S2,..., Virtual Fn and real Fn set Sn included in the set The presence / absence of a set Sk (k = 1,..., N) having a large difference between image frames is determined based on a predetermined determination criterion.

なお、これらのほかに、ある単一のキーフレームに対応点情報を作用させ、そのキーフレームの画素移動だけから仮想的に別のキーフレームを生成する機能が存在する。以下、この機能を実現する機能ブロックを画素シフタとよぶ。   In addition to these, there is a function of causing corresponding point information to act on a single key frame and virtually generating another key frame only from pixel movement of the key frame. Hereinafter, a functional block that realizes this function is referred to as a pixel shifter.

なお、第2の実施の形態におけるCPFおよびDCは、それぞれ第1の実施の形態におけるマッチング処理部20および判定部24に対応させることができる。   Note that the CPF and DC in the second embodiment can correspond to the matching processing unit 20 and the determination unit 24 in the first embodiment, respectively.

[2]符号化処理
図23において、「F0」等は処理の対象となる動画の各フレーム、「M0−n」はCPFによって生成されたF0とFn間の対応点情報を示す。符号化は以下の手順で進む。以下では、n=4の場合について説明する。また、図23において、n=8である。
[2] Encoding process In FIG. 23, “F0” and the like indicate each frame of the moving image to be processed, and “M0-n” indicates corresponding point information between F0 and Fn generated by the CPF. Encoding proceeds in the following procedure. Hereinafter, a case where n = 4 will be described. In FIG. 23, n 2 = 8.

a) 1以上の画像フレーム(F1〜F3)を間に挟む第1、第2キーフレーム(F0、F4)間でCPFによってマッチングを計算し、第1、第2キーフレーム間の対応点情報(M0−4)を生成するステップ。
b−1) 第1、第2キーフレーム間の対応点情報(M0−4)をもとに、修正M0−4’を生成するステップ。修正M0−4’の生成については、第1の実施の形態において既述した技術を利用すればよい。
b−2) 第1、第2キーフレーム間の修正された対応点情報(M0−4’)をもとに、画素シフタによって第1キーフレーム(F0)に含まれる画素を移動させて仮想の第2キーフレーム(F4’)を生成するステップ。
c) 現実の第2キーフレーム(F4)と仮想の第2キーフレーム(F4’)との差分をNR機能付きDE(DE+NRと表記)で圧縮符号化するステップ。
d) 第1キーフレーム(F0)、第1、第2キーフレーム間の修正された対応点情報(M0−4’)、および、現実の第2キーフレームと仮想の第2キーフレーム間で圧縮符号化された差分(Δ4)をこれらのキーフレーム(F0、F4)間の符号化データとして出力するステップ。出力先は記録媒体、伝送媒体を問わない。実際には後述のj)で出力される情報と一体となり、動画符号化データとして記録媒体等に出力される。
a) Matching is calculated by CPF between the first and second key frames (F0, F4) sandwiching one or more image frames (F1 to F3), and corresponding point information between the first and second key frames ( Generating M0-4).
b-1) A step of generating a correction M0-4 ′ based on the corresponding point information (M0-4) between the first and second key frames. For generation of the correction M0-4 ′, the technique described in the first embodiment may be used.
b-2) Based on the corrected corresponding point information (M0-4 ′) between the first and second key frames, the pixels included in the first key frame (F0) are moved by the pixel shifter to create a virtual Generating a second key frame (F4 ′);
c) The step of compressing and encoding the difference between the actual second key frame (F4) and the virtual second key frame (F4 ′) with DE with NR function (denoted as DE + NR).
d) First key frame (F0), modified corresponding point information (M0-4 ′) between the first and second key frames, and compression between the actual second key frame and the virtual second key frame Outputting the encoded difference (Δ4) as encoded data between these key frames (F0, F4); The output destination may be a recording medium or a transmission medium. In practice, it is integrated with the information output in j) described later, and is output to a recording medium or the like as moving image encoded data.

ステップb−1)について詳細に説明する。図19で説明したように、現実のフレームFiと、対応する仮想フレームFi’の差分Siから、その組に含まれる画像フレーム間の差分が大きな組Sk(k=1,・・・,n)の有無を所定の判定基準をもとに判定する。
判定結果は、DE+NRへと出力され、組Skの差分が圧縮され、差分情報でΔkとして出力される。
Step b-1) will be described in detail. As described in FIG. 19, a set Sk (k = 1,..., N) having a large difference between image frames included in the set from the difference Si between the actual frame Fi and the corresponding virtual frame Fi ′. Is determined based on a predetermined criterion.
The determination result is output to DE + NR, the difference of the pair Sk is compressed, and is output as Δk as difference information.

また、差分情報が存在する組を示すkの値が、CPFへと出力される。CPFは、フレームF0〜Fkの間の隣接するフレーム同士の対応点情報を算出する。すなわち、F0とF1、F1とF2、F3とF4、…、Fk−1とFkとの間の対応点情報(M0−1、M1−2、M2−3、…)を算出する。結合器CONCATは、これらの対応点情報を結合して、対応点情報M0−kを出力する。対応点情報M0−kは、ステップa)にて生成された対応点情報M0−kと合成されて、修正された対応点情報M0−n’が生成される。   In addition, a value of k indicating a set in which difference information exists is output to the CPF. The CPF calculates corresponding point information between adjacent frames between the frames F0 to Fk. That is, corresponding point information (M0-1, M1-2, M2-3,...) Between F0 and F1, F1 and F2, F3 and F4,. The combiner CONCAT combines these corresponding point information and outputs corresponding point information M0-k. Corresponding point information M0-k is combined with corresponding point information M0-k generated in step a) to generate corrected corresponding point information M0-n '.

つづいて、第2キーフレーム(F4)以降について以下の処理を行う。
e) 現実の第2キーフレーム(F4)と仮想の第2キーフレーム(F4’)間で圧縮符号化された差分(Δ4)をDDで復号するステップ。
f) 復号された差分と前記仮想の第2キーフレーム(F4’)とから、改良された仮想の第2キーフレーム(F4”)をDDで生成するステップ。
g) 1以上の画像フレーム(F5〜F7)を間に挟む第2、第3キーフレーム(F4、F8)間でCPFによってマッチングを計算し、第2、第3キーフレーム間の対応点情報(M4−8)を生成するステップ。
h−1) 第2、第3キーフレーム間の対応点情報(M4−8)をもとに、(M4−8’)を生成するステップ。
h−2) 第2、第3キーフレーム間の修正された対応点情報(M4−8’)をもとに、画素シフタによって、改良された仮想の第2キーフレーム(F4”)に含まれる画素を移動させることによって、仮想の第3キーフレーム(F8’)を生成するステップ。
i) 現実の第3キーフレーム(F8)と仮想の第3キーフレーム(F8’)との差分をDE+NRで圧縮符号化するステップ。
j) 第2、第3キーフレーム間の修正された対応点情報(M4−8’)、および現実の第3キーフレームと仮想の第3キーフレーム間で圧縮符号化された差分(Δ8)をこれらのキーフレーム(F4、F8)間の符号化データとして出力するステップ。出力先は一般にd)の出力先と同じである。
Subsequently, the following processing is performed for the second key frame (F4) and thereafter.
e) Decoding the difference (Δ4) compression-coded between the actual second key frame (F4) and the virtual second key frame (F4 ′) with DD.
f) Generating an improved virtual second key frame (F4 ″) by DD from the decrypted difference and the virtual second key frame (F4 ′).
g) Matching is calculated by CPF between the second and third key frames (F4, F8) sandwiching one or more image frames (F5 to F7), and corresponding point information between the second and third key frames ( Generating M4-8).
h-1) A step of generating (M4-8 ′) based on the corresponding point information (M4-8) between the second and third key frames.
h-2) Based on the modified corresponding point information (M4-8 ′) between the second and third key frames, it is included in the virtual second key frame (F4 ″) improved by the pixel shifter. Generating a virtual third key frame (F8 ′) by moving the pixels;
i) A step of compressing and encoding the difference between the actual third key frame (F8) and the virtual third key frame (F8 ′) with DE + NR.
j) The corrected corresponding point information (M4-8 ′) between the second and third key frames, and the difference (Δ8) compression-coded between the actual third key frame and the virtual third key frame. A step of outputting as encoded data between these key frames (F4, F8). The output destination is generally the same as the output destination of d).

以下、さらに後続のキーフレームについて、順次前記のe)からj)のステップを繰り返し、所定のグループ終了キーフレームに到達したときに繰り返し処理を終了する。グループ終了キーフレームは、MPEGでいう1GOPの終了フレームに相当する。したがって、このフレームの次のフレームが新たなグループの先頭フレームとして新たに第1キーフレームと見なされ、a)以下の処理が繰り返される。以上の処理により、MPEGでいうGOPに相当するグループ(以下、単にグループとよぶ)について、キーフレーム(MPEGでいうIピクチャ)に相当する画像は1枚のみ符号化および伝送すればよい。   Thereafter, the subsequent steps e) to j) are sequentially repeated for subsequent key frames, and the repetition process is terminated when a predetermined group end key frame is reached. The group end key frame corresponds to a 1 GOP end frame in MPEG. Therefore, the next frame after this frame is newly regarded as the first key frame as the first frame of the new group, and a) the following processing is repeated. With the above processing, for a group corresponding to a GOP in MPEG (hereinafter simply referred to as a group), only one image corresponding to a key frame (I picture in MPEG) needs to be encoded and transmitted.

[3]復号装置の構成
図24は、第2の実施の形態に係る画像復号技術のフローおよび画像復号装置の構成を示す図である。
符号化側にもましてシンプルな構成である。
DD: 符号化装置のDDと同じ。
INT: INTerpolator 補間プロセッサ。
[3] Configuration of Decoding Device FIG. 24 is a diagram illustrating a flow of the image decoding technique according to the second embodiment and a configuration of the image decoding device.
It is a simpler configuration than the encoding side.
DD: Same as DD of encoding device.
INT: INTerpolator interpolation processor.

これらの他に符号化側同様の画素シフタが存在する。ふたつの画像フレームと対応点情報から内挿処理による中間フレームを生成する。
[4]復号処理
復号は以下の手順で進む。ここでも、n=4、n=8として説明する。
In addition to these, there is a pixel shifter similar to the encoding side. An intermediate frame is generated by interpolation processing from the two image frames and corresponding point information.
[4] Decoding process Decoding proceeds in the following procedure. Here, it is assumed that n = 4 and n 2 = 8.

k) 1以上の画像フレーム(F1〜F3)を間に挟む第1、第2キーフレーム(F0、F4)間の修正された対応点情報(M0−4’)、および第1キーフレーム(F0)を取得するステップ。取得は伝送媒体、記録媒体のいずれからでもよい。
l) 第1、第2キーフレーム間の修正された対応点情報(M0−4’)をもとに、画像シフタによって第1キーフレーム(F0)に含まれる画素を移動させることによって、仮想の第2キーフレーム(F4’)を生成するステップ。
m) 予め符号化側にてl)同様の処理により、仮想の第2キーフレーム(F4’)が生成され、符号化側でこれと現実の第2キーフレーム(F4)との差分の圧縮符号化データ(Δ4)を生成しているため、これを取得するステップ。
o) 取得された差分の圧縮符号化データ(Δ4)をDDで復号し、仮想の第2キーフレーム(F4’)と加算して、改良された仮想の第2キーフレーム(F4’’)を生成するステップ。
p) 第1、第2キーフレーム間の修正された対応点情報(M0−4’)をもとに、INTによって、第1キーフレーム(F0)と改良された仮想の第2キーフレーム(F4”)間で補間計算をすることにより、これらのキーフレーム(F0、F4”)の間に存在すべき中間フレーム(F1’〜F3’)を生成するステップ。
q) 第1キーフレーム(F0)、生成された中間フレーム(F1’〜F3’)、改良された仮想の第2キーフレーム(F4”)をこれらのキーフレーム間の復号データとして表示装置等へ出力するステップ。
k) Modified corresponding point information (M0-4 ′) between the first and second key frames (F0, F4) sandwiching one or more image frames (F1 to F3), and the first key frame (F0) ) Step to get. Acquisition may be from either a transmission medium or a recording medium.
l) Based on the corrected corresponding point information (M0-4 ′) between the first and second key frames, by moving the pixels included in the first key frame (F0) by the image shifter, a virtual Generating a second key frame (F4 ′);
m) On the encoding side in advance l) By the same processing, a virtual second key frame (F4 ′) is generated, and the encoding side compresses the difference between this and the actual second key frame (F4). Since the digitized data (Δ4) is generated, this is acquired.
o) The obtained compressed encoded data (Δ4) of the difference is decoded by DD and added to the virtual second key frame (F4 ′) to obtain the improved virtual second key frame (F4 ″). Step to generate.
p) Based on the corrected corresponding point information (M0-4 ′) between the first and second key frames, the first key frame (F0) and the virtual second key frame (F4) improved by INT ") To generate intermediate frames (F1 'to F3') that should exist between these key frames (F0, F4") by performing an interpolation calculation between them.
q) The first key frame (F0), the generated intermediate frames (F1 ′ to F3 ′), and the improved virtual second key frame (F4 ″) are decoded data between these key frames to a display device or the like. Step to output.

つづいて、第2キーフレーム(F4)以降について以下の処理を行う。
r) 1以上の画像フレーム(F5〜F7)を間に挟む第2、第3キーフレーム(F4、F8)間の修正された対応点情報(M4−8’)を取得するステップ。
s) 第2、第3キーフレーム間の修正された対応点情報(M4−8’)をもとに、画素シフタによって、改良された仮想の第2キーフレーム(F4”)に含まれる画素を移動させることによって、仮想の第3キーフレーム(F8’)を生成するステップ。
t) 予め符号化側にてs)同様の処理により、符号化側でも仮想の第3キーフレーム(F8’)が生成され、符号化側でこれと現実の第3キーフレーム(F8)との差分の圧縮符号化データ(Δ8)を生成しており、これを取得するステップ。
u) 取得された差分の圧縮符号化データ(Δ8)と仮想の第3キーフレーム(F8’)とから、DDによって、改良された仮想の第3キーフレーム(F8”)を生成するステップ。
v) 第2、第3キーフレーム間の修正された対応点情報(M4−8’)をもとに、INTによって、改良された仮想の第2キーフレーム(F4”)と改良された仮想の第3キーフレーム(F8”)間で補間計算をすることにより、これらのキーフレームの間に存在すべき中間フレーム(F5’〜F7’)を生成するステップ。
w) 改良された仮想の第2キーフレーム(F4”)、生成された中間フレーム(F5’〜F7’)、改良された仮想の第3キーフレーム(F8”)をこれらのキーフレーム(F4”、F8”)間の復号データとして表示装置などへ出力するステップ。
Subsequently, the following processing is performed for the second key frame (F4) and thereafter.
r) obtaining corrected corresponding point information (M4-8 ′) between the second and third key frames (F4, F8) sandwiching one or more image frames (F5 to F7).
s) Based on the modified corresponding point information (M4-8 ′) between the second and third key frames, the pixels included in the improved virtual second key frame (F4 ″) are converted by the pixel shifter. Generating a virtual third key frame (F8 ′) by moving.
t) In the same manner, s) on the encoding side in advance generates a virtual third key frame (F8 ′) on the encoding side, and this and the actual third key frame (F8) on the encoding side. The step of generating differentially encoded data (Δ8) and acquiring it.
u) A step of generating an improved virtual third key frame (F8 ″) by DD from the obtained compressed encoded data (Δ8) of the difference and the virtual third key frame (F8 ′).
v) On the basis of the modified corresponding point information (M4-8 ′) between the second and third key frames, an improved virtual second key frame (F4 ″) and an improved virtual Generating an intermediate frame (F5′-F7 ′) to be present between these key frames by performing an interpolation calculation between the third key frames (F8 ″);
w) The improved virtual second key frame (F4 ″), the generated intermediate frames (F5 ′ to F7 ′), the improved virtual third key frame (F8 ″) are transferred to these key frames (F4 ″). , F8 ″) is output as decoded data to a display device or the like.

以下、さらに後続のキーフレームについて、順次前記のr)からw)のステップを繰り返し、グループ終了キーフレームに到達したときに繰り返し処理を終了する。このフレームの次のフレームが新たなグループの先頭フレームとして新たに第1キーフレームと見なされ、k)以下の処理が繰り返される。
[5]本実施の形態によるメリット
Thereafter, steps r) to w) are sequentially repeated for the subsequent key frames, and the repetition process is terminated when the group end key frame is reached. The next frame of this frame is newly regarded as the first key frame as the first frame of the new group, and k) the following processing is repeated.
[5] Advantages of this embodiment

第2の実施の形態に係る符号化、復号化技術によれば、第1の実施の形態に係る符号化、復号化技術に加えて、以下のメリットを享受できる。   According to the encoding / decoding technique according to the second embodiment, the following merits can be enjoyed in addition to the encoding / decoding technique according to the first embodiment.

画像マッチングに前提技術のCPFを利用する場合、マッチング精度が高いため、本実施の形態で実現される圧縮率が高くなる。なぜなら、DE+NRによって圧縮すべき差分が最初から小さく、かつ統計的な偏りが大きくなるためである。   When using the CPF of the base technology for image matching, since the matching accuracy is high, the compression rate realized in the present embodiment is high. This is because the difference to be compressed by DE + NR is small from the beginning and the statistical bias is large.

同様に、CPFを用いる場合、この符号化方法はブロックマッチングを用いないので、圧縮率を高めてもMPEGで問題となるブロックノイズがでない。もちろん、CPF以外の画像マッチングでも、ブロックノイズがでない処理方法を採用すればよい。   Similarly, when CPF is used, since this encoding method does not use block matching, even if the compression rate is increased, there is no block noise which is a problem in MPEG. Of course, a processing method without block noise may be employed for image matching other than CPF.

もともとMPEGは差分の最小化しか考慮しないが、CPFは本来対応すべき個所を検出するため、究極的にはMPEGよりも高い圧縮率が実現できる。   Originally, MPEG only considers minimization of differences, but CPF detects a portion that should be originally handled, so that ultimately, a higher compression ratio than MPEG can be realized.

符号化装置は画像マッチングプロセッサ、ノイズリダクション機能付き差分符号化器、差分復号器、画素シフタで構成でき、簡易である。また、ノイズリダクション機能はオプショナルな機能であり、これはなくともよい。同様に、復号装置も補間プロセッサ、差分復号器、画素シフタで構成でき、簡素である。とくに、復号装置は画像マッチングを行う必要もなく、処理量が軽い。   The encoding device can be composed of an image matching processor, a differential encoder with a noise reduction function, a differential decoder, and a pixel shifter, and is simple. Further, the noise reduction function is an optional function, and this may not be necessary. Similarly, the decoding apparatus can be composed of an interpolation processor, a differential decoder, and a pixel shifter, and is simple. In particular, the decoding device does not need to perform image matching, and the processing amount is light.

仮想のキーフレームを生成するたびに、それと現実のキーフレームの差分をΔ4、Δ8などのように符号化データへ取り込むため、グループごとに1枚しか完全な形のキーフレームを符号化しないにもかかわらず、長い動画を再生しても誤差の蓄積がない。   Every time a virtual key frame is generated, the difference between the virtual key frame and the actual key frame is taken into the encoded data as Δ4, Δ8, etc., so that only one complete key frame is encoded per group. Regardless, there is no error accumulation when playing a long movie.

[6]変形技術 [6] Deformation technology

第1、第2キーフレーム(F0、F4)間のマッチング計算をして対応点情報ファイルを生成する際、それらキーフレーム間に存在する中間フレーム(F1〜F3)も考慮してもよい。その場合、CPFはF0とF1、F1とF2、F2とF3、F3とF4のそれぞれの組についてマッチングを計算し、4個のファイル(仮に部分ファイルM0〜M3とよぶ)を生成する。つづいて、これら4個のファイルを統合してひとつの対応点情報ファイルとして出力すればよい。   When generating the corresponding point information file by performing matching calculation between the first and second key frames (F0, F4), intermediate frames (F1 to F3) existing between the key frames may be taken into consideration. In that case, the CPF calculates matching for each set of F0 and F1, F1 and F2, F2 and F3, and F3 and F4, and generates four files (provisionally called partial files M0 to M3). Subsequently, these four files may be integrated and output as one corresponding point information file.

統合のために、まず、F0の各画素がM0によってF1上のどこへ移動するかを特定する。つづいて、F1上で特定された画素がM1によってF2上のどこへ移動するかを特定する。これをF4まで行えば、4個の部分ファイルにより、F0とF4の対応がより正確になる。F0とF4は多少距離があり、それらの間よりも隣接する画像フレーム間のマッチング精度のほうが一般に高いためである。   For integration, first, it is specified where each pixel of F0 moves on F1 by M0. Subsequently, it is specified where the pixel specified on F1 moves on F2 by M1. If this is performed up to F4, the correspondence between F0 and F4 becomes more accurate by the four partial files. This is because F0 and F4 have some distance, and the matching accuracy between adjacent image frames is generally higher than that between them.

なお、この方法は最終的にF0とF4のマッチング精度を改善するものであるが、対応点情報ファイルを時間の関数として表現してもよい。その場合、部分ファイルを統合せず、4個の状態のまま、これらを対応点情報ファイルとみなして復号側へ提供すればよい。復号側はF0、F4、M0からF1を生成し、F0、F4、M0、M1からF2を生成し、という繰り返し処理でより正確な動画を復号できる。   Although this method ultimately improves the matching accuracy between F0 and F4, the corresponding point information file may be expressed as a function of time. In this case, the partial files are not integrated, and the four files may be regarded as corresponding point information files and provided to the decoding side. The decoding side can decode a more accurate moving image by iterative processing of generating F1 from F0, F4, and M0 and generating F2 from F0, F4, M0, and M1.

(第3の実施の形態)
本発明の他の実施形態は、図23の符号化装置に関する。ここでは、画像マッチングの正確性を示す尺度として画像のマッチングエネルギーを導入し、これをDE+NRにおけるノイズリダクション等に利用する。以下、適宜図23を用いて説明するが、特に言及しない構成、機能については第2の実施の形態と同様である。
(Third embodiment)
Another embodiment of the present invention relates to the encoding apparatus of FIG. Here, image matching energy is introduced as a measure indicating the accuracy of image matching, and this is used for noise reduction or the like in DE + NR. Hereinafter, description will be made with reference to FIG. 23 as appropriate, but the configurations and functions not particularly mentioned are the same as those in the second embodiment.

ここでいうマッチングエネルギーとは、対応点どうしの距離と画素値の違いで定まるものであり、例えば前提技術における式49に示されている。本実施形態では、CPFにおける画像マッチングの際得られるこのマッチングエネルギーをいわば副産物として利用する。前提技術の画像マッチングでは、キーフレーム間の各画素につき、写像のエネルギーが最小となるものを対応点として検出する。前提技術のこのような特徴に着目すれば、マッチングエネルギーの低い画素に関しては良好なマッチングがとれており、一方マッチングエネルギーの高い箇所については、当然キーフレーム間で位置や画素値の変化の大きい画素であったはずであるが、場合によってはマッチングエラーがあった可能性もあると評価できる。以下詳説するが、本実施形態ではマッチング精度の高い部分については差分の圧縮率を高める。また別の例では、マッチングエラーが推定される画素に関する差分情報を高く圧縮しても良い。   The matching energy here is determined by the difference between the distance between corresponding points and the pixel value, and is represented by, for example, Expression 49 in the base technology. In the present embodiment, this matching energy obtained at the time of image matching in the CPF is used as a by-product. In the base technology image matching, for each pixel between key frames, a pixel having the minimum mapping energy is detected as a corresponding point. Focusing on these features of the base technology, good matching is achieved for pixels with low matching energy, while pixels with large changes in position and pixel values between key frames are naturally found at locations with high matching energy. However, in some cases, it can be evaluated that there may be a matching error. Although described in detail below, in the present embodiment, the compression rate of the difference is increased for a portion with high matching accuracy. In another example, difference information relating to a pixel for which a matching error is estimated may be highly compressed.

[1]符号化処理
本実施形態の符号化装置では、CPFが第1、第2のキーフレームのマッチングを計算する際に、併せて両フレーム間で対応しあう各画素のマッチングエネルギーを取得し、第1のキーフレーム(F0)上に各画素のマッチングエネルギーを記述したエネルギーマップを生成する。同様に、その他の隣接しあうキーフレーム間でもエネルギーマップを生成する。すなわち、エネルギーマップとは、キーフレーム間の対応点それぞれのマッチングエネルギーを、基本的には前のキーフレームの各画素に関して記述したデータである。なお、エネルギーマップは前後のキーフレームのうち、後のキーフレーム上に表しても良い。エネルギーマップは不図示の経路によりCPFからDE+NRに送られる。DE+NRでは、このエネルギーマップを利用してキーフレーム間のマッチングの良否を評価し、それに基づいて、仮想のキーフレームと現実のキーフレームの差分を適応的に圧縮符号化する。なお、DE+NRには、エネルギーマップの他、対応点情報ファイルも不図示の経路で送られている。
[1] Encoding process In the encoding apparatus according to the present embodiment, when the CPF calculates the matching between the first and second key frames, the matching energy of each pixel corresponding to both frames is acquired together. Then, an energy map describing the matching energy of each pixel is generated on the first key frame (F0). Similarly, energy maps are generated between other adjacent key frames. That is, the energy map is data in which the matching energy of each corresponding point between key frames is basically described for each pixel of the previous key frame. Note that the energy map may be represented on the subsequent key frame among the previous and next key frames. The energy map is sent from the CPF to the DE + NR by a route not shown. In DE + NR, this energy map is used to evaluate the quality of matching between key frames, and based on this, the difference between a virtual key frame and an actual key frame is adaptively compressed and encoded. In addition to the energy map, a corresponding point information file is also sent to DE + NR via a route (not shown).

図25は、本実施形態に係る図23のDE+NRの構成を示す図である。図25のDE+NRは差分計算器10と、差分圧縮部12と、エネルギー取得部14と、判定部16とを備える。このうち、前2者が専らDEに相当し、後2者が専らNRに相当する。以下第1のキーフレーム(F0)と第2のキーフレーム(F4)およびその中間の画像フレーム(F1〜F3)を符号化する際のDE+NRの動作を説明するが、後続の各キーフレーム、画像フレームの符号化においても、DE+NRの動作は同様である。   FIG. 25 is a diagram showing a configuration of DE + NR in FIG. 23 according to the present embodiment. 25 includes a difference calculator 10, a difference compression unit 12, an energy acquisition unit 14, and a determination unit 16. Of these, the former two correspond exclusively to DE and the latter two exclusively correspond to NR. The operation of DE + NR when encoding the first key frame (F0), the second key frame (F4), and the intermediate image frames (F1 to F3) will be described below. The DE + NR operation is the same in the frame coding.

差分計算器10は、現実の第2キーフレーム(F4)と仮想の第2キーフレーム(F4’)を取得して、位置的に対応しあう画素どうしの画素値の差分をとる。これにより、各画素が両キーフレーム間の画素値の差をもつ一種の画像が形成され、これを差分画像と呼ぶ。差分画像はエネルギー取得部14へと送られる。また、エネルギー取得部14には、現実の第1キーフレーム(F0)と現実の第2キーフレーム(F4)の間のエネルギーマップ及び対応点情報(M0−4)が、図23のCPFから入力される。エネルギー取得部14は、これらを利用して差分画像のマッチングエネルギーを取得する。   The difference calculator 10 obtains the actual second key frame (F4) and the virtual second key frame (F4 '), and obtains the difference between the pixel values of the pixels that correspond in position. Thereby, a kind of image in which each pixel has a difference in pixel value between both key frames is formed, and this is called a difference image. The difference image is sent to the energy acquisition unit 14. Further, the energy acquisition unit 14 receives an energy map and corresponding point information (M0-4) between the actual first key frame (F0) and the actual second key frame (F4) from the CPF in FIG. Is done. The energy acquisition part 14 acquires the matching energy of a difference image using these.

まず、取得部14は、第1、第2キーフレーム間の対応点情報(M0−4)をCPFから取得する。これを利用して、差分画像から仮想の第2キーフレーム(F4’)、第1キーフレーム(F0)とたどっていくことで、差分画像のどの画素が第1キーフレーム(F0)のどの画素をシフトしたものに対応しているか、対応関係を取得する。その上で第1キーフレーム上に表されたエネルギーマップ上の各画素のエネルギーを参照し、差分画像の各画素に対応する第1キーフレーム(F0)上の画素のマッチングエネルギーを、差分画像の各画素のマッチングエネルギーとして取得する。差分画像のマッチングエネルギーはこうして求められる。   First, the acquisition unit 14 acquires corresponding point information (M0-4) between the first and second key frames from the CPF. Using this, by tracing the difference image from the virtual second key frame (F4 ′) and the first key frame (F0), which pixel of the difference image is which pixel of the first key frame (F0) Corresponding to the shifted one or the correspondence is acquired. Then, the energy of each pixel on the energy map represented on the first key frame is referred to, and the matching energy of the pixel on the first key frame (F0) corresponding to each pixel of the difference image is determined as the difference image. Obtained as matching energy for each pixel. The matching energy of the difference image is thus obtained.

エネルギー取得部14は、差分画像のマッチングエネルギーを判定部16へと送る。判定部16は差分画像の各画素のマッチングエネルギーを利用して、差分画像のうち高圧縮対象領域を判定し、いずれの領域を高圧縮すべきかの情報を圧縮部12へと通知する。判定は例えば以下のように行われる。判定部16は、差分画像を16X16画素単位のブロックに分割し、各ブロックに含まれる画素の全てについてマッチングエネルギーを所定のしきい値と比較する。比較の結果、ブロック内の全ての画素のマッチングエネルギーがしきい値以下であった場合は、その領域を高圧縮対象ブロックと判定する。   The energy acquisition unit 14 sends the matching energy of the difference image to the determination unit 16. The determination unit 16 uses the matching energy of each pixel of the difference image to determine a region to be highly compressed in the difference image, and notifies the compression unit 12 of information on which region should be highly compressed. The determination is performed as follows, for example. The determination unit 16 divides the difference image into blocks of 16 × 16 pixels, and compares the matching energy with a predetermined threshold value for all the pixels included in each block. As a result of the comparison, if the matching energy of all the pixels in the block is equal to or less than the threshold value, the area is determined as a high compression target block.

圧縮部12は、差分画像をJPEG形式にて圧縮する。この際、判定部16から通知された高圧縮対応領域の情報を利用し、圧縮率を通常の領域と高圧縮対応領域との間で適応的に変化させる。具体的には、高圧縮対象ブロックはDCT係数の量子化幅を通常のブロックに比べて大きくする処理などが利用できる。別の例では、差分画像では、高圧縮対象ブロックの画素値を0にしてしまってからJPEG圧縮をかける処理を行ってもよい。いずれにせよ、マッチングエネルギーが低い領域を高圧縮する理由は以下の考え方による。   The compression unit 12 compresses the difference image in the JPEG format. At this time, the compression rate is adaptively changed between the normal region and the high compression compatible region using the information of the high compression compatible region notified from the determination unit 16. Specifically, a process for increasing the quantization width of the DCT coefficient compared to a normal block can be used for the high compression target block. In another example, in the difference image, the JPEG compression may be performed after the pixel value of the high compression target block is set to 0. In any case, the reason why the region where the matching energy is low is highly compressed is as follows.

すなわち、上述のごとくマッチングエネルギーの低い画素は、キーフレーム間のマッチング結果が良好であるとみなせる。従って、差分画像のうちマッチングエネルギーが低い部分に関しては、現実の第2のキーフレーム(F4)と仮想の第2のキーフレーム(F4’)の間に差分は本来生じにくく、差分が生じているとすればそれはノイズであると考えてよい。よって、差分画像においてマッチングエネルギーが低い領域は、高圧縮による情報の欠落を気にすることなく、他の領域に比べて大幅に圧縮できる。一方、マッチングエネルギーの大きい領域については、マッチングにエラーが生じている可能性もあり、仮想の第2キーフレーム(F4’)と現実の第2キーフレーム(F4)の差分は復号において重要な情報であるため、圧縮率を低くとどめ、復号時の正確性を優先する。   That is, as described above, a pixel having a low matching energy can be regarded as having a good matching result between key frames. Therefore, the difference between the actual second key frame (F4) and the virtual second key frame (F4 ′) is unlikely to occur in the portion of the difference image where the matching energy is low. If so, it may be considered noise. Therefore, an area with low matching energy in the difference image can be compressed much more than other areas without worrying about missing information due to high compression. On the other hand, in a region where the matching energy is large, an error may occur in matching, and the difference between the virtual second key frame (F4 ′) and the actual second key frame (F4) is important information for decoding. Therefore, the compression rate is kept low and priority is given to the accuracy at the time of decoding.

[2]第3の実施の形態によるメリット
以上の処理を経て、圧縮部18は、現実の第2キーフレーム(F4)と仮想の第2キーフレーム(F4’)の圧縮符号化された差分(Δ4)を出力する。本実施形態による符号化装置によれば、現実のキーフレームと仮想のキーフレームの差分情報を、符号化画像をより原画像に忠実に、正確な復号を行うための重要性に応じて適応的に圧縮可能であり、復号の正確性を保ちつつ高い符号化効率が実現できる。重要性とは、もちろん、本実施形態でも第1実施形態に係るメリットを享受できる。
[2] Merits of Third Embodiment Through the above processing, the compression unit 18 performs the compression-coded difference between the actual second key frame (F4) and the virtual second key frame (F4 ′) ( Δ4) is output. According to the encoding apparatus according to the present embodiment, the difference information between the actual key frame and the virtual key frame is adaptively adapted according to the importance of accurately decoding the encoded image more faithfully to the original image. Therefore, high encoding efficiency can be realized while maintaining decoding accuracy. Needless to say, this embodiment can also benefit from the advantages of the first embodiment.

[3]第3の実施の形態の変形技術
本実施形態の変形例として、マッチングエネルギーの大きい画素、中でも近傍の画素の対応傾向と著しく異なる対応傾向を示す画素はマッチングエラーを起こしている場合が多いと経験的に認められることから、マッチングエネルギーが周囲の画素と比べ大幅に異なる画素をマッチングエラーと評価し、これをノイズリダクションに導入することもできる。この場合、DE+NRは、第2キーフレーム(F4)の各画素のマッチングエネルギーを、例えば自身を中心とする9X9画素のブロック内の、他の画素のマッチングエネルギーの平均と比較する。比較の結果両者の差が所定のしきい値を超えている場合、そのような画素はマッチングエラーをおこしていると判定してもよい。
[3] Modified Technology of Third Embodiment As a modified example of the present embodiment, a pixel having a large matching energy, particularly a pixel that exhibits a corresponding tendency that is significantly different from the corresponding tendency of neighboring pixels may cause a matching error. Since it is empirically recognized that there are many, it is possible to evaluate a pixel whose matching energy is significantly different from that of surrounding pixels as a matching error, and to introduce this into noise reduction. In this case, DE + NR compares the matching energy of each pixel of the second key frame (F4) with, for example, the average of the matching energy of other pixels in a 9 × 9 pixel block centered on itself. When the difference between the two exceeds a predetermined threshold as a result of the comparison, it may be determined that such a pixel has caused a matching error.

エラーを起こしている対応情報は復号側にとって無意味なデータであると考えることができ、現実の第2キーフレーム(F4)と仮想の第2キーフレーム(F4’)間の差分情報中では、マッチングエラーを起こしている画素に関するデータはノイズといえる。よって、高圧縮による情報の欠落への配慮を不要とし、DE+NRは、現実のキーフレームと仮想のキーフレーム間の差分画像のうち、現実のキーフレーム間のマッチングエラーに対応する画素を他の画素に比べて高い率で圧縮する。なお、マッチングエラーの判定は、例えば、周囲の画素の動きベクトルの傾向と、注目する画素の動きベクトルの傾向を比較し、注目する画素の動きベクトルが周囲の傾向と著しく異なるか否かをもって行なっても良い。   Corresponding information causing an error can be considered as meaningless data for the decoding side, and in the difference information between the actual second key frame (F4) and the virtual second key frame (F4 ′), Data relating to a pixel causing a matching error can be said to be noise. Therefore, it is unnecessary to consider the loss of information due to high compression, and DE + NR is a pixel that corresponds to a matching error between actual key frames among the difference images between actual key frames and virtual key frames. Compress at a higher rate than The determination of the matching error is performed, for example, by comparing the tendency of the motion vector of the surrounding pixels and the tendency of the motion vector of the pixel of interest, and determining whether the motion vector of the pixel of interest is significantly different from the surrounding tendency. May be.

第3実施形態においても、第2実施形態と同様に、第1、第2キーフレーム(F0、F4)間の中間フレーム(F1〜F3)を考慮し、これら全ての画像フレームの隣り合うそれぞれの組についてマッチングを計算して対応点情報ファイル(M0〜M3)を生成し、それらを統合して第1、第2キーフレーム(F0、F1)間で一つの対応点情報ファイルを得る変形技術が考えられる。第1実施形態の変形技術同様、マッチング精度を向上し、正確な動画復号が実現できる。   Also in the third embodiment, as in the second embodiment, the intermediate frames (F1 to F3) between the first and second key frames (F0, F4) are taken into consideration, and each of these image frames adjacent to each other is considered. There is a modification technique in which matching is calculated for a pair, corresponding point information files (M0 to M3) are generated, and these are integrated to obtain one corresponding point information file between the first and second key frames (F0, F1). Conceivable. Like the modification technique of the first embodiment, matching accuracy can be improved and accurate video decoding can be realized.

さらに、この変形技術では、各画像フレーム間のマッチングエネルギーを計算してそれをシーンチェンジ検出等に応用可能である。シーンチェンジ検出に係る構成は以下のとおりである。まず、CPFはF0とF1、F1とF2、F2とF3,F3とF4・・・それぞれの組について、マッチング計算をおこない、その副産物としてエネルギーマップ、E0、E1、E2、E3・・・を取得する。ここで、ある画像フレーム全体の画素に係るマッチングエネルギーの平均をとり、それを所定のシーンチェンジ検出用しきい値と比較し、その直後の画像を新たなグループとすればよい。例えばF5とF6の間のエネルギーマップE5に基づき、F5とF6のマッチングに係るF5の各画素のマッチングエネルギーを平均した結果、その値がキーフレーム追加用しきい値を越えたとする。この場合、直後のキーフレームすなわちF6以下を新たなグループとし、F6が次のグループの第1キーフレームとすればよい。マッチングエネルギーが大きい場合、画像間に大きな変化があったと考えることができるためである。これにより、自動的なシーンチェンジの検出ができ、シーンチェンジに対応してグループの選定が可能となる。   Furthermore, with this modification technique, the matching energy between the image frames can be calculated and applied to scene change detection and the like. The configuration related to scene change detection is as follows. First, CPF performs matching calculation for each set of F0 and F1, F1 and F2, F2 and F3, F3 and F4, etc., and obtains energy maps, E0, E1, E2, E3,. To do. Here, the average of the matching energy relating to the pixels of an entire image frame is taken and compared with a predetermined threshold for scene change detection, and the image immediately after that is taken as a new group. For example, it is assumed that, as a result of averaging the matching energy of each pixel of F5 related to the matching of F5 and F6 based on the energy map E5 between F5 and F6, the value exceeds the key frame addition threshold value. In this case, the immediately following key frame, that is, F6 and below may be a new group, and F6 may be the first key frame of the next group. This is because when the matching energy is large, it can be considered that there is a large change between images. Thereby, an automatic scene change can be detected, and a group can be selected corresponding to the scene change.

各エネルギーマップに基づいて、各画像フレーム内画素の平均マッチングエネルギーを計算して、これを累積的に加算していき、その値が所定のしきい値を越えた時点でその画像フレームを新たにキーフレームとして登録しても良い。画像フレーム間の変化量の累積がある一定値を越えた時点でキーフレームを追加できれば、より復号時の画質の向上が図れるためである。   Based on each energy map, the average matching energy of the pixels in each image frame is calculated and cumulatively added. When that value exceeds a predetermined threshold, the image frame is newly added. It may be registered as a key frame. This is because if the key frame can be added when the cumulative amount of change between image frames exceeds a certain value, the image quality at the time of decoding can be further improved.

本発明は、画像圧縮処理技術の分野に利用することができる。   The present invention can be used in the field of image compression processing technology.

Claims (22)

画像フレームの列を降順または昇順にF0、F1、・・・、Fn−1、Fn(nは2以上の整数)と表記し、画像フレームFi、Fj(i,j=0,1,・・・,n)間で対応しあう点の位置関係を示す対応点情報をMi−jと表記するとき、
a)F0とFn間でマッチングを計算してM0−nを生成するステップと、
b)F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn上でp0に対応する点pnを算出するステップと、
c)ステップbをF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1、点p2の集合を利用して仮想的なF2、・・・、点pnの集合を利用して仮想的なFnをそれぞれ生成するステップと、
d)仮想的なF1と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組に対し、その組に含まれる画像フレーム間の差分が大きな組Sk(k=1,・・・,n)の有無を所定の判定基準をもとに判定するステップと、
e)差分が大きな組Skが存在する場合、少なくとも、Fh(h=0,1,・・・,k−1)とFk間でマッチングを計算してMh−kを生成するステップと、
f)Mh−kの情報を利用し、M0−nを修正するステップと、
g)少なくともF0と修正されたM0−nを含む形式の符号化データを出力するステップと、
を含むことを特徴とする画像符号化方法。
A sequence of image frames is expressed as F0, F1,..., Fn-1, Fn (n is an integer of 2 or more) in descending or ascending order, and image frames Fi, Fj (i, j = 0, 1,... .., N) When the corresponding point information indicating the positional relationship of the points corresponding to each other is expressed as Mi-j,
a) calculating a match between F0 and Fn to generate M0-n;
b) A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, points p1 corresponding to p0 on F1, points p2 corresponding to p0 on F2, Calculating a point pn corresponding to p0 on Fn;
c) By executing step b for a predetermined number of points on F0, a virtual F1 using a set of points p1 corresponding to the predetermined number of points and a virtual set using points p2 is used. F2,..., Generating virtual Fn using a set of points pn,
d) A set S1 of virtual F1 and real F1, a set S2 of virtual F2 and real F2,..., and a set Sn of virtual Fn and real Fn. Determining the presence or absence of a set Sk (k = 1,..., N) having a large difference between included image frames based on a predetermined determination criterion;
e) When there is a set Sk having a large difference, at least a step of calculating matching between Fh (h = 0, 1,..., k−1) and Fk to generate Mh−k;
f) using the information of Mh-k to correct M0-n;
g) outputting encoded data in a format including at least F0 and the modified M0-n;
An image encoding method comprising:
請求項1に記載の方法において、ステップdは、画像フレーム間の差分の大きさを所定の領域単位で判定することを特徴とする画像符号化方法。   2. The image encoding method according to claim 1, wherein step d determines the magnitude of the difference between image frames in units of a predetermined area. 請求項1に記載の方法において、ステップeは、
e1)差分が大きな組Skが存在する場合、F0とF1間のM0−1、F1とF2間のM1−2、・・・、Fk−1とFk間のM(k−1)−kをそれぞれ求めるステップと、
e2)M0−1、M1−2、・・・、M(k−1)−kを統合してM0−kを生成するステップと、
を含むことを特徴とする画像符号化方法。
The method of claim 1, wherein step e comprises
e1) When there is a set Sk having a large difference, M0-1 between F0 and F1, M1-2 between F1 and F2, ..., M (k-1) -k between Fk-1 and Fk Each step to seek,
e2) integrating M0-1, M1-2, ..., M (k-1) -k to generate M0-k;
An image encoding method comprising:
請求項3に記載の方法において、ステップe2は、M0−1によってp0に対応するp1を求め、M1−2によってp1に対応するp2を求め、・・・、M(k−1)−kによってpk−1に対応するpkを求め、p0に対応する点をp1、p2、・・・、pkと順に特定することにより、最終的にp0に対応するpkを特定してM0−kを生成することを特徴とする画像符号化方法。   The method according to claim 3, wherein step e2 obtains p1 corresponding to p0 by M0-1, obtains p2 corresponding to p1 by M1-2, ..., by M (k-1) -k. pk corresponding to pk-1 is obtained, and points corresponding to p0 are specified in order of p1, p2,..., pk, and finally pk corresponding to p0 is specified to generate M0-k. An image encoding method characterized by the above. 請求項4に記載の方法において、ステップfは、M0−kの情報を利用し、p0がpkを経てpnへ至る軌跡を示す形式にて、修正されたM0−nを生成することを特徴とする画像符号化方法。   5. The method of claim 4, wherein step f uses the information of M0-k to generate a modified M0-n in a form that indicates a trajectory where p0 passes through pk to pn. An image encoding method to be performed. 請求項1に記載の方法において、ステップdにて差分が大きな組Skが存在することが判明した場合、ステップgはF0と修正されたM0−nに加え、組Skにおける差分の情報を含む形式の符号化データを出力することを特徴とする画像符号化方法。   The method according to claim 1, wherein if it is found in step d that a set Sk having a large difference exists, step g includes a difference information in the set Sk in addition to F0 and M0-n modified. An image encoding method characterized in that the encoded data is output. 請求項6に記載の方法において、組Skにおける差分の情報は、画像フレームの中で差分が大きかった領域についてのみ符号化データへ含められることを特徴とする画像符号化方法。   7. The image encoding method according to claim 6, wherein the difference information in the set Sk is included in the encoded data only for a region having a large difference in the image frame. 請求項7に記載の方法において、差分とともに、少なくともkの値と前記領域の位置情報が符号化データへ含められることを特徴とする画像符号化方法。   8. The method according to claim 7, wherein at least a value of k and position information of the region are included in the encoded data together with the difference. 請求項8に記載の方法において、差分は圧縮処理を受けた後、符号化データへ含められることを特徴とする画像符号化方法。   9. The image encoding method according to claim 8, wherein the difference is included in the encoded data after being subjected to compression processing. 画像フレームの列を降順または昇順にF0、F1、・・・、Fn−1、Fn(nは2以上の整数)と表記し、画像フレームFi、Fj(i,j=0,1,・・・,n)間で対応しあう点の位置関係を示す対応点情報をMi−jと表記するとき、
F0とFn間でマッチングを計算してM0−nを生成するマッチング処理部と、
F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn上でp0に対応する点pnを算出する処理をF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1、点p2の集合を利用して仮想的なF2、・・・、点pnの集合を利用して仮想的なFnをそれぞれ生成する中間フレーム生成部と、
仮想的なF1と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組に対し、その組に含まれる画像フレーム間の差分が大きな組Sk(k=1,・・・,n)の有無を所定の判定基準をもとに判定する判定部と、
を備え、前記マッチング処理部は、差分が大きな組Skが存在する場合、少なくとも、Fh(h=0,1,・・・,k−1)とFk間でマッチングを計算してMh−kを生成し、このMh−kの情報を利用してM0−nを修正し、本装置はさらに、少なくともF0と修正されたM0−nを含む形式の符号化データを出力する出力部を含むことを特徴とする画像符号化装置。
A sequence of image frames is expressed as F0, F1,..., Fn-1, Fn (n is an integer of 2 or more) in descending or ascending order, and image frames Fi, Fj (i, j = 0, 1,... .., N) When the corresponding point information indicating the positional relationship of the points corresponding to each other is expressed as Mi-j,
A matching processing unit that calculates matching between F0 and Fn and generates M0-n;
A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, the point p1 corresponding to p0 on F1, the point p2 corresponding to p0 on F2,. By executing a process for calculating a point pn corresponding to p0 on Fn for a predetermined number of points on F0, a virtual F1, a point p2 using a set of points p1 corresponding to the predetermined number of points An intermediate frame generation unit that generates a virtual Fn using a set of virtual F2,...
A set S1 of virtual F1 and real F1, S2 of virtual F2 and real F2,..., And a set Sn of virtual Fn and real Fn are included in the set. A determination unit that determines the presence or absence of a set Sk (k = 1,..., N) having a large difference between image frames based on a predetermined determination criterion;
The matching processing unit calculates Mh−k by calculating a matching between at least Fh (h = 0, 1,..., K−1) and Fk when a set Sk having a large difference exists. And M0-n is corrected using the information of Mh-k, and the apparatus further includes an output unit that outputs encoded data in a format including at least F0 and the corrected M0-n. An image encoding device.
3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行するステップと、
マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成するステップと、
画像上のいずれかの領域について、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定する判定ステップと、
両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データを生成し、さらに、前記判定ステップにおいて、許容値以上の差分を有する領域が存在すると判定された場合には、その領域に関する差分情報を前記符号化データに含めて生成するステップと、
を含むことを特徴とする画像符号化方法。
Performing a matching calculation between both end image frames of an image group including three or more image frames;
A step of virtually generating an intermediate image frame sandwiched between both end image frames based on the corresponding point information between the both end image frames obtained as a result of the matching calculation by interpolation,
For any region on the image, determine whether any of the virtually generated intermediate image frames has a difference greater than the allowable value from the actual intermediate image frame based on a predetermined criterion. A determination step to:
Encoded data including at least one of the two-end image frames and corresponding point information is generated, and if it is determined in the determination step that there is a region having a difference greater than or equal to an allowable value, Generating differential information in the encoded data; and
An image encoding method comprising:
3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行するマッチング処理部と、
マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する中間フレーム生成部と、
画像上のいずれかの領域について、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定する判定部と、
両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データを出力し、さらに、前記判定部において、許容値以上の差分を有する領域が存在すると判定された場合には、その領域に関する差分情報を出力する出力部と、
を含むことを特徴とする画像符号化装置。
A matching processing unit for performing a matching calculation between both end image frames of an image group including three or more image frames;
Based on the corresponding point information between the two end image frames obtained as a result of the matching calculation, an intermediate frame generating unit that virtually generates an intermediate image frame sandwiched between the two end image frames by interpolation, and
For any region on the image, determine whether any of the virtually generated intermediate image frames have a difference greater than the allowable value from the actual intermediate image frame based on a predetermined criterion. A determination unit to perform,
Output encoded data including at least one of the both-end image frames and the corresponding point information, and if the determination unit determines that there is a region having a difference greater than or equal to an allowable value, An output unit for outputting difference information;
An image encoding device comprising:
画像フレームの列を降順または昇順にF0、F1、・・・、Fn−1、Fn(nは2以上の整数)と表記し、画像フレームFi、Fj(i,j=0,1,・・・,n)間で対応しあう点の位置関係を示す対応点情報をMi−jと表記するとき、
p)少なくともF0、M0−nおよび所定の差分情報を含む形式の符号化データを入力するステップと、
q)F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn−1上でp0に対応する点pn−1を算出するステップと、
r)ステップqをF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1、点p2の集合を利用して仮想的なF2、・・・、点pnの集合を利用して仮想的なFnをそれぞれ生成するステップと、
s)仮想的なF1と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組のうち、前記差分情報が与えられているSk(k=1,・・・,n)を特定するステップと、
t)仮想的なFkに対し、前記差分情報によって定まる差分を加算することにより、修正された仮想的なFkを生成するステップと、
u)復号結果として、F0、仮想的なF1、仮想的なF2、・・・、修正された仮想的なFk、仮想的なFk+1、・・・、仮想的なFn−1を出力するステップと、
を含むことを特徴とする画像復号方法。
A sequence of image frames is expressed as F0, F1,..., Fn-1, Fn (n is an integer of 2 or more) in descending or ascending order, and image frames Fi, Fj (i, j = 0, 1,... .., N) When the corresponding point information indicating the positional relationship of the points corresponding to each other is expressed as Mi-j,
p) inputting encoded data in a format including at least F0, M0-n and predetermined difference information;
q) A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, the point p1 corresponding to p0 on F1, the point p2 corresponding to p0 on F2, Calculating a point pn-1 corresponding to p0 on Fn-1;
r) By executing step q for a predetermined number of points on F0, a virtual F1 using a set of points p1 corresponding to the predetermined number of points and a virtual using a set of points p2 F2,..., Generating virtual Fn using a set of points pn,
s) The difference information among a set S1 of a virtual F1 and a real F1, a set S2 of a virtual F2 and a real F2, ..., a set Sn of a virtual Fn and a real Fn Specifying Sk (k = 1,..., N) to which
t) generating a modified virtual Fk by adding a difference determined by the difference information to the virtual Fk;
u) outputting F0, virtual F1, virtual F2,..., modified virtual Fk, virtual Fk + 1,..., virtual Fn-1 as decoding results; ,
An image decoding method comprising:
請求項13に記載の方法において、前記差分情報は画像フレーム間の差分が大きな領域についてのみ差分を記述しており、ステップtは差分を加算する際、前記領域の位置情報を特定することを特徴とする画像復号方法。   14. The method according to claim 13, wherein the difference information describes a difference only for a region having a large difference between image frames, and step t specifies position information of the region when adding the difference. An image decoding method. 請求項13に記載の方法において、前記差分情報は圧縮されており、ステップtは前記差分情報を伸長してから加算することを特徴とする画像復号方法。   14. The image decoding method according to claim 13, wherein the difference information is compressed, and step t adds the difference information after expanding the difference information. 請求項13に記載の方法において、M0−nは、p0がpkを経てpnへ至る軌跡を示す形式にて生成されていることを特徴とする画像復号方法。   14. The image decoding method according to claim 13, wherein M0-n is generated in a format indicating a trajectory where p0 reaches pn via pk. 画像フレームの列を降順または昇順にF0、F1、・・・、Fn−1、Fn(nは2以上の整数)と表記し、画像フレームFi、Fj(i,j=0,1,・・・,n)間で対応しあう点の位置関係を示す対応点情報をMi−jと表記するとき、
少なくともF0、M0−nおよび所定の差分情報を含む形式の符号化データを入力する入力部と、
F0上の点p0をM0−nによってFn上の対応する点pnに移動させる経路をn分割し、F1上でp0に対応する点p1、F2上でp0に対応する点p2、・・・、Fn−1上でp0に対応する点pn−1を算出する処理をF0上の所定数の点について実行することにより、当該所定数の点に対応する点p1の集合を利用して仮想的なF1、点p2の集合を利用して仮想的なF2、・・・、点pnの集合を利用して仮想的なFnをそれぞれ生成する中間フレーム生成部と、
仮想的なF1と現実のF1の組S1、仮想的なF2と現実のF2の組S2、・・・、仮想的なFnと現実のFnの組Snの各組のうち、前記差分情報が与えられているSk(k=1,・・・,n)を特定する特定部と、
仮想的なFkに対し、前記差分情報によって定まる差分を加算することにより、修正された仮想的なFkを生成する中間フレーム修正部と、
復号結果として、F0、仮想的なF1、仮想的なF2、・・・、修正された仮想的なFk、仮想的なFk+1、・・・、仮想的なFn−1を出力する出力部と、
を含むことを特徴とする画像復号装置。
A sequence of image frames is expressed as F0, F1,..., Fn-1, Fn (n is an integer of 2 or more) in descending or ascending order, and image frames Fi, Fj (i, j = 0, 1,... .., N) When the corresponding point information indicating the positional relationship of the points corresponding to each other is expressed as Mi-j,
An input unit for inputting encoded data in a format including at least F0, M0-n, and predetermined difference information;
A path for moving the point p0 on F0 to the corresponding point pn on Fn by M0-n is divided into n points, the point p1 corresponding to p0 on F1, the point p2 corresponding to p0 on F2,. By executing a process of calculating a point pn-1 corresponding to p0 on Fn-1 for a predetermined number of points on F0, a virtual set using the set of points p1 corresponding to the predetermined number of points is used. F1, an intermediate frame generation unit that generates a virtual Fn using a set of points pn, a virtual F2,.
The difference information is given by each of a pair S1 of a virtual F1 and a real Fn, a pair S2 of a virtual F2 and a real F2,... A specifying unit that specifies Sk (k = 1,..., N)
An intermediate frame correction unit that generates a corrected virtual Fk by adding a difference determined by the difference information to the virtual Fk;
An output unit that outputs F0, virtual F1, virtual F2,..., Modified virtual Fk, virtual Fk + 1,.
An image decoding apparatus comprising:
3以上の画像フレームを含む画像グループの両端画像フレームのうちの一方と、それら両端画像フレーム間の対応点情報と、所定の差分情報とを含む符号化データを入力するステップと、
前記対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成するステップと、
仮想的に生成された中間画像フレームそれぞれとそれに対応する現実の中間画像フレームとによる組のうち、差分が大きな組として符号化データ内に記述された組の中間画像フレームの画像上にて差分が大きい領域を特定するステップと、
差分が大きな組に含まれる仮想的な画像フレームに対し、前記領域における差分を加算することにより、修正された仮想的な画像フレームを生成するステップと、
復号結果として、両端画像フレームのうちの一方と、差分が大きな組については修正された仮想的な中間画像フレームと、それ以外の組については仮想的な中間画像フレームとを復号データとして出力するステップと、
を含むことを特徴とする画像復号方法。
Inputting encoded data including one of both end image frames of an image group including three or more image frames, corresponding point information between the both end image frames, and predetermined difference information;
Based on the corresponding point information, virtually generating an intermediate image frame sandwiched between both end image frames by interpolation; and
Among the sets of virtually generated intermediate image frames and the corresponding actual intermediate image frames, the difference is present on the intermediate image frame image of the set described in the encoded data as a set having a large difference. Identifying a large area;
Generating a corrected virtual image frame by adding a difference in the region to a virtual image frame included in a set having a large difference; and
A step of outputting, as decoded data, one of both-end image frames, a virtual intermediate image frame corrected for a set having a large difference, and a virtual intermediate image frame for the other set as decoded data. When,
An image decoding method comprising:
3以上の画像フレームを含む画像グループの両端画像フレームのうちの一方と、それら両端画像フレーム間の対応点情報と、所定の差分情報とを含む符号化データを入力する入力部と、
前記対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する中間フレーム生成部と、
仮想的に生成された中間画像フレームそれぞれとそれに対応する現実の中間画像フレームとによる組のうち、差分が大きな組として符号化データ内に記述された組の中間画像フレームの画像上にて差分が大きい領域を特定する領域特定部と、
差分が大きな組に含まれる仮想的な画像フレームに対し、前記領域における差分を加算することにより、修正された仮想的な画像フレームを生成する中間フレーム修正部と、
復号結果として、両端画像フレームのうちの一方と、差分が大きな組については修正された仮想的な中間画像フレームと、それ以外の組については仮想的な中間画像フレームとを復号データとして出力する出力部と、
を含むことを特徴とする画像復号装置。
An input unit that inputs encoded data including one of both end image frames of an image group including three or more image frames, corresponding point information between the both end image frames, and predetermined difference information;
Based on the corresponding point information, an intermediate frame generation unit that virtually generates an intermediate image frame sandwiched between both end image frames by interpolation, and
Of the pair of virtually generated intermediate image frames and the corresponding actual intermediate image frame, the difference is present on the intermediate image frame image of the set described in the encoded data as a set having a large difference. An area specifying unit for specifying a large area;
An intermediate frame correction unit that generates a corrected virtual image frame by adding a difference in the region to a virtual image frame included in a set having a large difference; and
As a decoding result, an output that outputs one of the two-end image frames, a virtual intermediate image frame that has been modified for a set with a large difference, and a virtual intermediate image frame for the other set as decoded data And
An image decoding apparatus comprising:
請求項11に記載の画像符号化方法の各ステップをコンピュータに実行せしめることを特徴とするコンピュータプログラム。   A computer program causing a computer to execute each step of the image encoding method according to claim 11. 請求項18に記載の画像復号方法の各ステップをコンピュータに実行せしめることを特徴とするコンピュータプログラム。   A computer program causing a computer to execute each step of the image decoding method according to claim 18. 画像符号化ユニットと画像復号ユニットとを有する画像処理システムにおいて、
画像符号化ユニットは、
3以上の画像フレームを含む画像グループの両端画像フレーム間でマッチング計算を実行するマッチング処理部と、
マッチング計算の結果得られた両端画像フレーム間の対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する符号化側中間フレーム生成部と、
画像上のいずれかの領域について、仮想的に生成された中間画像フレームのうちいずれかが、現実の中間画像フレームと許容値以上の差分を有するか否かを所定の判定基準のもとで判定する判定部と、
両端画像フレームのうち少なくとも一方と、対応点情報とを含む符号化データをメモリへ書き込み、さらに許容値以上の差分を有する領域が存在すると判定された場合、その領域に関する差分情報を書き込む書込制御部とを備え、
画像復号ユニットは、
前記メモリから符号化データを読み出す読出制御部と、
符号化データに含まれる画像フレームのデータと対応点情報をもとに、両端画像フレームに挟まれる中間画像フレームを内挿補間によって仮想的に生成する復号側中間フレーム生成部と、
符号化データに差分情報が含まれる領域を特定する領域特定部と、
特定された領域を含む仮想的な画像フレームに対し、前記領域における差分を加算することにより、修正された仮想的な画像フレームを生成する中間フレーム修正部と、
復号結果として、両端画像フレームのうちの一方または双方と、前記領域を含む仮想的な画像フレームについては修正された仮想的な中間画像フレームと、前記領域を含まない仮想的な画像フレームについてはその仮想的な中間画像フレーム自体とを復号データとして出力する出力部と、
を含むことを特徴とする画像処理システム。
In an image processing system having an image encoding unit and an image decoding unit,
The image encoding unit is
A matching processing unit for performing a matching calculation between both end image frames of an image group including three or more image frames;
Based on the corresponding point information between the two-end image frames obtained as a result of the matching calculation, an encoding-side intermediate frame generation unit that virtually generates an intermediate image frame sandwiched between the two-end image frames by interpolation,
For any region on the image, determine whether any of the virtually generated intermediate image frames have a difference greater than the allowable value from the actual intermediate image frame based on a predetermined criterion. A determination unit to perform,
Write control in which encoded data including at least one of both-end image frames and corresponding point information is written to the memory, and if it is determined that there is an area having a difference greater than or equal to an allowable value, difference information regarding the area is written With
The image decoding unit is
A read control unit for reading encoded data from the memory;
A decoding-side intermediate frame generation unit that virtually generates an intermediate image frame sandwiched between both-end image frames by interpolation based on image frame data and corresponding point information included in the encoded data;
An area specifying unit for specifying an area in which difference information is included in encoded data;
An intermediate frame correction unit that generates a corrected virtual image frame by adding a difference in the region to a virtual image frame including the identified region;
As a decoding result, one or both of the two end image frames, a virtual intermediate image frame modified for a virtual image frame including the region, and a virtual image frame not including the region An output unit that outputs the virtual intermediate image frame itself as decoded data;
An image processing system comprising:
JP2007550070A 2005-12-12 2006-05-08 Image encoding and decoding method and apparatus Withdrawn JPWO2007069350A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005357730 2005-12-12
JP2005357730 2005-12-12
PCT/JP2006/309233 WO2007069350A1 (en) 2005-12-12 2006-05-08 Image encoding and decoding method and device

Publications (1)

Publication Number Publication Date
JPWO2007069350A1 true JPWO2007069350A1 (en) 2009-05-21

Family

ID=38162668

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007550070A Withdrawn JPWO2007069350A1 (en) 2005-12-12 2006-05-08 Image encoding and decoding method and apparatus

Country Status (2)

Country Link
JP (1) JPWO2007069350A1 (en)
WO (1) WO2007069350A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7321464B2 (en) * 2021-04-12 2023-08-07 モリカトロン株式会社 Extraction program, image generation program, extraction method, image generation method, extraction device, and image generation device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06268997A (en) * 1993-03-16 1994-09-22 Olympus Optical Co Ltd Moving image compression device
JP3823370B2 (en) * 1996-04-15 2006-09-20 ソニー株式会社 Video encoding method, decoding method and apparatus
JP3859989B2 (en) * 2000-10-30 2006-12-20 株式会社モノリス Image matching method and image processing method and apparatus capable of using the method
JP2003018602A (en) * 2001-04-24 2003-01-17 Monolith Co Ltd Method and device for encoding and decoding image data
JP2004048595A (en) * 2002-07-15 2004-02-12 Monolith Co Ltd Method and device of image encoding

Also Published As

Publication number Publication date
WO2007069350A1 (en) 2007-06-21

Similar Documents

Publication Publication Date Title
JP3889233B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
JPWO2005122593A1 (en) Video encoding method and video decoding method
JP2008282377A (en) Image processing method and apparatus
JP2008252860A (en) Image processing method and image processing apparatus
JP2008282376A (en) Image processing method and apparatus
JP3877651B2 (en) Image processing method and apparatus
JP4050472B2 (en) Image generation method, apparatus and system
JP4157686B2 (en) Method and apparatus for image encoding and decoding
JP4039858B2 (en) Image matching method and apparatus, and image encoding method and apparatus
JP3801870B2 (en) Multivariate spatial processing device
JP2003037842A (en) Picture coding method, decoding method, picture coder and decoder
JP2007122751A (en) Method, device and program for image processing
JPWO2007069350A1 (en) Image encoding and decoding method and apparatus
JP2007288614A (en) Image compression method and device, and moving image encoding method
JP3839353B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
JP4524412B2 (en) Image encoding method, decoding method, image encoding device, and decoding device
JPWO2007069320A1 (en) Video encoding method and video decoding method
JP3773417B2 (en) Method and apparatus for image data encoding and decoding
JP4220735B2 (en) Image processing method and image processing apparatus
JP2003274399A (en) Method and device for image encoding, and method and device for image decoding
JP2004048595A (en) Method and device of image encoding
JP2007174690A (en) Image encoding method, image decoding method, image encoding device and image decoding device
JP3828048B2 (en) Image encoding method and apparatus, and image decoding method and apparatus
WO2007072543A1 (en) Moving picture coding method
JP2004048496A (en) Image encoding method and device, image decoding method and device, and image distributing device

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under section 19 (pct)

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20080610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080610

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080613

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20080820

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20090608

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090724