JP5941097B2 - Method and apparatus for texture compression using patch-based sampling texture synthesis - Google Patents

Method and apparatus for texture compression using patch-based sampling texture synthesis Download PDF

Info

Publication number
JP5941097B2
JP5941097B2 JP2014110640A JP2014110640A JP5941097B2 JP 5941097 B2 JP5941097 B2 JP 5941097B2 JP 2014110640 A JP2014110640 A JP 2014110640A JP 2014110640 A JP2014110640 A JP 2014110640A JP 5941097 B2 JP5941097 B2 JP 5941097B2
Authority
JP
Japan
Prior art keywords
texture
input
patch
picture
displacement vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014110640A
Other languages
Japanese (ja)
Other versions
JP2014180043A (en
Inventor
イン ペン
ペン イン
マクドナルド ボイス ジル
マクドナルド ボイス ジル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to JP2014110640A priority Critical patent/JP5941097B2/en
Publication of JP2014180043A publication Critical patent/JP2014180043A/en
Application granted granted Critical
Publication of JP5941097B2 publication Critical patent/JP5941097B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、全体としてビデオコーディング及びデコーディングに関し、特に、テクスチャ圧縮の方法及び装置に関する。   The present invention relates generally to video coding and decoding, and more particularly to a texture compression method and apparatus.

多くのイメージ及びビデオコーディング規格、勧告、及びそれらの拡張(本明細書においては、以下まとめてビデオコーディング規格と称する)が存在しているが、テクスチャ圧縮は、十分に開発されていない技術である。第一に、現在のビデオコーディング規格のほとんどは、変形ベースの方法を使用して、ビデオピクチャをエンコーディングする。特定のビデオピクチャのテクスチャの詳細を保存するために、このような方法は、非常に多くのビットを必要とする。特に、イメージが大きなテクスチャ背景を含んでいる場合にそうである。   Although there are many image and video coding standards, recommendations, and extensions (hereinafter collectively referred to as video coding standards), texture compression is a technique that has not been fully developed. . First, most current video coding standards encode video pictures using a deformation-based method. Such a method requires a very large number of bits to preserve the texture details of a particular video picture. This is especially true when the image contains a large texture background.

一般的に、イメージエリアは、フラットリージョン、エッジリージョン、またはテクスチャリージョンに分類可能である。現在のビデオコーディング規格の多くは、このようなピクチャ内に含まれるリージョンのタイプに関わらず、一般的にビデオピクチャに適用される変換ベースの方法を採用する。このような変換ベースの方法が、ビデオピクチャのテクスチャリージョンに適用される場合、フィルタリング等の操作を通して後に処分される一連の高周波成分が生成される。従って、圧縮の間にテクスチャの詳細を保存するのは非常に難しい。なぜならば、このようなリージョンは、通常はこのような高周波成分に関連し、このようなテクスチャリージョンを反映しているからである。   In general, an image area can be classified into a flat region, an edge region, or a texture region. Many current video coding standards employ transformation-based methods that are generally applied to video pictures, regardless of the type of region contained within such pictures. When such a transform-based method is applied to a texture region of a video picture, a series of high frequency components are generated that are later disposed of through operations such as filtering. Therefore, it is very difficult to preserve texture details during compression. This is because such a region is usually associated with such a high frequency component and reflects such a texture region.

テクスチャ合成は、コンピュータビジョン(computer vision)及びコンピュータグラフィクスアプリケーションの両方において使用され、その高い複雑性故に、テクスチャ合成は、イメージ及びビデオ圧縮操作に頻繁には使用されない。テクスチャ合成に関する方法によれば、テクスチャは、ある程度の固定した分布を有する有限二次元(2D)平面上のいくつかの視覚的パターンとして定義され得る。テクスチャ合成の目的は、以下に説明される:特定のテクスチャサンプルが与えられた場合、人間の監視者によって受け取られた場合に、当該テクスチャサンプルと同じ潜在する確率論的な処理によって生成されるようにみえる新しいテクスチャが合成される。   Texture synthesis is used in both computer vision and computer graphics applications, and because of its high complexity, texture synthesis is not frequently used for image and video compression operations. According to the method for texture synthesis, a texture can be defined as several visual patterns on a finite two-dimensional (2D) plane with some fixed distribution. The purpose of texture synthesis is explained below: given a particular texture sample, it is generated by the same latent probabilistic processing as that texture sample when received by a human observer. A new texture appears.

テクスチャ合成操作を実行する1つの方法は、特徴空間内の全体統計及びテクスチャアンサンブル(ensemble)からのサンプルイメージを直接的に決定する。このテクスチャ合成操作は、モデルベースのコーディングの一形式である。エンコーダにおいて、このようなテクスチャ合成操作を実行するために、イメージは、最初にテクスチャに関して解析され、当該テクスチャのパラメータが評価されてコーディングされる。デコーダにおいて、これらのパラメータは、データビットストリームから抽出され、モデル化されたテクスチャを再構築するために使用される。特に、テクスチャは、抽出されたパラメータからの確率分布を判定することによってデコーダにおいて再構築される。テクスチャ合成のこの方法の欠点は、エンコーダ及びデコーダの両方において、テクスチャを解析及び再構築するために要求される高い複雑性である。   One way to perform a texture synthesis operation is to directly determine global statistics in the feature space and sample images from the texture ensemble. This texture synthesis operation is a form of model-based coding. In order to perform such a texture synthesis operation at the encoder, the image is first analyzed with respect to the texture and the parameters of the texture are evaluated and coded. At the decoder, these parameters are extracted from the data bitstream and used to reconstruct the modeled texture. In particular, the texture is reconstructed at the decoder by determining the probability distribution from the extracted parameters. The disadvantage of this method of texture synthesis is the high complexity required to analyze and reconstruct the texture in both the encoder and decoder.

従来技術のこれらの及び他の欠点及び短所は、パッチベースのサンプリングテクスチャ合成を使用したテクスチャ圧縮の方法及び装置に関する本発明の原理によって解決される。   These and other deficiencies and disadvantages of the prior art are overcome by the principles of the present invention relating to a method and apparatus for texture compression using patch-based sampled texture synthesis.

本発明の原理の態様によれば、装置が提供される。当該装置は、テクスチャを合成することによってピクチャに関するテクスチャをエンコーディングするエンコーダを含む。当該エンコーダは、パッチベースのサンプリング方法を使用したテクスチャの合成の際にエンコーダにデコーディング複雑性操作を移動させるための情報を使用する。   In accordance with an aspect of the principles of the present invention, an apparatus is provided. The apparatus includes an encoder that encodes a texture for a picture by synthesizing the texture. The encoder uses information to move the decoding complexity operation to the encoder during texture synthesis using the patch-based sampling method.

本発明の原理の他の態様によれば、方法が提供される。当該方法は、テクスチャを合成することによってピクチャに関するテクスチャをエンコーディングするステップを含む。当該エンコーディングステップは、パッチベースのサンプリング方法を使用したテクスチャの合成の際にエンコーダにデコーディング複雑性操作を移動させるための情報を使用する。   According to another aspect of the present principles, a method is provided. The method includes encoding the texture for the picture by synthesizing the texture. The encoding step uses information for moving the decoding complexity operation to the encoder during texture synthesis using the patch-based sampling method.

本発明の原理のさらに他の態様によれば、装置が提供される。当該装置は、テクスチャを合成することによってピクチャに関するテクスチャをデコーディングするデコーダを含む。当該デコーダは、パッチベースのサンプリング方法を使用したテクスチャの合成の際にエンコーダにデコーディング複雑性操作を移動させるように構成された情報を使用する。   In accordance with yet another aspect of the present principles, an apparatus is provided. The apparatus includes a decoder that decodes the texture for a picture by synthesizing the texture. The decoder uses information configured to move the decoding complexity operation to the encoder during texture synthesis using the patch-based sampling method.

本発明の原理のさらなる態様によれば、方法が提供される。当該方法は、テクスチャを合成することによってピクチャに関するテクスチャをデコーディングするステップを含む。当該デコーディングステップは、パッチベースのサンプリング方法を使用したテクスチャの合成の際にエンコーダにデコーディング複雑性操作を移動させるための情報を使用する。   According to a further aspect of the present principles, a method is provided. The method includes the step of decoding the texture for the picture by synthesizing the texture. The decoding step uses information for moving the decoding complexity operation to the encoder during texture synthesis using the patch-based sampling method.

本発明の原理のこれらの及び他の態様、特徴及び利点は、添付の図面とともに読まれる以下の例示の実施形態の詳細な説明から明らかになるであろう。   These and other aspects, features and advantages of the principles of the present invention will become apparent from the following detailed description of exemplary embodiments, read in conjunction with the accompanying drawings.

本発明の原理は、以下の例示の図によってさらに良く理解されるだろう。
一般的なパッチベースサンプリング法の図である。 本発明の原理の実施形態によるパッチベースサンプリング法の図である。 本発明の原理の実施形態に従った、本発明の原理が適用される例示のビデオエンコーダのブロック図である。 本発明の原理の実施形態に従った、本発明の原理が適用される例示のビデオデコーダのブロック図である。 本発明の原理の実施形態に従った、パッチベースのサンプリングテクスチャ合成を使用する例示のビデオテクスチャエンコーディング法のフロー図である。 本発明の原理の実施形態に従った、パッチベースのサンプリングテクスチャ合成を使用する例示のビデオテクスチャデコーディング法のフロー図である。
The principles of the present invention will be better understood with reference to the following illustrative figures.
It is a figure of the general patch base sampling method. FIG. 3 is a diagram of a patch-based sampling method according to an embodiment of the present principles. 1 is a block diagram of an exemplary video encoder to which the principles of the present invention are applied, in accordance with an embodiment of the principles of the present invention. FIG. 3 is a block diagram of an exemplary video decoder to which the principles of the present invention are applied, in accordance with an embodiment of the principles of the present invention. FIG. 3 is a flow diagram of an exemplary video texture encoding method using patch-based sampling texture synthesis, in accordance with an embodiment of the present principles. FIG. 3 is a flow diagram of an exemplary video texture decoding method using patch-based sampling texture synthesis in accordance with an embodiment of the present principles.

本発明の原理は、サンプリングテクスチャ合成を使用したテクスチャ圧縮の方法及び装置に関する。   The principles of the present invention relate to a method and apparatus for texture compression using sampled texture synthesis.

本説明は、本発明の原理を示す。従って、この発明の発明を実施するための形態を読んだ本技術分野の当業者が、本明細書内に明示的に説明及び図示されていなくとも、本発明の原理を包含する様々な構成を考案可能であることが理解される。
原理、態様及び本発明の原理の実施形態、並びに本発明の原理の特定の例を列挙している本明細書内の全ての記述は、それらの構造的及び機能的均等物の両方を包含することが意図されている。さらに、このような均等物は、現在知られている均等物及び将来開発される均等物、すなわち構造にかかわらず同一の機能を実行する開発された全ての要素を含むと意図される。
This description illustrates the principles of the invention. Accordingly, those skilled in the art who have read the detailed description of the invention will appreciate the various configurations encompassing the principles of the invention even though not explicitly described and illustrated herein. It is understood that it can be devised.
All statements herein reciting principles, aspects and embodiments of the principles of the invention, as well as specific examples of the principles of the invention, include both their structural and functional equivalents. Is intended. Furthermore, such equivalents are intended to include presently known equivalents and future equivalents, i.e., all elements developed that perform the same function regardless of structure.

従って、例えば、本明細書において表されているブロック図が、本発明の原理を含む例示の回路の概念的視点を示していることが、本技術分野の当業者によって理解されるだろう。同様に、フローチャート、フロー図、状態遷移図、擬似コード等が、実質的にコンピュータ可読媒体内に表現されてコンピュータまたはプロセッサによって実行され得る様々なプロセスを示し、本技術分野の当業者が本明細書の様々な開示からコンピュータコードを開発可能であることが理解されるだろう。   Thus, for example, it will be appreciated by those skilled in the art that the block diagrams depicted herein illustrate a conceptual view of an exemplary circuit that includes the principles of the present invention. Similarly, flowcharts, flow diagrams, state transition diagrams, pseudocode, etc., represent various processes that may be substantially represented in a computer-readable medium and executed by a computer or processor, and are described herein by one of ordinary skill in the art. It will be appreciated that computer code can be developed from various disclosures in the document.

図面内に示されている様々な要素の機能は、専用のハードウェア及び適切なソフトウェに関連しているソフトウェアを実行可能なハードウェアの使用によってもたらされ得る。プロセッサによってもたらされる場合、当該機能は、単一の専用プロセッサによってか、単一の共有プロセッサによってか、またはいくつかが共有されていてもよい複数の別個のプロセッサによってもたらされ得る。さらに、「プロセッサ」または「コントローラ」の明示的な使用は、ソフトウェアを実行可能なハードウェアだけをいうと理解されるべきではなく、限定無しに、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを保存するためのROM(read only memory)、RAM(random access memory)、グラフィックプロセッサ(GPU)、及び不揮発性記憶装置を非明示的に含み得る。   The functionality of the various elements shown in the drawings may be brought about by the use of dedicated hardware and hardware capable of executing software associated with the appropriate software. If provided by a processor, the functionality may be provided by a single dedicated processor, by a single shared processor, or by multiple separate processors, some of which may be shared. Furthermore, the explicit use of “processor” or “controller” should not be understood as referring only to hardware capable of executing software, but without limitation, storing digital signal processor (DSP) hardware, software ROM (read only memory), RAM (random access memory), graphics processor (GPU), and non-volatile storage may be included implicitly.

他のハードウェア、従来の及び/またはカスタムのもの、も含まれ得る。同様に、図面内に示されているスイッチは、単に概念的なものである。これらの機能は、プログラムロジックの動作を介して、専用のロジックを介して、プログラム制御の命令及び専用のロジックを介して、または手動で実行され得、特定の技術が、文脈からさらによく理解されるように、実装者によって選択されることが可能である。   Other hardware, conventional and / or custom, may also be included. Similarly, the switches shown in the drawings are merely conceptual. These functions can be performed through the operation of program logic, through dedicated logic, through program controlled instructions and dedicated logic, or manually, and certain techniques are better understood from context. As such, it can be selected by the implementer.

本願の特許請求の範囲において、特定の機能を実行するための手段として表されている任意の要素は、例えば、a)その機能を実行する回路要素の組み合わせ、またはb)ソフトウェアを実行して当該機能をなすための適切な回路と組み合わされたファームウェア、マイクロコード等を含む任意の形式のソフトウェア、を含む当該機能を実行する任意の方法を含むと意図されている。当該特許請求の範囲によって画定される本発明の原理は、開示されている様々な手段によって提供される機能が、特許請求の範囲に記載の態様にて組み合わされかつ共に編成されるという事実の中に存在する。従って、これらの機能を提供可能な全ての手段は、本明細書において示されているものと均等であるとされる。   In the claims of this application, any element represented as a means for performing a particular function can be, for example, a) a combination of circuit elements that perform that function, or b) It is intended to include any method of performing the function, including firmware, any form of software including microcode, etc. combined with appropriate circuitry to perform the function. The principles of the invention defined by the claims lie in the fact that the functions provided by the various means disclosed can be combined and organized together in the manner recited in the claims. Exists. Accordingly, all means capable of providing these functions are equivalent to those shown herein.

明細書における本発明の原理の「1つの実施形態」または「実施形態」という記載は、実施形態と共に説明されている特定の特徴、構造、特性等が、本発明の原理の少なくとも1つの実施形態に含まれていることを意味する。従って、明細書全体の様々な箇所に出現する「1つの実施形態において」または「実施形態において」というフレーズの登場は、必ずしも全てが同一の実施形態を参照しているわけではない。   References in the specification to “one embodiment” or “an embodiment” of the principles of the invention refer to at least one embodiment of the principles of the invention in particular features, structures, characteristics, etc. described with the embodiment. Means it is included. Thus, the appearances of the phrases “in one embodiment” or “in an embodiment” appearing in various places throughout the specification are not necessarily all referring to the same embodiment.

例えば、「A/B」、「A及び/またはB」及び「A及びBのうちの少なくとも1つ」における「/」、「及び/または」及び「〜のうちの少なくとも1つ」の使用は、最初に挙げられた選択肢(A)のみの選択、2番目に挙げられた選択肢(B)のみの選択、または両方の選択肢(A及びB)の選択を包含することが意図されていると理解されるべきである。他の例として、「A、B及び/またはC」及び「A、B及びCの少なくとも1つ」という場合は、当該表現は、最初に挙げられた選択肢(A)のみの選択、2番目に挙げられた選択肢(B)のみの選択、3番目に挙げられた選択肢(C)のみの選択、最初及び2番目に挙げられた選択肢(A及びB)のみの選択、最初及び3番目に挙げられた選択肢(A及びC)のみの選択、2番目及び3番目に挙げられた選択肢(B及びC)のみの選択、または3つの全ての選択肢(A、B及びC)の選択を包含することが意図されている。このことは、本技術分野及び関連技術分野の当業者によって容易に理解されるように、多数のアイテムが挙げられる場合に拡張され得る。   For example, the use of “/”, “and / or” and “at least one of” in “A / B”, “A and / or B” and “at least one of A and B” is It is understood that it is intended to encompass the selection of only the first listed option (A), the second selected option (B) only, or the selection of both options (A and B) It should be. As another example, when “A, B, and / or C” and “at least one of A, B, and C” are used, the expression is a choice of only the first listed option (A), second Selection of only the listed option (B), selection of only the third listed option (C), selection of only the first and second listed options (A and B), listed first and third The selection of only the alternatives (A and C), the selection of only the second and third choices (B and C), or the selection of all three alternatives (A, B and C) Is intended. This can be extended to a large number of items, as will be readily understood by those skilled in the art and related arts.

さらに、本発明の原理の1または複数の実施形態及び/または実装例が本明細書においてMPEG−4 AVC(ISO/IEC 14496−10)規格に関連して説明されているが、本発明の原理は、この規格のみに限定されず、本発明の原理の精神を維持しつつ、他のビデオコーディング規格、勧告、及びそれらの拡張(MPEG−4AVC規格、VC−1(SMPTE)の拡張を含む)に関連して使用され得る。   Further, although one or more embodiments and / or implementations of the principles of the present invention are described herein in connection with the MPEG-4 AVC (ISO / IEC 14496-10) standard, the principles of the present invention are described. Is not limited to this standard, but other video coding standards, recommendations, and extensions thereof (including extensions of the MPEG-4 AVC standard, VC-1 (SMPTE)) while maintaining the spirit of the principles of the present invention. Can be used in connection with.

本明細書において、「ハイレベルシンタックス」は、ビットストリーム内にて階層的にマクロブロックレイヤの上に存在するシンタックスをいう。例えば、本明細書におけるハイレベルシンタックスは、限定するわけではないが、スライスヘッダレベル、付加拡張情報(SEI)レベル、ピクチャパラメータセット(PPS)レベル、シーケンスパラメータセット(SPS)レベル及びネットワーク抽象化レイヤ(NAL)ユニットヘッダレベルのシンタックスをいい得る。   In this specification, “high level syntax” refers to syntax that exists hierarchically above the macroblock layer in the bitstream. For example, the high level syntax herein includes, but is not limited to, slice header level, supplemental enhancement information (SEI) level, picture parameter set (PPS) level, sequence parameter set (SPS) level, and network abstraction. It may be a layer (NAL) unit header level syntax.

本願は、従来技術の統計的モデリング方法とは異なる「パッチベースのサンプリング」と称されるテクスチャモデリングを実行する代替の方法を開示してこれを改良する。このテクスチャビデオコーディング方法は、合成されたテクスチャの構成のための構成要素として入力サンプルテクスチャのテクスチャパッチの使用を含む。図1を参照すると、従来技術によるパッチベースサンプリング方法の概略が、全体として参照符号100で示されている。   The present application discloses and improves upon an alternative method of performing texture modeling called “patch-based sampling” that differs from prior art statistical modeling methods. This texture video coding method involves the use of a texture patch of the input sample texture as a component for the composition of the synthesized texture. Referring to FIG. 1, an overview of a prior art patch-based sampling method is indicated generally by the reference numeral 100.

図1のパッチベースのサンプリング方法に含まれているステップの各々において、入力サンプルテクスチャIinのパッチは、合成テクスチャIout内に貼り付けられる。パッチ境界に亘るミスマッチング特性を避けるために、新しいパッチBが、すでに貼り付けられたパッチ{B,...Bk−1}に基づいて選択される。簡略化のために、所定のサイズω×ωの正方形パッチのみが使用されている。テクスチャパッチの境界ゾーンは、パッチの境界に沿った幅ωの帯として定められている。新しいパッチは、境界ゾーンにおいて古いパッチにオーバーラップしている。新しいパッチは、所定の条件を使用して、境界ゾーンが古いパッチとマッチングしている全てのパッチΨに関して入力サンプルテクスチャIinを検索することによって選択される。合成器は、Ψから1つのパッチをランダムに選択し、当該選択されたパッチを合成テクスチャIout内に入れる。イメージに対するパッチ生成の順序は、底部から頂部、左から右の順である。テクスチャのランダム性の故に、パッチベースのサンプリング方法100は、通常の走査順序である限り、どの順序が使用されているかには構わないことに留意する。しかし、エンコーダ及びデコーダは、同一の順序を使用すべきである。 In each of the steps involved in the patch-based sampling method of FIG. 1, a patch of the input sample texture I in is pasted into the composite texture I out . In order to avoid mismatching characteristics across the patch boundary, the new patch B k is applied to the already applied patch {B 0 ,. . . B k−1 } is selected. For simplicity, only square patches of a predetermined size ω B × ω B are used. The texture patch boundary zone is defined as a band of width ω E along the patch boundary. The new patch overlaps the old patch in the border zone. A new patch is selected by searching the input sample texture I in for all patches Ψ B whose boundary zone matches the old patch using a predetermined condition. The synthesizer randomly selects one patch from Ψ B and places the selected patch in the synthesized texture I out . The order of patch generation for images is from bottom to top and left to right. Note that due to the random nature of the texture, the patch-based sampling method 100 does not care which order is used as long as it is the normal scan order. However, the encoder and decoder should use the same order.

図1のパッチベースのサンプリング方法は、以下の様にも記述され得る。   The patch-based sampling method of FIG. 1 can also be described as follows.

(a)入力サンプルテクスチャIinからテクスチャパッチBをランダムに選択する。Ioutの左下角内にBを貼り付ける。k=1に設定する。 (A) A texture patch B 0 is randomly selected from the input sample texture I in . Paste B 0 in the lower left corner of I out . Set k = 1.

(b)Ψのテクスチャパッチの各々に関してその境界ゾーンが古い隣接パッチの境界ゾーンにマッチングするように、Iinからの全てのテクスチャパッチから決められたΨを生成する。 (B) As the boundary zone with respect to each of the texture patch [psi B is matched to the boundary zone of the old adjacent patches, it generates a [psi B that is determined from all of the texture patches from I in.

(c)k番目のテクスチャパッチBとしてΨから要素をランダムに選択する。Iout上にBを張り付ける。k=k+1に設定する。 (C) An element is randomly selected from Ψ B as the k-th texture patch B k . Pasting B k on I out. Set k = k + 1.

(d)Ioutが完全に覆われるまでステップ(b)及び(c)を繰り返す。 (D) Repeat steps (b) and (c) until I out is completely covered.

(e)境界ゾーンにおいてブレンディングを実行する。   (E) Perform blending in the boundary zone.

(e)におけるブレンディングステップは、Ioutがテクスチャパッチで完全に覆われた後に、隣接テクスチャパッチ間の滑らかな遷移をもたらす。 (E) blending step in, after I out has been completely covered with the texture patch, resulting in a smooth transition between adjacent texture patches.

上述のアルゴリズムが強制テクスチャ合成のためのものであることに留意する。境界を伴うテクスチャを合成するために、テクスチャに隣接する境界エリアは、ΨBを検索する際に境界ゾーンとして考えられる。 Note that the above algorithm is for forced texture synthesis. In order to synthesize a texture with a boundary, the boundary area adjacent to the texture can be considered as a boundary zone when searching for Ψ B.

パッチベースのサンプリング方法がテクスチャ圧縮に使用される場合、入力テクスチャサンプルのみがエンコーダにおいてコーディングされる。デコーダにおいて、テクスチャは、図1のパッチベースのサンプルリング方法に関連する上述のアルゴリズムに従って再構築される。パッチベースのサンプリング方法は、速度及び品質において統計的なモデルベースの方法よりも効率が良い。それでもなお、パッチベースのサンプリング方法は、限定するわけではないが:(1)デコーダがエンコーダよりも複雑であること;(2)デコーダの速度が、時間を浪費する走査であるΨBの検索によって制約を受けること;及び(3)コーデックのパフォーマンスが、エンコーダに対するデコーダの構成に依存している検索アルゴリズムに依存していること、を含むいくつかの欠点を有している。 If a patch-based sampling method is used for texture compression, only input texture samples are coded at the encoder. At the decoder, the texture is reconstructed according to the algorithm described above associated with the patch-based sampling method of FIG. Patch-based sampling methods are more efficient than statistical model-based methods in speed and quality. Nevertheless, patch-based sampling methods are not limited: (1) the decoder is more complex than the encoder; (2) the speed of the decoder is by searching for Ψ B , a time-consuming scan. And (3) codec performance has several drawbacks, including being dependent on a search algorithm that is dependent on the decoder configuration for the encoder.

本発明の原理は、図1とともに理解されるパッチベースの方法よりも良好なパッチベースのサンプリングテクスチャ合成を使用するテクスチャ圧縮の方法及び装置に関する。多くのイメージ及びビデオコーディング規格と対照的に、本発明は、パッチベースのサンプリングによるテクスチャ合成を使用してテクスチャをコーディング可能である。有利に、かつ従来技術とは対照的に、本発明の原理は、デコーダにおけるリアルタイムテクスチャ合成を実装するための情報を使用する。   The principles of the present invention relate to a method and apparatus for texture compression using patch-based sampled texture synthesis that is better than the patch-based method understood in conjunction with FIG. In contrast to many image and video coding standards, the present invention can code textures using texture synthesis with patch-based sampling. Advantageously and in contrast to the prior art, the principles of the present invention use information to implement real-time texture synthesis at the decoder.

本発明によれば、複雑性は、デコーダからエンコーダに移動される。このような方針によって、デコーダにおいては検索が不要になり、エンコーダが実質的にパフォーマンス(例えば、圧縮効率)を決することとなる。   According to the present invention, complexity is moved from the decoder to the encoder. Such a policy eliminates the need for a search in the decoder, and the encoder substantially determines the performance (eg, compression efficiency).

図2をみると、例示のパッチベースのサンプリング方法の概略図が、全体として参照符号200で示されている。図2の方法が、当該方法のパッチベースのサンプリング方法に関する情報を使用することに留意する。   Turning to FIG. 2, a schematic diagram of an exemplary patch-based sampling method is indicated generally by the reference numeral 200. Note that the method of FIG. 2 uses information regarding the patch-based sampling method of the method.

1つの実施形態において、使用される情報は、入力サンプルテクスチャIin内の新しいパッチの配置を記述する「変位ベクトル」である。この変位ベクトルは、図2に示されているように、dvとして定義されている。図2の実施形態において、dvは、Bの左上点からIinの左上点までの距離である。本発明の原理に従った、この「変位ベクトル」は、基準ピクチャが入力テクスチャIinであるという点、及び一般的に時間的変位をいう従来の「モーションベクトル」と異なり変位ベクトルが空間的変位であるという点において、現在のビデオ圧縮規格及び勧告おけるモーション補間において使用されているモーションベクトルとは異なる。従って、本発明の原理に従って本明細書に記載されている空間的変位ベクトルは、本明細書内で「入力テクスチャ空間変位ベクトル」と同じ意味で使用される。エンコーダにおいて、入力サンプルテクスチャ及び空間的変位ベクトルdvを示す情報の両方がコーディングされる。デコーダにおいて、「変位ベクトル」が直接的に使用されて新しいパッチが生成される。 In one embodiment, the information used is a “displacement vector” that describes the placement of the new patch in the input sample texture I in . This displacement vector is defined as dv as shown in FIG. In the embodiment of FIG. 2, dv is the distance from the upper left point of the B k to the upper left point of I in. In accordance with the principles of the present invention, this “displacement vector” is different from the conventional “motion vector” in that the reference picture is the input texture I in and generally refers to temporal displacement. Is different from the motion vectors used in motion interpolation in current video compression standards and recommendations. Accordingly, spatial displacement vectors described herein in accordance with the principles of the present invention are used interchangeably herein with “input texture spatial displacement vectors”. In the encoder, both the input sample texture and information indicative of the spatial displacement vector dv are coded. At the decoder, the “displacement vector” is used directly to generate a new patch.

入力サンプルテクスチャ及び空間変位ベクトルを示す情報は、損失があるかまたは損失がい任意の方法でコーディングされ得る。1つの実施形態において、入力サンプルテクスチャは、ベクトル量子化及びエントロピーコーディングを用いて損失のある態様でコーディングされ、差分パルス符号変調(DPCM)及びエントロピーコーディングを用いて損失のない態様で変位ベクトルをコーディングする。有利には、本発明の原理の実施形態は、限定するわけではないが、解像の各々において変位ベクトルが生成され得る多重解像度パッチベースサンプリングテクスチャ合成を含むパッチベースサンプリングに基づく任意の方法に適用され得る。
Input sample texture and information indicating a spatial displacement vector may be coded in any way or loss is a loss is not Na. In one embodiment, the input sample texture is coded in certain embodiments of the loss by using a vector quantization and entropy coding, the displacement vector has name aspect of differential pulse code modulation (DPCM) and loss using entropy coding Coding. Advantageously, embodiments of the principles of the present invention apply to any method based on patch-based sampling, including but not limited to multi-resolution patch-based sampling texture synthesis where displacement vectors can be generated at each of the resolutions. Can be done.

図3を参照すると、MPEG−4 AVC規格に従ってビデオエンコーディングを実行可能なビデオエンコーダが全体として参照符号300で示されている。   Referring to FIG. 3, a video encoder capable of performing video encoding in accordance with the MPEG-4 AVC standard is indicated generally by the reference numeral 300.

ビデオエンコーダ300は、結合器385の非反転入力に接続されている出力を有するフレームオーダリングバッファ(frame ordering buffer)310を含む。結合器385の出力は、変換器及び量子化器325の第1の入力に接続されている。変換器及び量子化器325の出力は、エントロピーコーダ345の第1の入力、並びに逆変換器及び逆量子化器350の第1の入力に接続されている。エントロピーコーダ345の出力は、結合器390の第1の非反転入力に接続されている。結合器390の出力は、出力バッファ335の第1の入力に接続されている。   Video encoder 300 includes a frame ordering buffer 310 having an output connected to the non-inverting input of combiner 385. The output of the combiner 385 is connected to the first input of the converter and quantizer 325. The output of the transformer and quantizer 325 is connected to the first input of the entropy coder 345 and the first input of the inverse transformer and inverse quantizer 350. The output of entropy coder 345 is connected to the first non-inverting input of combiner 390. The output of the combiner 390 is connected to the first input of the output buffer 335.

エンコーダコントローラ305の第1の出力は、フレームオーダリングバッファ310の第2の入力、逆変換器及び逆量子化器350の第2の入力、ピクチャタイプ判定モジュール315の入力、マクロブロックタイプ(MBタイプ)判定モジュール320の入力、イントラ予測モジュール360の第2の入力、デブロッキングフィルタ365の第2の入力、モーション補償器370の第1の入力、モーション評価器375の第1の入力、基準ピクチャバッファ380の第2の入力、テクスチャ合成器333の第1の入力、並びに変位ベクトル抽出器334の第1の入力に接続されている。   The first output of the encoder controller 305 is the second input of the frame ordering buffer 310, the second input of the inverse transformer and inverse quantizer 350, the input of the picture type determination module 315, and the macroblock type (MB type). Input of decision module 320, second input of intra prediction module 360, second input of deblocking filter 365, first input of motion compensator 370, first input of motion evaluator 375, reference picture buffer 380 , A first input of the texture synthesizer 333, and a first input of the displacement vector extractor 334.

エンコーダコントローラ305の第2の出力は、付加拡張情報(SEI)挿入器330の第1の入力、変換器及び量子化器325の第2の入力、エントロピーコーダ345の第2の入力、出力バッファ335の第2の入力、並びにシーケンスパラメータセット(SPS)及びピクチャパラメータセット(PPS)挿入器340の入力に接続されている。   The second output of the encoder controller 305 is the first input of the supplemental enhancement information (SEI) inserter 330, the second input of the transformer and quantizer 325, the second input of the entropy coder 345, and the output buffer 335. , And a sequence parameter set (SPS) and picture parameter set (PPS) inserter 340.

ピクチャタイプ判定モジュール315の第1の出力は、フレームオーダリングバッファ310の第3の入力に接続されている。ピクチャタイプ判定モジュール315の第2の出力は、マクロブロックタイプ判定モジュール320の第2の入力に接続されている。   A first output of the picture type determination module 315 is connected to a third input of the frame ordering buffer 310. A second output of the picture type determination module 315 is connected to a second input of the macroblock type determination module 320.

シーケンスパラメータセット(SPS)及びピクチャパラメータセット(PPS)挿入器340の出力は、結合器390の第3の非反転入力に接続されている。   The output of the sequence parameter set (SPS) and picture parameter set (PPS) inserter 340 is connected to the third non-inverting input of combiner 390.

逆量子化器及び逆変換器350の出力は、結合器319の第1の非反転入力に接続されている。結合器319の出力は、イントラ予測モジュール360の第1の入力及びデブロッキングフィルタ365の第1の入力に接続されている。デブロッキングフィルタ365の出力は、基準ピクチャバッファ380の第1の入力に接続されている。基準ピクチャバッファ380の第1の出力は、モーション評価器375の第2の入力及びモーション補償器370の第3の入力に接続されている。基準ピクチャバッファ380の第2の出力は、テクスチャ合成器333の第2の入力に接続されている。テクスチャ合成器333の第1の出力は、デブロッキングフィルタ365の第3の入力に接続されている。テクスチャ合成器333の第2の出力は、変位ベクトル抽出器334の第2の入力に接続されている。変位ベクトル抽出器334の出力は、エントロピーコーダ345の第3の入力に、モーションベクトルを提供するために接続されている。モーション評価器375の第1の出力は、モーション補償器370の第2の入力に接続されている。モーション評価器375の第2の出力は、エントロピーコーダ345の第4の入力に、変位ベクトルを提供するために接続されている。1つの実施形態において、モーションベクトル及び変位ベクトルは、大きさ及び方向の両方を含み得るように、同様にコーディングされ得ることに留意する。   The output of the inverse quantizer and inverse transformer 350 is connected to the first non-inverting input of the combiner 319. The output of the combiner 319 is connected to the first input of the intra prediction module 360 and the first input of the deblocking filter 365. The output of the deblocking filter 365 is connected to the first input of the reference picture buffer 380. A first output of the reference picture buffer 380 is connected to a second input of the motion evaluator 375 and a third input of the motion compensator 370. The second output of the reference picture buffer 380 is connected to the second input of the texture synthesizer 333. The first output of the texture synthesizer 333 is connected to the third input of the deblocking filter 365. The second output of the texture synthesizer 333 is connected to the second input of the displacement vector extractor 334. The output of the displacement vector extractor 334 is connected to the third input of the entropy coder 345 to provide a motion vector. The first output of the motion evaluator 375 is connected to the second input of the motion compensator 370. A second output of motion evaluator 375 is connected to a fourth input of entropy coder 345 to provide a displacement vector. Note that in one embodiment, the motion and displacement vectors can be similarly coded to include both magnitude and direction.

モーション補償器370の出力は、スイッチ397の第1の入力に接続されている。イントラ予測モジュール360の出力は、スイッチ397の第2の入力に接続されている。マクロブロックタイプ判定モジュール320の出力は、スイッチ397の第3の入力に接続されている。スイッチ397の第3の入力は、スイッチの「データ」入力が(制御入力すなわち第3の入力と比較して)モーション補償器370またはイントラ予測モジュール360によって提供されるべきか否かを判定する。スイッチ397の出力は、結合器319の第2の非反転入力及び結合器385の反転入力に接続されている。   The output of the motion compensator 370 is connected to the first input of the switch 397. The output of the intra prediction module 360 is connected to the second input of the switch 397. The output of the macroblock type determination module 320 is connected to the third input of the switch 397. The third input of switch 397 determines whether the “data” input of the switch should be provided by motion compensator 370 or intra-prediction module 360 (as compared to the control or third input). The output of switch 397 is connected to the second non-inverting input of combiner 319 and the inverting input of combiner 385.

フレームオーダリングバッファ310及びエンコーダコントローラ305の入力は、入力ピクチャ301を受信するための、エンコーダ300の入力として利用可能である。さらに、付加拡張情報(SEI)挿入器330の入力は、メタデータを受信するための、エンコーダ300の入力として利用可能である。出力バッファ335の出力は、ビットストリームを出力するための、エンコーダ300の出力として利用可能である。   The input of the frame ordering buffer 310 and the encoder controller 305 can be used as the input of the encoder 300 for receiving the input picture 301. Furthermore, the input of the supplemental extension information (SEI) inserter 330 can be used as an input of the encoder 300 for receiving metadata. The output of the output buffer 335 can be used as an output of the encoder 300 for outputting a bit stream.

図4を参照すると、MPEG−4 AVC規格に従ってビデオデコーディングを実行可能なビデオデコーダが全体として参照符号400で示されている。   Referring to FIG. 4, a video decoder capable of performing video decoding according to the MPEG-4 AVC standard is indicated generally by the reference numeral 400.

ビデオデコーダ400は、エントロピーデコーダ445の第1の入力に接続されている出力を有する入力バッファ410を含む。エントロピーデコーダ445の第1の出力は、逆変換器及び逆量子化器450の第1の入力に接続されている。逆変換器及び逆量子化器450の出力は、結合器425の第2の非反転入力に接続されている。結合器425の出力は、デブロッキングフィルタ465の第2の入力及びイントラ予測モジュール460の第1の入力に接続されている。デブロッキングフィルタ465の第2の出力は、基準ピクチャバッファ480の第1の入力に接続されている。基準ピクチャバッファ480の第1の出力は、モーション補償器470の第2の入力に接続されている。基準ピクチャバッファ480の第2の出力は、テクスチャ合成器433の第1の入力に接続されている。変位ベクトルデコーダ434の出力は、テクスチャ合成器433の第2の入力に接続されている。   Video decoder 400 includes an input buffer 410 having an output connected to a first input of entropy decoder 445. A first output of entropy decoder 445 is connected to a first input of inverse transformer and inverse quantizer 450. The output of the inverse transformer and inverse quantizer 450 is connected to the second non-inverting input of the combiner 425. The output of the combiner 425 is connected to the second input of the deblocking filter 465 and the first input of the intra prediction module 460. The second output of the deblocking filter 465 is connected to the first input of the reference picture buffer 480. The first output of the reference picture buffer 480 is connected to the second input of the motion compensator 470. The second output of the reference picture buffer 480 is connected to the first input of the texture synthesizer 433. The output of the displacement vector decoder 434 is connected to the second input of the texture synthesizer 433.

エントロピーデコーダ445の第2の出力は、モーション補償器470の第3の入力、デブロッキングフィルタ465の第1の入力、及びイントラ予測モジュール460の第2の入力に接続されている。エントロピーデコーダ445の第3の出力は、デコーダコントローラ405の入力に接続されている。エントロピーデコーダ445の第4の出力は、変位ベクトルデコーダ434の第2の入力に接続されている。デコーダコントローラ405の第1の出力は、エントロピーデコーダ445も第2の入力に接続されている。デコーダコントローラ405の第2の出力は、逆変換器及び逆量子化器450の第2の入力に接続されている。デコーダコントローラ405の第3の出力は、イントラ予測モジュール460の第3の入力、モーション補償器470の第1の入力、基準ピクチャバッファ480の第2の入力、テクスチャ合成器433の第3の入力、及び変位ベクトルデコーダ434の第1の入力に接続されている。デコーダコントローラ405の第4の出力は、デブロッキングフィルタ465の第3の入力に接続されている。   A second output of entropy decoder 445 is connected to a third input of motion compensator 470, a first input of deblocking filter 465, and a second input of intra prediction module 460. The third output of the entropy decoder 445 is connected to the input of the decoder controller 405. The fourth output of the entropy decoder 445 is connected to the second input of the displacement vector decoder 434. The first output of the decoder controller 405 is also connected to the second input of the entropy decoder 445. The second output of the decoder controller 405 is connected to the second input of the inverse transformer and inverse quantizer 450. The third output of the decoder controller 405 is the third input of the intra prediction module 460, the first input of the motion compensator 470, the second input of the reference picture buffer 480, the third input of the texture synthesizer 433, And a first input of a displacement vector decoder 434. The fourth output of the decoder controller 405 is connected to the third input of the deblocking filter 465.

モーション補償器470の出力は、スイッチ497の第1の入力に接続されている。イントラ予測モジュール460の出力は、スイッチ497の第2の入力に接続されている。スイッチ497の出力は、結合器425の第1の非反転入力に接続されている。   The output of the motion compensator 470 is connected to the first input of the switch 497. The output of the intra prediction module 460 is connected to the second input of the switch 497. The output of switch 497 is connected to the first non-inverting input of combiner 425.

入力バッファ410の入力は、入力ビットストリームを受信するための、デコーダ400の入力として利用可能である。デブロッキングフィルタ465の第1の出力は、出力ピクチャを出力するための、デコーダ400の出力として利用可能である。   The input of the input buffer 410 can be used as an input of the decoder 400 for receiving the input bit stream. The first output of the deblocking filter 465 can be used as the output of the decoder 400 for outputting the output picture.

図5を参照すると、パッチベースのサンプリングテクスチャ合成を使用する例示のビデオテクスチャエンコーディング方法が、全体として参照符号500で示されている。   Referring to FIG. 5, an exemplary video texture encoding method using patch-based sampling texture synthesis is indicated generally by the reference numeral 500.

方法500は、機能510に制御を渡す開始ブロック505を含む。機能ブロック510は、入力イメージにおいてイメージセグメンテーション(image segmentation)を実行し、制御を判定ブロック515に渡す。判定ブロック515は、現在のイメージセグメンテーションユニット(例えば、イメージブロックまたはイメージリージョン)が、テクスチャリージョンであるか否かを判定する。もし、そうであるならば、制御は機能ブロック520に渡される。そうでない場合、制御は機能ブロック545に渡される。   Method 500 includes a start block 505 that passes control to function 510. The function block 510 performs image segmentation on the input image and passes control to a decision block 515. Decision block 515 determines whether the current image segmentation unit (eg, image block or image region) is a texture region. If so, control is passed to function block 520. Otherwise, control is passed to function block 545.

機能ブロック520は、テクスチャリージョンを(例えば、1または複数のハイレベルシンタックス要素を使用して)信号伝達し、テクスチャリージョンから入力サンプルテクスチャIinを選択し、当該入力サンプルテクスチャをコーディングかつデコーディングし、機能ブロック525に制御を渡す。機能ブロック525は、デコーディングされたサンプルテクスチャからのパッチベースのサンプリングを使用してテクスチャリージョンBを再構築することによってテクスチャ合成を実行し、機能ブロック530及び機能ブロック550に制御を渡す。パッチベースのサンプリングが、限定するわけではないが、ステップ(a)から(d)に関して上述された従来技術のパッチベースサンプリングを含む任意のパッチベースサンプリング法を使用して実行され得ることが理解されるべきである。 The function block 520 signals the texture region (eg, using one or more high-level syntax elements), selects an input sample texture I in from the texture region, and codes and decodes the input sample texture. Then, control is passed to the function block 525. The function block 525 performs texture synthesis by reconstructing the texture region B k using patch-based sampling from the decoded sample texture and passes control to the function block 530 and the function block 550. It is understood that patch-based sampling can be performed using any patch-based sampling method including, but not limited to, the prior art patch-based sampling described above with respect to steps (a) through (d). Should be.

機能ブロック530は、出力テクスチャ内のパッチの各々に関して、対応する情報空間変位ベクトルdvを計算し、制御を機能ブロック535に渡す。機能ブロック535は、全ての空間変位ベクトルdvをコーディングして、機能ブロック540に制御を渡す。   The function block 530 calculates a corresponding information space displacement vector dv for each of the patches in the output texture and passes control to the function block 535. The function block 535 codes all the spatial displacement vectors dv and passes control to the function block 540.

機能ブロック540は、対応するデータ(例えば、コーディングされた変位ベクトル)を出力し、終了ブロック599に制御を渡す。   The function block 540 outputs the corresponding data (eg, coded displacement vector) and passes control to the end block 599.

機能ブロック545は、他のコーディング方法(ブロック520から535に関連して特定された方法ではなく)を使用して、非テクスチャ領域をコーディングし、機能ブロック540に制御を渡す。   The function block 545 uses other coding methods (not the method specified in connection with the blocks 520 to 535) to code the non-texture region and passes control to the function block 540.

エンコーディングの間にデコーディング操作を実行する機能ブロック550は、境界ゾーン間でのブレンディングを実行し、機能ブロック545に制御を渡す。   A function block 550 that performs a decoding operation during encoding performs blending between boundary zones and passes control to a function block 545.

図6を参照すると、パッチベースのサンプリングテクスチャ合成を使用する例示のビデオテクスチャデコーディング方法が、全体として参照符号600で示されている。   With reference to FIG. 6, an exemplary video texture decoding method using patch-based sampling texture synthesis is indicated generally by the reference numeral 600.

方法600は、機能ブロック610に制御を渡す開始ブロック605を含む。機能ブロック610は、現在のビットストリームのヘッダ及び/または当該ビットストリームに関連するパケット(単数または複数)のヘッダを(テクスチャリージョンが当該ビットストリームに関連して信号伝達されているかを判定するために)抽出し、判定ブロック615に制御を渡す。判定ブロック615は、現在のイメージセグメンテーションユニット(例えば、イメージブロックまたはイメージリージョン)がテクスチャリージョンか否かを判定する。そうであるならば、その後、機能ブロック620に制御が渡される。そうでない場合、機能ブロック645に制御が渡される。   Method 600 includes a start block 605 that passes control to function block 610. The function block 610 determines the header of the current bitstream and / or the header (s) of the packet (s) associated with the bitstream (to determine whether the texture region is signaled in association with the bitstream). ) Extract and pass control to decision block 615. Decision block 615 determines whether the current image segmentation unit (eg, image block or image region) is a texture region. If so, then control is passed to function block 620. Otherwise, control is passed to function block 645.

機能ブロック620は、入力サンプルテクスチャIin及び空間変位ベクトルdvの全てをデコーディングし、機能ブロック625に制御を渡す。機能ブロック625は、空間変位ベクトルdvに対応する情報を使用して入力サンプルテクスチャから得られたパッチBを貼り付けることによって、出力テクスチャ領域を再構築し、機能ブロック630に制御を渡す。機能ブロック630は、全てのパッチまでの境界ゾーン内でブレンディングを実行し、機能ブロック635に制御を渡す。 The function block 620 decodes all of the input sample texture I in and the spatial displacement vector dv and passes control to the function block 625. The function block 625 reconstructs the output texture region by pasting the patch B k obtained from the input sample texture using information corresponding to the spatial displacement vector dv, and passes control to the function block 630. The function block 630 performs blending within the boundary zone up to all patches and passes control to the function block 635.

機能ブロック635は、テクスチャリージョンを結合し、機能ブロック640に制御を渡す。機能ブロック640は、対応するデータ(デコーディングされたテクスチャリージョン)を出力し、終了ブロック699に制御を渡す。   The function block 635 combines the texture regions and passes control to the function block 640. The function block 640 outputs the corresponding data (decoded texture region) and passes control to the end block 699.

機能ブロック645は、他のデコーディング方法(ブロック620から630に関して特定される方法ではない)を使用して、非テクスチャリージョンをデコーディングし、機能ブロック635に制御を渡す。   The function block 645 uses other decoding methods (not the method specified with respect to the blocks 620 to 630) to decode the non-texture regions and passes control to the function block 635.

本発明の原理によるテクスチャモードの信号伝達が、任意の信号伝達技術を使用して実行され得ることが理解されるべきである。例えば、図5の機能ブロック520に関して上述されたように、このような信号伝達は、1または複数のハイレベルシンタックス要素を使用して実行されることが可能である。このようなシンタックス要素または他の技術は、テクスチャモードのような関連モードを単に示し得かつ/または他の方法で特定し得る。当然ながら、本発明の原理は、テクスチャを信号伝達するための前述の方法だけに限定されず、本発明の原理の精神を維持しつつ、本発明の原理に従って他の方法も使用され得る。   It should be understood that texture mode signaling according to the principles of the present invention may be performed using any signaling technique. For example, as described above with respect to functional block 520 of FIG. 5, such signaling can be performed using one or more high-level syntax elements. Such syntax elements or other techniques may simply indicate and / or otherwise identify related modes, such as texture modes. Of course, the principles of the present invention are not limited to the above-described method for signaling texture, and other methods may be used in accordance with the principles of the present invention while maintaining the spirit of the principles of the present invention.

機能ブロック630に関連して上述されたブレンディングが、任意のブレンディング技術を使用して実行され得ることが更に理解されるべきである。例えば、1つの実施形態において、いくつかのブレンディング方法が適用されて、境界ゾーン内の異なったパッチ間の遷移がスムージングされ得る。さらなる例として、1つの実施形態において、デブロッキングフィルタの概念を、MPEG−4 AVC規格及び/またはぼかし方法と関連させて使用することが可能である。1つの実施形態において、ぼかし方法は、2つの最も近い境界または現在の境界及び/もしくは処理された境界群からの双一次補間(重み付け双一次補間)の使用を含む。同一のブレンディング方法がエンコーダのデコーディング部及びデコーダの両方に適用されて、ミスマッチングを回避するのが望ましい。当然ながら、本発明の原理は、上述のブレンディング方法だけに限定されず、本発明の原理の精神を維持しつつ、本発明の原理に従って他の方法も使用され得る。   It should further be appreciated that the blending described above with respect to function block 630 can be performed using any blending technique. For example, in one embodiment, several blending methods can be applied to smooth transitions between different patches in the boundary zone. As a further example, in one embodiment, the deblocking filter concept can be used in conjunction with the MPEG-4 AVC standard and / or blurring method. In one embodiment, the blurring method includes the use of bilinear interpolation (weighted bilinear interpolation) from the two closest boundaries or current boundaries and / or processed boundaries. The same blending method is preferably applied to both the decoding part and the decoder of the encoder to avoid mismatching. Of course, the principles of the present invention are not limited to the blending method described above, and other methods may be used in accordance with the principles of the present invention while maintaining the spirit of the principles of the present invention.

いくつかが上述されている、本発明の多くの付随する利点/特徴のいくつかの説明がここでなされる。例えば、1つの利点/特徴は、テクスチャの合成によってピクチャのテクスチャをエンコーディングするエンコーダを含む装置である。当該エンコーダは、パッチベースのサンプリング方法を使用してテクスチャを合成する場合、通常のデコーディング複雑性をエンコーダに移動する情報を使用する。   Some description of the many attendant advantages / features of the present invention, some of which are described above, will now be made. For example, one advantage / feature is an apparatus that includes an encoder that encodes the texture of a picture by texture synthesis. When the encoder synthesizes a texture using a patch-based sampling method, it uses information that moves the normal decoding complexity to the encoder.

他の利点/特徴は、上述のエンコーダを有する装置であって、当該情報が、ピクチャのテクスチャを後にデコーディングする対応するデコーダにおける対応するテクスチャリージョン検索を除去する少なくとも1つの入力テクスチャ空間変位ベクトルを含む装置である。   Another advantage / feature is an apparatus having the above-described encoder, wherein the information includes at least one input texture space displacement vector that eliminates a corresponding texture region search in a corresponding decoder that later decodes the texture of a picture. It is a device including.

更に他の利点/特徴は、上述のエンコーダを有する装置であって、当該ピクチャが複数のリージョンを含み、当該エンコーダが複数のリージョンのどれがテクスチャとしてコーディングされるかを信号伝達する装置である。   Yet another advantage / feature is an apparatus having the above-described encoder, wherein the picture includes a plurality of regions, and the encoder signals which of the plurality of regions is coded as a texture.

さらにもう1つの利点/特徴は、上述のエンコーダを有する装置であって、当該テクスチャが当該ピクチャから取得される入力サンプルテクスチャであり、当該エンコーダが対応する情報及び当該入力サンプルテクスチャをエンコーディングする装置である。   Yet another advantage / feature is an apparatus having the above-described encoder, wherein the texture is an input sample texture obtained from the picture, and the encoder encodes corresponding information and the input sample texture. is there.

さらに、他の利点/特徴は、上述のエンコーダを有する装置であって、当該情報が、対応するデコーダにおいてピクチャのテクスチャリージョンへの直接的なテクスチャパッチの貼り付けをサポートするように構成されている装置である。   Yet another advantage / feature is an apparatus having the above-described encoder, wherein the information is configured to support pasting of texture patches directly to a texture region of a picture at a corresponding decoder. Device.

さらなる、他の利点/特徴は、上述のエンコーダを有する装置であって、当該テクスチャが当該ピクチャから取得された入力サンプルテクスチャであり、当該エンコーダが当該入力サンプルテクスチャから複数のテクスチャパッチを選択し、当該エンコーダがデブロッキングフィルタリング及びぼかしの少なくとも1つを使用して複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングする装置である。   Yet another advantage / feature is an apparatus having the encoder described above, wherein the texture is an input sample texture obtained from the picture, and the encoder selects a plurality of texture patches from the input sample texture; The encoder is an apparatus for smoothing transitions in overlapping boundary zones of individual texture patches among a plurality of texture patches using at least one of deblocking filtering and blurring.

本発明の原理のこれら及び他の特徴及び利点は、本明細書内の教示に基づいて、関連技術分野の当業者に容易に確認可能である。本発明の原理の教示が、様々な形式のハードウェア、ソフトウェア、ファームウェア、特定用途プロセッサ、またはこれらの組み合わせにおいて実装され得ることが理解されるべきである。   These and other features and advantages of the principles of the present invention will be readily ascertainable by one of ordinary skill in the pertinent art based on the teachings herein. It should be understood that the teachings of the present principles may be implemented in various forms of hardware, software, firmware, application specific processors, or combinations thereof.

最も好ましくは、本発明の原理の教示は、ハードウェアとソフトウェアとの組み合わせとして実装される。さらに、ソフトウェアは、プログラム記憶ユニット内に明白に含まれているアプリケーションプログラムとして実装され得る。このアプリケーションプログラムは、任意の適切なアーキテクチャを含むマシンにアップロードされて当該マシンによって実行され得る。現在好ましい実施形態において、マシンは、1または複数のCPU(central processing units)、RAM(random access memory)、入力/出力(I/O)インタフェース等のハードウェアを有するコンピュータプラットフォームにおいて実装され得る。このコンピュータプラットフォームは、オペレーティングシステム及びマイクロ命令コードも含み得る。本明細書内に記載されている様々な処理及び機能は、マイクロ命令コードの一部であるかもしくはアプリケーションプログラムの一部であるか、またはこれらの任意の組み合わせであって、CPUによって実行可能なものであり得る。さらに、追加データ記憶ユニット及び印刷ユニット等の様々な他の周辺機器ユニットが、当該コンピュータプラットフォームに接続され得る。   Most preferably, the teachings of the present principles are implemented as a combination of hardware and software. Furthermore, the software may be implemented as an application program that is explicitly included in the program storage unit. This application program can be uploaded to and executed by a machine containing any suitable architecture. In the presently preferred embodiment, the machine may be implemented on a computer platform having hardware such as one or more central processing units (CPU), random access memory (RAM), input / output (I / O) interfaces, and the like. The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein can be part of microinstruction code or part of an application program, or any combination thereof, which can be performed by a CPU. Can be a thing. In addition, various other peripheral device units may be connected to the computer platform such as an additional data storage unit and a printing unit.

添付の図面に示されている構成システム要素及び方法のいくつかがソフトウェア内に実装されるのが好ましい故に、複数のシステムコンポーネントまたは複数の処理機能ブロックの間の実際の接続は、本発明の原理がプログラミングされる態様に応じて変わり得ると更に理解されるべきである。本明細書内の教示に鑑みて、関連技術の当業者は、本発明の原理のこれらの及び同様な実装または構成を予期することが出来るだろう。   Since some of the constituent system elements and methods shown in the accompanying drawings are preferably implemented in software, the actual connections between multiple system components or multiple processing functional blocks are the principles of the present invention. It should be further understood that can vary depending on how it is programmed. In view of the teachings herein, one of ordinary skill in the related art will be able to contemplate these and similar implementations or configurations of the principles of the present invention.

例示の実施形態が添付の図面を参照して本明細書において説明されているが、本発明の原理は、これらの実施形態そのものに限定されず、様々な変形及び変更が、本発明の原理の範囲または精神から逸脱すること無く、関連技術の当業者によってこれらの実施形態にもたらされ得る。これらの変形及び変更の全ては、添付の特許請求の範囲に記載されている本発明の原理の範囲内に含まれることが意図されている。
本発明は以下の態様を含む。
(付記1)
テクスチャを合成することによってピクチャのテクスチャをエンコーディングするエンコーダ(300)を含む装置であって、前記エンコーダは、パッチベースのサンプリング方法を使用して前記テクスチャを合成する場合に、デコーディング操作を前記エンコーダに移動させる情報を使用する、前記装置。
(付記2)
前記情報が、前記ピクチャの前記テクスチャをデコーディング可能なデコーダにおいて、対応するテクスチャリージョン検索を実行するデコーディング操作を除去する、少なくとも1つの入力テクスチャ空間変位ベクトルを含む、付記1に記載の装置。
(付記3)
前記ピクチャが複数のリージョンを含み、
前記エンコーダが、前記複数のリージョンのどれがテクスチャリージョンとしてコーディングされるかを信号伝達する、付記1に記載の装置。
(付記4)
前記テクスチャは、前記ピクチャから取得された入力サンプルテクスチャであり、
前記エンコーダ(300)は、前記情報及び前記入力サンプルテクスチャをエンコーディングする、付記1に記載の装置。
(付記5)
前記情報は、対応するデコーダにおける前記ピクチャのテクスチャリージョン内へのテクスチャパッチの直接的な貼り付けをサポートするように構成されている、付記1に記載の装置。
(付記6)
前記テクスチャが前記ピクチャから取得された入力サンプルテクスチャであり、
前記エンコーダ(300)は、前記入力サンプルテクスチャから複数のテクスチャパッチを選択し、デブロッキングフィルタリング及びぼかしのうちの少なくとも一方を使用して前記複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングする、付記1に記載の装置。
(付記7)
テクスチャを合成することによってピクチャのテクスチャをエンコーディングするステップを含む方法であって、前記エンコーディングステップが、パッチベースのサンプリング方法を使用して前記テクスチャの合成をする場合に、デコーディング操作をエンコーダに移動させる情報を使用する、前記方法(500)。
(付記8)
前記情報が、前記エンコーダにテクスチャリージョン検索を実行させる少なくとも1つの入力テクスチャ空間変位ベクトル(530)を含む、付記7に記載の方法。
(付記9)
前記ピクチャが複数のリージョンを含み、
前記方法が、前記複数のリージョンのどれがテクスチャとしてコーディングされるかを信号伝達するステップ(520)を更に含む、付記7に記載の方法。
(付記10)
前記テクスチャが、前記ピクチャから取得された入力サンプルテクスチャであり、
前記エンコーディングステップが、前記情報及び前記入力サンプルテクスチャをエンコーディングするステップ(520、535)を含む、付記7に記載の方法。
(付記11)
前記情報が、対応するデコーダにおける前記ピクチャのテクスチャリージョン内へのテクスチャパッチの直接的な貼り付け(530)をサポートするように構成されている、付記7に記載の方法。
(付記12)
前記テクスチャが前記ピクチャから取得された入力サンプルテクスチャであり、
前記エンコーディングステップが、さらに、
前記入力サンプルテクスチャから複数のテクスチャパッチを選択するステップ(525)と、
デブロッキングフィルタリング及びぼかしのうちの少なくとも一方を使用して前記複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングするステップ(550)と、
を含む、付記7に記載の方法。
(付記13)
テクスチャを合成することによってピクチャのテクスチャをデコーディングするデコーダ(400)を含む装置であって、
前記デコーダが、パッチベースのサンプリング方法を使用して前記テクスチャを合成する場合にデコーディング操作を前記デコーダからエンコーダに移動させる情報を使用する、前記装置。
(付記14)
前記情報が、前記デコーダにおける対応するテクスチャリージョン検索を除去する少なくとも1つの入力テクスチャ空間変位ベクトルを含む、付記13に記載の装置。
(付記15)
前記ピクチャが複数のリージョンを含み、
前記デコーダ(400)が、受信した信号に基づいて、前記複数のリージョンのどれが前記テクスチャとしてコーディングされるかを判定する、付記13に記載の装置。
(付記16)
前記テクスチャが前記ピクチャから取得された入力サンプルテクスチャであり、
前記デコーダ(400)が、前記情報及び前記入力サンプルテクスチャをデコーディングする、付記13に記載の装置。
(付記17)
前記情報が、前記デコーダにおける前記ピクチャのテクスチャリージョン内へのテクスチャパッチの直接的な貼り付けをサポートするように構成されている、付記13に記載の装置。
(付記18)
前記テクスチャが前記ピクチャから取得された入力サンプルテクスチャであり、
前記デコーダ(400)は、前記入力サンプルテクスチャから複数のテクスチャパッチを選択し、デブロッキングフィルタリング及びぼかしのうちの少なくとも一方を使用して前記複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングする、付記13に記載の装置。
(付記19)
テクスチャを合成することによってピクチャのテクスチャをデコーディングするステップを含む方法であって、
前記デコーディングステップは、パッチベースのサンプリング方法を使用して前記テクスチャを合成する場合に、デコーディング操作がエンコーダに移動された操作から生成された情報を使用する前記方法(600)。
(付記20)
前記情報は、対応するテクスチャリージョン検索を除去する少なくとも1つの入力テクスチャ空間変位ベクトル(620)を含む、付記19に記載の方法。
(付記21)
前記ピクチャが複数のリージョンを含み、
前記方法が、前記情報に基づいて、前記複数のリージョンのどれがテクスチャリージョンとしてコーディングされるかを判定するステップ(610)を更に含む、付記19に記載の方法。
(付記22)
前記情報が、前記デコーディングステップの間に前記ピクチャのテクスチャリージョン内にテクスチャパッチを直接的に貼り付ける(625)ことをサポートするように構成されている、付記19に記載の方法。
(付記23)
前記テクスチャが前記ピクチャから取得された入力サンプルテクスチャであり、
前記デコーディング方法が、さらに、
前記入力サンプルテクスチャから複数のテクスチャパッチを選択するステップ(625)と、
デブロッキングフィルタリング及びぼかしのうちの少なくとも一方を使用して前記複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングするステップ(630)と、
を含む、付記19に記載の方法。

Although illustrative embodiments are described herein with reference to the accompanying drawings, the principles of the invention are not limited to these embodiments themselves, and various modifications and changes may be made to the principles of the invention. These embodiments can be brought to these embodiments by one skilled in the relevant art without departing from the scope or spirit. All of these variations and modifications are intended to be included within the scope of the present principles as set forth in the appended claims.
The present invention includes the following aspects.
(Appendix 1)
An apparatus comprising an encoder (300) for encoding a texture of a picture by synthesizing a texture, wherein the encoder performs a decoding operation when synthesizing the texture using a patch-based sampling method The device using information to be moved to.
(Appendix 2)
The apparatus of claim 1, wherein the information includes at least one input texture space displacement vector that eliminates a decoding operation that performs a corresponding texture region search at a decoder capable of decoding the texture of the picture.
(Appendix 3)
The picture includes a plurality of regions;
The apparatus of claim 1, wherein the encoder signals which of the plurality of regions is coded as a texture region.
(Appendix 4)
The texture is an input sample texture obtained from the picture;
The apparatus of claim 1, wherein the encoder (300) encodes the information and the input sample texture.
(Appendix 5)
The apparatus of claim 1, wherein the information is configured to support direct pasting of a texture patch into a texture region of the picture in a corresponding decoder.
(Appendix 6)
The texture is an input sample texture obtained from the picture;
The encoder (300) selects a plurality of texture patches from the input sample texture and uses at least one of deblocking filtering and blurring to overlap boundary zones of individual texture patches of the plurality of texture patches The apparatus of claim 1, wherein the apparatus smooths the transitions.
(Appendix 7)
Encoding a texture of a picture by synthesizing a texture, wherein the encoding step moves a decoding operation to an encoder when the texture is synthesized using a patch-based sampling method The method (500), wherein information to be used is used.
(Appendix 8)
The method of claim 7, wherein the information includes at least one input texture space displacement vector (530) that causes the encoder to perform a texture region search.
(Appendix 9)
The picture includes a plurality of regions;
The method of claim 7, wherein the method further comprises signaling (520) which of the plurality of regions is coded as a texture.
(Appendix 10)
The texture is an input sample texture obtained from the picture;
The method of claim 7, wherein the encoding step includes encoding (520, 535) the information and the input sample texture.
(Appendix 11)
The method of claim 7, wherein the information is configured to support direct pasting (530) of a texture patch into a texture region of the picture at a corresponding decoder.
(Appendix 12)
The texture is an input sample texture obtained from the picture;
The encoding step further comprises:
Selecting (525) a plurality of texture patches from the input sample texture;
Smoothing transitions within overlapping boundary zones of individual texture patches of the plurality of texture patches using at least one of deblocking filtering and blurring (550);
The method according to appendix 7, comprising:
(Appendix 13)
An apparatus comprising a decoder (400) for decoding a texture of a picture by synthesizing a texture,
The apparatus, wherein the decoder uses information to move a decoding operation from the decoder to the encoder when synthesizing the texture using a patch-based sampling method.
(Appendix 14)
The apparatus of claim 13, wherein the information includes at least one input texture space displacement vector that eliminates a corresponding texture region search in the decoder.
(Appendix 15)
The picture includes a plurality of regions;
The apparatus of claim 13, wherein the decoder (400) determines which of the plurality of regions is coded as the texture based on a received signal.
(Appendix 16)
The texture is an input sample texture obtained from the picture;
The apparatus of claim 13, wherein the decoder (400) decodes the information and the input sample texture.
(Appendix 17)
The apparatus of claim 13, wherein the information is configured to support direct pasting of a texture patch into a texture region of the picture at the decoder.
(Appendix 18)
The texture is an input sample texture obtained from the picture;
The decoder (400) selects a plurality of texture patches from the input sample texture and uses at least one of deblocking filtering and blurring to overlap boundary zones of individual texture patches of the plurality of texture patches The apparatus of claim 13 wherein the transition in is smoothed.
(Appendix 19)
A method comprising the step of decoding the texture of a picture by synthesizing the texture, comprising:
The method (600) wherein the decoding step uses information generated from an operation in which a decoding operation is moved to an encoder when the texture is synthesized using a patch-based sampling method.
(Appendix 20)
The method of claim 19, wherein the information includes at least one input texture space displacement vector (620) that removes a corresponding texture region search.
(Appendix 21)
The picture includes a plurality of regions;
The method of claim 19, wherein the method further comprises the step of determining (610) which of the plurality of regions is coded as a texture region based on the information.
(Appendix 22)
20. The method of clause 19, wherein the information is configured to support pasting (625) a texture patch directly into a texture region of the picture during the decoding step.
(Appendix 23)
The texture is an input sample texture obtained from the picture;
The decoding method further comprises:
Selecting a plurality of texture patches from the input sample texture (625);
Smoothing (630) transitions within overlapping boundary zones of individual texture patches of the plurality of texture patches using at least one of deblocking filtering and blurring;
The method according to appendix 19, comprising:

Claims (10)

テクスチャを合成することによってピクチャのテクスチャをエンコーディングするエンコーダを含む装置であって、
前記テクスチャは、前記ピクチャから取得された入力サンプルテクスチャであり、
前記エンコーダは、パッチベースのサンプリング方法を使用して前記テクスチャを合成し、
前記合成されたテクスチャ内の各テクスチャパッチについて入力テクスチャ空間変位ベクトルを計算し、
前記入力テクスチャ空間変位ベクトルは前記入力サンプルテクスチャにおけるテクスチャパッチの位置を表し、
前記エンコーダは、前記入力テクスチャ空間変位ベクトル及び前記入力サンプルテクスチャをエンコーディングし、
前記入力サンプルテクスチャは損失のある態様でコーディングされ、前記入力テクスチャ空間変位ベクトルは損失のない態様でコーディングされる、前記装置。
An apparatus comprising encoder for encoding texture for a picture by synthesizing the texture,
The texture is an input sample texture obtained from the picture;
The encoder synthesizes the texture using a patch-based sampling method ;
Calculating an input texture space displacement vector for each texture patch in the synthesized texture;
The input texture space displacement vector represents a position of a texture patch in the input sample texture;
The encoder encodes the input texture space displacement vector and the input sample texture;
The apparatus, wherein the input sample texture is coded in a lossy manner and the input texture spatial displacement vector is coded in a lossless manner .
前記入力テクスチャ空間変位ベクトルは、前記ピクチャの前記テクスチャをデコーディング可能なデコーダにおいて、対応するテクスチャリージョン検索を実行する操作を除去する、請求項1に記載の装置。 The input texture spatial displacement vector, in the decodable decoder texture of the picture, to remove the operations that perform corresponding texture region search for, according to claim 1. 前記ピクチャが複数のリージョンを含み、
前記エンコーダが、前記複数のリージョンのどれがテクスチャリージョンとしてコーディングされるかを信号伝達する、請求項1に記載の装置。
The picture includes a plurality of regions;
The apparatus of claim 1, wherein the encoder signals which of the plurality of regions are coded as texture regions.
前記入力テクスチャ空間変位ベクトルは、対応するデコーダにおける前記ピクチャのテクスチャリージョン内へのテクスチャパッチの直接的な貼り付けをサポートするように構成されている、請求項1に記載の装置。 The apparatus of claim 1, wherein the input texture space displacement vector is configured to support direct pasting of a texture patch into a texture region of the picture at a corresponding decoder. 前記エンコーダは、前記入力サンプルテクスチャから複数のテクスチャパッチを選択し、デブロッキングフィルタリング及びぼかしのうちの少なくとも一方を使用して前記複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングする、請求項1に記載の装置。 The encoder selects a plurality of texture patches from the input sample texture, using at least one of deblocking filtering and blurring in the boundary zone of overlap individual texture patches of the plurality of texture patches The apparatus of claim 1, wherein the transition is smoothed. エンコーダが実行する方法であって、
テクスチャを合成することによってピクチャのテクスチャをエンコーディングするステップを含み、
前記テクスチャは、前記ピクチャから取得された入力サンプルテクスチャであり、前記エンコーディングするステップ、パッチベースのサンプリング方法を使用して前記テクスチャ合成し、および前記合成されたテクスチャ内の各テクスチャパッチについて入力テクスチャ空間変位ベクトルを計算し、前記入力テクスチャ空間変位ベクトルは前記入力サンプルテクスチャにおけるテクスチャパッチの位置を表し、
前記エンコーディングするステップは、前記入力テクスチャ空間変位ベクトル及び前記入力サンプルテクスチャをエンコーディングするステップを含み、
前記入力サンプルテクスチャは損失のある態様でコーディングされ、前記入力テクスチャ空間変位ベクトルは損失のない態様でコーディングされる、前記方法。
A method performed by an encoder,
Look including the step of encoding the texture of a picture by synthesizing the texture,
The texture is an input sample texture obtained from the picture, the step of encoding, using patch-based sampling method combining the texture, and the input for each texture patch of the synthesized in the texture Calculating a texture space displacement vector, wherein the input texture space displacement vector represents a position of a texture patch in the input sample texture;
The encoding step includes encoding the input texture space displacement vector and the input sample texture;
The method, wherein the input sample texture is coded in a lossy manner and the input texture spatial displacement vector is coded in a lossless manner.
前記入力テクスチャ空間変位ベクトルが、前記ピクチャの前記テクスチャをデコーディング可能なデコーダにおいて、対応するテクスチャリージョン検索を実行する操作を除去する、請求項6に記載の方法。The method of claim 6, wherein the input texture space displacement vector removes an operation to perform a corresponding texture region search at a decoder capable of decoding the texture of the picture. 前記ピクチャが複数のリージョンを含み、
前記方法が、前記複数のリージョンのどれがテクスチャとしてコーディングされるかを信号伝達するステップを更に含む、請求項に記載の方法。
The picture includes a plurality of regions;
Said method which of said plurality of regions further comprises automatic answering step to either the signaling is coded as texture A method according to claim 6.
前記入力テクスチャ空間変位ベクトルが、対応するデコーダにおける前記ピクチャのテクスチャリージョン内へのテクスチャパッチの直接的な貼り付けをサポートするように構成されている、請求項に記載の方法。 The input texture spatial displacement vector is configured to support only with direct bonding of the texture patch into the texture region of the picture at a corresponding decoder method of claim 6. 前記エンコーディングするステップが
前記入力サンプルテクスチャから複数のテクスチャパッチを選択するステップと
デブロッキングフィルタリング及びぼかしのうちの少なくとも一方を使用して前記複数のテクスチャパッチのうちの個々のテクスチャパッチの重なり合う境界ゾーン内の遷移をスムージングするステップと
をさらに含む、請求項に記載の方法。
Said encoding step comprises :
And the steps for selecting a plurality of texture patches from the input sample texture,
And steps of deblocking filtering and using at least one of blurring to smooth transitions in the boundary zone of overlap individual texture patches of the plurality of texture patches,
The method of claim 6 , further comprising:
JP2014110640A 2014-05-28 2014-05-28 Method and apparatus for texture compression using patch-based sampling texture synthesis Expired - Fee Related JP5941097B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014110640A JP5941097B2 (en) 2014-05-28 2014-05-28 Method and apparatus for texture compression using patch-based sampling texture synthesis

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014110640A JP5941097B2 (en) 2014-05-28 2014-05-28 Method and apparatus for texture compression using patch-based sampling texture synthesis

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011516238A Division JP5872896B2 (en) 2008-06-27 2008-06-27 Method and apparatus for texture compression using patch-based sampling texture synthesis

Publications (2)

Publication Number Publication Date
JP2014180043A JP2014180043A (en) 2014-09-25
JP5941097B2 true JP5941097B2 (en) 2016-06-29

Family

ID=51699445

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014110640A Expired - Fee Related JP5941097B2 (en) 2014-05-28 2014-05-28 Method and apparatus for texture compression using patch-based sampling texture synthesis

Country Status (1)

Country Link
JP (1) JP5941097B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6762769B2 (en) * 2002-01-23 2004-07-13 Microsoft Corporation System and method for real-time texture synthesis using patch-based sampling
DE10310023A1 (en) * 2003-02-28 2004-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and arrangement for video coding, the video coding comprising texture analysis and texture synthesis, as well as a corresponding computer program and a corresponding computer-readable storage medium
US7184602B2 (en) * 2003-05-02 2007-02-27 Microsoft Corp. System and method for low bandwidth video streaming for face-to-face teleconferencing
KR101381600B1 (en) * 2006-12-20 2014-04-04 삼성전자주식회사 Method and apparatus for encoding and decoding using texture synthesis
US8204325B2 (en) * 2008-01-18 2012-06-19 Sharp Laboratories Of America, Inc. Systems and methods for texture synthesis for video coding with side information

Also Published As

Publication number Publication date
JP2014180043A (en) 2014-09-25

Similar Documents

Publication Publication Date Title
JP5872896B2 (en) Method and apparatus for texture compression using patch-based sampling texture synthesis
US11323704B2 (en) Apparatus for encoding and decoding image by skip encoding and method for same
US11089324B2 (en) Method and apparatus for encoding and decoding an image with inter layer motion information prediction according to motion information compression scheme
JP6538488B2 (en) Method for DC intra prediction mode for video coding
JP6023044B2 (en) Method and apparatus for intra coding blocks having pixels assigned to multiple groups
TWI688256B (en) Method and apparatus for video coding of vr images with inactive areas
CN114788264B (en) Method for signaling virtual boundaries and surround motion compensation
JP2023521295A (en) Method for signaling video coded data
KR20220062655A (en) Lossless coding of video data
CN111034198B (en) Image encoding and decoding method, encoding and decoding device, and corresponding computer program
JP5941097B2 (en) Method and apparatus for texture compression using patch-based sampling texture synthesis
CN115941944A (en) Image decoding method, decoder and computer storage medium
US20230044603A1 (en) Apparatus and method for applying artificial intelligence-based filtering to image
GB2512828A (en) Method and apparatus for encoding or decoding an image with inter layer motion information prediction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140627

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150714

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20151014

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160519

R150 Certificate of patent or registration of utility model

Ref document number: 5941097

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees