JP2007329678A - Super resolution processing method and apparatus using luminance masking and luminance compensation - Google Patents

Super resolution processing method and apparatus using luminance masking and luminance compensation Download PDF

Info

Publication number
JP2007329678A
JP2007329678A JP2006158938A JP2006158938A JP2007329678A JP 2007329678 A JP2007329678 A JP 2007329678A JP 2006158938 A JP2006158938 A JP 2006158938A JP 2006158938 A JP2006158938 A JP 2006158938A JP 2007329678 A JP2007329678 A JP 2007329678A
Authority
JP
Japan
Prior art keywords
luminance
distortion
generate
resolution
super
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006158938A
Other languages
Japanese (ja)
Inventor
Chin Phek Ong
ペェク・オン チン
Mei Shen Shen
メイ・シェン シェン
Toshiyuki Kondo
敏志 近藤
Tadamasa Toma
正真 遠間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006158938A priority Critical patent/JP2007329678A/en
Publication of JP2007329678A publication Critical patent/JP2007329678A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method and an apparatus for performing super resolution processing with illumination and illumination compensation, to improve super resolution algorithm in a situation whereby there is an illumination difference between images in a sequence of images, and to improve super resolution algorithm in a situation whereby the image sequence is taken from separate cameras with different calibration parameters thus resulting in different tones of levels of brightness. <P>SOLUTION: Disclosed is the method for performing the super resolution processing, and the illumination masking IM and illumination compensation IC are used in combination to securely exclude a block which actually has a motion error from a super resolution. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、あらゆる画像・映像処理、特に画像・映像超解像処理に利用可能である。   The present invention can be used for all image / video processing, particularly image / video super-resolution processing.

複数の低解像度(LR)画像から高解像度(HR)画像を構成するための超解像処理方法は、米国特許出願番号2004/0156561 A1(図1)(先行技術1)に開示されている。圧縮画像列に用いる同様の超解像処理方法は、米国特許出願番号2005/0019000 A1(図2)(先行技術2)に開示されている。先行技術1と先行技術2との間の類似点として、HR推定画像をワーピングし不明瞭化して擬似的なLR画像を形成し、次に観測されたLR画像から当該画像を減算するという点が挙げられる。このワーピング、不明瞭化、及び減算は、向上処理に係わる観測されたLR画像ごとに繰り返される。田中正行及び奥富正敏による技術論文「再構成型超解像処理の高速化アルゴリズム」Vol.2004 No.133、2004−CVIM−146、2004年11月(図3)(先行技術3)に開示される異なる方法によれば、観測されたLR画像に対して位置合わせが行われ、観測されたLR画素を含むHRグリッドが生成される。HR推定画像に対してワーピングを行う必要はない。不明瞭化と減算は、HR推定画像において、位置合わせされたLR画素が少なくとも1つ存在する位置毎に行われる。これにより、より高速なアルゴリズムが得られるという利点がある。   A super-resolution processing method for constructing a high resolution (HR) image from a plurality of low resolution (LR) images is disclosed in US Patent Application No. 2004/0156561 A1 (FIG. 1) (Prior Art 1). A similar super-resolution processing method used for compressed image sequences is disclosed in US Patent Application No. 2005/0019000 A1 (FIG. 2) (Prior Art 2). The similarity between prior art 1 and prior art 2 is that the HR estimated image is warped and obscured to form a pseudo LR image, and then the image is subtracted from the observed LR image. Can be mentioned. This warping, obscuring, and subtraction is repeated for each observed LR image involved in the enhancement process. Technical paper by Masayuki Tanaka and Masatoshi Okutomi disclosed in “Reconfiguration-type super-resolution algorithm” Vol. 2004 No. 133, 2004-CVIM-146, November 2004 (FIG. 3) (prior art 3) According to the different method, the observed LR image is aligned and an HR grid including the observed LR pixels is generated. There is no need to warp the HR estimated image. The obfuscation and subtraction are performed for each position where at least one aligned LR pixel exists in the HR estimation image. This has the advantage that a faster algorithm can be obtained.

これらの先行技術における共通のステップとして、フレームのワーピングが行われる。ワーピングは、先行技術1及び先行技術2ではHR推定画像に対して行われるのに対し、先行技術3では観測されたLRフレームに対して行われる。ワーピングベクトルの検出方法として、ブロックマッチング法、オプティカルフロー法、メッシュアフィン変換法などがある。これらの方法のうち、ブロックマッチングが公知であり、一般的に用いられている。ブロックマッチングでは、平均絶対差や平均2乗誤差などの歪み関数を最小にすることで最適な一致を探す。動きフィールドの連続性といった他の要素も歪み関数に付加されている。またブロックマッチングは、位相限定相関を用いて周波数領域において行うことも可能である。   As a common step in these prior arts, frame warping is performed. In the prior art 1 and the prior art 2, the warping is performed on the HR estimated image, whereas in the prior art 3, the warping is performed on the observed LR frame. As a method for detecting a warping vector, there are a block matching method, an optical flow method, a mesh affine transformation method, and the like. Of these methods, block matching is known and commonly used. In block matching, an optimal match is searched for by minimizing a distortion function such as an average absolute difference or an average square error. Other factors such as motion field continuity are also added to the distortion function. Block matching can also be performed in the frequency domain using phase-only correlation.

現実世界における動きは複雑なため、ブロックマッチングで完全にモデル化することはできない。例えば、変換モデルに基づくブロックマッチングは、回転運動には効果的でない。また、オブジェクトの境界はブロックの境界とは一致しないため、1つのブロック内で実際に2つの動きが生じてしまう。また、あるフレームでは隠れていた新しいオブジェクトが別のフレームで現れる遮蔽もブロックマッチングの問題となる。これらの誤差を動き誤差と呼ぶ。   Because movement in the real world is complex, it cannot be modeled completely by block matching. For example, block matching based on a transformation model is not effective for rotational motion. In addition, since the boundary of the object does not coincide with the boundary of the block, two movements actually occur in one block. In addition, occlusion where a new object hidden in one frame appears in another frame is also a problem of block matching. These errors are called motion errors.

動き誤差を最小化するための従来の方法として、歪みしきい値や差異しきい値などの基準に基づいて、動きベクトルが有効であるか無効であるかのタグ付けを行う方法がある。動きベクトルが無効である場合、ブロックを超解像アルゴリズムに関与させない。動きが複雑な領域に対してはより小さいブロックが用いられるようにブロックサイズを変更することができる。超解像のコンテクストでは、何らかの種類の残差データをHR推定画像に加算して戻し、さらに細密化を図る。動き誤差を最小化するための他の方法として、残差における各画素をテストし、特定のしきい値よりも大きい画素を取り除く方法がある。これは異常値削除としても知られる。   As a conventional method for minimizing a motion error, there is a method of tagging whether a motion vector is valid or invalid based on a criterion such as a distortion threshold or a difference threshold. If the motion vector is invalid, the block is not involved in the super-resolution algorithm. The block size can be changed so that smaller blocks are used for regions with complex motion. In the super-resolution context, some kind of residual data is added back to the HR estimated image and further refined. Another way to minimize motion error is to test each pixel in the residual and remove pixels that are larger than a certain threshold. This is also known as outlier removal.

画像列の輝度は、例えば写真の点滅光、ランプのオン/オフ、自然照明などのように、画像ごとに異なる。さらに、画像列は、それぞれ異なる校正パラメータを持つそれぞれ異なるカメラで取り込まれる場合があるため、結果として輝度のレベルや階調がそれぞれ異なる場合がある。そのような場合、オブジェクト又は内容が正確に一致しても、該当するブロックの動きベクトルが無効としてタグ付けされてしまうという問題がある。結果として超解像度化に利用できる情報が失われることになる。   The brightness of the image sequence varies from image to image, such as, for example, flashing light in a photograph, turning on / off a lamp, and natural lighting. Furthermore, the image sequence may be captured by different cameras having different calibration parameters, and as a result, the brightness level and gradation may be different. In such a case, there is a problem that even if the object or the content exactly matches, the motion vector of the corresponding block is tagged as invalid. As a result, information that can be used for super-resolution is lost.

異常値のテストを残差のみに対して行う方法では、輝度の変化によってアーチファクトが生じる。残差は複数フレームの平均値であるため、輝度差分による効果が複数フレームに波及するためである。よって、削除されるべき画素であっても異常値テストをパスする可能性がある。   In the method in which the outlier test is performed only on the residual, an artifact is caused by a change in luminance. This is because the residual is an average value of a plurality of frames, so that the effect of the luminance difference spreads over the plurality of frames. Therefore, there is a possibility that an abnormal value test is passed even for a pixel to be deleted.

本発明では、輝度補償(IC)を用いて輝度変化や輝度差分に関する上記課題を解決する。ICでは、対象ブロック及び参照ブロックのいずれかに対して輝度差分値を加算する。輝度差分値を算出する方法に、参照ブロックの平均値から対象ブロックの平均値を減算する方法がある。ICに対しては、動き検出に用いるブロックサイズとは異なるブロックサイズを用いることができる。   The present invention solves the above-described problems relating to luminance changes and luminance differences using luminance compensation (IC). In the IC, the luminance difference value is added to either the target block or the reference block. As a method of calculating the luminance difference value, there is a method of subtracting the average value of the target block from the average value of the reference block. For the IC, a block size different from the block size used for motion detection can be used.

本発明では、ICと共に輝度マスキング(IM)を用いる。IMでは、動き誤差のテストをブロックに対して行う。これは動きベクトルが有効であるかをテストするのと似ている。しかしながら、IMに対しては、動き検出に用いるブロックサイズとは異なるブロックサイズを用いることができる。例えば、16×16ブロックに対して動き検出を行って1つの動きベクトルを生成すると仮定する。次に16×16ブロックにおける各8×8ブロックに対してIMを行う。ここで、例えば左上の8×8ブロックのみが無効であるとタグ付けされ、他の3つの8×8ブロックが有効である場合がある。これは動きが複雑な画像列にとっては利点となる。   In the present invention, luminance masking (IM) is used together with the IC. In IM, a motion error test is performed on a block. This is similar to testing whether a motion vector is valid. However, for IM, a block size different from the block size used for motion detection can be used. For example, assume that motion detection is performed on a 16 × 16 block to generate one motion vector. Next, IM is performed on each 8 × 8 block in the 16 × 16 block. Here, for example, only the upper left 8 × 8 block may be tagged as invalid and the other three 8 × 8 blocks may be valid. This is an advantage for image sequences with complex motion.

IM用とIC用のブロックサイズは互いに異なってもよい。例えば、輝度差分値は16×16ブロックを用いて算出できるが、IMは各8×8ブロックに対して実行される。IMとICに用いられるブロックサイズは、正方形である必要はなく、メッシュや任意の形であってもよく、いかなるサイズであってもよい。   The block sizes for IM and IC may be different from each other. For example, the luminance difference value can be calculated using 16 × 16 blocks, but IM is executed for each 8 × 8 block. The block size used for IM and IC does not need to be a square, and may be a mesh or an arbitrary shape, and may be any size.

輝度マスキング(IM)のみを使用することも可能であり、これは周辺フレーム間で輝度変化がないシーケンスに有効となる。   It is also possible to use only luminance masking (IM), which is useful for sequences where there is no luminance change between surrounding frames.

また、ICとIMとを組み合わせるか、又はIC/IMを単独で用いるかの選択は、シーケンス及びフレームレベルのいずれかで自動的に行うことができる。   Also, the choice between combining IC and IM or using IC / IM alone can be made automatically at either the sequence or frame level.

本発明は、超解像度化に用いる画像間の輝度差分や輝度変化を解決するために輝度補償を用いている点で新しい。輝度マスキングを輝度補償と併せて用いることで、実際に動き誤差を有するブロックが超解像度化から確実に除外されるようにする。   The present invention is new in that brightness compensation is used in order to solve brightness differences and brightness changes between images used for super-resolution. Using luminance masking in conjunction with luminance compensation ensures that blocks that actually have motion errors are excluded from super-resolution.

また本発明は、それぞれ異なるブロックサイズを輝度補償、輝度マスキング、及び動き検出に用いることができるという点でも新しい。   The present invention is also new in that different block sizes can be used for luminance compensation, luminance masking, and motion detection.

結果として、超解像度化アルゴリズムを改善できる。   As a result, the super-resolution algorithm can be improved.

上述のように、超解像度化のためのワーピングは、HR推定画像及び観測されたLRフレームのいずれかに対して行うことができる。本発明は両方の方法に対して利用可能である。本発明の説明を一般化するために、対象フレーム及び参照フレームという用語を用いた。動き検出は、対象フレームと参照フレームとのペアに対して行われる。このため、参照フレームがワーピング対象のフレームとなる。   As described above, warping for super-resolution can be performed on either the HR estimated image or the observed LR frame. The present invention is applicable to both methods. In order to generalize the description of the invention, the terms target frame and reference frame were used. Motion detection is performed on a pair of a target frame and a reference frame. For this reason, the reference frame is a warping target frame.

サブピクセル単位の動き検出を行うための従来方法の1つに、参照フレームをアップサンプリングする方法がある。この場合、対象フレームと参照フレームとはサイズが異なる。動き検出に関しては、ブロックマッチングを行う際にサンプルを減らすという方法がある。IM及びICに関しては、本発明では、対象フレーム/ブロックに対するアップサンプリング及び参照フレーム/ブロックに対するダウンサンプリングのいずれかを行う。ここではアップサンプリング又はダウンサンプリングの方法を厳密には指定しないが、これは本発明の精神及び範囲に影響を与えるものではない。もしくは、位相限定相関を用いて動き検出を行って、参照フレームのアップサンプリングを行うことなしにサブピクセル精度を実現することが可能である。   One conventional method for performing sub-pixel unit motion detection is to upsample a reference frame. In this case, the target frame and the reference frame have different sizes. Regarding motion detection, there is a method of reducing samples when performing block matching. With respect to IM and IC, the present invention performs either upsampling for the target frame / block or downsampling for the reference frame / block. Although the exact method of upsampling or downsampling is not specified here, this does not affect the spirit and scope of the present invention. Alternatively, it is possible to achieve sub-pixel accuracy without performing upsampling of the reference frame by performing motion detection using phase-only correlation.

[後処理又は前処理装置]
図6は後処理又は前処理装のための超解像処理装置の使用を示すブロック図である。入力D652は、映像及び/又は音声ソースなどで構成される。必要であれば、逆多重化器602を用いて映像ソースを他のソースから分離する。また必要であれば、他のソース又は他のビットストリームD656を他の処理装置で処理する。また、映像ソースを圧縮してもよい。この場合、符号化された映像ビットストリームD658を映像デコーダ604で復号し、復号化画像列D662を生成する。また映像ソースは圧縮されなくてもよい。この場合、非圧縮画像列D654を用いる。オプションで前処理装置606を用いて画像列D662及びD654を処理し、処理画像列D664を生成してもよい。超解像処理装置608は画像列を処理して超解像度向上画像列D666を生成する。超解像処理装置608は輝度マスキング及び/又は輝度補償も行う。映像ソースを圧縮した場合、超解像処理装置は、符号化映像ビットストリームからの補助データD660をオプションで用いることができる。補助データの例として、動きベクトル、量子化パラメータ、デブロッキングフィルタ強度などがある。超解像度向上画像列は、さらに後処理装置610で処理されてもよい。処理済み超解像度向上画像列D668は、表示装置614を用いて表示できる。オプションとして、記憶装置612を用いて格納されてもよい。また記憶装置612において、格納のために圧縮を用いてもよい。
[Post-processing or pre-processing equipment]
FIG. 6 is a block diagram illustrating the use of a super-resolution processor for post-processing or pre-processing equipment. The input D652 includes a video and / or audio source. If necessary, the demultiplexer 602 is used to separate the video source from other sources. If necessary, another source or another bit stream D656 is processed by another processing device. Also, the video source may be compressed. In this case, the encoded video bit stream D658 is decoded by the video decoder 604, and a decoded image sequence D662 is generated. The video source may not be compressed. In this case, an uncompressed image sequence D654 is used. Optionally, the pre-processing device 606 may be used to process the image sequences D662 and D654 to generate a processed image sequence D664. The super-resolution processor 608 processes the image sequence to generate a super-resolution enhanced image sequence D666. The super-resolution processor 608 also performs luminance masking and / or luminance compensation. When the video source is compressed, the super-resolution processor can optionally use auxiliary data D660 from the encoded video bitstream. Examples of auxiliary data include motion vectors, quantization parameters, deblocking filter strength, and the like. The super-resolution-enhanced image sequence may be further processed by the post-processing device 610. The processed super-resolution-enhanced image sequence D668 can be displayed using the display device 614. Optionally, it may be stored using storage device 612. In the storage device 612, compression may be used for storage.

[エンコーダ及びデコーダ]
図7a及び図7bは、エンコーダ及びデコーダにおける超解像処理装置の使用をそれぞれ示す2枚のブロック図である。エンコーダにおいて、画像列はイントラ符号化又はインター符号化される。イントラ予測処理装置706は、対象フレームの情報を用いて予測を行う。動き検出処理装置702は、他のフレームを参照して動き補償予測を行う。その結果として処理装置702及び706から得られる画像は、次に変換処理装置704、量子化処理装置708、次いでエントロピ処理装置710で処理され、符号化映像ビットストリームが生成される。対象フレームは、逆量子化処理装置712、逆変換処理装置714、動き補償処理装置718、及び逆イントラ予測処理装置716を備えるローカルデコーダを用いて再構成され、動き検出処理装置702が用いる参照フレームとして格納される。本発明では、動き検出処理装置702及び動き補償装置718が用いる参照フレームの質及び解像度を向上させるために、超解像処理装置720を用いる。超解像処理装置720は輝度マスキング及び/又は輝度補償も行う。オプションとして、動きベクトル、量子化パラメータ、デブロッキングフィルタ強度などの補助データを超解像処理装置720において用いることができる。
[Encoder and decoder]
7a and 7b are two block diagrams illustrating the use of the super-resolution processor in the encoder and decoder, respectively. In the encoder, the image sequence is intra-coded or inter-coded. The intra prediction processing device 706 performs prediction using information on the target frame. The motion detection processing device 702 performs motion compensation prediction with reference to other frames. As a result, the images obtained from the processing devices 702 and 706 are then processed by the transform processing device 704, the quantization processing device 708, and then the entropy processing device 710 to generate an encoded video bitstream. The target frame is reconstructed using a local decoder including an inverse quantization processing device 712, an inverse transformation processing device 714, a motion compensation processing device 718, and an inverse intra prediction processing device 716, and a reference frame used by the motion detection processing device 702 Is stored as In the present invention, the super-resolution processing device 720 is used to improve the quality and resolution of the reference frame used by the motion detection processing device 702 and the motion compensation device 718. The super-resolution processor 720 also performs brightness masking and / or brightness compensation. As an option, auxiliary data such as motion vectors, quantization parameters, deblocking filter strength, etc. can be used in the super-resolution processor 720.

デコーダにおいて、エントロピ復号処理装置740、逆量子化処理装置742、逆変換処理装置744、逆イントラ予測処理装置746、及び動き検出処理装置750を用いて、符号化映像ビットストリームから画像列を再構成する。エンコーダと同様に、超解像処理装置748を用いて参照フレームの質と解像度を向上させる。超解像処理装置748は輝度マスキング及び/又は輝度補償も行う。オプションとして、動きベクトル、量子化パラメータ、デブロッキングフィルタ強度などの補助データを超解像処理装置748において用いることができる。超解像処理装置748は、さらに、表示された画像も改善させる。   In the decoder, an entropy decoding processing device 740, an inverse quantization processing device 742, an inverse transformation processing device 744, an inverse intra prediction processing device 746, and a motion detection processing device 750 are used to reconstruct an image sequence from the encoded video bitstream. To do. Similar to the encoder, the super-resolution processor 748 is used to improve the quality and resolution of the reference frame. The super-resolution processor 748 also performs brightness masking and / or brightness compensation. Optionally, auxiliary data such as motion vectors, quantization parameters, deblocking filter strength, etc. can be used in super-resolution processor 748. The super-resolution processing device 748 further improves the displayed image.

説明したエンコーダ及びデコーダは簡略化されたものである。現在、デブロッキングフィルタなど、画質をさらに向上させるための高度なツールを使用するエンコーダやデコーダがある。本発明では、図7a及び図7bに示されるとおりに符号化と復号が行われる必要はない。ここでは、動き検出、動き補償予測、及び表示に用いる参照フレームを改善することで符号化効率又はピクチャの質を向上させるためにエンコーダ及びデコーダにおいて超解像処理を用いることができることの一例を示しているに過ぎない。   The encoder and decoder described are simplified. Currently, there are encoders and decoders that use advanced tools such as deblocking filters to further improve image quality. In the present invention, encoding and decoding need not be performed as shown in FIGS. 7a and 7b. Here is an example of how super-resolution processing can be used in encoders and decoders to improve coding efficiency or picture quality by improving reference frames used for motion detection, motion compensated prediction, and display. It ’s just that.

[レイヤ間予測]
図12a及び図12bは、エンコーダ及びデコーダにおけるレイヤ間イントラ予測のための超解像処理装置の使用をそれぞれ示す2枚のブロック図である。符号化効率を向上させるために、階層符号化にレイヤ間予測を用いる。レイヤ間予測を用いる階層符号化の一例として、ISO/IEC1496―10にスケーラブル拡張を適用するというワーキングドラフトがあり、スケーラブル映像符号化としても知られている。基本レイヤ符号化処理装置1202を用いて基本レイヤ画像列を符号化する。拡張レイヤ符号化処理装置1212を用いて拡張レイヤ画像列を符号化する。拡張レイヤ符号化処理装置1212は、レイヤ間予測を用いて拡張レイヤと基本レイヤとの間の冗長性を削減することで、拡張レイヤだけを符号化する場合と比較して符号化効率を向上させる。レイヤ間残差予測処理装置1204を用いて拡張レイヤ残差と基本レイヤ残差との間の冗長性を削減する。レイヤ間動きデータ予測処理装置1206を用いて拡張レイヤと基本レイヤとにおける動きデータ間の冗長性を削減する。動きデータの例として、マクロブロック毎に用いられるパーティションサイズ及びタイプ、並びに予測方向、動きベクトルなどがある。レイヤ間イントラ予測処理装置1208は、拡張レイヤの画像を符号化するための追加の参照画像として、基本レイヤのイントラ画像又は基本レイヤの再構成画像を利用する。これらの追加の参照画像を改善するために、超解像処理装置1210を用いる。超解像処理装置1210は輝度マスキング及び/又は輝度補償も行う。オプションとして、動きベクトル、量子化パラメータ、デブロッキングフィルタ強度などの補助データを超解像処理装置1210において用いることができる。
[Inter-layer prediction]
12a and 12b are two block diagrams illustrating the use of the super-resolution processor for inter-layer intra prediction in the encoder and decoder, respectively. In order to improve coding efficiency, inter-layer prediction is used for hierarchical coding. As an example of hierarchical coding using inter-layer prediction, there is a working draft of applying scalable extension to ISO / IEC 1496-10, which is also known as scalable video coding. The base layer image sequence is encoded using the base layer encoding processing device 1202. The enhancement layer image sequence is encoded using the enhancement layer encoding processing device 1212. The enhancement layer coding processing apparatus 1212 improves coding efficiency compared with the case of coding only the enhancement layer by reducing redundancy between the enhancement layer and the base layer using inter-layer prediction. . The redundancy between the enhancement layer residual and the base layer residual is reduced using the inter-layer residual prediction processing device 1204. The inter-layer motion data prediction processing device 1206 is used to reduce redundancy between motion data in the enhancement layer and the base layer. Examples of motion data include partition size and type used for each macroblock, prediction direction, motion vector, and the like. The inter-layer intra prediction processing apparatus 1208 uses a base layer intra image or a base layer reconstructed image as an additional reference image for encoding an enhancement layer image. A super-resolution processor 1210 is used to improve these additional reference images. The super-resolution processor 1210 also performs luminance masking and / or luminance compensation. As an option, auxiliary data such as motion vectors, quantization parameters, deblocking filter strength, etc. can be used in the super-resolution processor 1210.

デコーダにおいて、基本レイヤ復号処理装置1222を用いて基本レイヤビットストリームを復号する。拡張レイヤ復号処理装置1232は、レイヤ間残差予測処理装置1224、レイヤ間動きデータ予測処理装置1226、及びレイヤ間イントラ予測処理装置1228を用いて拡張レイヤビットストリームを復号する。エンコーダと同様に、レイヤ間イントラ予測処理装置1228からの参照ピクチャを改善するために超解像処理装置1230を用いる。超解像処理装置1228は輝度マスキング及び/又は輝度補償も行う。オプションとして、動きベクトル、量子化パラメータ、デブロッキングフィルタ強度などの補助データを超解像処理装置1228において用いることができる。   In the decoder, the base layer bit stream is decoded using the base layer decoding processing device 1222. The enhancement layer decoding processing device 1232 decodes the enhancement layer bitstream using the inter-layer residual prediction processing device 1224, the inter-layer motion data prediction processing device 1226, and the inter-layer intra prediction processing device 1228. Similar to the encoder, the super-resolution processor 1230 is used to improve the reference picture from the inter-layer intra prediction processor 1228. The super-resolution processor 1228 also performs luminance masking and / or luminance compensation. As an option, auxiliary data such as motion vectors, quantization parameters, deblocking filter strength, etc. can be used in the super-resolution processor 1228.

[超解像処理装置の形態1]
図10は超解像処理装置内の処理装置を示すブロック図である。補間処理装置1010は、超解像度化の対象となるフレームを補間する。補間方法には、公知であるバイリニア補間、バイキュービック補間、Lanczos補間などがある。補間された画像は高解像度バッファ1012に格納される。これが最初の高解像度推定画像となる。1022における処理装置によって、画像列の位置合わせが行われる。1022は、参照フレームと対象フレームとの間のワーピングベクトルを算出し、予測画像を生成する動き検出処理装置1002を備える。ワーピングベクトル及び予測画像は、輝度マスキング及び/又は輝度補償処理装置1020に入力され、輝度マスキング及び/又は輝度補償が実行される。位置合わせ処理装置1004はワーピングベクトル、輝度マスク、及び輝度補償値に基づいて位置合わせを行う。点拡がり関数処理装置1014は、高解像度バッファ1012における高解像度推定画像を不鮮明化する。フレーム差分処理装置1006は位置合わせ画像と不鮮明化された高解像度推定画像との間の差分を算出する。点拡がり逆関数処理装置1008は差分を高解像度グリッドに逆投影する。正則化処理装置1018は平滑化画像を算出するために用いられる。高解像度推定処理装置1016は逆投影された差分と平滑化の拘束条件とを組み合わせて強調係数を生成する。次にこの強調係数を用いて高解像度推定画像を更新する。これにより、向上処理の繰り返しが1サイクル完了する。この処理を、処理装置1014、1006、1008、1016、及び1018を用いて繰り返す。この処理は所定のサイクル数になるまで繰り返してもよいし、強調係数の値が一定のしきい値以下になるまで繰り返してもよい。また、適応向上処理を画素単位で行って、特定の画素のみを選択し、さらなる向上処理を行ってもよい。
[Mode 1 of super-resolution processing apparatus]
FIG. 10 is a block diagram showing a processing device in the super-resolution processing device. The interpolation processing apparatus 1010 interpolates a frame that is a target for super-resolution. Examples of the interpolation method include known bilinear interpolation, bicubic interpolation, and Lanczos interpolation. The interpolated image is stored in the high resolution buffer 1012. This is the first high resolution estimated image. The processing unit 1022 aligns the image sequence. 1022 includes a motion detection processing device 1002 that calculates a warping vector between a reference frame and a target frame and generates a predicted image. The warping vector and the predicted image are input to the luminance masking and / or luminance compensation processing apparatus 1020, and the luminance masking and / or luminance compensation is performed. The alignment processing device 1004 performs alignment based on the warping vector, the luminance mask, and the luminance compensation value. The point spread function processing device 1014 blurs the high-resolution estimated image in the high-resolution buffer 1012. The frame difference processing device 1006 calculates a difference between the alignment image and the blurred high-resolution estimated image. The point spread inverse function processor 1008 backprojects the difference onto a high resolution grid. The regularization processing apparatus 1018 is used to calculate a smoothed image. The high-resolution estimation processing device 1016 generates an enhancement coefficient by combining the backprojected difference and the smoothing constraint condition. Next, the high-resolution estimated image is updated using this enhancement coefficient. Thereby, the repetition of the improvement process is completed for one cycle. This process is repeated using the processing apparatuses 1014, 1006, 1008, 1016, and 1018. This process may be repeated until a predetermined number of cycles is reached, or may be repeated until the value of the enhancement coefficient becomes a certain threshold value or less. Further, the adaptive improvement process may be performed on a pixel basis, and only specific pixels may be selected and further improvement process may be performed.

[超解像処理装置の形態2]
図11は超解像処理装置内の処理装置を示す別のブロック図である。補間処理装置1110は、超解像度化の対象となるフレームを補間する。補間方法には、公知であるバイリニア補間、バイキュービック補間、Lanczos補間などがある。補間された画像は高解像度バッファ1112に格納される。これが最初の高解像度推定画像となる。1122における処理装置によって、画像列のワーピングが算出される。1122は、参照フレームと対象フレームとの間のワーピングベクトルを算出し、予測画像を生成する動き検出処理装置1102を備える。ワーピングベクトル及び予測画像は、輝度マスキング及び/又は輝度補償処理装置1120に入力され、輝度マスキング及び/又は輝度補償が実行される。ワーピング処理装置1104はワーピングベクトル、輝度マスク、及び輝度補償値に基づいてワーピングを行う。点拡がり関数処理装置1114は、ワープ画像を不鮮明化する。フレーム差分処理装置1106はワープ画像と観測された低解像度画像(入力画像列)との間の差分を算出する。点拡がり逆関数処理装置1108は差分を高解像度グリッドに逆投影する。正則化処理装置1118は平滑化画像を算出するために用いられる。高解像度推定処理装置1116は逆投影された差分と平滑化の拘束条件とを組み合わせて強調係数を生成する。次にこの強調係数を用いて高解像度推定画像を更新する。これにより、向上処理の繰り返しが1サイクル完了する。この処理を、処理装置1114、1106、1108、1116、及び1118を用いて繰り返す。この処理は所定のサイクル数になるまで繰り返してもよいし、強調係数の値が一定のしきい値以下になるまで繰り返してもよい。また、適応向上処理を画素単位で行って、特定の画素のみを選択し、さらなる向上処理を行ってもよい。
[Super Resolution Processing Device Mode 2]
FIG. 11 is another block diagram showing a processing device in the super-resolution processing device. The interpolation processing device 1110 interpolates a frame that is a target for super-resolution. Examples of the interpolation method include known bilinear interpolation, bicubic interpolation, and Lanczos interpolation. The interpolated image is stored in the high resolution buffer 1112. This is the first high resolution estimated image. The warping of the image sequence is calculated by the processing device at 1122. 1122 includes a motion detection processing device 1102 that calculates a warping vector between the reference frame and the target frame and generates a predicted image. The warping vector and the predicted image are input to the luminance masking and / or luminance compensation processing device 1120, and luminance masking and / or luminance compensation are performed. The warping processing device 1104 performs warping based on the warping vector, the luminance mask, and the luminance compensation value. The point spread function processing device 1114 blurs the warped image. The frame difference processing device 1106 calculates the difference between the warped image and the observed low resolution image (input image sequence). The point spread inverse function processor 1108 backprojects the difference onto a high resolution grid. Regularization processor 1118 is used to calculate a smoothed image. The high-resolution estimation processing device 1116 generates the enhancement coefficient by combining the backprojected difference and the smoothing constraint condition. Next, the high-resolution estimated image is updated using this enhancement coefficient. Thereby, the repetition of the improvement process is completed for one cycle. This process is repeated using the processing devices 1114, 1106, 1108, 1116, and 1118. This process may be repeated until a predetermined number of cycles is reached, or may be repeated until the value of the enhancement coefficient becomes a certain threshold value or less. Further, the adaptive improvement process may be performed on a pixel basis, and only specific pixels may be selected and further improvement process may be performed.

[輝度補償及び輝度マスキングの実施の形態1]
本実施の形態では、図4を参照して輝度マスキング及び輝度補償を説明する。入力は、対象フレームのブロック及び参照フレームのブロックであり、それぞれ対象ブロック(cur_blk)及び参照ブロック(ref_blk)と呼ばれる。参照ブロックは、対象ブロックに最も一致する対応ブロックであると動き検出処理で特定されたブロックである。ステップS402において、歪み計算機は参照ブロックと対象ブロックとの間の歪みを算出する。歪みを算出する方法として、以下のように平均絶対差を算出する方法がある。
[Embodiment 1 of luminance compensation and luminance masking]
In the present embodiment, luminance masking and luminance compensation will be described with reference to FIG. The input is a block of the target frame and a block of the reference frame, which are called a target block (cur_blk) and a reference block (ref_blk), respectively. The reference block is a block identified by the motion detection process as the corresponding block that most closely matches the target block. In step S402, the distortion calculator calculates distortion between the reference block and the target block. As a method for calculating distortion, there is a method for calculating an average absolute difference as follows.

distortion = mean(cur_blk - ref_blk)           distortion = mean (cur_blk-ref_blk)

歪みを算出する別の方法として、以下のように平均2乗差を算出する方法がある。   As another method for calculating the distortion, there is a method for calculating the mean square difference as follows.

distortion = mean((cur_blk - ref_blk)^2)           distortion = mean ((cur_blk-ref_blk) ^ 2)

ステップS404において、比較器は歪みとしきい値とを比較する。しきい値は固定のしきい値であってもよいし、前のフレームの特徴に基づく適応的しきい値であってもよいし、対象フレームの特徴に基づく適応的しきい値であってもよいし、複数のしきい値の組み合わせであってもよい。歪みがしきい値よりも小さい場合、又は歪みがしきい値の基準を満たしている場合、処理はステップS414で終了し、対応する参照ブロックを超解像度化に用いることができる。この情報は後で用いるためにメモリに格納できる。一方、歪みがしきい値よりも大きい場合、又は歪みがしきい値の基準を満たしていない場合、ステップS406が実行される。ステップS406において、輝度差分計算機は、対象ブロックと参照ブロックとの間の輝度差分を算出する。輝度差分を算出する方法として、以下のように対象ブロックと参照ブロックとの平均値の差分を算出する方法がある。   In step S404, the comparator compares the distortion with the threshold value. The threshold may be a fixed threshold, an adaptive threshold based on the characteristics of the previous frame, or an adaptive threshold based on the characteristics of the target frame. It may be a combination of a plurality of threshold values. If the distortion is less than the threshold, or if the distortion meets the threshold criteria, the process ends in step S414 and the corresponding reference block can be used for super-resolution. This information can be stored in memory for later use. On the other hand, if the distortion is greater than the threshold value, or if the distortion does not meet the threshold criteria, step S406 is executed. In step S406, the luminance difference calculator calculates a luminance difference between the target block and the reference block. As a method of calculating the luminance difference, there is a method of calculating an average value difference between the target block and the reference block as follows.

illum_difference = mean(ref_blk) - mean(cur_blk)             illum_difference = mean (ref_blk)-mean (cur_blk)

輝度差分を算出する別の方法として、対象ブロックと参照ブロックとを周波数領域に変換し、DC成分間の差分を見つける方法がある。DCT変換は、例えば以下のように用いられる。また、ウェーブレット変換も適している。   As another method for calculating the luminance difference, there is a method of finding a difference between DC components by converting a target block and a reference block into a frequency domain. The DCT transform is used as follows, for example. Wavelet transform is also suitable.

illum_difference = Inverse_DCT(DC[DCT(cur_blk)] -
DC[DCT(reference_blk)])
illum_difference = Inverse_DCT (DC [DCT (cur_blk)]-
DC [DCT (reference_blk)])

ステップS408において、輝度補償器は輝度差分を補償する。差分を補償する方法として、以下のように参照ブロックにおける全ての係数を減算する方法がある。   In step S408, the luminance compensator compensates for the luminance difference. As a method of compensating the difference, there is a method of subtracting all the coefficients in the reference block as follows.

ref_blk = ref_blk - illum_difference           ref_blk = ref_blk-illum_difference

他の方法として、周波数領域で減算を行い、逆変換を行う方法もある。ステップS410において、歪み計算機は、ステップS402において説明したように歪みを算出する。ここで異なるのは、参照ブロックの内容がステップS408において変化したという点である。ステップS412において、比較器は、ステップS404において説明したように、歪みとしきい値とを比較する。歪みがしきい値よりも小さい場合、又は歪みがしきい値の基準を満たしている場合、処理はステップS416で終了し、輝度補償を用いる場合は、対応する参照ブロックを超解像度化に用いることができる。一方、歪みがしきい値よりも大きい場合、又は歪みがしきい値の基準を満たしていない場合、ステップS418で処理が終了し、対応する参照ブロックを超解像度化に用いることができない。このことをマスクするともいう。ここでも、この情報は後で用いるためにメモリに格納できる。   As another method, there is a method in which subtraction is performed in the frequency domain and inverse transformation is performed. In step S410, the distortion calculator calculates the distortion as described in step S402. The difference here is that the content of the reference block has changed in step S408. In step S412, the comparator compares the distortion with the threshold value as described in step S404. If the distortion is smaller than the threshold value, or if the distortion meets the threshold criteria, the process ends in step S416. If luminance compensation is used, the corresponding reference block is used for super-resolution. Can do. On the other hand, if the distortion is larger than the threshold value, or if the distortion does not satisfy the threshold criteria, the process ends in step S418, and the corresponding reference block cannot be used for super-resolution. This is also called masking. Again, this information can be stored in memory for later use.

[輝度補償及び輝度マスキングの実施の形態2]
本実施の形態では、図5を参照して輝度マスキング及び輝度補償を説明する。ここでの処理は実施の形態1と同様である。ステップS502において、歪み計算機は、ステップS402において説明したように歪みを算出する。ステップS406、ステップS408、及びステップS410と同様に、輝度差分計算機はステップS504において輝度差分を算出し、輝度補償器はステップS506において輝度差分を補償し、歪み計算機はステップS508において歪みを算出する。ステップS406、ステップS408、及びステップS410はステップS404において歪みが基準を満たさない場合にのみ実行されるのに対し、ステップS504、ステップS506、及びステップS508は必ず実行される。ステップS510において、比較器は、(輝度補償されていない)歪みと輝度補償された歪みとを、しきい値と比較する。ここでも、しきい値は固定のしきい値であってもよいし、前のフレームの特徴に基づく適応的しきい値であってもよいし、対象フレームの特徴に基づく適応的しきい値であってもよいし、複数のしきい値の組み合わせであってもよい。前記歪み及び輝度補償された歪みのいずれもしきい値より小さくない場合、又は前記歪み及び輝度補償された歪みのいずれもしきい値の基準を満たさない場合、処理はステップS514で終了し、対応する参照ブロックを超解像度化に用いることができない。このことをマスクするともいう。この情報は後で用いるためにメモリに格納できる。一方、前記歪み及び輝度補償された歪みのうち一方がしきい値の基準を満たしている場合、比較器はステップS512において、歪みと輝度補償された歪みとを比較する。歪みが輝度補償された歪みよりも小さい場合、処理はステップS516で終了し、対応する参照ブロックを超解像度化に用いることができる。一方、歪みが輝度補償された歪みよりも大きい場合、処理はステップS518で終了し、輝度補償を用いる場合は、対応する参照ブロックを超解像度化に用いることができる。ここでも、この情報は後で用いるためにメモリに格納できる。
[Embodiment 2 of luminance compensation and luminance masking]
In the present embodiment, luminance masking and luminance compensation will be described with reference to FIG. The processing here is the same as in the first embodiment. In step S502, the distortion calculator calculates distortion as described in step S402. Similar to steps S406, S408, and S410, the luminance difference calculator calculates the luminance difference in step S504, the luminance compensator compensates the luminance difference in step S506, and the distortion calculator calculates distortion in step S508. Steps S406, S408, and S410 are executed only when the distortion does not satisfy the criterion in step S404, whereas steps S504, S506, and S508 are necessarily executed. In step S510, the comparator compares the distortion (not luminance compensated) and the luminance compensated distortion with a threshold value. Again, the threshold may be a fixed threshold, an adaptive threshold based on the characteristics of the previous frame, or an adaptive threshold based on the characteristics of the target frame. There may be a combination of a plurality of threshold values. If neither the distortion nor the brightness compensated distortion is less than a threshold value, or if neither the distortion nor the brightness compensated distortion meets the threshold criteria, the process ends at step S514 and the corresponding reference The block cannot be used for super-resolution. This is also called masking. This information can be stored in memory for later use. On the other hand, if one of the distortion and the luminance compensated distortion satisfies the threshold criterion, the comparator compares the distortion with the luminance compensated distortion in step S512. If the distortion is less than the luminance compensated distortion, the process ends in step S516 and the corresponding reference block can be used for super-resolution. On the other hand, if the distortion is larger than the luminance compensated distortion, the process ends in step S518. If luminance compensation is used, the corresponding reference block can be used for super-resolution. Again, this information can be stored in memory for later use.

[輝度マスキング]
本実施の形態では、図8を参照して輝度マスキングを説明する。ここでの処理は、輝度マスキングのみを用いるという点を除いて実施の形態1と同様である。ステップS802において、歪み計算機は、ステップS402において説明したように歪みを算出する。ステップS804において、比較器は、歪みとしきい値とを比較する。ここでも、しきい値は固定のしきい値であってもよいし、前のフレームの特徴に基づく適応的しきい値であってもよいし、対象フレームの特徴に基づく適応的しきい値であってもよいし、複数のしきい値の組み合わせであってもよい。歪みがしきい値よりも小さい場合、又は歪みがしきい値の基準を満たしている場合、処理はステップS806で終了し、対応する参照ブロックを超解像度化に用いることができる。この情報は後で用いるためにメモリに格納できる。一方、歪みがしきい値よりも大きい場合、又は歪みがしきい値の基準を満たしていない場合、処理はステップS808で終了し、対応する参照ブロックを超解像度化に用いることができない。このことをマスクするともいう。ここでも、この情報は後で用いるためにメモリに格納できる。
[Brightness masking]
In the present embodiment, luminance masking will be described with reference to FIG. This processing is the same as that of the first embodiment except that only luminance masking is used. In step S802, the distortion calculator calculates distortion as described in step S402. In step S804, the comparator compares the distortion with a threshold value. Again, the threshold may be a fixed threshold, an adaptive threshold based on the characteristics of the previous frame, or an adaptive threshold based on the characteristics of the target frame. There may be a combination of a plurality of threshold values. If the distortion is less than the threshold, or if the distortion meets the threshold criteria, the process ends in step S806 and the corresponding reference block can be used for super-resolution. This information can be stored in memory for later use. On the other hand, if the distortion is greater than the threshold value, or if the distortion does not meet the threshold criteria, the process ends in step S808, and the corresponding reference block cannot be used for super-resolution. This is also called masking. Again, this information can be stored in memory for later use.

[輝度補償]
本実施の形態では、図9を参照して輝度補償を説明する。ここでの処理においては、輝度補償のみを用いる。ステップS406及びステップS408と同様に、輝度差分計算機はステップS902において輝度差分を算出し、輝度補償器はステップS904において輝度差分を補償する。
[Brightness compensation]
In the present embodiment, luminance compensation will be described with reference to FIG. In this process, only luminance compensation is used. Similar to step S406 and step S408, the luminance difference calculator calculates the luminance difference in step S902, and the luminance compensator compensates the luminance difference in step S904.

先行技術である米国特許出願番号2004/0156561 A1に開示される超解像アルゴリズムを示す図である。FIG. 3 is a diagram showing a super-resolution algorithm disclosed in US Patent Application No. 2004/0156561 A1, which is a prior art. 先行技術である米国特許出願番号2005/0019000 A1に開示される超解像アルゴリズムを示す図である。FIG. 2 is a diagram showing a super-resolution algorithm disclosed in US Patent Application No. 2005/0019000 A1, which is a prior art. 先行技術である田中正行及び奥富正敏による技術論文「再構成型超解像処理の高速化アルゴリズム」Vol.2004 No.133、2004−CVIM−146、2004年11月に開示される超解像処理モデルを示す図である。Technical paper by Masayuki Tanaka and Masatoshi Okutomi as prior art “High-speed algorithm for reconstruction-based super-resolution processing” Vol. 2004 No. 133, 2004-CVIM-146, super-resolution processing disclosed in November 2004 It is a figure which shows a model. 輝度補償及び輝度マスキング処理を示すフロー図である。It is a flowchart which shows a brightness | luminance compensation and a brightness | luminance masking process. 他の輝度補償及び輝度マスキング処理を示すフロー図である。It is a flowchart which shows another brightness | luminance compensation and a brightness | luminance masking process. 後処理又は前処理を目的とする超解像処理装置の使用を示すブロック図である。It is a block diagram which shows use of the super-resolution processing apparatus aiming at post-processing or pre-processing. エンコーダにおける超解像処理装置の使用を示すブロック図である。It is a block diagram which shows use of the super-resolution processing apparatus in an encoder. デコーダにおける超解像処理装置の使用を示すブロック図である。It is a block diagram which shows use of the super-resolution processing apparatus in a decoder. 輝度マスキング処理を示すフロー図である。It is a flowchart which shows a brightness | luminance masking process. 輝度補償処理を示すフロー図である。It is a flowchart which shows a brightness | luminance compensation process. 観測された低解像度画像列に対して位置合わせを行う超解像処理装置における処理装置を示すブロック図である。It is a block diagram which shows the processing apparatus in the super-resolution processing apparatus which aligns with respect to the observed low-resolution image sequence. 低解像度画像列をシミュレートするために高解像度推定画像をワーピングする超解像処理装置における処理装置を示すブロック図である。It is a block diagram which shows the processing apparatus in the super-resolution processing apparatus which warps a high resolution estimated image in order to simulate a low resolution image sequence. レイヤ間予測を用いるエンコーダにおける超解像処理装置の使用を示すブロック図である。It is a block diagram which shows use of the super-resolution processing apparatus in the encoder using inter-layer prediction. レイヤ間予測を用いるデコーダにおける超解像処理装置の使用を示すブロック図である。FIG. 6 is a block diagram illustrating the use of a super-resolution processor in a decoder that uses inter-layer prediction.

Claims (21)

画像列に対して輝度マスキング及び輝度補償を用いた超解像処理を行うための方法であって、
補間を行って最初の高解像度推定画像を生成するステップ(1010)と、
輝度マスキング及び/又は輝度補償を用いた位置合わせを行って位置合わせ画像を生成するステップ(1022)と、
以下のステップを繰り返すステップとを備えることを特徴とする方法。
点拡がり関数を用いて前記高解像度推定画像を不鮮明化し、不鮮明化画像を生成するステップ(1014)
前記不鮮明化画像と前記位置合わせ画像とを減算し、差分画像を生成するステップ(1006)
点拡がり逆関数を用いて前記差分画像を逆投影し、逆投影画像を生成するステップ(1008)
正則化を行って平滑化画像を生成するステップ(1018)と、
前記平滑化画像と前記逆投影画像とを組み合わせ、強調係数を生成するステップ(1016)
前記強調係数を高解像度推定画像に更新し、新たな高解像度推定画像を生成するステップ(1012)
A method for performing super-resolution processing using luminance masking and luminance compensation on an image sequence,
Interpolating to generate a first high resolution estimated image (1010);
Performing an alignment using luminance masking and / or luminance compensation to generate an alignment image (1022);
And repeating the following steps.
Blurring the high resolution estimated image using a point spread function to generate a blurred image (1014)
Subtracting the blurred image and the alignment image to generate a difference image (1006)
Back projecting the difference image using a point spread inverse function to generate a back projection image (1008)
Performing regularization to generate a smoothed image (1018);
Combining the smoothed image and the backprojected image to generate an enhancement coefficient (1016)
Updating the enhancement coefficient to a high-resolution estimated image and generating a new high-resolution estimated image (1012)
輝度マスキング及び/又は輝度補償を用いた位置合わせを行って位置合わせ画像を生成する請求項1記載の方法であって、
動き検出を行ってワーピングベクトルと予測画像とを生成するステップ(1002)と、
輝度マスキング及び輝度補償を行って輝度マスクと輝度補償値とを生成するステップ(1020)と、
前記ワーピングベクトルと、輝度マスクと、輝度補償値とに基づいて位置合わせを行い、位置合わせ画像を生成するステップ(1004)と
を備えることを特徴とする方法。
The method of claim 1, wherein alignment using luminance masking and / or luminance compensation is performed to generate an alignment image.
Generating a warping vector and a predicted image by performing motion detection (1002);
Performing luminance masking and luminance compensation to generate a luminance mask and a luminance compensation value (1020);
And (1004) generating a registration image by performing registration based on the warping vector, a luminance mask, and a luminance compensation value.
輝度マスキング及び輝度補償を行って輝度マスクと輝度補償値とを生成する請求項2記載の方法であって、
歪みを算出するステップ(S402)と、
前記歪みとしきい値とを比較するステップ(S404)と、
前記歪みが前記しきい値を満たす場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S414)と、
前記歪みが前記しきい値を満たさない場合に、以下のステップを実行するステップとを備える方法。
輝度差を算出し、前記輝度補償値を生成するステップ(S406)
輝度補償を行うステップ(S408)
再度歪みを算出するステップ(S410)
前記歪みとしきい値とを比較するステップ(S412)
前記歪みが前記しきい値を満たす場合であって、輝度補償が用いられる場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S416)
前記歪みが前記しきい値を満たさない場合に、超解像度化に使用不可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S418)
The method of claim 2, wherein brightness masking and brightness compensation are performed to generate a brightness mask and a brightness compensation value.
A step of calculating distortion (S402);
Comparing the distortion with a threshold (S404);
If the distortion meets the threshold, marking the reference block as usable for super-resolution and ending the process (S414);
Performing the following steps if the distortion does not meet the threshold.
A step of calculating a luminance difference and generating the luminance compensation value (S406)
Step of performing luminance compensation (S408)
Step of calculating distortion again (S410)
A step of comparing the distortion with a threshold value (S412)
If the distortion satisfies the threshold value and luminance compensation is used, marking the reference block as usable for super-resolution and ending the process (S416)
If the distortion does not satisfy the threshold value, the reference block is marked as unusable for super-resolution, and the process is terminated (S418).
輝度マスキング及び輝度補償を行って輝度マスクと輝度補償値とを生成する請求項2記載の方法であって、
歪みを算出するステップ(S502)と、
輝度差を算出するステップ(S504)と、
輝度補償を行うステップ(S506)と、
輝度補償された歪みを算出するステップ(S508)と、
前記歪みと、前記輝度補償された歪みとを、しきい値と比較するステップ(S510)と、
前記歪み及び前記輝度補償された歪みのいずれも前記しきい値を満たさない場合に、超解像度化に使用不可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S514)と、
前記歪み又は前記輝度補償された歪みが前記しきい値を満たす場合に、以下のステップを実行する方法。
前記歪みと前記輝度補償された歪みとを比較するステップ(S512)
前記歪みが前記輝度補償された歪みよりも小さい場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S516)
前記輝度補償された歪みが前記歪みよりも小さい場合であって、輝度補償が用いられる場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S518)
The method of claim 2, wherein brightness masking and brightness compensation are performed to generate a brightness mask and a brightness compensation value.
A step of calculating distortion (S502);
Calculating a luminance difference (S504);
Performing luminance compensation (S506);
Calculating luminance compensated distortion (S508);
Comparing the distortion and the luminance compensated distortion with a threshold (S510);
Marking a reference block as unusable for super-resolution when both the distortion and the brightness compensated distortion do not satisfy the threshold, and ending the process (S514);
A method of performing the following steps when the distortion or the luminance compensated distortion satisfies the threshold.
Comparing the distortion with the brightness compensated distortion (S512)
If the distortion is smaller than the luminance compensated distortion, marking the reference block as being usable for super-resolution and ending the process (S516)
When the luminance compensated distortion is smaller than the distortion and luminance compensation is used, a step of marking the reference block as being usable for super-resolution and ending the processing (S518)
輝度マスキング及び/又は輝度補償を用いた位置合わせを行って位置合わせ画像を生成する請求項1記載の方法であって、
動き検出を行ってワーピングベクトルと予測画像とを生成するステップ(S1002)と、
輝度マスキングを行って輝度マスクを生成するステップ(1020)と、
前記ワーピングベクトルと輝度マスクとに基づいて位置合わせを行い、位置合わせ画像を生成するステップ(1004)と
を備えることを特徴とする方法。
The method of claim 1, wherein alignment using luminance masking and / or luminance compensation is performed to generate an alignment image.
Performing motion detection to generate a warping vector and a predicted image (S1002);
Performing luminance masking to generate a luminance mask (1020);
And (1004) performing alignment based on the warping vector and a luminance mask to generate an alignment image.
輝度マスキングを行って輝度マスクを生成する請求項5記載の方法であって、
歪みを算出するステップ(S802)と、
前記歪みとしきい値とを比較するステップ(S804)と、
前記歪みが前記しきい値を満たす場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S806)と、
前記歪みが前記しきい値を満たさない場合に、超解像度化に使用不可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S808)と
を備えることを特徴とする方法。
The method of claim 5, wherein the luminance mask is generated by performing luminance masking,
A step of calculating distortion (S802);
Comparing the distortion with a threshold value (S804);
Marking the reference block as usable for super-resolution when the distortion satisfies the threshold, and ending the process (S806);
Marking the reference block as being unusable for super-resolution when the distortion does not satisfy the threshold, and ending the processing (S808).
輝度マスキング及び/又は輝度補償を用いた位置合わせを行って位置合わせ画像を生成する請求項1記載の方法であって、
動き検出を行ってワーピングベクトルと予測画像とを生成するステップ(S1002)と、
輝度補償を行って輝度補償値を生成するステップ(1020)と、
前記ワーピングベクトルと輝度補償値とに基づいて位置合わせを行い、位置合わせ画像を生成するステップ(1004)と
を備えることを特徴とする方法。
The method of claim 1, wherein alignment using luminance masking and / or luminance compensation is performed to generate an alignment image.
Performing motion detection to generate a warping vector and a predicted image (S1002);
Performing luminance compensation to generate a luminance compensation value (1020);
And (1004) performing alignment based on the warping vector and the luminance compensation value to generate an alignment image.
輝度補償を行って輝度補償値を生成する請求項7記載の方法であって、
輝度差を算出するステップ(S902)と、
輝度補償を行うステップと
を備えることを特徴とする方法。
The method of claim 7, wherein brightness compensation is performed to generate a brightness compensation value.
Calculating a luminance difference (S902);
Performing luminance compensation. A method comprising the steps of:
画像列に対して輝度マスキング及び輝度補償を用いた超解像処理を行うための方法であって、
補間を行って最初の高解像度推定画像を生成するステップ(1110)と、
以下のステップを繰り返すステップとを備えることを特徴とする方法。
輝度マスキング及び/又は輝度補償を用いたワーピングを行い、ワープ画像列を生成するステップ(1122)
点拡がり関数を用いて前記ワープ画像列を不鮮明化し、不鮮明化画像列を生成するステップ(1114)
前記不鮮明化画像列と観測された画像列(入力画像列)とを減算し、差分画像列を生成するステップ(1106)
点拡がり逆関数を用いて前記差分画像列を逆投影し、逆投影画像列を生成するステップ(1108)
正則化を行って平滑化画像を生成するステップ(1118)
前記平滑化画像と前記逆投影画像列とを組み合わせ、強調係数を生成するステップ(1116)
前記強調係数を高解像度推定画像に更新し、新たな高解像度推定画像を生成するステップ(1112)
A method for performing super-resolution processing using luminance masking and luminance compensation on an image sequence,
Generating an initial high-resolution estimated image by performing interpolation (1110);
And repeating the following steps.
Performing warping using luminance masking and / or luminance compensation to generate a warped image sequence (1122)
Blurring the warped image sequence using a point spread function to generate a blurred image sequence (1114)
Subtracting the blurred image sequence from the observed image sequence (input image sequence) to generate a difference image sequence (1106)
Back projecting the difference image sequence using a point spread inverse function to generate a back projection image sequence (1108)
Step of performing regularization to generate a smoothed image (1118)
Combining the smoothed image and the backprojected image sequence to generate an enhancement coefficient (1116)
Updating the enhancement coefficient to a high resolution estimated image to generate a new high resolution estimated image (1112)
輝度マスキング及び/又は輝度補償を用いたワーピングを行い、ワープ画像列を生成する請求項9記載の方法であって、
動き検出を行ってワーピングベクトルと予測画像列とを生成するステップ(1102)と、
輝度マスキング及び輝度補償を行って輝度マスクと輝度補償値とを生成するステップ(1120)と、
前記ワーピングベクトルと、輝度マスクと、輝度補償値とに基づいてワーピングを行い、ワープ画像列を生成するステップ(1104)と
を備えることを特徴とする方法。
The method according to claim 9, wherein warping using luminance masking and / or luminance compensation is performed to generate a warped image sequence.
Performing motion detection to generate a warping vector and a predicted image sequence (1102);
Performing luminance masking and luminance compensation to generate a luminance mask and a luminance compensation value (1120);
And (1104) performing warping based on the warping vector, a luminance mask, and a luminance compensation value to generate a warped image sequence.
輝度マスキング及び輝度補償を行って複数の輝度マスクと複数の輝度補償値とを生成する請求項10記載の方法であって、
歪みを算出するステップ(S402)と、
前記歪みとしきい値とを比較するステップ(S404)と、
前記歪みが前記しきい値を満たす場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S414)と、
前記歪みが前記しきい値を満たさない場合に、以下のステップを実行するステップとを備える方法。
輝度差を算出し、前記輝度補償値を生成するステップ(S406)
輝度補償を行うステップ(S408)
再度歪みを算出するステップ(S410)
前記歪みとしきい値とを比較するステップ(S412)
前記歪みが前記しきい値を満たす場合であって、輝度補償が用いられる場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S416)
前記歪みが前記しきい値を満たさない場合に、超解像度化に使用不可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S418)
The method of claim 10, wherein brightness masking and brightness compensation are performed to generate a plurality of brightness masks and a plurality of brightness compensation values.
A step of calculating distortion (S402);
Comparing the distortion with a threshold (S404);
If the distortion meets the threshold, marking the reference block as usable for super-resolution and ending the process (S414);
Performing the following steps if the distortion does not meet the threshold.
A step of calculating a luminance difference and generating the luminance compensation value (S406)
Step of performing luminance compensation (S408)
Step of calculating distortion again (S410)
A step of comparing the distortion with a threshold value (S412)
If the distortion satisfies the threshold value and luminance compensation is used, marking the reference block as usable for super-resolution and ending the process (S416)
If the distortion does not satisfy the threshold value, the reference block is marked as unusable for super-resolution, and the process is terminated (S418).
輝度マスキング及び輝度補償を行って複数の輝度マスクと複数の輝度補償値とを生成する請求項10記載の方法であって、
歪みを算出するステップ(S502)と、
輝度差を算出するステップ(S504)と、
輝度補償を行うステップ(S506)と、
輝度補償された歪みを算出するステップ(S508)と、
前記歪みと、前記輝度補償された歪みとを、しきい値と比較するステップ(S510)と、
前記歪み及び前記輝度補償された歪みのいずれも前記しきい値を満たさない場合に、超解像度化に使用不可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S514)と、
前記歪み又は前記輝度補償された歪みが前記しきい値を満たす場合に、以下のステップを実行する方法。
前記歪みと前記輝度補償された歪みとを比較するステップ(S512)
前記歪みが前記輝度補償された歪みよりも小さい場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S516)
前記輝度補償された歪みが前記歪みよりも小さい場合であって、輝度補償が用いられる場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S518)
The method of claim 10, wherein brightness masking and brightness compensation are performed to generate a plurality of brightness masks and a plurality of brightness compensation values.
A step of calculating distortion (S502);
Calculating a luminance difference (S504);
Performing luminance compensation (S506);
Calculating luminance compensated distortion (S508);
Comparing the distortion and the luminance compensated distortion with a threshold (S510);
Marking a reference block as unusable for super-resolution when both the distortion and the brightness compensated distortion do not satisfy the threshold, and ending the process (S514);
A method of performing the following steps when the distortion or the luminance compensated distortion satisfies the threshold.
Comparing the distortion with the brightness compensated distortion (S512)
If the distortion is smaller than the luminance compensated distortion, marking the reference block as being usable for super-resolution and ending the process (S516)
When the luminance compensated distortion is smaller than the distortion and luminance compensation is used, a step of marking the reference block as being usable for super-resolution and ending the processing (S518)
輝度マスキング及び/又は輝度補償を用いたワーピングを行い、ワープ画像列を生成する請求項9記載の方法であって、
動き検出を行ってワーピングベクトルと予測画像列とを生成するステップ(S1002)と、
輝度マスキングを行って輝度マスクを生成するステップ(1020)と、
前記ワーピングベクトルと輝度マスクとに基づいてワーピングを行い、ワープ画像列を生成するステップ(1004)と
を備えることを特徴とする方法。
The method according to claim 9, wherein warping using luminance masking and / or luminance compensation is performed to generate a warped image sequence.
Performing motion detection to generate a warping vector and a predicted image sequence (S1002);
Performing luminance masking to generate a luminance mask (1020);
And (1004) performing warping based on the warping vector and the luminance mask to generate a warped image sequence.
輝度マスキングを行って複数の輝度マスクを生成する請求項13記載の方法であって、
歪みを算出するステップ(S802)と、
前記歪みとしきい値とを比較するステップ(S804)と、
前記歪みが前記しきい値を満たす場合に、超解像度化に使用可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S806)と、
前記歪みが前記しきい値を満たさない場合に、超解像度化に使用不可能であるとして参照ブロックをマーキングし、処理を終了するステップ(S808)と
を備えることを特徴とする方法。
14. The method of claim 13, wherein brightness masking is performed to generate a plurality of brightness masks.
A step of calculating distortion (S802);
Comparing the distortion with a threshold value (S804);
Marking the reference block as usable for super-resolution when the distortion satisfies the threshold, and ending the process (S806);
Marking the reference block as being unusable for super-resolution when the distortion does not satisfy the threshold, and ending the processing (S808).
輝度マスキング及び/又は輝度補償を用いたワーピングを行い、ワープ画像列を生成する請求項9記載の方法であって、
動き検出を行ってワーピングベクトルと予測画像とを生成するステップ(S1002)と、
輝度補償を行って輝度補償値を生成するステップ(1020)と、
前記ワーピングベクトルと輝度補償値とに基づいてワーピングを行い、位置合わせ画像列を生成するステップ(1004)と
を備えることを特徴とする方法。
The method according to claim 9, wherein warping using luminance masking and / or luminance compensation is performed to generate a warped image sequence.
Performing motion detection to generate a warping vector and a predicted image (S1002);
Performing luminance compensation to generate a luminance compensation value (1020);
And (1004) generating warped images by performing warping based on the warping vector and the luminance compensation value.
輝度補償を行って複数の輝度補償値を生成する請求項15記載の方法であって、
輝度差を算出するステップ(S902)と、
輝度補償を行うステップと
を備えることを特徴とする方法。
The method of claim 15, wherein the luminance compensation is performed to generate a plurality of luminance compensation values.
Calculating a luminance difference (S902);
Performing luminance compensation. A method comprising the steps of:
前処理装置又は後処理装置において、輝度マスキング及び輝度補償を用いて超解像処理を行う方法であって、
入力源を必要に応じて逆多重化し、非圧縮画像列又は符号化映像ビットストリームと他のビットストリームとを生成するステップ(602)と、
前記符号化映像ビットストリームを必要に応じて復号し、復号化画像列と、オプションで補助データとを生成するステップ(604)と、
オプションで、前記復号化画像列又は前記非圧縮画像列に対して前処理を行い、処理画像列を生成するステップ(606)と、
前記処理画像列に対して、請求項1〜16記載の輝度マスキング及び輝度補償を用いた超解像処理を行い、超解像度向上画像列を生成するステップ(608)と、
オプションで、前記超解像度向上画像列に対して後処理を行い、処理済み超解像度向上画像列を生成するステップ(610)と、
オプションで圧縮を行って、オプションで前記処理済み超解像度向上画像列を格納するステップ(612)と、
オプションで前記処理済み超解像度向上画像列を表示するステップ(614)と
と備えることを特徴とする方法。
In a pre-processing device or a post-processing device, a method for performing super-resolution processing using luminance masking and luminance compensation,
Demultiplexing the input source as necessary to generate an uncompressed image sequence or encoded video bitstream and other bitstreams (602);
Decoding the encoded video bitstream as necessary to generate a decoded image sequence and optionally auxiliary data; (604);
Optionally, performing a pre-processing on the decoded image sequence or the uncompressed image sequence to generate a processed image sequence (606);
Performing the super-resolution processing using luminance masking and luminance compensation according to claim 1 to the processed image sequence to generate a super-resolution-enhanced image sequence (608);
Optionally performing post-processing on the super-resolution enhanced image sequence to generate a processed super-resolution enhanced image sequence (610);
Optionally compressing and optionally storing the processed super-resolution enhanced image sequence (612);
Optionally displaying (614) the processed super-resolution enhanced image sequence.
エンコーダにおいて、輝度マスキングおよび輝度補償を用いて超解像処理を行う方法であって、
イントラ予測を行うステップ(706)と、
動き検出を行うステップ(702)と、
変換を行うステップ(704)と、
量子化を行うステップ(708)と、
エントロピ符号化を行うステップ(710)と、
逆量子化を行うステップ(712)と、
逆変換を行うステップ(714)と、
逆イントラ予測を行うステップ(716)と、
動き補償を行うステップ(718)と、
前記動き検出及び動き補償に用いる参照画像に対して、請求項1〜16記載の輝度マスキング及び輝度補償を用いた超解像処理を行うステップ(720)と
を備えることを特徴とする方法。
In the encoder, a method of performing super-resolution processing using luminance masking and luminance compensation,
Performing intra prediction (706);
Performing motion detection (702);
Converting (704);
Performing quantization (708);
Performing entropy encoding (710);
Performing inverse quantization (712);
Performing inverse transformation (714);
Performing inverse intra prediction (716);
Performing motion compensation (718);
And (720) performing a super-resolution process using luminance masking and luminance compensation according to claim 1 to a reference image used for the motion detection and motion compensation.
デコーダにおいて、輝度マスキング及び輝度補償を用いて超解像処理を行う請求項1〜16に記載の方法であって、
エントロピ復号を行うステップ(740)と、
逆量子化を行うステップ(742)と、
逆変換を行うステップ(744)と、
逆イントラ予測を行うステップ(746)と、
動き補償を行うステップ(750)と、
前記動き補償に用いる参照画像に対して、輝度マスキング及び輝度補償を用いた超解像処理を行うステップ(748)と
を備えることを特徴とする方法。
The method according to any one of claims 1 to 16, wherein the decoder performs super-resolution processing using luminance masking and luminance compensation.
Performing entropy decoding (740);
Performing inverse quantization (742);
Performing inverse transformation (744);
Performing inverse intra prediction (746);
Performing motion compensation (750);
And a step (748) of performing super-resolution processing using luminance masking and luminance compensation on the reference image used for the motion compensation.
レイヤ間予測を用いるエンコーダにおいて、輝度マスキング及び輝度補償を用いて超解像処理を行う方法であって、
基本レイヤを符号化するステップ(1202)と、
レイヤ間予測を用いて拡張レイヤを符号化するステップ(1212)と、
前記拡張レイヤと基本レイヤとの間でレイヤ間残差予測を行うステップ(1204)と、
前記拡張レイヤと基本レイヤとの間でレイヤ間動きデータ予測を行うステップ(1206)と、
前記拡張レイヤと基本レイヤとの間でレイヤ間イントラ予測を行うステップ(1208)と、
前記拡張レイヤを符号化するための追加的な参照として用いられる前記基本レイヤのイントラ画像又は復号化画像に対して、請求項1〜16記載の輝度マスキング及び輝度補償を用いた超解像処理を行うステップ(1210)と
を備えることを特徴とする方法。
In an encoder using inter-layer prediction, a method of performing super-resolution processing using luminance masking and luminance compensation,
Encoding a base layer (1202);
Encoding an enhancement layer using inter-layer prediction (1212);
Performing inter-layer residual prediction between the enhancement layer and the base layer (1204);
Performing inter-layer motion data prediction between the enhancement layer and the base layer (1206);
Performing intra-layer intra prediction between the enhancement layer and the base layer (1208);
The super-resolution processing using luminance masking and luminance compensation according to claim 1-16 for the intra image or decoded image of the base layer used as an additional reference for encoding the enhancement layer. And (1210) performing the method.
レイヤ間予測を用いるデコーダにおいて、輝度マスキング及び輝度補償を用いて超解像処理を行う方法であって、
基本レイヤを復号するステップ(1202)と、
レイヤ間予測を用いて拡張レイヤを復号するステップ(1212)と、
前記拡張レイヤと基本レイヤとの間でレイヤ間残差予測を行うステップ(1204)と、
前記拡張レイヤと基本レイヤとの間でレイヤ間動きデータ予測を行うステップ(1206)と、
前記拡張レイヤと基本レイヤとの間でレイヤ間イントラ予測を行うステップ(1208)と、
前記拡張レイヤを復号するための追加的な参照として用いられる前記基本レイヤのイントラ画像又は復号化画像に対して、請求項1〜16記載の輝度マスキング及び輝度補償を用いた超解像処理を行うステップ(1210)と
を備えることを特徴とする方法。
In a decoder using inter-layer prediction, a method of performing super-resolution processing using luminance masking and luminance compensation,
Decoding the base layer (1202);
Decoding an enhancement layer using inter-layer prediction (1212);
Performing inter-layer residual prediction between the enhancement layer and the base layer (1204);
Performing inter-layer motion data prediction between the enhancement layer and the base layer (1206);
Performing intra-layer intra prediction between the enhancement layer and the base layer (1208);
17. Super-resolution processing using luminance masking and luminance compensation according to claim 1 to an intra image or decoded image of the base layer used as an additional reference for decoding the enhancement layer And (1210) comprising the steps of:
JP2006158938A 2006-06-07 2006-06-07 Super resolution processing method and apparatus using luminance masking and luminance compensation Pending JP2007329678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006158938A JP2007329678A (en) 2006-06-07 2006-06-07 Super resolution processing method and apparatus using luminance masking and luminance compensation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006158938A JP2007329678A (en) 2006-06-07 2006-06-07 Super resolution processing method and apparatus using luminance masking and luminance compensation

Publications (1)

Publication Number Publication Date
JP2007329678A true JP2007329678A (en) 2007-12-20

Family

ID=38929858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006158938A Pending JP2007329678A (en) 2006-06-07 2006-06-07 Super resolution processing method and apparatus using luminance masking and luminance compensation

Country Status (1)

Country Link
JP (1) JP2007329678A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198346A (en) * 2009-02-25 2010-09-09 Toshiba Corp Apparatus and method for processing image
JP2011514605A (en) * 2008-03-17 2011-05-06 エーティーアイ・テクノロジーズ・ユーエルシー Method and apparatus for super-resolution of images
JP2014053857A (en) * 2012-09-10 2014-03-20 Nikon Corp Image processor, imaging apparatus and image processing program
WO2014109594A1 (en) * 2013-01-10 2014-07-17 삼성전자 주식회사 Method for encoding inter-layer video for compensating luminance difference and device therefor, and method for decoding video and device therefor
WO2023185706A1 (en) * 2022-03-31 2023-10-05 京东方科技集团股份有限公司 Image processing method, image processing apparatus and storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011514605A (en) * 2008-03-17 2011-05-06 エーティーアイ・テクノロジーズ・ユーエルシー Method and apparatus for super-resolution of images
JP2010198346A (en) * 2009-02-25 2010-09-09 Toshiba Corp Apparatus and method for processing image
JP2014053857A (en) * 2012-09-10 2014-03-20 Nikon Corp Image processor, imaging apparatus and image processing program
WO2014109594A1 (en) * 2013-01-10 2014-07-17 삼성전자 주식회사 Method for encoding inter-layer video for compensating luminance difference and device therefor, and method for decoding video and device therefor
US9877020B2 (en) 2013-01-10 2018-01-23 Samsung Electronics Co., Ltd. Method for encoding inter-layer video for compensating luminance difference and device therefor, and method for decoding video and device therefor
WO2023185706A1 (en) * 2022-03-31 2023-10-05 京东方科技集团股份有限公司 Image processing method, image processing apparatus and storage medium

Similar Documents

Publication Publication Date Title
CN108012155B (en) Video coding method and video decoding method of pre-spliced image and related devices
RU2512130C2 (en) Device and method for high-resolution imaging at built-in device
JP6163674B2 (en) Content adaptive bi-directional or functional predictive multi-pass pictures for highly efficient next-generation video coding
US10013746B2 (en) High dynamic range video tone mapping
JP5606625B2 (en) Reference processing using advanced motion models for video coding
TWI387317B (en) Apparatus for reference picture resampling generation and method thereof and video decoding system
JP4717138B2 (en) Image encoding method and image encoding apparatus
EP0853436B1 (en) Digital video signal filtering and encoding method and apparatus
JP6419170B2 (en) Method and apparatus for encoding and decoding video pictures
TWI477154B (en) Method and a digital video encoder system for encoding digital video data
JP2010514246A (en) Image compression and decompression
TW201545545A (en) Projected interpolation prediction generation for next generation video coding
RU2684193C1 (en) Device and method for motion compensation in video content
JP2010500818A (en) System and method for comic animation compression
WO2011087963A1 (en) Edge enhancement for temporal scaling with metadata
JP2007316161A (en) Super resolution processing method and apparatus using residual interpolation
JP2007329678A (en) Super resolution processing method and apparatus using luminance masking and luminance compensation
JP2009010492A (en) Image decoder and image conversion circuit
WO2009133845A1 (en) Video encoding/decoding device and method
JP2009218965A (en) Image processor, imaging device mounted with the same and image reproduction device
WO2014156647A1 (en) Method for encoding a plurality of input images and storage medium and device for storing program
JP5701018B2 (en) Image decoding device
TWI519139B (en) Data processing method and digital image processing device
JP2008066911A (en) Video encoding method, video encoding device, computer readable recording medium recorded with its program
JP2010114474A (en) Image processing device and image processing method using dynamic image motion information