JP2007104372A - Video encoding method, video encoding apparatus, video encoding program, and recording medium therefor - Google Patents
Video encoding method, video encoding apparatus, video encoding program, and recording medium therefor Download PDFInfo
- Publication number
- JP2007104372A JP2007104372A JP2005292155A JP2005292155A JP2007104372A JP 2007104372 A JP2007104372 A JP 2007104372A JP 2005292155 A JP2005292155 A JP 2005292155A JP 2005292155 A JP2005292155 A JP 2005292155A JP 2007104372 A JP2007104372 A JP 2007104372A
- Authority
- JP
- Japan
- Prior art keywords
- block
- frame
- video
- video encoding
- camera work
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Description
本発明は,人間の主観的な品質を考慮して効率的に符号化するための映像符号化技術に関するものである。 The present invention relates to a video encoding technique for efficiently encoding in consideration of human subjective quality.
映像を符号化する主な目的は,映像の品質をできるだけ劣化させずにデータ量を少なくすることである。その際に,実際に映像を見るという観点から考えると,信号としての品質(PSNR:Peak to Signal Noise Ratio)ではなく,映像を見る人間の主観的な品質を向上させることが重要である。 The main purpose of encoding video is to reduce the amount of data without degrading video quality as much as possible. At that time, from the viewpoint of actually viewing the video, it is important to improve the subjective quality of the person viewing the video, not the signal quality (PSNR: Peak to Signal Noise Ratio).
主観品質を向上させる方法として,観測者が注目する領域を元の映像に対して忠実に符号化し,一方,観測者が注目しない領域はそれほど忠実に符号化しないという手法が存在する。映像の符号化において,映像の品質はその領域を符号化するのに利用する符号量で制御することが可能である。したがって,映像全体で均一に符号量を割り当てるよりも,観測者の注目する領域により多くの符号量を割り当てることで,全体としては同じ符号量でも主観品質を向上させることができる。 As a method for improving the subjective quality, there is a method in which a region that is observed by the observer is encoded faithfully with respect to the original video, while a region that is not observed by the observer is not encoded very faithfully. In video encoding, the video quality can be controlled by the amount of code used to encode the area. Therefore, the subjective quality can be improved even with the same code amount as a whole by assigning more code amount to the region of interest of the observer than assigning the code amount uniformly in the entire video.
例えば非特許文献1などがこれに当たる。この手法では時間的に動きのある領域(以下では動き領域,動きオブジェクトと呼ぶ)を注視領域であると考えて,その領域には他の領域より多くの符号量を割り当てることで主観品質の向上を実現している。これは動いている物体に注目するという人間の特性を利用しているため,同じ符号量の符号化映像でも,映像全体の画質の向上を図って符号化したものより,主観的な品質が向上することになる。 For example, Non-Patent Document 1 corresponds to this. In this method, an area with temporal movement (hereinafter referred to as a moving area or a moving object) is considered as a gaze area, and the subjective quality is improved by assigning a larger amount of code to that area than other areas. Is realized. This uses the human characteristic of paying attention to moving objects, so even with the same amount of encoded video, the subjective quality is improved compared to the encoded video that improves the overall image quality. Will do.
しかしながら,動き領域の少ない映像を符号化する場合,非特許文献1のような動き領域とそれ以外の領域とで符号量の割り当てを変える方式では,符号量を保ったまま主観品質を十分に向上させることができない。例えば,風景を撮影した映像の場合,映像の変化の大部分がカメラワーク(映像を撮影した際のカメラの動き)に依存したものとなるため,大半の領域が動き領域以外の領域(以下,背景領域と呼ぶ)と判定され,主観品質を向上させるための符号量の割り当てを行うことができない。 However, when coding a video with a small amount of motion area, the method of changing the code amount allocation between the motion region and other regions as in Non-Patent Document 1 sufficiently improves the subjective quality while maintaining the code amount. I can't let you. For example, in the case of an image of a landscape, most of the change in the image depends on camera work (the movement of the camera when the image is captured), so most of the regions are regions other than the motion region (hereinafter, It is determined to be a background region), and code amount allocation for improving subjective quality cannot be performed.
なお,下記の非特許文献2には,本発明の実施例で利用するカメラワークを推定する方法の一例が記載されている。また,下記の非特許文献3には,本発明の実施例で利用するピクセル毎のオプティカルフローを求める方法の一例が記載されている。非特許文献4には,H.264動画像符号化方式の詳細が示されている。
非特許文献1に記載されているような従来の技術では,背景領域に対して主観品質を向上させるための適切な符号量の割り当てを行うことができない。このため,背景領域内でも主観品質を向上できるように符号量の割り当てを変化させることができるようにする必要がある。 With the conventional technique as described in Non-Patent Document 1, it is not possible to assign an appropriate code amount for improving the subjective quality to the background area. For this reason, it is necessary to be able to change the code amount allocation so that the subjective quality can be improved even in the background area.
背景領域内で主観品質への影響を考慮して符号量の割り当てを変化させる方法として,画面の中心に多くの符号量を割り当て,画面の端に少ない符号量を割り当てるという方法が考えられる。この方法は映像を見る際に映像の中央に注目している人が多いという性質を利用している。 As a method of changing the code amount assignment in consideration of the influence on subjective quality in the background area, a method of assigning a large amount of code to the center of the screen and assigning a small amount of code to the edge of the screen can be considered. This method uses the property that many people are paying attention to the center of the image when viewing the image.
しかしながら,このように空間情報のみを考慮した方法では,致命的な画質劣化を招く可能性がある。例えば,特徴的な風景が映像の端に現れている場合や,そのような風景が映像の中央から端へとゆっくりと移動していくような場合,この方法では主観品質を向上させるどころか,悪化させてしまうことになってしまう。 However, such a method considering only spatial information may cause fatal image quality degradation. For example, when a characteristic landscape appears at the edge of the video, or when such a landscape moves slowly from the center to the edge of the video, this method deteriorates rather than improving the subjective quality. Will end up.
また,カメラワークが比較的大きな場合,前フレームには存在しなかったものが多く映像に表れることになる。この領域は非特許文献1ではアンカバード領域と呼ばれ,より多くの符号量の割り当てが必要な領域であるとされている。そのため,映像の大部分で多くの符号量が必要とされ,十分な符号量の制御をすることができない。 Also, if the camera work is relatively large, many things that did not exist in the previous frame will appear in the video. This area is called an uncovered area in Non-Patent Document 1, and is an area that needs to be allocated a larger amount of code. For this reason, a large amount of code is required for most of the video, and a sufficient amount of code cannot be controlled.
本発明は,かかる事情に鑑みてなされたものであって,カメラワークの存在する映像において,符号量を抑えつつ,観測者の主観的な品質を向上させることが可能な映像符号化手法の設計法を確立することを目的とする。 The present invention has been made in view of such circumstances, and design of a video encoding method capable of improving the subjective quality of an observer while suppressing the amount of codes in video with camerawork. The purpose is to establish the law.
上記の課題を解決するために,第1の発明においては,画像を小ブロックに分割して符号化を行い,さらに少なくともそのブロック毎に量子化の度合い(以後,量子化ステップサイズの例で説明する)を自由に選択して符号化する映像符号化方法であって,映像を撮影した際のカメラの動き(以後,カメラワークと呼ぶ)カメラワークを推定するカメラワーク推定ステップと,小ブロック毎にそのブロックに映っている映像の動きを推定する動き探索ステップと,推定したカメラワークと小ブロック毎の動きから,各小ブロックを,その小ブロックの映像の変化がカメラワークに依存する背景ブロックと,カメラワーク以外の動きを含む動きオブジェクトブロックに分類する背景ブロック判定ステップと,背景ブロックに含まれる小ブロックであって次の時刻のフレームにおいて一部でもフレームアウトするブロックを抽出するフレームアウト背景ブロック判定ステップと,動きオブジェクトブロック・フレームアウト背景ブロックでない背景ブロック・フレームアウト背景ブロックの順に相対的に多い符号量を割り当てるように,その小ブロックを符号化するための量子化ステップサイズを設定する量子化ステップサイズ設定ステップを持つような映像符号化方法を考案した。 In order to solve the above problems, in the first invention, the image is divided into small blocks and encoded, and at least the degree of quantization for each block (hereinafter, an example of the quantization step size will be described). Is a video encoding method for selecting and encoding freely, a camera motion estimation step for estimating camera motion (hereinafter referred to as camera work) when a video is shot, and a small block Next, a motion search step for estimating the motion of the video shown in the block, and each small block from the estimated camera work and motion for each small block, and a background block whose video change of the small block depends on the camera work And a background block determination step for classifying the moving object blocks including movements other than camerawork, and small blocks included in the background blocks A relatively large code amount in the order of a frame-out background block determination step that extracts a block that is partially out of the frame at the next time, and a background block that is not a moving object block, a frame-out background block, or a frame-out background block A video encoding method having a quantization step size setting step for setting a quantization step size for encoding the small block is devised.
これによれば,動き領域が少ない映像において,同じ背景領域に含まれる領域であっても,映像の時間的な変化を考慮して設定される重要度に従って,符号量を割り当てることにより,主観品質の向上が可能となる。 According to this, in a video with a small number of motion areas, even if it is an area included in the same background area, by assigning the code amount according to the importance set considering the temporal change of the video, Can be improved.
この方法では,最初に符号化対象フレームとそのフレームの直後のフレームとの間でカメラワークを求める。ここでいうカメラワークは,符号化対象フレームから直後のフレームへのピクセル単位の写像を表すもののことを指す。つまり,単純なパン(横移動)・チルド(縦移動)・ロール(回転)・ズーム(拡大縮小)だけでなく,被写体の構造による移動距離の違いも含まれ,ピクセルごとのオプティカルフローと同じものである。 In this method, first, camera work is obtained between a frame to be encoded and a frame immediately after that frame. The camera work referred to here indicates a pixel unit mapping from the encoding target frame to the immediately following frame. In other words, it includes not only simple pan (horizontal movement), tilde (vertical movement), roll (rotation), zoom (enlargement / reduction), but also the difference in movement distance depending on the structure of the subject, which is the same as the optical flow for each pixel. It is.
次に,符号化対象フレームを小ブロックに分割して,ブロック毎にフレーム間動き予測を行い,ブロックごとの動きベクトルを得る。ピクセルごとのオプティカルフローと各ブロックの動きベクトルから,そのブロックがカメラワーク以外の被写体の動きによって生じる映像の変化を含んだブロック(以後,動きオブジェクトブロックと呼ぶ)と,主にカメラワークによって生じる映像の変化のみをもつブロック(以後,背景ブロックと呼ぶ)に分類する。 Next, the encoding target frame is divided into small blocks, and inter-frame motion prediction is performed for each block to obtain a motion vector for each block. From the optical flow for each pixel and the motion vector of each block, the block contains a change in the image caused by the movement of the subject other than the camera work (hereinafter referred to as a moving object block), and the image produced mainly by the camera work. Are classified into blocks having only the change of (hereinafter referred to as background blocks).
さらに,背景ブロックを次フレームで一部でもフレームアウトしてしまうブロック(以後,フレームアウト背景ブロックと呼ぶ)と,次フレームにおいても全てがフレーム内に残るブロック(以後,フレームステイ背景ブロックと呼ぶ)に分類する。そして,このブロックの種類に従って設定される量子化ステップサイズを用いて符号化を行う。 Further, a block in which the background block is partially out in the next frame (hereinafter referred to as a frame-out background block) and a block in which all of the background block remains in the frame (hereinafter referred to as a frame stay background block). Classify into: Then, encoding is performed using a quantization step size set according to the block type.
背景ブロックの中でも次のフレームにおいて画面から見えなくなってしまう領域は,次のフレームにおいても画面内に残る領域よりも,観測者の目に映る時間が短いため,主観品質への寄与は少ないと言える。すなわち,フレームアウト背景ブロックよりもフレームステイ背景ブロックに多くの符号量を割り当てることで主観品質を向上させたり,フレームアウト背景ブロックに割り当てる符号量を削減することで主観品質を保ちつつ映像全体に必要な符号量を削減させたりすることができる。 Of the background block, the area that disappears from the screen in the next frame is less likely to contribute to the subjective quality because the time seen by the observer is shorter than the area that remains in the screen in the next frame. . In other words, it is necessary for the entire video while maintaining subjective quality by improving the subjective quality by assigning more code amount to the frame stay background block than the frame out background block or reducing the code amount assigned to the frame out background block The amount of codes can be reduced.
第2の発明は,量子化ステップサイズ設定ステップが,フレームアウト背景ブロックに含まれるブロックの画素毎に,次フレームにおいてフレームアウトする距離を求め,ブロック毎にブロック内の全画素の距離の合計値を求め,その値が大きいほど,大きな量子化ステップサイズを割り当てる処理を有することを特徴とする映像符号化方法である。 In the second invention, the quantization step size setting step obtains the distance to be framed out in the next frame for each pixel of the block included in the frame-out background block, and the total value of the distances of all the pixels in the block for each block The video encoding method is characterized by having a process of assigning a larger quantization step size as the value is larger.
量子化ステップサイズが隣り合うブロックで大きく異なると,その部分で信号的な画質の違いが明確になるため,主観品質を低下させてしまう。つまり,主観品質を低下させずに符号量を削減するためには,隣り合うブロックにおける量子化ステップサイズの差を小さくする必要がある。そのため,フレームアウト背景ブロックの量子化ステップサイズとしては,他のブロックで使用される量しかステップサイズと大きな差のない値を使用することになり,フレームアウト背景ブロックが多くなったとしても削減できる符号量はそれほど大きくならない。 If the quantization step size differs greatly between adjacent blocks, the difference in signal image quality becomes clear at that part, and the subjective quality is degraded. In other words, in order to reduce the code amount without reducing the subjective quality, it is necessary to reduce the difference in quantization step size between adjacent blocks. Therefore, as the quantization step size of the frame-out background block, a value that is not significantly different from the step size is used only for the amount used in other blocks, and it can be reduced even if the number of frame-out background blocks increases. The code amount is not so large.
一方,第2の発明によると,次の時刻のフレームにおいても存在する映像が表示される領域から離れるにつれて,より少ない符号量を割り当てるように量子化ステップサイズを徐々に変化させて設定することになるため,均一の量子化ステップサイズを用いるより多くの符号量を削減することが可能となる。 On the other hand, according to the second aspect of the invention, the quantization step size is gradually changed and set so as to allocate a smaller code amount as the image is separated from the area where the image existing in the next frame is displayed. Therefore, it is possible to reduce a larger amount of codes than using a uniform quantization step size.
第3の発明は,フレーム間動き補償技術を用いて映像を符号化する場合に,他のフレームを符号化するときに参照される可能性のあるフレームに対しては,量子化ステップサイズ設定ステップが,フレームアウト背景ブロックとフレームステイ背景ブロックに同程度の量子化ステップサイズを設定することを特徴とする映像符号化方法である。 According to a third aspect of the present invention, when a video is encoded using an inter-frame motion compensation technique, a quantization step size setting step is performed for a frame that may be referred to when another frame is encoded. The video encoding method is characterized in that the same quantization step size is set for the frame-out background block and the frame-stay background block.
他のフレームを符号化するときに参照されるフレームにおいても,フレームアウト背景ブロックを大きな量子化ステップサイズを用いて符号化すると,そのブロックを参照した際の予測残差が大きくなることにより,そのフレームを符号化するときの符号量が増してしまい,映像全体の符号化に必要な符号量を十分に削減することができない。 Even in a frame that is referenced when encoding another frame, if a frame-out background block is encoded using a large quantization step size, the prediction residual when the block is referred to increases, so that The amount of code for encoding a frame increases, and the amount of code required for encoding the entire video cannot be reduced sufficiently.
一方,第3の発明によると,参照される可能性のあるフレームを符号化するときには,量子化ステップサイズを大きくしないようにするため,フレームアウト背景ブロックが参照されたとしても予測残差が大きくなることはなく,映像全体としても符号量を削減することが可能となる。 On the other hand, according to the third invention, when encoding a frame that may be referred to, a prediction residual is large even if a frame-out background block is referred to in order not to increase the quantization step size. In other words, the amount of code can be reduced for the entire video.
第4の発明は,フレーム間動き補償技術を用いて映像を符号化する場合に,他のフレームを符号化するときに参照される可能性のあるフレームに対しては,最初に,フレームアウト背景ブロックとフレームステイ背景ブロックに対して同程度の量子化ステップサイズを設定して符号化を行い,次に,そのフレームが他のフレームから今後参照されないことが確定した後で,フレームアウト背景ブロックに含まれる小ブロックであって,一度も他のフレームから参照されなかった小ブロックに対して,フレームステイ背景ブロックよりも相対的に大きな量子化ステップサイズを新たに設定して再度符号化をすることを特徴とする映像符号化方法である。 According to a fourth aspect of the present invention, when an image is encoded by using an inter-frame motion compensation technique, a frame out background is first applied to a frame that may be referred to when another frame is encoded. Set the same quantization step size for the block and the framestay background block, perform encoding, and then determine that the frame will not be referenced by other frames before Re-encoding a small block that is included and that has never been referenced from another frame by setting a new relatively larger quantization step size than the framestay background block A video encoding method characterized by the above.
参照に一度も使われないフレームアウト背景ブロックは,動き補償による予測残差の量に影響を与えないため,大きな量子化ステップサイズで符号化を行うことによって,符号量を削減することができる。したがって,第4の発明によると,フレーム間動き予測の効率を考慮して,符号量の制御ができるため,主観品質を保ちつつ,映像全体を符号化するのに必要な符号量をより多く削減することが可能となる。 Since a frame-out background block that is never used for reference does not affect the amount of prediction residual due to motion compensation, the amount of code can be reduced by encoding with a large quantization step size. Therefore, according to the fourth aspect of the present invention, since the amount of code can be controlled in consideration of the efficiency of inter-frame motion prediction, the amount of code required to encode the entire video is further reduced while maintaining the subjective quality. It becomes possible to do.
第5の発明は,フレーム間動き補償技術を用いて符号化を行い,さらに,ある閾値以上の量子化ステップサイズを用いて,フレームアウト背景ブロックを符号化する際に,カメラワーク推定ステップで推定されたカメラワークに基づいた動きベクトルを用いてフレーム間動き補償を行って符号化することを特徴とする映像符号化方法である。 In the fifth aspect of the invention, encoding is performed using an inter-frame motion compensation technique, and when a frame-out background block is encoded using a quantization step size greater than a certain threshold, an estimation is performed in a camera work estimation step. The video encoding method is characterized in that encoding is performed by performing inter-frame motion compensation using a motion vector based on the camerawork.
フレーム間動き補償をするときの動きベクトルは,一般的にそのベクトルを表現するのに必要な符号量と,動き補償をした後の残差信号を符号化するのに必要な符号量の合計値が小さくなるように決定される。このとき,残差信号を符号化するときの量子化ステップサイズが大きな場合,どのような動きベクトルでも,動き補償後の残差信号の符号化に必要な符号量が大きく変わらなくなる。そのため,表現するのに少ない符号量で済む動きベクトルが選択されることになる。しかし,残差信号の符号化に必要な符号量が大きく変わらなくても,実際の動きと大きく異なる動きベクトルを用いたブロックの映像は,オリジナルの映像と大きく異なる映像となり,主観品質を著しく悪化させてしまう。 The motion vector for interframe motion compensation is generally the sum of the amount of code required to express the vector and the amount of code required to encode the residual signal after motion compensation. Is determined to be small. At this time, if the quantization step size when encoding the residual signal is large, the code amount necessary for encoding the residual signal after motion compensation does not change greatly for any motion vector. Therefore, a motion vector that requires a small amount of code to express is selected. However, even if the amount of code required to encode the residual signal does not change significantly, the video of the block using a motion vector that differs greatly from the actual motion becomes a video that differs greatly from the original video, and the subjective quality deteriorates significantly. I will let you.
一方,第5の発明によると,他のブロックより比較的大きな量子化ステップサイズの設定されるフレームアウト背景ブロックにおいて,実際の映像に対応する動きを利用することになるため,細かい部分の正確性は失われるものの映像の大まかな変化を保ち,自然な変化を再現でき,同じ符号量でも主観品質を向上させることが可能となる。 On the other hand, according to the fifth invention, since the motion corresponding to the actual video is used in the frame-out background block in which the quantization step size is set to be relatively larger than that of the other blocks, the accuracy of the fine portion is determined. Although it is lost, it can maintain the rough change of the video, reproduce the natural change, and improve the subjective quality even with the same code amount.
本発明によれば,直後のフレームにおいて画面に残らない領域という人間が主観的に映像を評価する際に比較的影響を与えない部分を特定して,その部分に割り当てる符号量を他の部分に割り当てる符号量よりも相対的に少なくすることで,風景のような動きのある被写体がないような映像においても,主観品質を保ったまま映像全体の符号量を削減することや,映像全体で同じ符号量でも主観品質の良くなるような映像符号化を実現することができる。 According to the present invention, an area that does not remain on the screen in the immediately following frame is specified as a part that is relatively unaffected when a human subjectively evaluates an image, and the amount of code assigned to that part is assigned to another part. By making the code amount relatively smaller than the allocated code amount, even in a video where there are no moving objects such as landscapes, the code amount of the entire video can be reduced while maintaining the subjective quality, or the same for the entire video. It is possible to realize video coding that improves subjective quality even with a code amount.
本発明の具体的な実施例を以下に示す。図1に,本実施例において利用する映像符号化装置の構成を示す。 Specific examples of the present invention are shown below. FIG. 1 shows the configuration of a video encoding apparatus used in this embodiment.
映像符号化装置10は,映像を時間軸に沿った順序でフレーム毎に入力する画像入力部11と,自身の時刻より前の時刻のフレームが全て符号化されるまでフレームを蓄積する入力画像メモリ12と,時間的に連続する2つのフレーム間の動きをブロック毎に探索するブロック単位動き探索部13と,時間的に連続する2つのフレーム間のカメラワークを推定するカメラワーク推定部14と,小ブロック毎に動きオブジェクトブロック,フレームステイ背景ブロック,フレームアウト背景ブロックのいずれであるかを判定するブロック判定部15と,画像を小ブロックに分割してフレーム間動き予測を用いながら符号化する画像符号化部16と,符号化結果である映像の符号を出力する符号出力部17とを備える。
The
図2は,入力映像の例を示す。以下の実施例の説明では,図2に示した映像を符号化する場合を例にして説明する。この映像をフレーム1,フレーム3,フレーム2の順序で,先に符号化されたフレームを用いてフレーム間動き予測を行いながら符号化を行うこととする。 FIG. 2 shows an example of the input video. In the following description of the embodiment, a case where the video shown in FIG. 2 is encoded will be described as an example. It is assumed that this video is encoded in the order of frame 1, frame 3, and frame 2 while performing inter-frame motion prediction using the previously encoded frame.
図3は,映像符号化装置10における画像符号化部16の構成の詳細を示す図である。画像符号化部16は,カメラワーク情報を蓄積するカメラワークメモリ161と,ブロックの種類の情報を蓄積するブロックプロパティマップメモリ162と,カメラワークとブロックの種類と他のフレームからの参照の有無に関する情報からブロック毎に符号化する際の量子化ステップを決定する量子化ステップ設定部163と,量子化ステップ設定部163で設定された量子化ステップを用いて,画像を小ブロックに分割して,フレーム間動き予測が利用可能な符号化方法で動画像符号化を行う動画像符号化部164と,フレーム間動き予測によってブロックが参照されたかどうかを示す情報を蓄積する被参照マップメモリ165と,符号化結果である映像の符号をバッファリングする出力符号メモリ166とを備える。
FIG. 3 is a diagram showing details of the configuration of the
図4に,映像符号化装置10の処理フローを示す。この実施例では,図2で示したフレームが,フレーム1,フレーム2,フレーム3の順番で,次々と画像入力部11に入力される[ステップA1]。入力された画像は符号化対象フレームとその時間的に直後のフレームが入力されるか,最後のフレームが入力されるまで入力画像メモリ12に蓄積される[ステップA2,A3]。つまり,この実施例の場合,フレーム1の符号化を開始するのはフレーム2の入力が終了した後であり,フレーム2の符号化を開始するのはフレーム3の入力が終了した後であり,フレーム3の符号化を開始するのはフレーム3の入力が終了した後となる。また,画像メモリからある画像が削除される条件は,自身と自身より前の時刻のフレームが全て符号化済みとなったときである。つまり,本実施例の場合,入力画像メモリ12には少なくとも2フレーム分のメモリがあることになる。
FIG. 4 shows a processing flow of the
次に,符号化対象フレームが最終フレームであれば,符号化対象フレームを画像符号化部16で符号化する[ステップA4,A5]。一方,符号化対象フレームが最終フレームでなければ,符号化対象フレームとその直後のフレームを用いて,ブロック単位動き探索部13において,符号化対象フレームをある単位で分割した小ブロック毎に,そのブロックが直後のフレームにおいて存在する位置を推定する[ステップA4,A6]。
Next, if the encoding target frame is the final frame, the encoding target frame is encoded by the image encoding unit 16 [steps A4 and A5]. On the other hand, if the encoding target frame is not the final frame, the block unit
また,符号化対象フレームとその直後のフレームにおけるカメラワークをカメラワーク推定部14で推定する[ステップA7]。カメラワークを推定する方法として,例えば非特許文献2にあるような既知の手法を用いることができる。なお本手法では,ある点が次の時刻においてカメラワークによってどの点に移動したかを知ることができれば十分であり,カメラワークの種類を特定する必要はない。つまり,以下の式で表されるような,符号化対象フレームの座標Xからその直後のフレームのある座標X* への射影Pを求めることが,このステップで行われる処理である。また,このことはカメラワークの推定プロセスはピクセル毎のオプティカルフローが求まればよいことを示しているため,例えば非特許文献3にあるようなピクセルごとのオプティカルフローを求める技術を利用することもできる。
In addition, the camera
X* =P(X)
次に,求められたブロック単位の動きとカメラワークを用いて,ブロック判定部15で,各ブロックを動きオブジェクトブロック,フレームステイ背景ブロック,フレームアウト背景ブロックのいずれかに分類する[ステップA8]。そして,ブロック情報とカメラワークを用いて,画像符号化部16が符号化対象フレームを符号化する[ステップA5]。符号化されたフレームは,符号出力部17から符号化された順,つまりフレーム1,フレーム3,フレーム2の順で出力される[ステップA9]。全フレームの符号化が終了すると,処理を終了する[ステップA10]。
X * = P (X)
Next, using the obtained block-by-block motion and camera work, the
図5に,ブロック判定部15で行われるブロック判別の詳細フローを示す。まず,ブロック単位動き探索部13によって求められたブロック単位の動きベクトルの信頼度を,ブロック毎に以下の式で求める[ステップB0,B1]。
FIG. 5 shows a detailed flow of block determination performed by the
信頼度=−Σp |Ys (p)−Yd (p−MVk )|
ここで,Σp は,p∈Sk についての総和を表す。pはピクセル座標,Sk は符号化対象フレームにおけるブロックkに含まれるピクセル座標の集合を表し,MVk はブロック単位動き探索で求まったブロックkの動きベクトルを表す。符号化対象フレームにおけるピクセル座標pの画素値はYs (p)と表し,符号化対象フレームの次の時刻のフレームにおけるピクセル座標pの画素値はYd (p)と表している。
Reliability = −Σ p | Y s (p) −Y d (p−MV k ) |
Here, sigma p represents the sum of the p∈S k. p represents pixel coordinates, S k represents a set of pixel coordinates included in the block k in the encoding target frame, and MV k represents a motion vector of the block k obtained by the block unit motion search. The pixel value of the pixel coordinate p in the encoding target frame is expressed as Y s (p), and the pixel value of the pixel coordinate p in the frame at the next time of the encoding target frame is expressed as Y d (p).
次に,この信頼度がある一定の閾値以上かどうかを調べる[ステップB2]。信頼度がある一定の閾値を超えなかった場合,カメラワーク推定部14で推定したカメラワークによる射影Pを用いて,ブロック内の各ピクセルが次時刻のフレームにおいてフレーム内に含まれるかどうかを調べる[ステップB3]。そして,フレームアウトするピクセルの数が一定数を超えるかどうかを調べる[ステップB4]。
Next, it is checked whether or not the reliability is equal to or higher than a certain threshold [Step B2]. When the reliability does not exceed a certain threshold value, the camerawork projection P estimated by the
一定数のピクセルが次時刻のフレームにおいてフレーム内に含まれる場合,そのブロックをフレームステイ背景ブロックと判定する[ステップB5]。一方,一定数以上のピクセルがフレームアウトする場合には,そのブロックをフレームアウト背景ブロックと判定する[ステップB6]。 When a certain number of pixels are included in the frame at the next time frame, the block is determined to be a frame stay background block [step B5]. On the other hand, when a certain number of pixels or more are out of frame, the block is determined as a frame-out background block [step B6].
ステップB2の判定において,上記の信頼度がある一定の閾値以上であった場合,カメラワーク推定部14で推定したカメラワークによる射影Pより,そのブロックのカメラワークによる動きベクトルCMVk を次の式により求める[ステップB7]。Nはそのブロックに含まれるピクセル数を表す。
In the determination in step B2, if the reliability is equal to or higher than a certain threshold value, the motion vector CMV k by the camera work of the block is calculated from the projection P by the camera work estimated by the camera
CMVk =Σq (P(q)−q)/N
ここで,Σq は,q∈Sk についての総和を表す。
CMV k = Σ q (P (q) −q) / N
Here, sigma q represents the sum of the q∈S k.
その後,CMVk とMVk の差分ベクトルの大きさについてチェックを行う[ステップB8]。その大きさが一定の閾値以上ならばそのブロックを動きオブジェクトブロックと判定する[ステップB9]。一方,差分ベクトルの大きさが閾値を超えなかった場合,ブロック内の各ピクセルが次時刻のフレームにおいてフレーム内に含まれるかどうかを調べ[ステップB3],一定数のピクセルが次時刻のフレームにおいてフレーム内に含まれるならば,そのブロックをフレームステイ背景ブロックと判定し[ステップB4,B5],そうでなければフレームアウト背景ブロックと判定する[ステップB4,B6]。 Thereafter, the size of the difference vector between CMV k and MV k is checked [step B8]. If the size is equal to or greater than a certain threshold, the block is determined as a moving object block [step B9]. On the other hand, if the size of the difference vector does not exceed the threshold, it is checked whether each pixel in the block is included in the frame at the next time frame [step B3], and a certain number of pixels are found in the next time frame. If it is included in the frame, the block is determined to be a frame stay background block [steps B4, B5], otherwise it is determined to be a frame-out background block [steps B4, B6].
図6に,画像符号化部16で行われる画像の符号化処理の詳細フローを示す。まず,カメラワーク推定部14で推定されたカメラワークと,ブロック判定部15で決定された符号化対象フレームの各ブロックの種類を表す情報(以後,ブロックプロパティマップと呼ぶ)と,入力画像メモリ12に蓄えられていた符号化対象の画像が入力される[ステップC1]。カメラワークはカメラワークメモリ161に蓄えられ,ブロックプロパティマップはブロックプロパティマップメモリ162に蓄えられる[ステップC2]。メモリからは対応するフレーム及びそのフレームより前の時刻のフレームの符号化が終了して,それらの符号が画像符号化部16から出力された段階で削除される。つまり,本実施例の場合,2組のカメラワークとブロックプロパティマップを格納できることが必要となる。
FIG. 6 shows a detailed flow of image encoding processing performed by the
符号化対象フレームに対応するカメラワークとブロックプロパティマップの入力が完了すると,カメラワークとブロックプロパティマップを用いて,量子化ステップ設定部163で,ブロック毎に最初の量子化ステップが決定される[ステップC3]。
When the input of the camera work and the block property map corresponding to the encoding target frame is completed, the first quantization step is determined for each block by the quantization
決定された量子化ステップとカメラワークを用いて動画像符号化部164が実際に画像を符号化する[ステップC4]。ここで用いられる動画像符号化手法は,H.264(例えば,非特許文献4参照)に代表されるような,画像を小ブロックに分割してブロック単位で符号化を行う手法であり,さらにブロック毎のフレーム間動き予測を用いて符号化を行う手法であり,さらに量子化ステップを変更することで符号量と画質を調節できるような方法であれば,どのような方法でも用いることが可能である。ただし,ある閾値以上の量子化ステップが設定されているフレームアウト背景ブロックを動き予測を用いて符号化する場合,その動きベクトルはカメラワークから求まるCMVk を使うこととする。また,符号化の際にフレーム間動き予測を用いた場合,参照フレーム毎にどのピクセルを参照したかを記録して,その情報(以後,被参照マップと呼ぶ)を被参照マップメモリ165に格納する[ステップC5]。
Using the determined quantization step and camera work, the moving
動画像符号化部164から出力される符号は出力符号メモリ166に蓄えられる[ステップC6]。そして,出力符号メモリ166は,メモリに格納されている符号の中で最も早くメモリに格納されたフレームの符号が,被参照フレームの候補リストに載っているかどうかをチェックする[ステップC7]。被参照フレームの候補リストとは,フレーム間動き予測をする際に,参照フレームとして利用する可能性が一度でもあるフレームのリストとする。この候補リストの管理は,符号化する際のパラメータとして与えられる参照構造によって決められる。例えば,再生時刻順に5フレームさかのぼって参照を可能とするようなパラメータが与えられた場合,N番目の被参照フレームはそのフレーム自身の符号化が終了した後に候補リストに追加され,N+5番目のフレームの符号化が終了した時点で候補リストから削除される。候補リストに載っている場合には,何も出力しないで終了する。
The code output from the moving
一方,候補リストに載っていない場合,そのフレームに対応する被参照マップを用いて量子化ステップ設定部163で量子化ステップを再計算し[ステップC8],動画像符号化部164で新たな量子化ステップを用いて再度符号化を行い[ステップC9],その結果を出力する[ステップC10]。その後,対応する符号が出力されたら出力符号メモリ166からその符号を削除する[ステップC11]。つまり本実施例の場合,出力符号メモリ166には,少なくとも被参照フレームの候補数+1フレーム分の符号を蓄えられる必要がある。また,符号の出力が行われた場合,出力に関する処理[ステップC7−C11]を再度繰り返す。なお,ステップC8における量子化ステップの再計算の結果,以前にステップC3で決定した量子化ステップと変わらなかった場合には,次のステップC9の符号化処理を省略してもよい。
On the other hand, if it is not on the candidate list, the quantization
図7に量子化ステップ設定部163で行われる処理の詳細なフローを示す。まず,量子化ステップ決定対象のフレームが始めて量子化ステップを決定するフレームかどうかを調べる[ステップD1]。初めて量子化ステップを決定するフレームの場合,他のフレームを符号化するときに被参照フレームとして利用可能なフレームかどうかを調べる[ステップD2]。被参照フレームとして利用不可能なフレームの場合,フレームアウト背景ブロックごとに以下の式を用いて評価値を計算する[ステップD3]。
FIG. 7 shows a detailed flow of processing performed by the quantization
Σq Distance(P(q)) ・・・式(1)
Distance(x)はxとフレームの端までの最短距離を与える関数を表す。ただし,Distance(x)>0ならばxはフレームの外側にあり,Distance(x)=0ならばxはフレームの枠上にあり,Distance(x)<0ならばxはフレームの内側にあるとする。
Σ q Distance (P (q)) (1)
Distance (x) represents a function that gives the shortest distance from x to the end of the frame. However, if Distance (x)> 0, x is outside the frame; if Distance (x) = 0, x is on the frame; if Distance (x) <0, x is inside the frame. And
そして,動きオブジェクトブロック,フレームステイ背景ブロック,フレームアウト背景ブロックの順に小さな量子化ステップを設定する[ステップD4]。このとき,フレームアウト背景ブロックは前もって求めた評価値が小さいほど小さな量子化ステップを設定する。ただし,ここで量子化ステップは小さいほど,相対的により多くの符号量を割り当てるようなものとする。 Then, small quantization steps are set in the order of the moving object block, the frame stay background block, and the frame out background block [step D4]. At this time, the smaller the evaluation value obtained in advance, the smaller the quantization step is set for the frame-out background block. Here, it is assumed that the smaller the quantization step, the more code amount is allocated.
一方,被参照フレームとして利用可能なフレームの場合,フレームステイ背景ブロックとフレームアウト背景ブロックには同等の量子化ステップを設定し,動きオブジェクトブロックにはそれより小さな量子化ステップを設定する[ステップD5]。また,量子化ステップ決定対象のフレームが初めて量子化ステップを決定するフレームではない場合,被参照マップメモリ165に蓄えられている情報から,フレームアウト背景ブロックであり,かつそのブロック内のいずれかのピクセルが少なくとも一度は参照されたブロックを求め,そのブロックに対して式(1)で求まる評価値を計算する[ステップD6]。そして,以下の分類で順序が若い順に小さな量子化ステップを設定する[ステップD7]。
On the other hand, in the case of a frame that can be used as a referenced frame, an equivalent quantization step is set for the frame stay background block and the frame-out background block, and a smaller quantization step is set for the moving object block [Step D5]. ]. In addition, when the quantization step determination target frame is not the frame for which the quantization step is determined for the first time, it is determined from the information stored in the referenced
1.動きオブジェクトブロック
2.フレームステイ背景ブロック,もしくは,フレームアウト背景ブロックかつそのブロック内のいずれかのピクセルが少なくとも一度は参照されたブロック
3.フレームアウト背景ブロックかつそのブロック内の全てのピクセルが一度も参照されなかったブロック
ただし,3に含まれるブロックの量子化ステップは上記の式(1)で求まる値が小さいほど,小さな量子化ステップを設定する。
1. 1. Moving object block 2. A frame stay background block or a frame out background block and a block in which any pixel in the block is referenced at least once. A frame-out background block and a block in which all the pixels in the block have never been referred to. However, the quantization step of the block included in 3 is smaller as the value obtained by the above equation (1) is smaller. Set.
以上の実施例において,図3の動画像符号化部164では,量子化ステップ設定部163で設定された量子化ステップサイズを用いてフレームアウト背景ブロックを符号化する際に,その量子化ステップサイズがある閾値を超えた場合,カメラワーク推定部14で推定されたカメラワークに基づいた動きベクトルを用いてフレーム間動き補償を行って符号化する。この処理も,限られた符号量で主観品質を向上させるうえで好適である。
In the above embodiment, the moving
符号量の割り当てを制御する代表例として量子化ステップサイズの例を説明したが,量子化の度合いを制御することができるものであれば,これに限らず他の符号化のパラメータを用いることもできる。 The example of the quantization step size has been described as a representative example for controlling the allocation of the code amount, but other encoding parameters may be used as long as the degree of quantization can be controlled. it can.
以上の映像符号化の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。 The above video encoding processing can be realized by a computer and a software program, and the program can be provided by being recorded on a computer-readable recording medium or provided via a network.
10 映像符号化装置
11 画像入力部
12 入力画像メモリ
13 ブロック単位動き探索部
14 カメラワーク推定部
15 ブロック判定部
16 画像符号化部
17 符号出力部
DESCRIPTION OF
Claims (8)
映像を撮影した際のカメラワークを推定するカメラワーク推定ステップと,
小ブロック毎に,そのブロックに映っている映像の動きを推定する動き探索ステップと,
推定したカメラワークと小ブロック毎の動きから,各小ブロックが,その小ブロックの映像の変化がカメラワークに依存する背景ブロックであるか,映像の変化がカメラワーク以外に被写体の動きを含む動きオブジェクトブロックであるかを判定する背景ブロック判定ステップと,
背景ブロックに含まれる小ブロックであって,次の時刻のフレームにおいて一部でもフレームアウトするブロックを抽出するフレームアウト背景ブロック判定ステップと,
動きオブジェクトブロック,フレームアウト背景ブロックでない背景ブロック,フレームアウト背景ブロックの順に相対的に多い符号量が割り当てられるように量子化の度合いを設定する量子化の度合い設定ステップと,
を有することを特徴とする映像符号化方法。 A video encoding method in which an image is divided into small blocks and encoded, and at least the degree of quantization is selected for each block and encoded.
A camera work estimation step for estimating a camera work at the time of shooting a video;
For each small block, a motion search step for estimating the motion of the video shown in the block,
From the estimated camera work and the movement of each small block, each small block is a background block whose video change of the small block depends on the camera work, or the video change includes movement of the subject other than the camera work A background block determining step for determining whether the block is an object block;
A frame-out background block determination step for extracting a small block included in the background block and which is partially out of the frame at the next time;
A quantization degree setting step for setting a quantization degree so that a relatively large amount of code is assigned in the order of a moving object block, a background block that is not a frame-out background block, and a frame-out background block;
A video encoding method comprising:
フレームアウト背景ブロックに含まれる小ブロック内の画素毎に,前記カメラワーク推定ステップしたカメラワークを用いて,次フレームにおける推定位置を求め,その推定位置がフレーム端から離れた距離を,符号化対象ブロック毎に合計し,その合計値が大きいほど,相対的に少ない符号量が割り当てられるように量子化の度合いを設定する,
ことを特徴とする映像符号化方法。 The video encoding method according to claim 1, wherein
For each pixel in the small block included in the frame-out background block, the estimated position in the next frame is obtained using the camera work that has been subjected to the camera work estimation step, and the distance that the estimated position is away from the frame end is determined as the encoding target. Set the degree of quantization so that a smaller amount of code is allocated as the total value increases for each block.
And a video encoding method.
前記量子化の度合い設定ステップにおいて,動き補償における参照フレームとして利用可能なフレームを符号化する際には,フレームアウト背景ブロックでない背景ブロックと,フレームアウト背景ブロックとで同程度の量子化の度合いを設定する,
ことを特徴とする映像符号化方法。 The video encoding method according to claim 1 or 2, wherein the video encoding method further performs encoding using inter-frame motion compensation for each small block,
In the quantization degree setting step, when encoding a frame that can be used as a reference frame in motion compensation, a background block that is not a frame-out background block and a frame-out background block have the same degree of quantization. Set,
And a video encoding method.
動き補償における参照フレームとして利用可能なフレームを符号化する際に,まず,前記量子化の度合い設定ステップにおいて,フレームアウト背景ブロックでない背景ブロックと,フレームアウト背景ブロックとで同程度の量子化の度合いを設定して符号化を行い,次にそのフレームが参照フレームの候補から外される際に,フレームアウト背景ブロックに含まれる小ブロックであって,一度も他のフレームから参照されなかった小ブロックに対して,フレームアウト背景ブロックでない背景ブロックよりも相対的に少ない符号量が割り当てられるように量子化の度合いを新たに設定して再度符号化をする,
ことを特徴とする映像符号化方法。 The video encoding method according to claim 1 or 2, wherein the video encoding method further performs encoding using inter-frame motion compensation for each small block,
When encoding a frame that can be used as a reference frame in motion compensation, first, in the quantization level setting step, the same degree of quantization between a background block that is not a frame-out background block and a frame-out background block Is a small block that is included in a frame-out background block and has never been referenced by another frame when the frame is removed from the reference frame candidate. On the other hand, a new quantization degree is set so that a relatively small amount of code is allocated to a background block that is not a frame-out background block, and encoding is performed again.
And a video encoding method.
前記量子化の度合い設定ステップで設定された量子化の度合いを用いて,フレームアウト背景ブロックを符号化する際に,その量子化の度合いがある閾値を超えた場合,前記カメラワーク推定ステップで推定されたカメラワークに基づいた動きベクトルを用いてフレーム間動き補償を行って符号化する
ことを特徴とする映像符号化方法。 The video encoding method according to claim 1 or 2, wherein the video encoding method further performs encoding using inter-frame motion compensation for each small block,
When encoding a frame-out background block using the quantization level set in the quantization level setting step, if the quantization level exceeds a certain threshold, the camera work estimation step estimates A video encoding method comprising: encoding by performing inter-frame motion compensation using a motion vector based on the camerawork performed.
映像をフレーム毎に入力する画像入力手段と,
入力したフレームを蓄積する入力画像記憶手段と,
前記入力画像記憶手段に蓄積されたフレームから,映像を撮影した際のカメラワークを推定するカメラワーク推定手段と,
前記入力画像記憶手段に蓄積されたフレームの小ブロック毎に,そのブロックに映っている映像の動きを推定する動き探索手段と,
推定したカメラワークと小ブロック毎の動きから,各小ブロックを,映像の変化がカメラワーク以外に被写体の動きを含む動きオブジェクトブロックと,それ以外のブロックである背景ブロックのうち,次の時刻のフレームにおいて一部でもフレームアウトするフレームアウト背景ブロックと,フレームアウト背景ブロックでない背景ブロックとに分類するブロック判定手段と,
動きオブジェクトブロック,フレームアウト背景ブロックでない背景ブロック,フレームアウト背景ブロックの順に相対的に多い符号量が割り当てられるように量子化の度合いを設定し,映像を符号化する符号化手段と,
を備えることを特徴とする映像符号化装置。 A video encoding device that performs encoding by dividing an image into small blocks, and further selects and encodes the degree of quantization for each block,
An image input means for inputting an image every frame;
Input image storage means for storing the input frames;
Camera work estimation means for estimating camera work when a video is taken from the frame stored in the input image storage means;
For each small block of the frame stored in the input image storage means, a motion search means for estimating the motion of the video shown in the block;
From the estimated camera work and the movement of each small block, each small block is divided into a moving object block in which the image change includes the movement of the subject other than the camera work, and a background block that is the other block at the next time. A block determination means for classifying a frame-out background block that is partly out of the frame and a background block that is not a frame-out background block;
Encoding means for encoding a video by setting a degree of quantization so that a relatively large amount of code is assigned in the order of a moving object block, a background block that is not a frame-out background block, and a frame-out background block;
A video encoding device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005292155A JP4451833B2 (en) | 2005-10-05 | 2005-10-05 | Video encoding method, video encoding device, video encoding program, and recording medium therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005292155A JP4451833B2 (en) | 2005-10-05 | 2005-10-05 | Video encoding method, video encoding device, video encoding program, and recording medium therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007104372A true JP2007104372A (en) | 2007-04-19 |
JP4451833B2 JP4451833B2 (en) | 2010-04-14 |
Family
ID=38030856
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005292155A Expired - Fee Related JP4451833B2 (en) | 2005-10-05 | 2005-10-05 | Video encoding method, video encoding device, video encoding program, and recording medium therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4451833B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009130971A1 (en) * | 2008-04-21 | 2009-10-29 | シャープ株式会社 | Dynamic image encoding device and dynamic image decoding device |
-
2005
- 2005-10-05 JP JP2005292155A patent/JP4451833B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009130971A1 (en) * | 2008-04-21 | 2009-10-29 | シャープ株式会社 | Dynamic image encoding device and dynamic image decoding device |
Also Published As
Publication number | Publication date |
---|---|
JP4451833B2 (en) | 2010-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11736701B2 (en) | Hash-based encoder decisions for video coding | |
KR100987365B1 (en) | Selecting key frames from video frames | |
JP6163674B2 (en) | Content adaptive bi-directional or functional predictive multi-pass pictures for highly efficient next-generation video coding | |
JP4732982B2 (en) | Improved motion estimation method, video encoding method and apparatus using the method | |
JP5791618B2 (en) | Method and apparatus for processing video sequences | |
JP5478047B2 (en) | Video data compression pre-processing method, video data compression method and video data compression system using the same | |
JP5766877B2 (en) | Frame coding selection based on similarity, visual quality, and interest | |
JP2017532858A (en) | Perceptual optimization for model-based video coding | |
JP2012502590A (en) | Video coding system and method using configuration reference frame | |
JP2012239085A (en) | Image processor, and image processing method | |
WO2020188401A1 (en) | Quantization step parameter for point cloud compression | |
JP2003018602A (en) | Method and device for encoding and decoding image data | |
JP2003032688A (en) | Separation method of foreground and background regions for moving image, and moving image coding method by conditional pixel replenishment by using this method | |
JP5441812B2 (en) | Video encoding apparatus and control method thereof | |
US10666970B2 (en) | Encoding apparatus, encoding method, and storage medium | |
JP5729825B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program | |
JP4451833B2 (en) | Video encoding method, video encoding device, video encoding program, and recording medium therefor | |
JP2003203237A (en) | Image matching method and device, and image coding method and device | |
JP2012257125A (en) | Image processing apparatus and image processing method | |
JP5165084B2 (en) | Image encoding device | |
JP2008301270A (en) | Moving image encoding device and moving image encoding method | |
KR102049644B1 (en) | Hierarchical Noise Reduction Method for Efficient Coding of Video with Noise | |
JP5711636B2 (en) | Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program | |
JP2007104515A (en) | Video encoding pre-filtering method, apparatus, and program, and computer readable recording medium with the program recorded thereon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080205 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091023 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091027 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091222 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100126 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100128 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4451833 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130205 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |