JP2007104372A - Video encoding method, video encoding apparatus, video encoding program, and recording medium therefor - Google Patents

Video encoding method, video encoding apparatus, video encoding program, and recording medium therefor Download PDF

Info

Publication number
JP2007104372A
JP2007104372A JP2005292155A JP2005292155A JP2007104372A JP 2007104372 A JP2007104372 A JP 2007104372A JP 2005292155 A JP2005292155 A JP 2005292155A JP 2005292155 A JP2005292155 A JP 2005292155A JP 2007104372 A JP2007104372 A JP 2007104372A
Authority
JP
Japan
Prior art keywords
block
frame
video
video encoding
camera work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005292155A
Other languages
Japanese (ja)
Other versions
JP4451833B2 (en
Inventor
Shinya Shimizu
信哉 志水
Yukihiro Bando
幸浩 坂東
Kazuto Kamikura
一人 上倉
Yoshiyuki Yashima
由幸 八島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005292155A priority Critical patent/JP4451833B2/en
Publication of JP2007104372A publication Critical patent/JP2007104372A/en
Application granted granted Critical
Publication of JP4451833B2 publication Critical patent/JP4451833B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve subjective quality while suppressing the amount of code to be generated in a video with a camera work. <P>SOLUTION: On the basis of a camera work estimated by a camera work estimation section 14 and a motion for each small block estimated by a block unit motion search section 13, a block determination section 15 classifies small blocks into a moving object block wherein the change of the video includes an object motion other than the camera work, a frame-out background block which frames out even partially in a frame of the next time in other background blocks, and a background block that is not the frame-out background block. An image encoding section 16 sets a quantization step size so as to allocate a relatively large amount of code in the order of the moving object block, the background block that is not the frame-out background block, and the frame-out background block, and encodes the video. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は,人間の主観的な品質を考慮して効率的に符号化するための映像符号化技術に関するものである。   The present invention relates to a video encoding technique for efficiently encoding in consideration of human subjective quality.

映像を符号化する主な目的は,映像の品質をできるだけ劣化させずにデータ量を少なくすることである。その際に,実際に映像を見るという観点から考えると,信号としての品質(PSNR:Peak to Signal Noise Ratio)ではなく,映像を見る人間の主観的な品質を向上させることが重要である。   The main purpose of encoding video is to reduce the amount of data without degrading video quality as much as possible. At that time, from the viewpoint of actually viewing the video, it is important to improve the subjective quality of the person viewing the video, not the signal quality (PSNR: Peak to Signal Noise Ratio).

主観品質を向上させる方法として,観測者が注目する領域を元の映像に対して忠実に符号化し,一方,観測者が注目しない領域はそれほど忠実に符号化しないという手法が存在する。映像の符号化において,映像の品質はその領域を符号化するのに利用する符号量で制御することが可能である。したがって,映像全体で均一に符号量を割り当てるよりも,観測者の注目する領域により多くの符号量を割り当てることで,全体としては同じ符号量でも主観品質を向上させることができる。   As a method for improving the subjective quality, there is a method in which a region that is observed by the observer is encoded faithfully with respect to the original video, while a region that is not observed by the observer is not encoded very faithfully. In video encoding, the video quality can be controlled by the amount of code used to encode the area. Therefore, the subjective quality can be improved even with the same code amount as a whole by assigning more code amount to the region of interest of the observer than assigning the code amount uniformly in the entire video.

例えば非特許文献1などがこれに当たる。この手法では時間的に動きのある領域(以下では動き領域,動きオブジェクトと呼ぶ)を注視領域であると考えて,その領域には他の領域より多くの符号量を割り当てることで主観品質の向上を実現している。これは動いている物体に注目するという人間の特性を利用しているため,同じ符号量の符号化映像でも,映像全体の画質の向上を図って符号化したものより,主観的な品質が向上することになる。   For example, Non-Patent Document 1 corresponds to this. In this method, an area with temporal movement (hereinafter referred to as a moving area or a moving object) is considered as a gaze area, and the subjective quality is improved by assigning a larger amount of code to that area than other areas. Is realized. This uses the human characteristic of paying attention to moving objects, so even with the same amount of encoded video, the subjective quality is improved compared to the encoded video that improves the overall image quality. Will do.

しかしながら,動き領域の少ない映像を符号化する場合,非特許文献1のような動き領域とそれ以外の領域とで符号量の割り当てを変える方式では,符号量を保ったまま主観品質を十分に向上させることができない。例えば,風景を撮影した映像の場合,映像の変化の大部分がカメラワーク(映像を撮影した際のカメラの動き)に依存したものとなるため,大半の領域が動き領域以外の領域(以下,背景領域と呼ぶ)と判定され,主観品質を向上させるための符号量の割り当てを行うことができない。   However, when coding a video with a small amount of motion area, the method of changing the code amount allocation between the motion region and other regions as in Non-Patent Document 1 sufficiently improves the subjective quality while maintaining the code amount. I can't let you. For example, in the case of an image of a landscape, most of the change in the image depends on camera work (the movement of the camera when the image is captured), so most of the regions are regions other than the motion region (hereinafter, It is determined to be a background region), and code amount allocation for improving subjective quality cannot be performed.

なお,下記の非特許文献2には,本発明の実施例で利用するカメラワークを推定する方法の一例が記載されている。また,下記の非特許文献3には,本発明の実施例で利用するピクセル毎のオプティカルフローを求める方法の一例が記載されている。非特許文献4には,H.264動画像符号化方式の詳細が示されている。
安藤輝,半谷精一郎,杉山賢二,“汎用動画像からの動きオブジェクト検出と符号化への応用”,画像符号化シンポジウム2004(PCSJ2004),pp.41-42. M.Pollefeys ,R.Koch and L.Van Gool,“Self-Calibration and Metric Reconstruction in spite of Varying and Unknown Internal Camera Parameters ”,International Journal of Computer Vision,32(1) ,7-25,1999. Jean-Yves Bouguet ,“Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm ”,Intel Corporation,Microprocess or Research Labs ,Open CV Documents ,1999. ITU-T H.264 ITU-T Rec. H.264,“Advanced video coding for generic audiovisual services”,2003.
Non-Patent Document 2 below describes an example of a method for estimating camera work used in an embodiment of the present invention. Non-Patent Document 3 below describes an example of a method for obtaining an optical flow for each pixel used in an embodiment of the present invention. Non-Patent Document 4 includes H.C. Details of the H.264 video coding scheme are shown.
Teru Ando, Seiichiro Hanya, Kenji Sugiyama, “Application to Motion Object Detection and Coding from General-Purpose Video”, Image Coding Symposium 2004 (PCSJ2004), pp.41-42. M. Pollefeys, R. Koch and L. Van Gool, “Self-Calibration and Metric Reconstruction in spite of Varying and Unknown Internal Camera Parameters”, International Journal of Computer Vision, 32 (1), 7-25, 1999. Jean-Yves Bouguet, “Pyramidal Implementation of the Lucas Kanade Feature Tracker Description of the algorithm”, Innel Corporation, Microprocess or Research Labs, Open CV Documents, 1999. ITU-T H.264 ITU-T Rec. H.264, “Advanced video coding for generic audiovisual services”, 2003.

非特許文献1に記載されているような従来の技術では,背景領域に対して主観品質を向上させるための適切な符号量の割り当てを行うことができない。このため,背景領域内でも主観品質を向上できるように符号量の割り当てを変化させることができるようにする必要がある。   With the conventional technique as described in Non-Patent Document 1, it is not possible to assign an appropriate code amount for improving the subjective quality to the background area. For this reason, it is necessary to be able to change the code amount allocation so that the subjective quality can be improved even in the background area.

背景領域内で主観品質への影響を考慮して符号量の割り当てを変化させる方法として,画面の中心に多くの符号量を割り当て,画面の端に少ない符号量を割り当てるという方法が考えられる。この方法は映像を見る際に映像の中央に注目している人が多いという性質を利用している。   As a method of changing the code amount assignment in consideration of the influence on subjective quality in the background area, a method of assigning a large amount of code to the center of the screen and assigning a small amount of code to the edge of the screen can be considered. This method uses the property that many people are paying attention to the center of the image when viewing the image.

しかしながら,このように空間情報のみを考慮した方法では,致命的な画質劣化を招く可能性がある。例えば,特徴的な風景が映像の端に現れている場合や,そのような風景が映像の中央から端へとゆっくりと移動していくような場合,この方法では主観品質を向上させるどころか,悪化させてしまうことになってしまう。   However, such a method considering only spatial information may cause fatal image quality degradation. For example, when a characteristic landscape appears at the edge of the video, or when such a landscape moves slowly from the center to the edge of the video, this method deteriorates rather than improving the subjective quality. Will end up.

また,カメラワークが比較的大きな場合,前フレームには存在しなかったものが多く映像に表れることになる。この領域は非特許文献1ではアンカバード領域と呼ばれ,より多くの符号量の割り当てが必要な領域であるとされている。そのため,映像の大部分で多くの符号量が必要とされ,十分な符号量の制御をすることができない。   Also, if the camera work is relatively large, many things that did not exist in the previous frame will appear in the video. This area is called an uncovered area in Non-Patent Document 1, and is an area that needs to be allocated a larger amount of code. For this reason, a large amount of code is required for most of the video, and a sufficient amount of code cannot be controlled.

本発明は,かかる事情に鑑みてなされたものであって,カメラワークの存在する映像において,符号量を抑えつつ,観測者の主観的な品質を向上させることが可能な映像符号化手法の設計法を確立することを目的とする。   The present invention has been made in view of such circumstances, and design of a video encoding method capable of improving the subjective quality of an observer while suppressing the amount of codes in video with camerawork. The purpose is to establish the law.

上記の課題を解決するために,第1の発明においては,画像を小ブロックに分割して符号化を行い,さらに少なくともそのブロック毎に量子化の度合い(以後,量子化ステップサイズの例で説明する)を自由に選択して符号化する映像符号化方法であって,映像を撮影した際のカメラの動き(以後,カメラワークと呼ぶ)カメラワークを推定するカメラワーク推定ステップと,小ブロック毎にそのブロックに映っている映像の動きを推定する動き探索ステップと,推定したカメラワークと小ブロック毎の動きから,各小ブロックを,その小ブロックの映像の変化がカメラワークに依存する背景ブロックと,カメラワーク以外の動きを含む動きオブジェクトブロックに分類する背景ブロック判定ステップと,背景ブロックに含まれる小ブロックであって次の時刻のフレームにおいて一部でもフレームアウトするブロックを抽出するフレームアウト背景ブロック判定ステップと,動きオブジェクトブロック・フレームアウト背景ブロックでない背景ブロック・フレームアウト背景ブロックの順に相対的に多い符号量を割り当てるように,その小ブロックを符号化するための量子化ステップサイズを設定する量子化ステップサイズ設定ステップを持つような映像符号化方法を考案した。   In order to solve the above problems, in the first invention, the image is divided into small blocks and encoded, and at least the degree of quantization for each block (hereinafter, an example of the quantization step size will be described). Is a video encoding method for selecting and encoding freely, a camera motion estimation step for estimating camera motion (hereinafter referred to as camera work) when a video is shot, and a small block Next, a motion search step for estimating the motion of the video shown in the block, and each small block from the estimated camera work and motion for each small block, and a background block whose video change of the small block depends on the camera work And a background block determination step for classifying the moving object blocks including movements other than camerawork, and small blocks included in the background blocks A relatively large code amount in the order of a frame-out background block determination step that extracts a block that is partially out of the frame at the next time, and a background block that is not a moving object block, a frame-out background block, or a frame-out background block A video encoding method having a quantization step size setting step for setting a quantization step size for encoding the small block is devised.

これによれば,動き領域が少ない映像において,同じ背景領域に含まれる領域であっても,映像の時間的な変化を考慮して設定される重要度に従って,符号量を割り当てることにより,主観品質の向上が可能となる。   According to this, in a video with a small number of motion areas, even if it is an area included in the same background area, by assigning the code amount according to the importance set considering the temporal change of the video, Can be improved.

この方法では,最初に符号化対象フレームとそのフレームの直後のフレームとの間でカメラワークを求める。ここでいうカメラワークは,符号化対象フレームから直後のフレームへのピクセル単位の写像を表すもののことを指す。つまり,単純なパン(横移動)・チルド(縦移動)・ロール(回転)・ズーム(拡大縮小)だけでなく,被写体の構造による移動距離の違いも含まれ,ピクセルごとのオプティカルフローと同じものである。   In this method, first, camera work is obtained between a frame to be encoded and a frame immediately after that frame. The camera work referred to here indicates a pixel unit mapping from the encoding target frame to the immediately following frame. In other words, it includes not only simple pan (horizontal movement), tilde (vertical movement), roll (rotation), zoom (enlargement / reduction), but also the difference in movement distance depending on the structure of the subject, which is the same as the optical flow for each pixel. It is.

次に,符号化対象フレームを小ブロックに分割して,ブロック毎にフレーム間動き予測を行い,ブロックごとの動きベクトルを得る。ピクセルごとのオプティカルフローと各ブロックの動きベクトルから,そのブロックがカメラワーク以外の被写体の動きによって生じる映像の変化を含んだブロック(以後,動きオブジェクトブロックと呼ぶ)と,主にカメラワークによって生じる映像の変化のみをもつブロック(以後,背景ブロックと呼ぶ)に分類する。   Next, the encoding target frame is divided into small blocks, and inter-frame motion prediction is performed for each block to obtain a motion vector for each block. From the optical flow for each pixel and the motion vector of each block, the block contains a change in the image caused by the movement of the subject other than the camera work (hereinafter referred to as a moving object block), and the image produced mainly by the camera work. Are classified into blocks having only the change of (hereinafter referred to as background blocks).

さらに,背景ブロックを次フレームで一部でもフレームアウトしてしまうブロック(以後,フレームアウト背景ブロックと呼ぶ)と,次フレームにおいても全てがフレーム内に残るブロック(以後,フレームステイ背景ブロックと呼ぶ)に分類する。そして,このブロックの種類に従って設定される量子化ステップサイズを用いて符号化を行う。   Further, a block in which the background block is partially out in the next frame (hereinafter referred to as a frame-out background block) and a block in which all of the background block remains in the frame (hereinafter referred to as a frame stay background block). Classify into: Then, encoding is performed using a quantization step size set according to the block type.

背景ブロックの中でも次のフレームにおいて画面から見えなくなってしまう領域は,次のフレームにおいても画面内に残る領域よりも,観測者の目に映る時間が短いため,主観品質への寄与は少ないと言える。すなわち,フレームアウト背景ブロックよりもフレームステイ背景ブロックに多くの符号量を割り当てることで主観品質を向上させたり,フレームアウト背景ブロックに割り当てる符号量を削減することで主観品質を保ちつつ映像全体に必要な符号量を削減させたりすることができる。   Of the background block, the area that disappears from the screen in the next frame is less likely to contribute to the subjective quality because the time seen by the observer is shorter than the area that remains in the screen in the next frame. . In other words, it is necessary for the entire video while maintaining subjective quality by improving the subjective quality by assigning more code amount to the frame stay background block than the frame out background block or reducing the code amount assigned to the frame out background block The amount of codes can be reduced.

第2の発明は,量子化ステップサイズ設定ステップが,フレームアウト背景ブロックに含まれるブロックの画素毎に,次フレームにおいてフレームアウトする距離を求め,ブロック毎にブロック内の全画素の距離の合計値を求め,その値が大きいほど,大きな量子化ステップサイズを割り当てる処理を有することを特徴とする映像符号化方法である。   In the second invention, the quantization step size setting step obtains the distance to be framed out in the next frame for each pixel of the block included in the frame-out background block, and the total value of the distances of all the pixels in the block for each block The video encoding method is characterized by having a process of assigning a larger quantization step size as the value is larger.

量子化ステップサイズが隣り合うブロックで大きく異なると,その部分で信号的な画質の違いが明確になるため,主観品質を低下させてしまう。つまり,主観品質を低下させずに符号量を削減するためには,隣り合うブロックにおける量子化ステップサイズの差を小さくする必要がある。そのため,フレームアウト背景ブロックの量子化ステップサイズとしては,他のブロックで使用される量しかステップサイズと大きな差のない値を使用することになり,フレームアウト背景ブロックが多くなったとしても削減できる符号量はそれほど大きくならない。   If the quantization step size differs greatly between adjacent blocks, the difference in signal image quality becomes clear at that part, and the subjective quality is degraded. In other words, in order to reduce the code amount without reducing the subjective quality, it is necessary to reduce the difference in quantization step size between adjacent blocks. Therefore, as the quantization step size of the frame-out background block, a value that is not significantly different from the step size is used only for the amount used in other blocks, and it can be reduced even if the number of frame-out background blocks increases. The code amount is not so large.

一方,第2の発明によると,次の時刻のフレームにおいても存在する映像が表示される領域から離れるにつれて,より少ない符号量を割り当てるように量子化ステップサイズを徐々に変化させて設定することになるため,均一の量子化ステップサイズを用いるより多くの符号量を削減することが可能となる。   On the other hand, according to the second aspect of the invention, the quantization step size is gradually changed and set so as to allocate a smaller code amount as the image is separated from the area where the image existing in the next frame is displayed. Therefore, it is possible to reduce a larger amount of codes than using a uniform quantization step size.

第3の発明は,フレーム間動き補償技術を用いて映像を符号化する場合に,他のフレームを符号化するときに参照される可能性のあるフレームに対しては,量子化ステップサイズ設定ステップが,フレームアウト背景ブロックとフレームステイ背景ブロックに同程度の量子化ステップサイズを設定することを特徴とする映像符号化方法である。   According to a third aspect of the present invention, when a video is encoded using an inter-frame motion compensation technique, a quantization step size setting step is performed for a frame that may be referred to when another frame is encoded. The video encoding method is characterized in that the same quantization step size is set for the frame-out background block and the frame-stay background block.

他のフレームを符号化するときに参照されるフレームにおいても,フレームアウト背景ブロックを大きな量子化ステップサイズを用いて符号化すると,そのブロックを参照した際の予測残差が大きくなることにより,そのフレームを符号化するときの符号量が増してしまい,映像全体の符号化に必要な符号量を十分に削減することができない。   Even in a frame that is referenced when encoding another frame, if a frame-out background block is encoded using a large quantization step size, the prediction residual when the block is referred to increases, so that The amount of code for encoding a frame increases, and the amount of code required for encoding the entire video cannot be reduced sufficiently.

一方,第3の発明によると,参照される可能性のあるフレームを符号化するときには,量子化ステップサイズを大きくしないようにするため,フレームアウト背景ブロックが参照されたとしても予測残差が大きくなることはなく,映像全体としても符号量を削減することが可能となる。   On the other hand, according to the third invention, when encoding a frame that may be referred to, a prediction residual is large even if a frame-out background block is referred to in order not to increase the quantization step size. In other words, the amount of code can be reduced for the entire video.

第4の発明は,フレーム間動き補償技術を用いて映像を符号化する場合に,他のフレームを符号化するときに参照される可能性のあるフレームに対しては,最初に,フレームアウト背景ブロックとフレームステイ背景ブロックに対して同程度の量子化ステップサイズを設定して符号化を行い,次に,そのフレームが他のフレームから今後参照されないことが確定した後で,フレームアウト背景ブロックに含まれる小ブロックであって,一度も他のフレームから参照されなかった小ブロックに対して,フレームステイ背景ブロックよりも相対的に大きな量子化ステップサイズを新たに設定して再度符号化をすることを特徴とする映像符号化方法である。   According to a fourth aspect of the present invention, when an image is encoded by using an inter-frame motion compensation technique, a frame out background is first applied to a frame that may be referred to when another frame is encoded. Set the same quantization step size for the block and the framestay background block, perform encoding, and then determine that the frame will not be referenced by other frames before Re-encoding a small block that is included and that has never been referenced from another frame by setting a new relatively larger quantization step size than the framestay background block A video encoding method characterized by the above.

参照に一度も使われないフレームアウト背景ブロックは,動き補償による予測残差の量に影響を与えないため,大きな量子化ステップサイズで符号化を行うことによって,符号量を削減することができる。したがって,第4の発明によると,フレーム間動き予測の効率を考慮して,符号量の制御ができるため,主観品質を保ちつつ,映像全体を符号化するのに必要な符号量をより多く削減することが可能となる。   Since a frame-out background block that is never used for reference does not affect the amount of prediction residual due to motion compensation, the amount of code can be reduced by encoding with a large quantization step size. Therefore, according to the fourth aspect of the present invention, since the amount of code can be controlled in consideration of the efficiency of inter-frame motion prediction, the amount of code required to encode the entire video is further reduced while maintaining the subjective quality. It becomes possible to do.

第5の発明は,フレーム間動き補償技術を用いて符号化を行い,さらに,ある閾値以上の量子化ステップサイズを用いて,フレームアウト背景ブロックを符号化する際に,カメラワーク推定ステップで推定されたカメラワークに基づいた動きベクトルを用いてフレーム間動き補償を行って符号化することを特徴とする映像符号化方法である。   In the fifth aspect of the invention, encoding is performed using an inter-frame motion compensation technique, and when a frame-out background block is encoded using a quantization step size greater than a certain threshold, an estimation is performed in a camera work estimation step. The video encoding method is characterized in that encoding is performed by performing inter-frame motion compensation using a motion vector based on the camerawork.

フレーム間動き補償をするときの動きベクトルは,一般的にそのベクトルを表現するのに必要な符号量と,動き補償をした後の残差信号を符号化するのに必要な符号量の合計値が小さくなるように決定される。このとき,残差信号を符号化するときの量子化ステップサイズが大きな場合,どのような動きベクトルでも,動き補償後の残差信号の符号化に必要な符号量が大きく変わらなくなる。そのため,表現するのに少ない符号量で済む動きベクトルが選択されることになる。しかし,残差信号の符号化に必要な符号量が大きく変わらなくても,実際の動きと大きく異なる動きベクトルを用いたブロックの映像は,オリジナルの映像と大きく異なる映像となり,主観品質を著しく悪化させてしまう。   The motion vector for interframe motion compensation is generally the sum of the amount of code required to express the vector and the amount of code required to encode the residual signal after motion compensation. Is determined to be small. At this time, if the quantization step size when encoding the residual signal is large, the code amount necessary for encoding the residual signal after motion compensation does not change greatly for any motion vector. Therefore, a motion vector that requires a small amount of code to express is selected. However, even if the amount of code required to encode the residual signal does not change significantly, the video of the block using a motion vector that differs greatly from the actual motion becomes a video that differs greatly from the original video, and the subjective quality deteriorates significantly. I will let you.

一方,第5の発明によると,他のブロックより比較的大きな量子化ステップサイズの設定されるフレームアウト背景ブロックにおいて,実際の映像に対応する動きを利用することになるため,細かい部分の正確性は失われるものの映像の大まかな変化を保ち,自然な変化を再現でき,同じ符号量でも主観品質を向上させることが可能となる。   On the other hand, according to the fifth invention, since the motion corresponding to the actual video is used in the frame-out background block in which the quantization step size is set to be relatively larger than that of the other blocks, the accuracy of the fine portion is determined. Although it is lost, it can maintain the rough change of the video, reproduce the natural change, and improve the subjective quality even with the same code amount.

本発明によれば,直後のフレームにおいて画面に残らない領域という人間が主観的に映像を評価する際に比較的影響を与えない部分を特定して,その部分に割り当てる符号量を他の部分に割り当てる符号量よりも相対的に少なくすることで,風景のような動きのある被写体がないような映像においても,主観品質を保ったまま映像全体の符号量を削減することや,映像全体で同じ符号量でも主観品質の良くなるような映像符号化を実現することができる。   According to the present invention, an area that does not remain on the screen in the immediately following frame is specified as a part that is relatively unaffected when a human subjectively evaluates an image, and the amount of code assigned to that part is assigned to another part. By making the code amount relatively smaller than the allocated code amount, even in a video where there are no moving objects such as landscapes, the code amount of the entire video can be reduced while maintaining the subjective quality, or the same for the entire video. It is possible to realize video coding that improves subjective quality even with a code amount.

本発明の具体的な実施例を以下に示す。図1に,本実施例において利用する映像符号化装置の構成を示す。   Specific examples of the present invention are shown below. FIG. 1 shows the configuration of a video encoding apparatus used in this embodiment.

映像符号化装置10は,映像を時間軸に沿った順序でフレーム毎に入力する画像入力部11と,自身の時刻より前の時刻のフレームが全て符号化されるまでフレームを蓄積する入力画像メモリ12と,時間的に連続する2つのフレーム間の動きをブロック毎に探索するブロック単位動き探索部13と,時間的に連続する2つのフレーム間のカメラワークを推定するカメラワーク推定部14と,小ブロック毎に動きオブジェクトブロック,フレームステイ背景ブロック,フレームアウト背景ブロックのいずれであるかを判定するブロック判定部15と,画像を小ブロックに分割してフレーム間動き予測を用いながら符号化する画像符号化部16と,符号化結果である映像の符号を出力する符号出力部17とを備える。   The video encoding device 10 includes an image input unit 11 that inputs video for each frame in the order along the time axis, and an input image memory that stores the frames until all frames at times before the own time are encoded. 12, a block unit motion search unit 13 for searching for a motion between two temporally continuous frames for each block, a camera work estimation unit 14 for estimating a camera work between two temporally continuous frames, A block determination unit 15 that determines whether each small block is a moving object block, a frame stay background block, or a frame-out background block, and an image that is divided into small blocks and encoded using inter-frame motion prediction The encoding unit 16 and a code output unit 17 that outputs a video code as the encoding result are provided.

図2は,入力映像の例を示す。以下の実施例の説明では,図2に示した映像を符号化する場合を例にして説明する。この映像をフレーム1,フレーム3,フレーム2の順序で,先に符号化されたフレームを用いてフレーム間動き予測を行いながら符号化を行うこととする。   FIG. 2 shows an example of the input video. In the following description of the embodiment, a case where the video shown in FIG. 2 is encoded will be described as an example. It is assumed that this video is encoded in the order of frame 1, frame 3, and frame 2 while performing inter-frame motion prediction using the previously encoded frame.

図3は,映像符号化装置10における画像符号化部16の構成の詳細を示す図である。画像符号化部16は,カメラワーク情報を蓄積するカメラワークメモリ161と,ブロックの種類の情報を蓄積するブロックプロパティマップメモリ162と,カメラワークとブロックの種類と他のフレームからの参照の有無に関する情報からブロック毎に符号化する際の量子化ステップを決定する量子化ステップ設定部163と,量子化ステップ設定部163で設定された量子化ステップを用いて,画像を小ブロックに分割して,フレーム間動き予測が利用可能な符号化方法で動画像符号化を行う動画像符号化部164と,フレーム間動き予測によってブロックが参照されたかどうかを示す情報を蓄積する被参照マップメモリ165と,符号化結果である映像の符号をバッファリングする出力符号メモリ166とを備える。   FIG. 3 is a diagram showing details of the configuration of the image encoding unit 16 in the video encoding device 10. The image encoding unit 16 includes a camera work memory 161 for storing camera work information, a block property map memory 162 for storing block type information, camera work and block types, and presence / absence of references from other frames. The image is divided into small blocks using a quantization step setting unit 163 that determines a quantization step for encoding each block from information, and a quantization step set by the quantization step setting unit 163. A video encoding unit 164 that performs video encoding using an encoding method that can use inter-frame motion prediction, a referenced map memory 165 that stores information indicating whether or not a block has been referenced by inter-frame motion prediction, And an output code memory 166 for buffering the code of the video as the encoding result.

図4に,映像符号化装置10の処理フローを示す。この実施例では,図2で示したフレームが,フレーム1,フレーム2,フレーム3の順番で,次々と画像入力部11に入力される[ステップA1]。入力された画像は符号化対象フレームとその時間的に直後のフレームが入力されるか,最後のフレームが入力されるまで入力画像メモリ12に蓄積される[ステップA2,A3]。つまり,この実施例の場合,フレーム1の符号化を開始するのはフレーム2の入力が終了した後であり,フレーム2の符号化を開始するのはフレーム3の入力が終了した後であり,フレーム3の符号化を開始するのはフレーム3の入力が終了した後となる。また,画像メモリからある画像が削除される条件は,自身と自身より前の時刻のフレームが全て符号化済みとなったときである。つまり,本実施例の場合,入力画像メモリ12には少なくとも2フレーム分のメモリがあることになる。   FIG. 4 shows a processing flow of the video encoding device 10. In this embodiment, the frames shown in FIG. 2 are sequentially input to the image input unit 11 in the order of frame 1, frame 2, and frame 3 [step A1]. The input image is stored in the input image memory 12 until the encoding target frame and the immediately subsequent frame are input, or until the last frame is input [steps A2 and A3]. That is, in this embodiment, the encoding of frame 1 is started after the input of frame 2 is completed, and the encoding of frame 2 is started after the input of frame 3 is completed. The encoding of frame 3 is started after the input of frame 3 is completed. The condition for deleting an image from the image memory is when all the frames at the time before itself and the time frame are already encoded. That is, in this embodiment, the input image memory 12 has a memory for at least two frames.

次に,符号化対象フレームが最終フレームであれば,符号化対象フレームを画像符号化部16で符号化する[ステップA4,A5]。一方,符号化対象フレームが最終フレームでなければ,符号化対象フレームとその直後のフレームを用いて,ブロック単位動き探索部13において,符号化対象フレームをある単位で分割した小ブロック毎に,そのブロックが直後のフレームにおいて存在する位置を推定する[ステップA4,A6]。   Next, if the encoding target frame is the final frame, the encoding target frame is encoded by the image encoding unit 16 [steps A4 and A5]. On the other hand, if the encoding target frame is not the final frame, the block unit motion search unit 13 uses the encoding target frame and the immediately following frame for each small block obtained by dividing the encoding target frame in a certain unit. The position where the block exists in the immediately following frame is estimated [steps A4 and A6].

また,符号化対象フレームとその直後のフレームにおけるカメラワークをカメラワーク推定部14で推定する[ステップA7]。カメラワークを推定する方法として,例えば非特許文献2にあるような既知の手法を用いることができる。なお本手法では,ある点が次の時刻においてカメラワークによってどの点に移動したかを知ることができれば十分であり,カメラワークの種類を特定する必要はない。つまり,以下の式で表されるような,符号化対象フレームの座標Xからその直後のフレームのある座標X* への射影Pを求めることが,このステップで行われる処理である。また,このことはカメラワークの推定プロセスはピクセル毎のオプティカルフローが求まればよいことを示しているため,例えば非特許文献3にあるようなピクセルごとのオプティカルフローを求める技術を利用することもできる。 In addition, the camera work estimation unit 14 estimates the camera work in the encoding target frame and the immediately following frame [step A7]. As a method for estimating the camera work, for example, a known method as described in Non-Patent Document 2 can be used. In this method, it is sufficient to be able to know to which point a point has moved by camerawork at the next time, and it is not necessary to specify the type of camerawork. That is, the process performed in this step is to obtain the projection P from the coordinate X of the encoding target frame to the coordinate X * of the immediately following frame as expressed by the following equation. In addition, this indicates that the camera work estimation process only needs to obtain an optical flow for each pixel. For example, a technique for obtaining an optical flow for each pixel as described in Non-Patent Document 3 may be used. it can.

* =P(X)
次に,求められたブロック単位の動きとカメラワークを用いて,ブロック判定部15で,各ブロックを動きオブジェクトブロック,フレームステイ背景ブロック,フレームアウト背景ブロックのいずれかに分類する[ステップA8]。そして,ブロック情報とカメラワークを用いて,画像符号化部16が符号化対象フレームを符号化する[ステップA5]。符号化されたフレームは,符号出力部17から符号化された順,つまりフレーム1,フレーム3,フレーム2の順で出力される[ステップA9]。全フレームの符号化が終了すると,処理を終了する[ステップA10]。
X * = P (X)
Next, using the obtained block-by-block motion and camera work, the block determination unit 15 classifies each block as a motion object block, a frame stay background block, or a frame-out background block [step A8]. Then, using the block information and camera work, the image encoding unit 16 encodes the encoding target frame [step A5]. The encoded frames are output from the code output unit 17 in the order of encoding, that is, in the order of frame 1, frame 3, and frame 2 [step A9]. When encoding of all frames is completed, the process is terminated [Step A10].

図5に,ブロック判定部15で行われるブロック判別の詳細フローを示す。まず,ブロック単位動き探索部13によって求められたブロック単位の動きベクトルの信頼度を,ブロック毎に以下の式で求める[ステップB0,B1]。   FIG. 5 shows a detailed flow of block determination performed by the block determination unit 15. First, the reliability of the motion vector in units of blocks obtained by the block unit motion search unit 13 is obtained for each block by the following formula [Steps B0, B1].

信頼度=−Σp |Ys (p)−Yd (p−MVk )|
ここで,Σp は,p∈Sk についての総和を表す。pはピクセル座標,Sk は符号化対象フレームにおけるブロックkに含まれるピクセル座標の集合を表し,MVk はブロック単位動き探索で求まったブロックkの動きベクトルを表す。符号化対象フレームにおけるピクセル座標pの画素値はYs (p)と表し,符号化対象フレームの次の時刻のフレームにおけるピクセル座標pの画素値はYd (p)と表している。
Reliability = −Σ p | Y s (p) −Y d (p−MV k ) |
Here, sigma p represents the sum of the p∈S k. p represents pixel coordinates, S k represents a set of pixel coordinates included in the block k in the encoding target frame, and MV k represents a motion vector of the block k obtained by the block unit motion search. The pixel value of the pixel coordinate p in the encoding target frame is expressed as Y s (p), and the pixel value of the pixel coordinate p in the frame at the next time of the encoding target frame is expressed as Y d (p).

次に,この信頼度がある一定の閾値以上かどうかを調べる[ステップB2]。信頼度がある一定の閾値を超えなかった場合,カメラワーク推定部14で推定したカメラワークによる射影Pを用いて,ブロック内の各ピクセルが次時刻のフレームにおいてフレーム内に含まれるかどうかを調べる[ステップB3]。そして,フレームアウトするピクセルの数が一定数を超えるかどうかを調べる[ステップB4]。   Next, it is checked whether or not the reliability is equal to or higher than a certain threshold [Step B2]. When the reliability does not exceed a certain threshold value, the camerawork projection P estimated by the camerawork estimation unit 14 is used to check whether each pixel in the block is included in the frame at the next frame. [Step B3]. Then, it is checked whether or not the number of pixels to be framed exceeds a certain number [step B4].

一定数のピクセルが次時刻のフレームにおいてフレーム内に含まれる場合,そのブロックをフレームステイ背景ブロックと判定する[ステップB5]。一方,一定数以上のピクセルがフレームアウトする場合には,そのブロックをフレームアウト背景ブロックと判定する[ステップB6]。   When a certain number of pixels are included in the frame at the next time frame, the block is determined to be a frame stay background block [step B5]. On the other hand, when a certain number of pixels or more are out of frame, the block is determined as a frame-out background block [step B6].

ステップB2の判定において,上記の信頼度がある一定の閾値以上であった場合,カメラワーク推定部14で推定したカメラワークによる射影Pより,そのブロックのカメラワークによる動きベクトルCMVk を次の式により求める[ステップB7]。Nはそのブロックに含まれるピクセル数を表す。 In the determination in step B2, if the reliability is equal to or higher than a certain threshold value, the motion vector CMV k by the camera work of the block is calculated from the projection P by the camera work estimated by the camera work estimation unit 14 by the following equation. [Step B7]. N represents the number of pixels included in the block.

CMVk =Σq (P(q)−q)/N
ここで,Σq は,q∈Sk についての総和を表す。
CMV k = Σ q (P (q) −q) / N
Here, sigma q represents the sum of the q∈S k.

その後,CMVk とMVk の差分ベクトルの大きさについてチェックを行う[ステップB8]。その大きさが一定の閾値以上ならばそのブロックを動きオブジェクトブロックと判定する[ステップB9]。一方,差分ベクトルの大きさが閾値を超えなかった場合,ブロック内の各ピクセルが次時刻のフレームにおいてフレーム内に含まれるかどうかを調べ[ステップB3],一定数のピクセルが次時刻のフレームにおいてフレーム内に含まれるならば,そのブロックをフレームステイ背景ブロックと判定し[ステップB4,B5],そうでなければフレームアウト背景ブロックと判定する[ステップB4,B6]。 Thereafter, the size of the difference vector between CMV k and MV k is checked [step B8]. If the size is equal to or greater than a certain threshold, the block is determined as a moving object block [step B9]. On the other hand, if the size of the difference vector does not exceed the threshold, it is checked whether each pixel in the block is included in the frame at the next time frame [step B3], and a certain number of pixels are found in the next time frame. If it is included in the frame, the block is determined to be a frame stay background block [steps B4, B5], otherwise it is determined to be a frame-out background block [steps B4, B6].

図6に,画像符号化部16で行われる画像の符号化処理の詳細フローを示す。まず,カメラワーク推定部14で推定されたカメラワークと,ブロック判定部15で決定された符号化対象フレームの各ブロックの種類を表す情報(以後,ブロックプロパティマップと呼ぶ)と,入力画像メモリ12に蓄えられていた符号化対象の画像が入力される[ステップC1]。カメラワークはカメラワークメモリ161に蓄えられ,ブロックプロパティマップはブロックプロパティマップメモリ162に蓄えられる[ステップC2]。メモリからは対応するフレーム及びそのフレームより前の時刻のフレームの符号化が終了して,それらの符号が画像符号化部16から出力された段階で削除される。つまり,本実施例の場合,2組のカメラワークとブロックプロパティマップを格納できることが必要となる。   FIG. 6 shows a detailed flow of image encoding processing performed by the image encoding unit 16. First, the camera work estimated by the camera work estimation unit 14, information indicating the type of each block of the encoding target frame determined by the block determination unit 15 (hereinafter referred to as a block property map), and the input image memory 12 The image to be encoded stored in is input [Step C1]. The camera work is stored in the camera work memory 161, and the block property map is stored in the block property map memory 162 [step C2]. The encoding of the corresponding frame and the frame at the time before that frame is completed from the memory, and these codes are deleted when they are output from the image encoding unit 16. That is, in this embodiment, it is necessary to be able to store two sets of camera work and a block property map.

符号化対象フレームに対応するカメラワークとブロックプロパティマップの入力が完了すると,カメラワークとブロックプロパティマップを用いて,量子化ステップ設定部163で,ブロック毎に最初の量子化ステップが決定される[ステップC3]。   When the input of the camera work and the block property map corresponding to the encoding target frame is completed, the first quantization step is determined for each block by the quantization step setting unit 163 using the camera work and the block property map [ Step C3].

決定された量子化ステップとカメラワークを用いて動画像符号化部164が実際に画像を符号化する[ステップC4]。ここで用いられる動画像符号化手法は,H.264(例えば,非特許文献4参照)に代表されるような,画像を小ブロックに分割してブロック単位で符号化を行う手法であり,さらにブロック毎のフレーム間動き予測を用いて符号化を行う手法であり,さらに量子化ステップを変更することで符号量と画質を調節できるような方法であれば,どのような方法でも用いることが可能である。ただし,ある閾値以上の量子化ステップが設定されているフレームアウト背景ブロックを動き予測を用いて符号化する場合,その動きベクトルはカメラワークから求まるCMVk を使うこととする。また,符号化の際にフレーム間動き予測を用いた場合,参照フレーム毎にどのピクセルを参照したかを記録して,その情報(以後,被参照マップと呼ぶ)を被参照マップメモリ165に格納する[ステップC5]。 Using the determined quantization step and camera work, the moving image encoding unit 164 actually encodes the image [step C4]. The moving picture coding method used here is H.264. H.264 (see, for example, Non-Patent Document 4) is a method of encoding an image in units of blocks by dividing an image into small blocks. Further, encoding is performed using inter-frame motion prediction for each block. Any method can be used as long as the code amount and the image quality can be adjusted by changing the quantization step. However, when a frame-out background block in which a quantization step equal to or greater than a certain threshold is set is encoded using motion prediction, CMV k obtained from camera work is used as the motion vector. In addition, when inter-frame motion prediction is used at the time of encoding, which pixel is referenced for each reference frame is recorded, and the information (hereinafter referred to as a referenced map) is stored in the referenced map memory 165. [Step C5].

動画像符号化部164から出力される符号は出力符号メモリ166に蓄えられる[ステップC6]。そして,出力符号メモリ166は,メモリに格納されている符号の中で最も早くメモリに格納されたフレームの符号が,被参照フレームの候補リストに載っているかどうかをチェックする[ステップC7]。被参照フレームの候補リストとは,フレーム間動き予測をする際に,参照フレームとして利用する可能性が一度でもあるフレームのリストとする。この候補リストの管理は,符号化する際のパラメータとして与えられる参照構造によって決められる。例えば,再生時刻順に5フレームさかのぼって参照を可能とするようなパラメータが与えられた場合,N番目の被参照フレームはそのフレーム自身の符号化が終了した後に候補リストに追加され,N+5番目のフレームの符号化が終了した時点で候補リストから削除される。候補リストに載っている場合には,何も出力しないで終了する。   The code output from the moving image encoding unit 164 is stored in the output code memory 166 [step C6]. Then, the output code memory 166 checks whether or not the code of the frame stored in the memory earliest among the codes stored in the memory is included in the reference frame candidate list [step C7]. The reference frame candidate list is a list of frames that have a possibility of being used as a reference frame at the time of inter-frame motion prediction. The management of the candidate list is determined by a reference structure given as a parameter for encoding. For example, when a parameter that enables reference back 5 frames in the order of playback time is given, the Nth referenced frame is added to the candidate list after the encoding of the frame itself is completed, and the N + 5th frame Is deleted from the candidate list at the time when encoding of is completed. If it is on the candidate list, exit without outputting anything.

一方,候補リストに載っていない場合,そのフレームに対応する被参照マップを用いて量子化ステップ設定部163で量子化ステップを再計算し[ステップC8],動画像符号化部164で新たな量子化ステップを用いて再度符号化を行い[ステップC9],その結果を出力する[ステップC10]。その後,対応する符号が出力されたら出力符号メモリ166からその符号を削除する[ステップC11]。つまり本実施例の場合,出力符号メモリ166には,少なくとも被参照フレームの候補数+1フレーム分の符号を蓄えられる必要がある。また,符号の出力が行われた場合,出力に関する処理[ステップC7−C11]を再度繰り返す。なお,ステップC8における量子化ステップの再計算の結果,以前にステップC3で決定した量子化ステップと変わらなかった場合には,次のステップC9の符号化処理を省略してもよい。   On the other hand, if it is not on the candidate list, the quantization step setting unit 163 recalculates the quantization step using the referenced map corresponding to the frame [Step C8], and the moving image encoding unit 164 adds a new quantum Encoding is performed again using the conversion step [Step C9], and the result is output [Step C10]. Thereafter, when the corresponding code is output, the code is deleted from the output code memory 166 [step C11]. In other words, in the case of the present embodiment, the output code memory 166 needs to store codes for at least the number of reference frame candidates + 1 frame. If the code is output, the process related to the output [Step C7-C11] is repeated again. If the result of recalculation of the quantization step in step C8 is the same as the quantization step previously determined in step C3, the encoding process in the next step C9 may be omitted.

図7に量子化ステップ設定部163で行われる処理の詳細なフローを示す。まず,量子化ステップ決定対象のフレームが始めて量子化ステップを決定するフレームかどうかを調べる[ステップD1]。初めて量子化ステップを決定するフレームの場合,他のフレームを符号化するときに被参照フレームとして利用可能なフレームかどうかを調べる[ステップD2]。被参照フレームとして利用不可能なフレームの場合,フレームアウト背景ブロックごとに以下の式を用いて評価値を計算する[ステップD3]。   FIG. 7 shows a detailed flow of processing performed by the quantization step setting unit 163. First, it is checked whether the quantization step determination target frame is the first frame for determining the quantization step [step D1]. In the case of a frame for which the quantization step is determined for the first time, it is checked whether it is a frame that can be used as a referenced frame when other frames are encoded [step D2]. In the case of a frame that cannot be used as a referenced frame, an evaluation value is calculated for each frame-out background block using the following formula [Step D3].

Σq Distance(P(q)) ・・・式(1)
Distance(x)はxとフレームの端までの最短距離を与える関数を表す。ただし,Distance(x)>0ならばxはフレームの外側にあり,Distance(x)=0ならばxはフレームの枠上にあり,Distance(x)<0ならばxはフレームの内側にあるとする。
Σ q Distance (P (q)) (1)
Distance (x) represents a function that gives the shortest distance from x to the end of the frame. However, if Distance (x)> 0, x is outside the frame; if Distance (x) = 0, x is on the frame; if Distance (x) <0, x is inside the frame. And

そして,動きオブジェクトブロック,フレームステイ背景ブロック,フレームアウト背景ブロックの順に小さな量子化ステップを設定する[ステップD4]。このとき,フレームアウト背景ブロックは前もって求めた評価値が小さいほど小さな量子化ステップを設定する。ただし,ここで量子化ステップは小さいほど,相対的により多くの符号量を割り当てるようなものとする。   Then, small quantization steps are set in the order of the moving object block, the frame stay background block, and the frame out background block [step D4]. At this time, the smaller the evaluation value obtained in advance, the smaller the quantization step is set for the frame-out background block. Here, it is assumed that the smaller the quantization step, the more code amount is allocated.

一方,被参照フレームとして利用可能なフレームの場合,フレームステイ背景ブロックとフレームアウト背景ブロックには同等の量子化ステップを設定し,動きオブジェクトブロックにはそれより小さな量子化ステップを設定する[ステップD5]。また,量子化ステップ決定対象のフレームが初めて量子化ステップを決定するフレームではない場合,被参照マップメモリ165に蓄えられている情報から,フレームアウト背景ブロックであり,かつそのブロック内のいずれかのピクセルが少なくとも一度は参照されたブロックを求め,そのブロックに対して式(1)で求まる評価値を計算する[ステップD6]。そして,以下の分類で順序が若い順に小さな量子化ステップを設定する[ステップD7]。   On the other hand, in the case of a frame that can be used as a referenced frame, an equivalent quantization step is set for the frame stay background block and the frame-out background block, and a smaller quantization step is set for the moving object block [Step D5]. ]. In addition, when the quantization step determination target frame is not the frame for which the quantization step is determined for the first time, it is determined from the information stored in the referenced map memory 165 that it is a frame-out background block and any of the blocks in the block. A block in which a pixel is referenced at least once is obtained, and an evaluation value obtained by the equation (1) is calculated for the block [step D6]. Then, smaller quantization steps are set in the following classification in ascending order [Step D7].

1.動きオブジェクトブロック
2.フレームステイ背景ブロック,もしくは,フレームアウト背景ブロックかつそのブロック内のいずれかのピクセルが少なくとも一度は参照されたブロック
3.フレームアウト背景ブロックかつそのブロック内の全てのピクセルが一度も参照されなかったブロック
ただし,3に含まれるブロックの量子化ステップは上記の式(1)で求まる値が小さいほど,小さな量子化ステップを設定する。
1. 1. Moving object block 2. A frame stay background block or a frame out background block and a block in which any pixel in the block is referenced at least once. A frame-out background block and a block in which all the pixels in the block have never been referred to. However, the quantization step of the block included in 3 is smaller as the value obtained by the above equation (1) is smaller. Set.

以上の実施例において,図3の動画像符号化部164では,量子化ステップ設定部163で設定された量子化ステップサイズを用いてフレームアウト背景ブロックを符号化する際に,その量子化ステップサイズがある閾値を超えた場合,カメラワーク推定部14で推定されたカメラワークに基づいた動きベクトルを用いてフレーム間動き補償を行って符号化する。この処理も,限られた符号量で主観品質を向上させるうえで好適である。   In the above embodiment, the moving image encoding unit 164 in FIG. 3 encodes a frame-out background block using the quantization step size set by the quantization step setting unit 163, and the quantization step size. If a certain threshold is exceeded, encoding is performed by performing inter-frame motion compensation using a motion vector based on the camera work estimated by the camera work estimation unit 14. This process is also suitable for improving the subjective quality with a limited code amount.

符号量の割り当てを制御する代表例として量子化ステップサイズの例を説明したが,量子化の度合いを制御することができるものであれば,これに限らず他の符号化のパラメータを用いることもできる。   The example of the quantization step size has been described as a representative example for controlling the allocation of the code amount, but other encoding parameters may be used as long as the degree of quantization can be controlled. it can.

以上の映像符号化の処理は,コンピュータとソフトウェアプログラムとによって実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The above video encoding processing can be realized by a computer and a software program, and the program can be provided by being recorded on a computer-readable recording medium or provided via a network.

映像符号化装置の構成を示す図である。It is a figure which shows the structure of a video coding apparatus. 入力される映像の具体例を示す図である。It is a figure which shows the specific example of the image | video input. 画像符号化部の構成を示す図である。It is a figure which shows the structure of an image coding part. 映像符号化装置の処理フローを示す図である。It is a figure which shows the processing flow of a video coding apparatus. ブロックの種類を判定するプロセスの詳細処理フローを示す図である。It is a figure which shows the detailed processing flow of the process which determines the kind of block. 画像符号化を行うプロセスの詳細処理フローを示す図である。It is a figure which shows the detailed processing flow of the process which performs image coding. 量子化ステップの決定プロセスの詳細処理フローを示す図である。It is a figure which shows the detailed processing flow of the determination process of a quantization step.

符号の説明Explanation of symbols

10 映像符号化装置
11 画像入力部
12 入力画像メモリ
13 ブロック単位動き探索部
14 カメラワーク推定部
15 ブロック判定部
16 画像符号化部
17 符号出力部
DESCRIPTION OF SYMBOLS 10 Image coding apparatus 11 Image input part 12 Input image memory 13 Block unit motion search part 14 Camera work estimation part 15 Block determination part 16 Image coding part 17 Code output part

Claims (8)

画像を小ブロックに分割して符号化を行い,さらに少なくともそのブロック毎に量子化の度合いを選択して符号化する映像符号化方法であって,
映像を撮影した際のカメラワークを推定するカメラワーク推定ステップと,
小ブロック毎に,そのブロックに映っている映像の動きを推定する動き探索ステップと,
推定したカメラワークと小ブロック毎の動きから,各小ブロックが,その小ブロックの映像の変化がカメラワークに依存する背景ブロックであるか,映像の変化がカメラワーク以外に被写体の動きを含む動きオブジェクトブロックであるかを判定する背景ブロック判定ステップと,
背景ブロックに含まれる小ブロックであって,次の時刻のフレームにおいて一部でもフレームアウトするブロックを抽出するフレームアウト背景ブロック判定ステップと,
動きオブジェクトブロック,フレームアウト背景ブロックでない背景ブロック,フレームアウト背景ブロックの順に相対的に多い符号量が割り当てられるように量子化の度合いを設定する量子化の度合い設定ステップと,
を有することを特徴とする映像符号化方法。
A video encoding method in which an image is divided into small blocks and encoded, and at least the degree of quantization is selected for each block and encoded.
A camera work estimation step for estimating a camera work at the time of shooting a video;
For each small block, a motion search step for estimating the motion of the video shown in the block,
From the estimated camera work and the movement of each small block, each small block is a background block whose video change of the small block depends on the camera work, or the video change includes movement of the subject other than the camera work A background block determining step for determining whether the block is an object block;
A frame-out background block determination step for extracting a small block included in the background block and which is partially out of the frame at the next time;
A quantization degree setting step for setting a quantization degree so that a relatively large amount of code is assigned in the order of a moving object block, a background block that is not a frame-out background block, and a frame-out background block;
A video encoding method comprising:
請求項1に記載の映像符号化方法において,
フレームアウト背景ブロックに含まれる小ブロック内の画素毎に,前記カメラワーク推定ステップしたカメラワークを用いて,次フレームにおける推定位置を求め,その推定位置がフレーム端から離れた距離を,符号化対象ブロック毎に合計し,その合計値が大きいほど,相対的に少ない符号量が割り当てられるように量子化の度合いを設定する,
ことを特徴とする映像符号化方法。
The video encoding method according to claim 1, wherein
For each pixel in the small block included in the frame-out background block, the estimated position in the next frame is obtained using the camera work that has been subjected to the camera work estimation step, and the distance that the estimated position is away from the frame end is determined as the encoding target. Set the degree of quantization so that a smaller amount of code is allocated as the total value increases for each block.
And a video encoding method.
請求項1または請求項2に記載の映像符号化方法において,さらに小ブロック毎にフレーム間動き補償を用いて符号化を行う映像符号化方法であって,
前記量子化の度合い設定ステップにおいて,動き補償における参照フレームとして利用可能なフレームを符号化する際には,フレームアウト背景ブロックでない背景ブロックと,フレームアウト背景ブロックとで同程度の量子化の度合いを設定する,
ことを特徴とする映像符号化方法。
The video encoding method according to claim 1 or 2, wherein the video encoding method further performs encoding using inter-frame motion compensation for each small block,
In the quantization degree setting step, when encoding a frame that can be used as a reference frame in motion compensation, a background block that is not a frame-out background block and a frame-out background block have the same degree of quantization. Set,
And a video encoding method.
請求項1または請求項2に記載の映像符号化方法において,さらに小ブロック毎にフレーム間動き補償を用いて符号化を行う映像符号化方法であって,
動き補償における参照フレームとして利用可能なフレームを符号化する際に,まず,前記量子化の度合い設定ステップにおいて,フレームアウト背景ブロックでない背景ブロックと,フレームアウト背景ブロックとで同程度の量子化の度合いを設定して符号化を行い,次にそのフレームが参照フレームの候補から外される際に,フレームアウト背景ブロックに含まれる小ブロックであって,一度も他のフレームから参照されなかった小ブロックに対して,フレームアウト背景ブロックでない背景ブロックよりも相対的に少ない符号量が割り当てられるように量子化の度合いを新たに設定して再度符号化をする,
ことを特徴とする映像符号化方法。
The video encoding method according to claim 1 or 2, wherein the video encoding method further performs encoding using inter-frame motion compensation for each small block,
When encoding a frame that can be used as a reference frame in motion compensation, first, in the quantization level setting step, the same degree of quantization between a background block that is not a frame-out background block and a frame-out background block Is a small block that is included in a frame-out background block and has never been referenced by another frame when the frame is removed from the reference frame candidate. On the other hand, a new quantization degree is set so that a relatively small amount of code is allocated to a background block that is not a frame-out background block, and encoding is performed again.
And a video encoding method.
請求項1または請求項2に記載の映像符号化方法において,さらに小ブロック毎にフレーム間動き補償を用いて符号化を行う映像符号化方法であって,
前記量子化の度合い設定ステップで設定された量子化の度合いを用いて,フレームアウト背景ブロックを符号化する際に,その量子化の度合いがある閾値を超えた場合,前記カメラワーク推定ステップで推定されたカメラワークに基づいた動きベクトルを用いてフレーム間動き補償を行って符号化する
ことを特徴とする映像符号化方法。
The video encoding method according to claim 1 or 2, wherein the video encoding method further performs encoding using inter-frame motion compensation for each small block,
When encoding a frame-out background block using the quantization level set in the quantization level setting step, if the quantization level exceeds a certain threshold, the camera work estimation step estimates A video encoding method comprising: encoding by performing inter-frame motion compensation using a motion vector based on the camerawork performed.
画像を小ブロックに分割して符号化を行い,さらに少なくともそのブロック毎に量子化の度合いを選択して符号化する映像符号化装置であって,
映像をフレーム毎に入力する画像入力手段と,
入力したフレームを蓄積する入力画像記憶手段と,
前記入力画像記憶手段に蓄積されたフレームから,映像を撮影した際のカメラワークを推定するカメラワーク推定手段と,
前記入力画像記憶手段に蓄積されたフレームの小ブロック毎に,そのブロックに映っている映像の動きを推定する動き探索手段と,
推定したカメラワークと小ブロック毎の動きから,各小ブロックを,映像の変化がカメラワーク以外に被写体の動きを含む動きオブジェクトブロックと,それ以外のブロックである背景ブロックのうち,次の時刻のフレームにおいて一部でもフレームアウトするフレームアウト背景ブロックと,フレームアウト背景ブロックでない背景ブロックとに分類するブロック判定手段と,
動きオブジェクトブロック,フレームアウト背景ブロックでない背景ブロック,フレームアウト背景ブロックの順に相対的に多い符号量が割り当てられるように量子化の度合いを設定し,映像を符号化する符号化手段と,
を備えることを特徴とする映像符号化装置。
A video encoding device that performs encoding by dividing an image into small blocks, and further selects and encodes the degree of quantization for each block,
An image input means for inputting an image every frame;
Input image storage means for storing the input frames;
Camera work estimation means for estimating camera work when a video is taken from the frame stored in the input image storage means;
For each small block of the frame stored in the input image storage means, a motion search means for estimating the motion of the video shown in the block;
From the estimated camera work and the movement of each small block, each small block is divided into a moving object block in which the image change includes the movement of the subject other than the camera work, and a background block that is the other block at the next time. A block determination means for classifying a frame-out background block that is partly out of the frame and a background block that is not a frame-out background block;
Encoding means for encoding a video by setting a degree of quantization so that a relatively large amount of code is assigned in the order of a moving object block, a background block that is not a frame-out background block, and a frame-out background block;
A video encoding device comprising:
請求項1から請求項5までのいずれか1項に記載の映像符号化方法を,コンピュータに実行させるせための映像符号化プログラム。   A video encoding program for causing a computer to execute the video encoding method according to any one of claims 1 to 5. 請求項1から請求項5までのいずれか1項に記載の映像符号化方法を,コンピュータに実行させるせための映像符号化プログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium having recorded thereon a video encoding program for causing a computer to execute the video encoding method according to any one of claims 1 to 5.
JP2005292155A 2005-10-05 2005-10-05 Video encoding method, video encoding device, video encoding program, and recording medium therefor Expired - Fee Related JP4451833B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005292155A JP4451833B2 (en) 2005-10-05 2005-10-05 Video encoding method, video encoding device, video encoding program, and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005292155A JP4451833B2 (en) 2005-10-05 2005-10-05 Video encoding method, video encoding device, video encoding program, and recording medium therefor

Publications (2)

Publication Number Publication Date
JP2007104372A true JP2007104372A (en) 2007-04-19
JP4451833B2 JP4451833B2 (en) 2010-04-14

Family

ID=38030856

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005292155A Expired - Fee Related JP4451833B2 (en) 2005-10-05 2005-10-05 Video encoding method, video encoding device, video encoding program, and recording medium therefor

Country Status (1)

Country Link
JP (1) JP4451833B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009130971A1 (en) * 2008-04-21 2009-10-29 シャープ株式会社 Dynamic image encoding device and dynamic image decoding device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009130971A1 (en) * 2008-04-21 2009-10-29 シャープ株式会社 Dynamic image encoding device and dynamic image decoding device

Also Published As

Publication number Publication date
JP4451833B2 (en) 2010-04-14

Similar Documents

Publication Publication Date Title
US11736701B2 (en) Hash-based encoder decisions for video coding
KR100987365B1 (en) Selecting key frames from video frames
JP6163674B2 (en) Content adaptive bi-directional or functional predictive multi-pass pictures for highly efficient next-generation video coding
JP4732982B2 (en) Improved motion estimation method, video encoding method and apparatus using the method
JP5791618B2 (en) Method and apparatus for processing video sequences
JP5478047B2 (en) Video data compression pre-processing method, video data compression method and video data compression system using the same
JP5766877B2 (en) Frame coding selection based on similarity, visual quality, and interest
JP2017532858A (en) Perceptual optimization for model-based video coding
JP2012502590A (en) Video coding system and method using configuration reference frame
JP2012239085A (en) Image processor, and image processing method
WO2020188401A1 (en) Quantization step parameter for point cloud compression
JP2003018602A (en) Method and device for encoding and decoding image data
JP2003032688A (en) Separation method of foreground and background regions for moving image, and moving image coding method by conditional pixel replenishment by using this method
JP5441812B2 (en) Video encoding apparatus and control method thereof
US10666970B2 (en) Encoding apparatus, encoding method, and storage medium
JP5729825B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program
JP4451833B2 (en) Video encoding method, video encoding device, video encoding program, and recording medium therefor
JP2003203237A (en) Image matching method and device, and image coding method and device
JP2012257125A (en) Image processing apparatus and image processing method
JP5165084B2 (en) Image encoding device
JP2008301270A (en) Moving image encoding device and moving image encoding method
KR102049644B1 (en) Hierarchical Noise Reduction Method for Efficient Coding of Video with Noise
JP5711636B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, image decoding program
JP2007104515A (en) Video encoding pre-filtering method, apparatus, and program, and computer readable recording medium with the program recorded thereon

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080205

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100126

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100128

R150 Certificate of patent or registration of utility model

Ref document number: 4451833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130205

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees