JP6485159B2 - Moving picture coding apparatus, moving picture coding method, and moving picture coding program - Google Patents
Moving picture coding apparatus, moving picture coding method, and moving picture coding program Download PDFInfo
- Publication number
- JP6485159B2 JP6485159B2 JP2015064981A JP2015064981A JP6485159B2 JP 6485159 B2 JP6485159 B2 JP 6485159B2 JP 2015064981 A JP2015064981 A JP 2015064981A JP 2015064981 A JP2015064981 A JP 2015064981A JP 6485159 B2 JP6485159 B2 JP 6485159B2
- Authority
- JP
- Japan
- Prior art keywords
- reference image
- region
- encoding
- area
- eye image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、動画像符号化装置、動画像符号化方法および動画像符号化プログラムに関する。 The present invention relates to a moving image encoding apparatus, a moving image encoding method, and a moving image encoding program.
動画像データを符号化する方式の一例として、イントラ予測符号化方式およびインター予測符号化方式がある。イントラ予測符号化方式は、フレーム内の空間的冗長性を除去することによりデータ量を圧縮する方式である。インター予測符号化方式は、複数のフレーム間の時間的冗長性を除去することによりデータ量を圧縮する方式である。 As an example of a method for encoding moving image data, there are an intra prediction encoding method and an inter prediction encoding method. The intra prediction encoding method is a method of compressing the data amount by removing spatial redundancy in a frame. The inter prediction encoding method is a method of compressing the data amount by removing temporal redundancy between a plurality of frames.
インター予測符号化方式は、あるフレームにエラーが発生すると、エラーを発生したフレームを参照する他のフレームにエラーが伝播する。このため、所定の周期でイントラ符号化を行ったイントラフレームを挿入する技術が提案されている。 In the inter prediction coding method, when an error occurs in a certain frame, the error is propagated to other frames that refer to the frame in which the error has occurred. For this reason, a technique for inserting an intra frame that has been intra-encoded at a predetermined period has been proposed.
また、以前映像処理ブロックのイントラピクチャおよび以前映像処理ブロックのイントラピクチャが生成された視点と異なる視点に対して生成された現在映像処理ブロックのうち、少なくとも1つに基づいて現在ピクチャを予測する技術が提案されている。 A technique for predicting a current picture based on at least one of a current video processing block generated for a viewpoint different from a viewpoint from which the intra picture of the previous video processing block and the intra picture of the previous video processing block are generated Has been proposed.
また、多視点符号化され参照関係が存在する複数のチャンネルを含む動画符号化ストリームの復号時にエラーが発生した場合でも、画像の内容の認識に支障をきたすおそれが少なく、人の視覚に対する影響を少なくする技術が提案されている。 In addition, even when an error occurs during decoding of a video encoded stream including a plurality of channels that are multi-view coded and have a reference relationship, there is little risk of hindering recognition of the contents of the image, and this has an effect on human vision. Techniques to reduce it have been proposed.
また、復号化画像バッファにおいてメモリ管理動作を実行するマルチビュー映像符号化環境で用いる符号が提供され、メモリ管理動作は、制御情報に基づいて、特定のビューに関連する参照画像を除去する技術が提案されている(例えば、特許文献1乃至3を参照)。
In addition, a code used in a multi-view video coding environment that performs a memory management operation in a decoded image buffer is provided, and the memory management operation is a technology that removes a reference image related to a specific view based on control information. It has been proposed (see, for example,
多視点動画像符号化では、基準画像と非基準画像とに対して予測符号化が行われる。多視点動画像符号化にイントラ予測符号化方式を適用した場合、基準画像と非基準画像との両者に対して、イントラ符号化が行われる。このため、符号量が大きくなり、符号化の効率が低下する。 In multi-view video encoding, predictive encoding is performed on a reference image and a non-reference image. When the intra prediction encoding method is applied to multi-view video encoding, intra encoding is performed on both the reference image and the non-reference image. For this reason, the amount of codes increases, and the coding efficiency decreases.
多視点動画像符号化にインター予測符号化方式を適用した場合、エラーの伝播を是正するために、所定周期でイントラフレームが挿入される。このイントラフレームのために情報量が増える。エラーの伝播に基づく動画像の乱れを早期に是正するために、イントラフレームを挿入する頻度が高くなると、イントラフレームのための情報量が多くなる。 When the inter prediction encoding method is applied to multi-view video encoding, an intra frame is inserted at a predetermined cycle in order to correct error propagation. The amount of information increases due to this intra frame. In order to correct the disturbance of the moving image due to error propagation at an early stage, if the frequency of inserting an intra frame increases, the amount of information for the intra frame increases.
1つの側面として、本発明は、多視点動画像符号化を行う際に、情報量を抑制した効率的な符号化を行うことを目的とする。 As one aspect, an object of the present invention is to perform efficient encoding with a reduced amount of information when performing multi-view video encoding.
1つの態様では、動画像符号化装置は、基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行う第1の予測符号化部と、非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定する該領域設定部と、前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、を備える。 In one aspect, the moving image encoding apparatus includes a first predictive encoding unit that performs first predictive encoding in the reference image while shifting a predetermined area for each frame with respect to the reference image, and a non-reference Among the images, a second region corresponding to the first region where the first predictive encoding has been performed on the reference image is determined for each frame based on the parallax between the reference image and the non-reference image. An area setting unit for setting a width based on the parallax in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area. The region setting unit that sets the region delayed from the first region as the second region on the non-reference image, and the reference region with respect to the second region of the non-reference image. A second with reference to the first region of the image; And a second predictive coding unit that performs predictive coding.
1つの側面によれば、多視点動画像符号化を行う際に、情報量を抑制した効率的な符号化を行うことができる。 According to one aspect, when performing multi-view video encoding, efficient encoding with a reduced amount of information can be performed.
<実施形態の動画像符号化装置の一例>
以下、図面を参照して、実施形態について説明する。図1は、実施形態の動画像符号化装置1の一例を示している。実施形態の動画像符号化装置1は、多視点動画像符号化を行う装置である。多視点動画像符号化装置は、例えば三次元動画像符号化装置である。
<Example of moving picture encoding apparatus of embodiment>
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows an example of a moving picture encoding
動画像符号化装置1は、左目画像符号化部10Lと右目画像符号化部10Rとを備える。左目画像符号化部10Lは、多視点の動画像データのうち左目画像データを入力する。右目画像符号化部10Rは、多視点の動画像データのうち右目画像データを入力する。
The moving
以下、左目画像データを左目画像とし、右目画像データを右目画像として説明する。左目画像符号化部10Lは、左目画像を入力して、左目画像の予測符号化を行う。右目画像符号化部10Rは、右目画像を入力して、右目画像の予測符号化を行う。左目画像は、基準画像(base view)の一例であり、右目画像は非基準画像(non-base view)の一例である。
Hereinafter, the left-eye image data is described as a left-eye image, and the right-eye image data is described as a right-eye image. The left-eye image encoding unit 10L receives the left-eye image and performs predictive encoding of the left-eye image. The right-eye
左目画像符号化部10Lは、予測誤差信号生成部11Lと整数変換部12Lと量子化部13Lとエントロピー符号化部14Lと逆量子化部15Lと逆整数変換部16Lと参照画像生成部17Lとフィルタ処理部18Lとフレームメモリ19Lとを備える。
The left-eye image encoding unit 10L includes a prediction error signal generation unit 11L, an integer conversion unit 12L, a
また、左目画像符号化部10Lは、動き検出部20Lと動き補償部21Lとフレーム内予測部22Lと符号化制御部23Lと切り替え部24Lとを備える。左目画像符号化部10Lのフレーム内予測部22Lは、第1の予測符号化部の一例である。フレーム内予測部22Lが行う予測符号化は、第1の予測符号化の一例である。
The left-eye image encoding unit 10L includes a
右目画像符号化部10Rは、予測誤差信号生成部11Rと整数変換部12Rと量子化部13Rとエントロピー符号化部14Rと逆量子化部15Rと逆整数変換部16Rと参照画像生成部17Rとフィルタ処理部18Rとフレームメモリ19Rとを備える。
The right-eye
また、右目画像符号化部10Rは、動き検出部20Rと動き補償部21Rとフレーム内予測部22Rと符号化制御部23Rと切り替え部24Rと領域設定部25とを備える。右目画像符号化部10Rの動き検出部20Rは、第2の予測符号化部の一例である。動き検出部20Rが行う予測符号化は、第2の予測符号化の一例である。
The right-eye
左目画像符号化部10Lと右目画像符号化部10Rとのうち、領域設定部25以外の各部は、共通している。ただし、動き検出部20Lと動き検出部20Rとは異なる処理を行う。また、符号化制御部23Lと符号化制御部23Rとは異なる制御を行う。
Of the left-eye image encoding unit 10L and the right-eye
以下、各部について説明する。以下の説明において、「L」は左目画像符号化部10Lの機能であることを示し、「R」は右目画像符号化部10Rの機能であることを示すものとする。
Hereinafter, each part will be described. In the following description, “L” indicates a function of the left-eye image encoding unit 10L, and “R” indicates a function of the right-eye
予測誤差信号生成部11は、原画像信号と予測画像信号とを入力する。予測誤差信号生成部11は、原画像信号と予測画像信号との差分を演算し、予測誤差信号を生成する。整数変換部12は、予測誤差信号生成部11から入力した予測誤差信号を整数変換して、整数変換後の信号を量子化部13に出力する。
The prediction error
量子化部13は、整数変換後の信号を量子化して、予測誤差信号の符号量を低下させた量子化データをエントロピー符号化部14に出力する。エントロピー符号化部14は、量子化データに対して、エントロピー符号化を行う。
The
エントロピー符号化部14は、エントロピー符号化を行った符号化画像データを出力する。エントロピー符号化部14Lは、符号化画像データを左目画像として出力する。エントロピー符号化部14Rは、符号化画像データを右目画像として出力する。例えば、エントロピー符号化は、シンボルの頻度に応じて可変長の符号を割り当てる符号化方式を用いた符号化である。
The
逆量子化部15は、量子化部13から量子化データを入力し、入力した量子化データを逆量子化する。逆整数変換部16は、逆量子化部15から入力したデータに対して、逆整数変換処理を施す。これにより、符号化前の予測誤差信号と同程度の信号が得られる。
The inverse quantization unit 15 receives the quantized data from the
参照画像生成部17は、動き補償部21により動き補償されたマクロブロックの画素データと、逆量子化部15および逆整数変換部16が復号した予測誤差信号とを加算する。これにより、参照画像生成部17は、動き補償された参照画像(参照ピクチャとも称する)を生成する。
The reference image generation unit 17 adds the pixel data of the macroblock motion-compensated by the
フィルタ処理部18は、参照画像のマクロブロックのデータに対して、デブロッキングフィルタ処理を行い、ブロックノイズの発生を抑制した後の参照画像のフレームをフレームメモリ19に記憶する。 The filter processing unit 18 performs a deblocking filtering process on the macroblock data of the reference image, and stores the frame of the reference image after suppressing the occurrence of block noise in the frame memory 19.
動き検出部20は、上述したように、左目画像符号化部10Lと右目画像符号化部10Rとで異なる処理を行う。左目画像符号化部10Lの動き検出部20Lは、時間的に前後する画像(フレーム)を参照した予測符号化を行う。この予測符号化は、インター予測とも称される。
As described above, the motion detection unit 20 performs different processing between the left-eye image encoding unit 10L and the right-eye
右目画像符号化部10Rの動き検出部20Rは、ビュー間予測またはインター予測を行う。ビュー間予測は、同じ時刻の視点が異なるフレームを参照した予測符号化である。ビュー間予測は、視点間予測とも称される。実施形態の場合、動き検出部20Rは、領域設定部25が設定した左目画像の領域を参照したビュー間予測を行う。
The
動き補償部21は、時間的に前後するフレームの動きを検出して、時間的に前のフレームに対して検出した動き分の動き補償を行う。例えば、動き補償部21は、時間的に前後するフレームに基づいて、動きベクトルを検出する。
The
フレーム内予測部22は、同じ画像(フレーム)内で予測符号化を行う。この予測符号化は、イントラ予測とも称される。フレーム内予測部22は、同じ画像内の周辺画素に基づいて、予測画像のマクロブロックを生成して、予測符号化を行う。 The intra-frame prediction unit 22 performs predictive encoding within the same image (frame). This predictive coding is also called intra prediction. The intra-frame prediction unit 22 generates a macro block of the predicted image based on the surrounding pixels in the same image, and performs predictive coding.
符号化制御部23Lは、左目画像符号化部10Lが行う予測符号化をイントラ予測にするか、またはインター予測にするかの制御を行う。符号化制御部23Rは、右目画像符号化部10Rが行う予測符号化をイントラ予測にするか、インター予測にするか、またはビュー間予測にするかの制御を行う。
The
例えば、H.264規格では、4×4画素をサブブロックとして、イントラリフレッシュを行う予測モードが策定されている。上記のサブブロックが、イントラリフレッシュ済み領域の境界に接している場合、サブブロックのうち何れかの画素が未リフレッシュ領域の画素を参照することがある。 For example, H.M. In the H.264 standard, a prediction mode for performing intra-refresh with 4 × 4 pixels as a sub-block is formulated. When the sub-block is in contact with the boundary of the intra-refreshed area, any pixel in the sub-block may refer to a pixel in the unrefreshed area.
この場合、イントラリフレッシュを行うことは制限される。符号化制御部23Lは、サブブロックがイントラリフレッシュの制限の対象になっていない場合、フレーム内予測部22Lがイントラリフレッシュを行うように制御する。一方、サブブロックがイントラリフレッシュの制限の対象になっている場合、符号化制御部23Lは、インターリフレッシュを行うように制御する。
In this case, performing intra refresh is limited. The
このため、符号化制御部23Lは、切り替え部24Lを制御する。サブブロックがイントラリフレッシュの制限の対象になっていない場合、符号化制御部23Lは、切り替え部24Lがフレーム内予測部22Lに接続する。サブブロックがイントラリフレッシュの制限の対象になっている場合、符号化制御部23Lは、切り替え部24Lが動き補償部21に接続する。
For this reason, the
領域設定部25は、右目画像のうち、ビュー間予測符号化を行う領域を設定する。領域設定部25は、左目画像符号化部10Lが左目画像に対してイントラリフレッシュを行う領域に対して所定量の差をつけた領域をビュー間予測符号化の対象の領域に設定する。この所定量の差は、左目画像と右目画像との視差に基づいている。
The
<多視点動画像符号化における予測符号化の一例>
次に、多視点動画像符号化における予測符号化の一例について説明する。図2は、多視点動画像符号化にイントラ予測符号化を適用した一例を示す。イントラ予測符号化は、イントラリフレッシュとも称される。
<An example of predictive coding in multi-view video coding>
Next, an example of predictive coding in multi-view video coding will be described. FIG. 2 shows an example in which intra prediction encoding is applied to multi-view video encoding. Intra prediction encoding is also referred to as intra refresh.
図2の例の場合、リフレッシュ領域は左目画像および右目画像のうち、所定幅を有する一部の領域(リフレッシュ領域)に設定される。また、リフレッシュ領域は、経時的に所定幅の分だけずれていく。このように、リフレッシュ領域を順次ずらして行うイントラリフレッシュはイントラスライスと称される場合もある。 In the example of FIG. 2, the refresh area is set to a part of the left eye image and the right eye image having a predetermined width (refresh area). Further, the refresh area is shifted by a predetermined width over time. As described above, the intra refresh performed by sequentially shifting the refresh area may be referred to as an intra slice.
イントラスライスによる予測符号化では、上記のリフレッシュ領域にイントラリフレッシュが行われる。このため、エラーの伝播が抑制される。また、リフレッシュ領域は異なる時刻の画像に分散されるため、一度に画像の全領域に対してイントラリフレッシュが行われない。従って、符号化効率が向上する。 In predictive coding by intra slice, intra refresh is performed in the refresh area. For this reason, error propagation is suppressed. In addition, since the refresh area is distributed to images at different times, intra refresh is not performed on all areas of the image at one time. Therefore, the encoding efficiency is improved.
図3は、画像のうちリフレッシュ境界の近傍の領域の一例を示している。図3において、マクロブロックは、例えば、16×16画素の領域であるとする。リフレッシュ境界は、リフレッシュ済み領域(網掛けされた領域)と未リフレッシュ領域(網掛けされていない領域)との境界である。 FIG. 3 shows an example of an area in the vicinity of the refresh boundary in the image. In FIG. 3, it is assumed that the macroblock is an area of 16 × 16 pixels, for example. The refresh boundary is a boundary between a refreshed area (shaded area) and an unrefreshed area (non-shaded area).
イントラライン(ハッチングが施された領域)は、リフレッシュ境界に接しているマクロブロックの縦のラインである。イントララインのマクロブロックに対してイントラリフレッシュを行う場合、未リフレッシュ領域の画素を参照するイントラリフレッシュは制限される。 An intra line (a hatched region) is a vertical line of a macroblock that is in contact with a refresh boundary. When intra refresh is performed on an intra-line macroblock, intra refresh that refers to pixels in an unrefreshed area is limited.
図4は、上述したH.264規格で策定されているイントラリフレッシュを行う予測モードを示している。イントラリフレッシュを行う対象の画素は、4×4画素(サブブロック)である。このサブブロックは、マクロブロックに含まれる。 FIG. 2 shows a prediction mode for performing intra refresh defined in the H.264 standard. Pixels to be subjected to intra refresh are 4 × 4 pixels (sub blocks). This sub-block is included in a macroblock.
図4の例では、イントラリフレッシュが行われていない画素を未リフレッシュ画素と表記している。また、イントラリフレッシュが行われる際に未リフレッシュ画素が参照する画素を参照画素と表記している。図4の例において、参照画素には網掛けが施されており、未リフレッシュ画素には網掛けが施されていない。 In the example of FIG. 4, pixels that have not been subjected to intra refresh are denoted as unrefreshed pixels. In addition, a pixel referred to by an unrefreshed pixel when intra refresh is performed is referred to as a reference pixel. In the example of FIG. 4, the reference pixels are shaded, and the unrefreshed pixels are not shaded.
図4の例では、予測モード3および7以外の予測モードでは、サブブロックの各画素が参照する参照画素は未リフレッシュ領域に含まれない。一方、予測モード3および7では、サブブロックの各画素のうち複数画素が参照する参照画素は未リフレッシュ領域に含まれる。 In the example of FIG. 4, in the prediction modes other than the prediction modes 3 and 7, the reference pixel referred to by each pixel of the sub-block is not included in the unrefreshed area. On the other hand, in prediction modes 3 and 7, reference pixels referred to by a plurality of pixels among the pixels of the sub-block are included in the unrefreshed area.
未リフレッシュ領域の各画素は、イントラリフレッシュが行われていない。このため、予測モード3および7では、リフレッシュ境界に接するサブブロックがイントラリフレッシュを行うことが制限される。 Intra refresh is not performed on each pixel in the unrefreshed area. For this reason, in prediction modes 3 and 7, sub-blocks that are in contact with the refresh boundary are restricted from performing intra-refresh.
図5は、多視点動画像符号化における参照関係の一例を示している。図5の例において、「I」はIフレーム(Intra-Coded Frame)を示している。Iフレームは、イントラ予測により予測符号化されるフレームである。 FIG. 5 shows an example of a reference relationship in multi-view video encoding. In the example of FIG. 5, “I” indicates an I frame (Intra-Coded Frame). The I frame is a frame that is predictively encoded by intra prediction.
「P」はPフレーム(Predicted Frame)を示している。Pフレームは、インター予測により予測符号化されるフレームである。Pフレームは、前の時刻のフレーム(過去のフレーム)を参照して予測符号化が行われるフレームである。 “P” indicates a P frame (Predicted Frame). The P frame is a frame that is predictively encoded by inter prediction. The P frame is a frame on which predictive encoding is performed with reference to a frame at a previous time (past frame).
「B」はBフレーム(Bi-direction Frame)を示している。Bフレームは、インター予測により予測符号化されるフレームである。Bフレームは、前の時刻のフレーム、後の時刻のフレームまたは前後の時刻のフレームを参照して予測符号化が行われるフレームである。 “B” indicates a B-frame (Bi-direction Frame). The B frame is a frame that is predictively encoded by inter prediction. The B frame is a frame on which predictive encoding is performed with reference to a frame at a previous time, a frame at a later time, or a frame at a previous or subsequent time.
左目画像は、IフレームとBフレームとBフレームとPフレームとが1周期になっている。右目画像は、PフレームとBフレームとBフレームとPフレームとが1周期になっている。また、右目画像のリフレッシュは、リフレッシュ済みの左目画像を参照して行われる。これにより、ビュー間予測符号化が行われる。 The left-eye image has one cycle of an I frame, a B frame, a B frame, and a P frame. The right-eye image has one cycle of P frame, B frame, B frame, and P frame. Further, the refreshing of the right eye image is performed with reference to the refreshed left eye image. As a result, inter-view prediction encoding is performed.
図5の例では、右目画像のリフレッシュは、インター予測またはビュー間予測により行われる。従って、エラーの伝播の可能性があるため、動画像をエラーから早期に回復させるために、右目画像に対してイントラ予測を行ったフレーム(以下、イントラフレームと称する)が挿入される。このため、挿入されるイントラフレームのために情報量が多くなる。 In the example of FIG. 5, the refreshing of the right eye image is performed by inter prediction or inter-view prediction. Therefore, since there is a possibility of error propagation, a frame (hereinafter referred to as an intra frame) in which intra prediction is performed on the right eye image is inserted in order to recover the moving image from the error early. For this reason, the amount of information increases due to the inserted intra frame.
図2の例のように、左目画像と右目画像とにそれぞれ独立してイントラリフレッシュを行えば、イントラフレームを挿入しなくてもよい。ただし、左目画像と右目画像とにそれぞれ独立にイントラリフレッシュが行われるため、符号量が増大する。このため、符号化効率が低下する。 As in the example of FIG. 2, if the intra-refresh is performed independently on the left-eye image and the right-eye image, it is not necessary to insert an intra frame. However, since the intra-refresh is performed independently for the left-eye image and the right-eye image, the code amount increases. For this reason, encoding efficiency falls.
そこで、実施形態では、図6に示すように、左目画像符号化部10Lは、左目画像の所定の幅を有する領域をリフレッシュ領域Lとして、該リフレッシュ領域Lに対してイントラリフレッシュを行う。時刻Tにおいて、左目画像符号化部10Lは、リフレッシュ領域Lに対してイントラリフレッシュを行う。 Therefore, in the embodiment, as illustrated in FIG. 6, the left-eye image encoding unit 10 </ b> L performs an intra-refresh on the refresh region L with a region having a predetermined width of the left-eye image as a refresh region L. At time T, the left-eye image encoding unit 10L performs intra refresh on the refresh area L.
右目画像符号化部10Rは、同じ時刻Tの左目画像のリフレッシュ領域Lよりも狭い幅の領域をリフレッシュ領域Rとして、該リフレッシュ領域Rに対してビュー間予測符号化を行う。時刻Tにおけるリフレッシュ領域Rの幅は、左目画像と右目画像との視差に基づく。
The right-eye
左目画像符号化部10Lと右目画像符号化部10Rとは、経時的に同じ方向にリフレッシュ領域をずらしてリフレッシュを行う。このとき、リフレッシュ領域Rは、上記の視差に基づく幅分だけ、リフレッシュ領域Lよりも遅れている。
The left-eye image encoding unit 10L and the right-eye
右目画像符号化部10Rは、左目画像符号化部10Lが時刻Tの左目画像のリフレッシュ領域Lのうちリフレッシュ領域Rに相当する領域に対してイントラリフレッシュを行った後に、リフレッシュ領域Rに対してビュー間予測符号化を行う。
The right-eye
これにより、右目画像符号化部10Rがリフレッシュ領域Rのうち、リフレッシュ境界に接するサブブロックのリフレッシュを行うときには、既に左目画像符号化部10Lは、リフレッシュ境界を越えた領域に対してイントラリフレッシュを行っている可能性が高い。
As a result, when the right-eye
このため、右目画像のリフレッシュ境界に接するサブブロックはリフレッシュ済みの画素を参照する可能性が高くなる。よって、右目画像符号化部10Rは、イントラリフレッシュが制限されているサブブロックに対して、ビュー間予測符号化を行うことができる。
For this reason, there is a high possibility that the sub-block in contact with the refresh boundary of the right-eye image refers to the refreshed pixel. Therefore, the right-eye
時刻T+1において、左目画像符号化部10Lは、左目画像に対して、時刻Tにおいてリフレッシュしたリフレッシュ領域Lから該リフレッシュ領域Lの幅分をずらした領域を時刻T+1のリフレッシュ領域Lに設定する。そして、左目画像符号化部10Lは、設定したリフレッシュ領域Lに対してイントラリフレッシュを行う。
At
時刻T+1において、右目画像符号化部10Rは、右目画像に対して、時刻Tにおいてリフレッシュしたリフレッシュ領域Rから左目画像のリフレッシュ領域Lの幅分をずらした領域を時刻T+1のリフレッシュ領域Rに設定する。
At
このとき、右目画像符号化部10Rは、時刻T+1のリフレッシュ領域Rの幅をリフレッシュ領域Lの幅と同じ幅に設定する。これにより、時刻T+1のリフレッシュ領域Rとリフレッシュ領域Lとは同じ大きさになる。
At this time, the right-eye
時刻T+1以降、左目画像符号化部10Lは、指定領域(図6において、太線で囲まれた領域)を設定する。指定領域は、右目画像符号化部10Rが現在のフレームと過去の1以上のフレームとにおいてイントラリフレッシュを行った領域である。
After
時刻T+1以降、右目画像符号化部10Rは、指定領域を参照して、設定したリフレッシュ領域Lに対してビュー間参照によるリフレッシュを行う。右目画像のリフレッシュ境界は、指定領域の先端よりも遅れている。
After
よって、右目画像符号化部10Rがビュー間予測符号化を行うときに、リフレッシュ領域Rのリフレッシュ境界に接するサブブロックにイントラリフレッシュの制限があったとしても、サブブロックをリフレッシュできる。
Therefore, when the right-eye
<実施形態の具体例>
次に、図7を参照して、実施形態の具体例について説明する。左目画像および右目画像の幅方向をX方向とし、幅方向に直交する方向をY方向とする。また、左目画像および右目画像の両端のうち、最初にリフレッシュ領域が設定される端部を最後端とし、反対側の端部を最先端とする。
<Specific Example of Embodiment>
Next, a specific example of the embodiment will be described with reference to FIG. The width direction of the left eye image and the right eye image is defined as the X direction, and the direction orthogonal to the width direction is defined as the Y direction. Further, of both ends of the left-eye image and the right-eye image, the end portion where the refresh area is first set is the last end, and the opposite end portion is the most advanced end.
左目画像符号化部10Lの符号化制御部23Lは、イントラ予測を行うとき、フレーム内予測部22Lが接続されるように切り替え部24Lを制御する。フレーム内予測部22Lは、左目画像のうち最後端から幅nの領域をリフレッシュ領域Lに設定する。
When performing intra prediction, the
そして、フレーム内予測部22Lは、最後端から最先端に向けて、フレームごとに、順次イントラリフレッシュを行う。これにより、フレーム内予測部22Lは、左目画像に対してイントラリフレッシュを行う。
Then, the
右目画像符号化部10Rの領域設定部25は、リフレッシュ領域Rの幅aを設定する。この幅aは、左目画像と右目画像との視差に基づく。多視点動画像では、複数の視点で被写体を撮影する。従って、左目画像と右目画像との間に視差を生じる。
The
例えば、領域設定部25は、時刻Tにおいて、左目画像と右目画像とを比較して、視差に基づくずれ量を求めてもよい。左目画像と右目画像とは、同じ被写体を撮影しているため、領域設定部25は、2つの画像を比較することで、ずれ量を視差として求めることができる。領域設定部25は、求めたずれ量を幅aに設定してもよい。
For example, the
幅nは幅aよりも大きいものとする。従って、時刻Tにおいて、リフレッシュ領域Lはリフレッシュ領域Rよりも広い。右目画像符号化部10Rは、左目画像のうちリフレッシュ済みのリフレッシュ領域Lを参照して、ビュー間予測符号化を行う。
The width n is assumed to be larger than the width a. Therefore, at time T, the refresh area L is wider than the refresh area R. The right-eye
右目画像符号化部10Rがビュー間予測符号化を行う場合、切り替え部24Rは動き補償部21Rに接続される。動き検出部20Rは、左目画像符号化部10Lのフレームメモリ19Lの左目画像を参照して、ビュー間予測符号化を右目画像のうちリフレッシュ領域Rに対して行う。
When the right-eye
時刻T+1において、フレーム内予測部22Lは、左目画像のうち幅nのリフレッシュ領域Lに対してイントラリフレッシュを行う。左目画像符号化部10Lは、現在のフレームのリフレッシュ領域Lと1以上の過去のフレームのリフレッシュ済み領域とを含む指定領域を設定する。なお、指定領域は、リフレッシュ領域Lの先端から最後端までの領域としてもよい。
At
右目画像符号化部10Rの領域設定部25は、左目画像の指定領域のうち幅nの領域をリフレッシュ領域Rに設定する。リフレッシュ領域Rは、最後端から幅aをずらした位置から幅nの領域になる。
The
動き検出部20Rは、右目画像のうち領域設定部25が設定したリフレッシュ領域Rに対して、左目画像の指定領域を参照したビュー間予測符号化を行う。これにより、動き検出部20Rは、時刻T+1における右目画像のリフレッシュ領域Rを行う。
The
時刻T+T1において、リフレッシュ領域Lは左目画像を一巡して、再び最初に設定された位置に戻っている。図7の例の場合、指定領域は分割されている。指定領域の一部は最後端から幅nの領域になり、残りは最先端から所定幅の領域になる。 At time T + T1, the refresh area L makes a round of the left eye image and returns to the initially set position again. In the example of FIG. 7, the designated area is divided. A part of the designated area is an area having a width n from the rear end, and the remaining part is an area having a predetermined width from the forefront.
時刻T+T1において、左目画像の指定領域に対応して、右目画像のリフレッシュ領域Rも分割されている。領域設定部25は、左目画像の指定領域に基づいて、左目画像の最先端から幅「n−a」の領域と最後端から幅aの領域とをリフレッシュ領域Rに設定する。
At time T + T1, the refresh area R of the right eye image is also divided corresponding to the designated area of the left eye image. The
動き検出部20Rは、時刻T+T1における左目画像の指定領域を参照して、ビュー間予測符号化を行う。これにより、時刻T+T1における右目画像のリフレッシュ領域Rのリフレッシュが行われる。
The
従って、右目画像符号化部10Rは、左目画像符号化部10Lよりも幅aの分だけ遅れてリフレッシュを行う。この幅aは、左目画像と右目画像との視差に基づいている。右目画像符号化部10Rは、左目画像のうちイントラリフレッシュ済みの指定領域を参照して、ビュー間予測符号化を行う。
Therefore, the right-eye
このため、右目画像符号化部10Rは、イントラリフレッシュを行うことなく、右目画像をリフレッシュすることができる。従って、左目画像と右目画像とのそれぞれに対して、イントラリフレッシュが行われないため、符号化効率が向上する。
For this reason, the right-eye
また、右目画像符号化部10Rは、同じ時刻の左目画像の指定領域を参照して、ビュー間予測符号化を行っている。従って、右目画像符号化部10Rは、イントラフレームを挿入しなくても、右目画像のリフレッシュを行うことができる。このため、イントラフレームが挿入されないため、発生する情報量が抑制される。
Further, the right-eye
<実施形態のフローチャート>
次に、図8乃至図10のフローチャートを参照して、実施形態の処理の流れを説明する。左目画像符号化部10Lの符号化制御部23Lは、左目画像のうち、リフレッシュ領域Lを設定する(ステップS1)。例えば、符号化制御部23Lは、左目画像のX方向の幅を複数に等分して、等分した幅nの領域をリフレッシュ領域Lに設定してもよい。
<Flowchart of Embodiment>
Next, the processing flow of the embodiment will be described with reference to the flowcharts of FIGS. The
符号化制御部23Lは、リフレッシュ領域Lの全ての領域に符号化ブロックを設定する(ステップS2)。例えば、符号化制御部23Lは、符号化ブロックを4×4画素のサブブロックに設定してもよい。
The
左目画像符号化部10Lは、左目画像内の全ての符号化ブロックについて、ラスタスキャン順で予測符号化を行うループを開始する(ステップS3)。符号化制御部23Lは、符号化ブロックがイントラリフレッシュの制限対象になっているか否かを判定する(ステップS4)。
The left-eye image encoding unit 10L starts a loop that performs predictive encoding in the raster scan order for all the encoded blocks in the left-eye image (step S3). The
上述したように、符号化ブロックが未リフレッシュ領域の画素を参照するイントラ予測符号化(イントラリフレッシュ)は制限される。従って、符号化ブロックがイントラリフレッシュの制限対象になっている場合(ステップS4でYES)、フレーム内予測部22Lは、リフレッシュ済み領域を参照したイントラ予測符号化を行う(ステップS5)。
As described above, intra prediction encoding (intra refresh) in which an encoding block refers to a pixel in an unrefreshed region is limited. Therefore, when the encoded block is a restriction target for intra refresh (YES in step S4), the
このため、ステップS4でYESの場合、符号化制御部23Lは、切り替え部24Lがフレーム内予測部22Lに接続されるように制御を行う。一方、符号化ブロックがイントラリフレッシュの制限対象になっていない場合(ステップS4でNO)、符号化制御部23Lは、インター符号化またはイントラ符号化を行うように制御する(ステップS5)。
For this reason, in the case of YES in step S4, the
例えば、符号化ブロックがリフレッシュ領域Lの内側にある場合、符号化制御部23Lは、切り替え部24Lがフレーム内予測部22Lに接続される制御を行う。これにより、フレーム内予測部22Lは、リフレッシュ領域Lの内側にある符号化ブロックに対して、イントラ符号化を行う。
For example, when the coding block is inside the refresh region L, the
また、符号化ブロックがリフレッシュ領域Lの外側にある場合、符号化制御部23Lは、切り替え部24Lが動き補償部21Lに接続される制御を行う。これにより、動き検出部20Lは、リフレッシュ領域Lの外側にある符号化ブロックに対して、時間的に前後するフレームを参照したインター符号化を行う。
When the coding block is outside the refresh area L, the
左目画像符号化部10Lは、左目画像の1画像内の全ての符号化ブロックについて、ステップS5またはステップS6の処理が実行されるようにループ制御を行う(ステップS7)。ステップS3〜ステップS7のループが終了すると、処理は次のステップに進む。 The left-eye image encoding unit 10L performs loop control so that the process of step S5 or step S6 is executed for all the encoded blocks in one image of the left-eye image (step S7). When the loop from step S3 to step S7 ends, the process proceeds to the next step.
右目画像符号化部10Rの領域設定部25は、右目画像のリフレッシュ領域Rを設定する(ステップS8)。領域設定部25は、設定したリフレッシュ領域Rの内側の全ての領域にリフレッシュ対象の符号化ブロックを設定する(ステップS9)。そして、処理は「A」に進む。
The
右目画像のリフレッシュ領域Rの設定について、図9のフローチャートを参照して説明する。領域設定部25は、左目画像符号化部10Lが設定するリフレッシュ領域Lが最初に左目画像に設定するリフレッシュ領域Lであるか否かを判定する(ステップS11)。
The setting of the refresh region R of the right eye image will be described with reference to the flowchart of FIG. The
リフレッシュ領域Lが最初に設定するリフレッシュ領域Lである場合(ステップS11でYES)、領域設定部25は、右目画像のリフレッシュ領域Rの幅aを設定する(ステップS12)。この幅aは、左目画像と右目画像との視差に基づく幅であり、実施形態では、固定値である。
When the refresh area L is the refresh area L that is set first (YES in step S11), the
領域設定部25は、左目画像のリフレッシュ領域Lが最後端に設定されているか否かを判定する(ステップS13)。左目画像のリフレッシュ領域Lが最後端に設定されている場合(ステップS13でYES)、指定領域は、最後端からの所定領域と最先端までの所定領域とに分割されている。
The
従って、領域設定部25は、右目画像のリフレッシュ領域Rの幅を最後端から幅aの領域と最先端までの幅「n−a」の領域とに分割して設定する(ステップS14)。左目画像のリフレッシュ領域Lが最後端に設定されていない場合(ステップS13でNO)、領域設定部25は、右目画像のリフレッシュ領域Rの幅をnに設定する(ステップS15)。
Accordingly, the
「A」以降の処理について、図10を参照して説明する。右目画像符号化部10Rは、右目画像内の全ての符号化ブロックについて、ラスタスキャン順で予測符号化を行うループを開始する(ステップS20)。
The processing after “A” will be described with reference to FIG. The right-eye
符号化制御部23Rは、符号化ブロックがイントラリフレッシュの制限対象になっているか否かを判定する(ステップS21)。符号化ブロックがイントラリフレッシュの制限対象になっている場合(ステップS21でYES)、右目画像符号化部10Rは、左目画像の指定領域内の符号化ブロックについてビュー間予測符号化を行う(ステップS22)。
The
この場合、右目画像符号化部10Rの符号化制御部23Rは、切り替え部24Rが動き補償部21Rに接続される制御を行う。これにより、右目画像符号化部10Rは、左目画像の指定領域を参照したビュー間予測符号化を行う。
In this case, the
また、ステップS21でYESの場合、右目画像符号化部10Rは、リフレッシュ済み領域を参照したイントラ予測符号化を行ってもよい。この場合、符号化制御部23Rは、切り替え部24Rがフレーム内予測部22Rに接続される制御を行う。
Further, in the case of YES in step S21, the right eye
符号化ブロックがイントラリフレッシュの制限対象になっていない場合(ステップS21でNO)、右目画像符号化部10Rは任意の方式(イントラ予測符号化、インター予測符号化またはビュー間予測符号化)で予測符号化を行う(ステップS23)。
If the encoded block is not a restriction target for intra refresh (NO in step S21), the right-eye
右目画像符号化部10Rがイントラ予測符号化で右目画像の予測符号化を行う場合、符号化制御部23Rは、切り替え部24Rがフレーム内予測部22Rに接続される制御を行う。
When the right-eye
右目画像符号化部10Rがインター予測符号化またはビュー間予測符号化で右目画像の予測符号化を行う場合、符号化制御部23Rは、切り替え部24Rが動き補償部21Rに接続される制御を行う。
When the right-eye
右目画像符号化部10Rは、右目画像の1画像内の全ての符号化ブロックについて、ステップS22またはステップS23の処理が実行させるようにループ制御を行う(ステップS37)。ステップS21〜ステップS24のループが終了すると、処理は終了する。
The right-eye
<変形例の動画像符号化装置の一例>
次に、図11を参照して、変形例の動画像符号化装置の一例について説明する。変形例の動画像符号化装置1のうち、上述した動画像符号化装置1と共通している機能の説明は省略する。
<An example of a video encoding device according to a modification>
Next, an example of a moving image encoding apparatus according to a modification will be described with reference to FIG. Description of functions common to the above-described moving
図11の例に示されるように、変形例の動画像符号化装置1の右目画像符号化部10Rは、候補領域設定部26と保持部27と統計部28とを備えている。候補領域設定部26は、右目画像のうち右目画像符号化部10Rが予測符号化を行うリフレッシュ領域Rの候補を設定する。以下、リフレッシュ領域Rの候補をリフレッシュ候補領域と称することがある。
As shown in the example of FIG. 11, the right-eye image encoding unit 10 </ b> R of the moving
保持部27は、ビュー間予測ベクトルを符号化ブロック単位で保持する。動き検出部20Rは、ビュー間予測符号化を行う。保持部27は、過去に動き検出部20Rがビュー間予測符号化を行ったときの予測ベクトルを1以上のフレームについて保持する。ビュー間予測符号化を行ったときの予測ベクトルは、左目画像と右目画像との視差を示している。
The holding
統計部28は、保持部27が保持する過去の1以上のフレームの各符号化ブロックの予測ベクトルについて、統計処理を行う。統計部28が統計処理を行った結果を評価値とする。従って、評価値は、予測ベクトルに対して統計処理を行った値であるため、左目画像と右目画像との視差を示す値になる。
The statistical unit 28 performs statistical processing on the prediction vector of each encoded block of one or more past frames held by the holding
統計部28は、直前の1フレームの各符号化ブロックの予測ベクトルの統計処理を行ってもよい。ただし、サンプル数が多いほど、統計処理の精度は向上する。このため、統計部28は、過去の複数フレームの各符号化ブロックの予測ベクトルの統計処理を行うことが好ましい。 The statistical unit 28 may perform statistical processing of the prediction vector of each encoded block of the immediately preceding one frame. However, the greater the number of samples, the better the accuracy of statistical processing. For this reason, it is preferable that the statistics part 28 performs the statistical process of the prediction vector of each encoding block of the past several frames.
例えば、統計部28は、過去の複数フレームの各符号化ブロックの予測ベクトルの平均値を評価値としてもよい。また、統計部28は、過去の複数フレームの各符号化ブロックの予測ベクトルの最大値を評価値としてもよい。 For example, the statistical unit 28 may use an average value of prediction vectors of each encoded block of a plurality of past frames as an evaluation value. Further, the statistical unit 28 may use the maximum value of the prediction vector of each encoded block of a plurality of past frames as the evaluation value.
<変形例の具体例>
次に、図12乃至図14を参照して、変形例の具体例について説明する。図12において、右目画像符号化部10Rの候補領域設定部26は、リフレッシュ候補領域(図中で太線の破線で囲まれた領域)の幅cを設定する。ここで、図13に示すように、左目画像符号化部10Lが左目画像に対してイントラリフレッシュを行うリフレッシュ領域Lの先端から左目画像の最後端までの幅をxnとする。
<Specific example of modification>
Next, a specific example of the modification will be described with reference to FIGS. In FIG. 12, the candidate
この幅xnの領域は、左目画像のうち、リフレッシュ領域Lと既にイントラリフレッシュが行われたリフレッシュ済み領域との領域である。また、右目画像のうち、リフレッシュが行われたリフレッシュ済み領域の幅をbとする。 This area of width xn is the area of the refresh area L and the refreshed area that has already undergone intra refresh in the left-eye image. Also, the width of the refreshed area in the right-eye image that has been refreshed is b.
候補領域設定部26は、リフレッシュ候補領域の幅cを「c=xn―b」に設定する。図12は、リフレッシュ領域を設定する最初の時刻Tにおける左目画像のリフレッシュ領域Lおよび右目画像のリフレッシュ領域Rを示している。
The candidate
上述した実施形態と同様に、最初の時刻Tにおいて、左目画像符号化部10Lは、左目画像の最後端から幅nの領域をリフレッシュ領域Lに設定する。最初の時刻Tにおいて、左目画像にはリフレッシュ済み領域がない。 Similar to the above-described embodiment, at the first time T, the left-eye image encoding unit 10L sets a region having a width n from the end of the left-eye image as the refresh region L. At the first time T, the left-eye image has no refreshed area.
幅xnは、リフレッシュ領域Lとリフレッシュ済み領域との領域である。そして、最初の時刻Tにおいて、左目画像にリフレッシュ済み領域はない。よって、幅xnは、左目画像に設定されたリフレッシュ領域Lの幅nになる。 The width xn is an area between the refresh area L and the refreshed area. Then, at the first time T, there is no refreshed area in the left eye image. Therefore, the width xn is the width n of the refresh area L set for the left-eye image.
また、最初の時刻Tにおいて、右目画像にリフレッシュ済み領域はない。よって、候補領域設定部26は、リフレッシュ候補領域の幅cを「c=xn−b=n」に設定する。また、最初の時刻Tにおいて、領域設定部25は、左目画像と右目画像との視差に基づく幅aをリフレッシュ領域Rの幅mに設定する。
Also, at the first time T, there is no refreshed area in the right eye image. Therefore, the candidate
次に、図13を参照して、時刻T+T2における左目画像のリフレッシュ領域Lおよび右目画像のリフレッシュ領域Rについて説明する。時刻T+T2において、左目画像のリフレッシュ領域Lは、時刻TのときよりもX方向に進んでいる。 Next, the left eye image refresh area L and the right eye image refresh area R at time T + T2 will be described with reference to FIG. At time T + T2, the refresh area L of the left-eye image has advanced in the X direction from time T.
幅xnは、リフレッシュ領域Lとリフレッシュ済み領域との領域の幅である。よって、リフレッシュ済み領域の幅は「xn―n」になる。指定領域は、幅xnの全ての領域としてもよい。 The width xn is the width of the refresh area L and the refreshed area. Therefore, the width of the refreshed area is “xn−n”. The designated area may be all areas having a width xn.
右目画像符号化部10Rの候補領域設定部26は、リフレッシュ候補領域の幅cを設定する。時刻T+T2の時点において、右目画像のリフレッシュ済み領域の幅bがあるものとする。
The candidate
従って、候補領域設定部26は、リフレッシュ候補領域の幅c(=xn―b)を設定する。領域設定部25は、候補領域設定部26が設定したリフレッシュ候補領域の幅cに基づいて、フレームごとに、リフレッシュ領域Rを設定する。
Accordingly, the candidate
領域設定部25は、リフレッシュ領域Rの幅mを「m=c−v」に設定する。幅cは、リフレッシュ候補領域の幅である。幅vは、統計部28が統計処理を行った評価値に基づく幅である。
The
統計部28は、保持部27が符号化ブロック単位で保持する保持する予測ベクトルに対して統計処理を行い、評価値を得る。この評価値は、過去のフレームにおいて、ビュー間予測符号化を行ったときの予測ベクトルに基づく値である。従って、評価値は、過去の左目画像と右目画像との視差に基づく値になる。
The statistical unit 28 performs statistical processing on the prediction vector held by the holding
そこで、領域設定部25は、フレームごとに、評価値に基づく幅vを反映したリフレッシュ領域Rの幅mを設定する。上述したように、リフレッシュ領域Rの幅mは、リフレッシュ候補領域の幅cから評価値に基づく幅vを減算した幅になる。
Therefore, the
評価値に基づく幅vは、左目画像と右目画像との視差を反映した値になる。よって、領域設定部25はリフレッシュ領域Rの幅mを「m=c−v」と設定することで、リフレッシュ領域Rの幅mは、左目画像と右目画像との視差に応じた可変値になる。
The width v based on the evaluation value is a value reflecting the parallax between the left eye image and the right eye image. Therefore, the
これにより、右目画像のリフレッシュ領域Rの幅nは、左目画像のリフレッシュ領域Lの幅nに同期するため、右目画像符号化部10Rは、左目画像のリフレッシュ済み領域を参照して、右目画像のリフレッシュを行うことができる。
Thus, since the width n of the refresh region R of the right eye image is synchronized with the width n of the refresh region L of the left eye image, the right eye
図14は、時刻T+T3の時点のリフレッシュ領域Lおよびリフレッシュ領域Rの一例を示している。左目画像符号化部10Lは、左目画像に対してイントラ符号化によるリフレッシュを行い、時刻T+T3の時点で、左目画像を一巡して、リフレッシュ領域Lは左目画像の最後端に戻っている。 FIG. 14 shows an example of the refresh area L and the refresh area R at time T + T3. The left-eye image encoding unit 10L performs refresh by intra-encoding on the left-eye image. At time T + T3, the left-eye image is made a round, and the refresh area L returns to the last end of the left-eye image.
上述した実施形態で説明したように、左目画像符号化部10Lは、左目画像の最後端から一部の領域と最先端までの一部の領域とに指定領域を分割する。この場合、右目画像符号化部10Rの候補領域設定部26は、右目画像のリフレッシュ候補領域の幅cを左目画像のリフレッシュ領域Lの幅nと同じ幅に設定する。
As described in the above-described embodiment, the left-eye image encoding unit 10L divides the designated region into a partial region from the rearmost end of the left-eye image to a partial region up to the forefront. In this case, the candidate
また、領域設定部25は、リフレッシュ候補領域の幅cを幅vと幅mとに分割し、幅vの領域を右目画像の最先端までの領域に設定し、幅mの領域を右目画像の最後端からの領域に設定する。
In addition, the
ここで、幅vの領域は、対応する左目画像の指定領域に含まれる。よって、右目画像符号化部10Rは、幅vの領域に対応する左目画像の指定領域を参照して、ビュー間予測符号化を行うことができる。
Here, the area of width v is included in the designated area of the corresponding left eye image. Therefore, the right-eye
領域設定部25は、幅vの領域をリフレッシュ領域Rの一部の領域に設定する。なお、幅vは、評価値に基づく幅である。一方、領域設定部25は、幅m(m=c−v)の領域もリフレッシュ領域Rの一部の領域に設定する。幅mは幅nより狭い。
The
従って、右目画像符号化部10Rは、幅mに対応する左目画像の指定領域を参照してビュー間予測符号化を行うことができる。そこで、領域設定部25は、幅mの領域をリフレッシュ領域Rの一部の領域に設定する。
Therefore, the right-eye
従って、時刻T+T3において、左目画像の指定領域が分割されて、リフレッシュ領域Lが左目画像の最後端に接している場合、領域設定部25は、左目画像のリフレッシュ領域Lと同じ幅nの領域をリフレッシュ領域Rに設定する。この場合、リフレッシュ領域Rの幅は、最も広くなる。
Accordingly, at time T + T3, when the designated area of the left eye image is divided and the refresh area L is in contact with the end of the left eye image, the
上述したように、領域設定部25は、動画像データの各時刻のフレームごとに、右目画像のリフレッシ領域Rの大きさを、左目画像と右目画像との視差に基づいて、変化させている。このため、右目画像符号化部10Rは、右目画像のリフレッシュ領域Rにビュー間参照符号化を行うとき、左目画像のうちリフレッシュ済みの領域を参照する可能性を高くすることができる。
As described above, the
<変形例のフローチャート>
次に、変形例のフローチャートについて説明する。変形例の処理は、実施形態の各処理のうち、右目画像のリフレッシュ領域Rを設定する処理が実施形態の処理と異なる。つまり、変形例では、図8のステップS8の処理が実施形態の処理と異なる。
<Flow chart of modification>
Next, a flowchart of a modification will be described. The process of the modified example is different from the process of the embodiment in the process of setting the refresh region R of the right-eye image among the processes of the embodiment. That is, in the modification, the process of step S8 in FIG. 8 is different from the process of the embodiment.
右目画像のリフレッシュ領域Rを設定する処理以外の各種の処理は、実施形態で説明した処理と同様である。よって、実施形態と同様の処理については、変形例では説明を省略する。 Various processes other than the process of setting the refresh region R of the right-eye image are the same as the processes described in the embodiment. Therefore, description of processing similar to that in the embodiment is omitted in the modification.
変形例における右目画像のリフレッシュ領域Rの設定処理について説明する。領域設定部25は、左目画像符号化部10Lが設定するリフレッシュ領域Lが最初に左目画像に設定するリフレッシュ領域Lであるか否かを判定する(ステップS31)。
A process for setting the refresh region R of the right-eye image in the modification will be described. The
リフレッシュ領域Lが最初に設定するリフレッシュ領域Lである場合(ステップS31でYES)、領域設定部25は、右目画像のリフレッシュ領域Rの幅aを設定する(ステップS32)。この幅aは、左目画像と右目画像との視差に基づく幅である。
When the refresh area L is the refresh area L that is set first (YES in step S31), the
候補領域設定部26は、左目画像のリフレッシュ領域Lが最後端に設定されているか否かを判定する(ステップS33)。左目画像のリフレッシュ領域Lが最後端に設定されていない場合(ステップS33でNO)、候補領域設定部26は、右目画像のリフレッシュ候補領域の幅cを設定する(ステップS34)。
The candidate
候補領域設定部26は、幅xnから幅bを減算することで、幅cを得る。そして、候補領域設定部26は、幅cの領域を右目画像のリフレッシュ候補領域に設定する。領域設定部25は、幅cから評価値に基づく幅vを減算した幅に対応する領域をリフレッシュ領域Rに設定する(ステップS35)。
The candidate
左目画像のリフレッシュ領域Lが最後端に設定されていると候補領域設定部26が判定した場合(ステップS33でYES)、候補領域設定部26は、右目画像のリフレッシュ候補領域の幅cを幅nと同じ幅に設定する(ステップS36)。
If the candidate
そして、領域設定部25は、右目画像のリフレッシュ領域Rの一部の領域の幅を評価値に基づく幅vと同じ幅に設定する(ステップS37)。また、領域設定部25は、右目画像の最先端から幅vの領域をリフレッシュ領域Rの一部の領域に設定する。
Then, the
領域設定部25は、右目画像のリフレッシュ領域Rの一部の領域の幅を、リフレッシュ候補領域の幅cから評価値に基づく幅vを減算した幅に設定する(ステップS38)。また、領域設定部25は、右目画像の最後端から幅「c−v」の領域をリフレッシュ領域Rの一部の領域に設定する。
The
<動画像符号化装置のハードウェア構成の一例>
次に、図16の例を参照して、動画像符号化装置1のハードウェア構成の一例を説明する。図16の例に示すように、バス100に対して、プロセッサ111とRAM112とROM113と補助記憶装置114と媒体接続部115と通信インタフェース116とが接続されている。
<Example of Hardware Configuration of Video Encoding Device>
Next, an example of the hardware configuration of the moving
プロセッサ111は任意の処理回路である。プロセッサ111はRAM112に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態の処理を行うプログラムを適用してもよい。ROM113はRAM112に展開されるプログラムを記憶する不揮発性の記憶装置である。
The
補助記憶装置114は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等を補助記憶装置114に適用してもよい。媒体接続部115は、可搬型記録媒体118と接続可能に設けられている。
The
可搬型記録媒体118としては、可搬型のメモリや光学式ディスク(例えば、Compact Disc(CD)やDigital Versatile Disc(DVD)、半導体メモリ等)を適用してもよい。この可搬型記録媒体118に実施形態の処理を行うプログラムが記録されていてもよい。
As the
動画像符号化装置1の各部は、プロセッサ111が所定のプログラムを実行することにより実現されてもよい。また、動画像符号化装置1の各部はFPGA等により実現されてもよい。FPGAは、Field Programmable Gate Arrayの略称であり、プログラム可能な半導体集積回路である。
Each unit of the moving
RAM112、ROM113、補助記憶装置114および可搬型記録媒体118は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。
The
<その他>
本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
<Others>
The present embodiment is not limited to the above-described embodiment, and various configurations or embodiments can be taken without departing from the gist of the present embodiment.
1 動画像符号化装置
10L 左目画像符号化部
11L 右目画像符号化部
20L、20R 動き検出部
22L、22R フレーム内予測部
23L、23R 符号化制御部
24L、24R 切り替え部
25 領域決定部
26 候補領域決定部
27 保持部
28 統計部
111 プロセッサ
112 RAM
113 ROM
DESCRIPTION OF
113 ROM
Claims (10)
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定する該領域設定部と、
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、
を備える動画像符号化装置。 A first prediction encoding unit that performs first prediction encoding in the reference image while shifting a predetermined region for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. An area setting unit that is set for each frame, and is based on the parallax in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area the region which is delayed by the width of the said first region, and the region setting unit that sets on the non-reference image as the second region,
A second predictive coding unit that performs second predictive coding with reference to the first region of the reference image for the second region of the non-reference image;
A video encoding device comprising:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記第1の領域を最初に設定した位置に再び前記第1の領域を設定した場合、前記第2の領域を前記非基準画像の両端に接する2つの領域に分割する該領域設定部と、
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、
を備える動画像符号化装置。 A first prediction encoding unit that performs first prediction encoding in the reference image while shifting a predetermined region for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. An area setting unit that is set for each frame, and when the first area is set again at a position where the first area is initially set, the second area touches both ends of the non-reference image. The area setting unit for dividing the area into two areas ;
A second predictive coding unit that performs second predictive coding with reference to the first region of the reference image for the second region of the non-reference image;
A video encoding device comprising:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記基準画像と前記非基準画像との視差に基づく予測ベクトルに対して統計処理を行った評価値に基づいて、フレームごとに前記第2の領域の大きさを変化させる該領域設定部と、
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、
を備える動画像符号化装置。 A first prediction encoding unit that performs first prediction encoding in the reference image while shifting a predetermined region for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. a region setting unit that sets for each frame, based on the evaluation value performed statistical processing on the prediction vector based on the parallax between the non-reference image and the reference image, of the second region for each frame The area setting unit for changing the size ;
A second predictive coding unit that performs second predictive coding with reference to the first region of the reference image for the second region of the non-reference image;
A video encoding device comprising:
請求項3記載の動画像符号化装置。 The region setting unit uses the maximum value of the prediction vectors or the average value of the prediction vectors as the evaluation value.
The moving image encoding apparatus according to claim 3 .
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定することであって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定することと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. It is set for each frame, and the width based on the parallax is set in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area. Setting a region delayed from the first region only as the second region on the non-reference image;
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータが実行する動画像符号化方法。A video encoding method in which a computer executes a process including:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記第1の領域を最初に設定した位置に再び前記第1の領域を設定した場合、前記第2の領域を前記非基準画像の両端に接する2つの領域に分割することと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. Set for each frame, and when the first area is set again at the position where the first area was initially set, the second area is divided into two areas in contact with both ends of the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータが実行する動画像符号化方法。A video encoding method in which a computer executes a process including:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記基準画像と前記非基準画像との視差に基づく予測ベクトルに対して統計処理を行った評価値に基づいて、フレームごとに前記第2の領域の大きさを変化させることと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. The size of the second region is changed for each frame based on an evaluation value that is set for each frame and statistical processing is performed on a prediction vector based on a parallax between the reference image and the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータが実行する動画像符号化方法。A video encoding method in which a computer executes a process including:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定することであって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定することと、
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、
を含む処理をコンピュータに実行させるための動画像符号化プログラム。 Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. It is set for each frame, and the width based on the parallax is set in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area. Setting a region delayed from the first region only as the second region on the non-reference image;
And be made to the second region of the previous SL non-reference image, the second predictive coding with reference to the first region of the reference image,
A moving picture encoding program for causing a computer to execute a process including:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記第1の領域を最初に設定した位置に再び前記第1の領域を設定した場合、前記第2の領域を前記非基準画像の両端に接する2つの領域に分割することと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. Set for each frame, and when the first area is set again at the position where the first area was initially set, the second area is divided into two areas in contact with both ends of the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータに実行させるための動画像符号化プログラム。A moving picture encoding program for causing a computer to execute a process including:
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記基準画像と前記非基準画像との視差に基づく予測ベクトルに対して統計処理を行った評価値に基づいて、フレームごとに前記第2の領域の大きさを変化させることと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. The size of the second region is changed for each frame based on an evaluation value that is set for each frame and statistical processing is performed on a prediction vector based on a parallax between the reference image and the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータに実行させるための動画像符号化プログラム。A moving picture encoding program for causing a computer to execute a process including:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015064981A JP6485159B2 (en) | 2015-03-26 | 2015-03-26 | Moving picture coding apparatus, moving picture coding method, and moving picture coding program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015064981A JP6485159B2 (en) | 2015-03-26 | 2015-03-26 | Moving picture coding apparatus, moving picture coding method, and moving picture coding program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016184891A JP2016184891A (en) | 2016-10-20 |
JP6485159B2 true JP6485159B2 (en) | 2019-03-20 |
Family
ID=57243268
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015064981A Active JP6485159B2 (en) | 2015-03-26 | 2015-03-26 | Moving picture coding apparatus, moving picture coding method, and moving picture coding program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6485159B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3617925B2 (en) * | 1998-05-28 | 2005-02-09 | Kddi株式会社 | Stereo video encoding system |
JP2014093602A (en) * | 2012-11-01 | 2014-05-19 | Toshiba Corp | Image processing device, image processing method, image processing program, and stereoscopic image display device |
-
2015
- 2015-03-26 JP JP2015064981A patent/JP6485159B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016184891A (en) | 2016-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2781096B1 (en) | Inside view motion prediction among texture and depth view components | |
EP2932472B1 (en) | Inside view motion prediction among texture and depth view components with asymmetric spatial resolution | |
KR20200027487A (en) | Method for inter prediction and apparatus thereof | |
KR101595419B1 (en) | Method and apparatus for picture encoding/decoding | |
AU2013284038B2 (en) | Method and apparatus of disparity vector derivation in 3D video coding | |
JP4663792B2 (en) | Apparatus and method for encoding and decoding multi-view video | |
KR102216320B1 (en) | Method for inter prediction and apparatus thereof | |
US10986359B2 (en) | Method and device for inducing motion information between temporal points of sub prediction unit | |
WO2012008351A1 (en) | Image processing device and image processing method | |
EP2319237A1 (en) | Speculative start point selection for motion estimation iterative search | |
KR20120139552A (en) | Method and a digital video encoder system for encoding digital video data | |
EP2314066A1 (en) | Simple next search position selection for motion estimation iterative search | |
WO2012098845A1 (en) | Image encoding method, image encoding device, image decoding method, and image decoding device | |
JP2014505398A (en) | Multi-view video encoding / decoding apparatus and method | |
KR101524465B1 (en) | Method and apparatus for multi-view video encoding using chrominance compensation, and method and apparatus for multi-view video decoding using chrominance compensation | |
JP2013115583A (en) | Moving image encoder, control method of the same, and program | |
JP6485159B2 (en) | Moving picture coding apparatus, moving picture coding method, and moving picture coding program | |
CN113709457A (en) | Decoding and encoding method, device and equipment | |
JP6181242B2 (en) | Image decoding method | |
JP5951915B2 (en) | Image decoding method | |
JP5946980B1 (en) | Image decoding method | |
JP5911982B2 (en) | Image decoding method | |
JP5750191B2 (en) | Image decoding method | |
KR20220066030A (en) | Method for inter prediction and apparatus thereof | |
KR20140072939A (en) | Method and apparatus for residual prediction for multi-view video coding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181024 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181127 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190122 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190204 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6485159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |