JP6485159B2 - Moving picture coding apparatus, moving picture coding method, and moving picture coding program - Google Patents

Moving picture coding apparatus, moving picture coding method, and moving picture coding program Download PDF

Info

Publication number
JP6485159B2
JP6485159B2 JP2015064981A JP2015064981A JP6485159B2 JP 6485159 B2 JP6485159 B2 JP 6485159B2 JP 2015064981 A JP2015064981 A JP 2015064981A JP 2015064981 A JP2015064981 A JP 2015064981A JP 6485159 B2 JP6485159 B2 JP 6485159B2
Authority
JP
Japan
Prior art keywords
reference image
region
encoding
area
eye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015064981A
Other languages
Japanese (ja)
Other versions
JP2016184891A (en
Inventor
芳 印
芳 印
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015064981A priority Critical patent/JP6485159B2/en
Publication of JP2016184891A publication Critical patent/JP2016184891A/en
Application granted granted Critical
Publication of JP6485159B2 publication Critical patent/JP6485159B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画像符号化装置、動画像符号化方法および動画像符号化プログラムに関する。   The present invention relates to a moving image encoding apparatus, a moving image encoding method, and a moving image encoding program.

動画像データを符号化する方式の一例として、イントラ予測符号化方式およびインター予測符号化方式がある。イントラ予測符号化方式は、フレーム内の空間的冗長性を除去することによりデータ量を圧縮する方式である。インター予測符号化方式は、複数のフレーム間の時間的冗長性を除去することによりデータ量を圧縮する方式である。   As an example of a method for encoding moving image data, there are an intra prediction encoding method and an inter prediction encoding method. The intra prediction encoding method is a method of compressing the data amount by removing spatial redundancy in a frame. The inter prediction encoding method is a method of compressing the data amount by removing temporal redundancy between a plurality of frames.

インター予測符号化方式は、あるフレームにエラーが発生すると、エラーを発生したフレームを参照する他のフレームにエラーが伝播する。このため、所定の周期でイントラ符号化を行ったイントラフレームを挿入する技術が提案されている。   In the inter prediction coding method, when an error occurs in a certain frame, the error is propagated to other frames that refer to the frame in which the error has occurred. For this reason, a technique for inserting an intra frame that has been intra-encoded at a predetermined period has been proposed.

また、以前映像処理ブロックのイントラピクチャおよび以前映像処理ブロックのイントラピクチャが生成された視点と異なる視点に対して生成された現在映像処理ブロックのうち、少なくとも1つに基づいて現在ピクチャを予測する技術が提案されている。   A technique for predicting a current picture based on at least one of a current video processing block generated for a viewpoint different from a viewpoint from which the intra picture of the previous video processing block and the intra picture of the previous video processing block are generated Has been proposed.

また、多視点符号化され参照関係が存在する複数のチャンネルを含む動画符号化ストリームの復号時にエラーが発生した場合でも、画像の内容の認識に支障をきたすおそれが少なく、人の視覚に対する影響を少なくする技術が提案されている。   In addition, even when an error occurs during decoding of a video encoded stream including a plurality of channels that are multi-view coded and have a reference relationship, there is little risk of hindering recognition of the contents of the image, and this has an effect on human vision. Techniques to reduce it have been proposed.

また、復号化画像バッファにおいてメモリ管理動作を実行するマルチビュー映像符号化環境で用いる符号が提供され、メモリ管理動作は、制御情報に基づいて、特定のビューに関連する参照画像を除去する技術が提案されている(例えば、特許文献1乃至3を参照)。   In addition, a code used in a multi-view video coding environment that performs a memory management operation in a decoded image buffer is provided, and the memory management operation is a technology that removes a reference image related to a specific view based on control information. It has been proposed (see, for example, Patent Documents 1 to 3).

特表2010−506530号公報Special table 2010-506530 gazette 特開2011−130029号公報JP 2011-130029 A 特表2010−507339号公報Special table 2010-507339

多視点動画像符号化では、基準画像と非基準画像とに対して予測符号化が行われる。多視点動画像符号化にイントラ予測符号化方式を適用した場合、基準画像と非基準画像との両者に対して、イントラ符号化が行われる。このため、符号量が大きくなり、符号化の効率が低下する。   In multi-view video encoding, predictive encoding is performed on a reference image and a non-reference image. When the intra prediction encoding method is applied to multi-view video encoding, intra encoding is performed on both the reference image and the non-reference image. For this reason, the amount of codes increases, and the coding efficiency decreases.

多視点動画像符号化にインター予測符号化方式を適用した場合、エラーの伝播を是正するために、所定周期でイントラフレームが挿入される。このイントラフレームのために情報量が増える。エラーの伝播に基づく動画像の乱れを早期に是正するために、イントラフレームを挿入する頻度が高くなると、イントラフレームのための情報量が多くなる。   When the inter prediction encoding method is applied to multi-view video encoding, an intra frame is inserted at a predetermined cycle in order to correct error propagation. The amount of information increases due to this intra frame. In order to correct the disturbance of the moving image due to error propagation at an early stage, if the frequency of inserting an intra frame increases, the amount of information for the intra frame increases.

1つの側面として、本発明は、多視点動画像符号化を行う際に、情報量を抑制した効率的な符号化を行うことを目的とする。   As one aspect, an object of the present invention is to perform efficient encoding with a reduced amount of information when performing multi-view video encoding.

1つの態様では、動画像符号化装置は、基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行う第1の予測符号化部と、非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定する該領域設定部と、前記非基準画像のうち前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、を備える。 In one aspect, the moving image encoding apparatus includes a first predictive encoding unit that performs first predictive encoding in the reference image while shifting a predetermined area for each frame with respect to the reference image, and a non-reference Among the images, a second region corresponding to the first region where the first predictive encoding has been performed on the reference image is determined for each frame based on the parallax between the reference image and the non-reference image. An area setting unit for setting a width based on the parallax in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area. The region setting unit that sets the region delayed from the first region as the second region on the non-reference image, and the reference region with respect to the second region of the non-reference image. A second with reference to the first region of the image; And a second predictive coding unit that performs predictive coding.

1つの側面によれば、多視点動画像符号化を行う際に、情報量を抑制した効率的な符号化を行うことができる。   According to one aspect, when performing multi-view video encoding, efficient encoding with a reduced amount of information can be performed.

実施形態の動画像符号化装置の一例を示す図である。It is a figure which shows an example of the moving image encoder of embodiment. 多視点動画像符号化にイントラ予測符号化を適用した一例を示す図である。It is a figure which shows an example which applied intra prediction encoding to multiview video encoding. 画像のうちリフレッシュ境界の近傍の領域の一例を示す図である。It is a figure which shows an example of the area | region of the vicinity of a refresh boundary among images. イントラ予測符号化を行う予測モードの一例を示す図である。It is a figure which shows an example of the prediction mode which performs intra prediction encoding. 多視点動画像符号化における参照関係の一例を示す図である。It is a figure which shows an example of the reference relationship in multiview video encoding. 左目画像および右目画像のリフレッシュ領域の設定の一例を示す図である。It is a figure which shows an example of the setting of the refresh area | region of a left eye image and a right eye image. 実施形態の具体例を示す図である。It is a figure which shows the specific example of embodiment. 実施形態の処理の流れの一例を示すフローチャート(その1)である。It is a flowchart (the 1) which shows an example of the flow of a process of embodiment. 実施形態の処理の流れの一例を示すフローチャート(その2)である。It is a flowchart (the 2) which shows an example of the flow of a process of embodiment. 実施形態の処理の流れの一例を示すフローチャート(その3)である。It is a flowchart (the 3) which shows an example of the flow of a process of embodiment. 変形例の動画像符号化装置の一例を示す図である。It is a figure which shows an example of the moving image encoder of a modification. 変形例における具体例を説明する図(その1)である。It is FIG. (1) explaining the specific example in a modification. 変形例における具体例を説明する図(その2)である。It is FIG. (2) explaining the specific example in a modification. 変形例における具体例を説明する図(その3)である。It is FIG. (The 3) explaining the specific example in a modification. 変形例における処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of the process in a modification. 動画像符号化装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a moving image encoder.

<実施形態の動画像符号化装置の一例>
以下、図面を参照して、実施形態について説明する。図1は、実施形態の動画像符号化装置1の一例を示している。実施形態の動画像符号化装置1は、多視点動画像符号化を行う装置である。多視点動画像符号化装置は、例えば三次元動画像符号化装置である。
<Example of moving picture encoding apparatus of embodiment>
Hereinafter, embodiments will be described with reference to the drawings. FIG. 1 shows an example of a moving picture encoding apparatus 1 according to the embodiment. The video encoding device 1 according to the embodiment is a device that performs multi-view video encoding. The multi-view video encoding device is, for example, a three-dimensional video encoding device.

動画像符号化装置1は、左目画像符号化部10Lと右目画像符号化部10Rとを備える。左目画像符号化部10Lは、多視点の動画像データのうち左目画像データを入力する。右目画像符号化部10Rは、多視点の動画像データのうち右目画像データを入力する。   The moving image encoding device 1 includes a left eye image encoding unit 10L and a right eye image encoding unit 10R. The left-eye image encoding unit 10L inputs left-eye image data among multi-view video data. The right-eye image encoding unit 10R inputs right-eye image data among multi-view video data.

以下、左目画像データを左目画像とし、右目画像データを右目画像として説明する。左目画像符号化部10Lは、左目画像を入力して、左目画像の予測符号化を行う。右目画像符号化部10Rは、右目画像を入力して、右目画像の予測符号化を行う。左目画像は、基準画像(base view)の一例であり、右目画像は非基準画像(non-base view)の一例である。   Hereinafter, the left-eye image data is described as a left-eye image, and the right-eye image data is described as a right-eye image. The left-eye image encoding unit 10L receives the left-eye image and performs predictive encoding of the left-eye image. The right-eye image encoding unit 10R receives the right-eye image and performs predictive encoding of the right-eye image. The left eye image is an example of a reference image (base view), and the right eye image is an example of a non-reference image (non-base view).

左目画像符号化部10Lは、予測誤差信号生成部11Lと整数変換部12Lと量子化部13Lとエントロピー符号化部14Lと逆量子化部15Lと逆整数変換部16Lと参照画像生成部17Lとフィルタ処理部18Lとフレームメモリ19Lとを備える。   The left-eye image encoding unit 10L includes a prediction error signal generation unit 11L, an integer conversion unit 12L, a quantization unit 13L, an entropy encoding unit 14L, an inverse quantization unit 15L, an inverse integer conversion unit 16L, a reference image generation unit 17L, and a filter. A processing unit 18L and a frame memory 19L are provided.

また、左目画像符号化部10Lは、動き検出部20Lと動き補償部21Lとフレーム内予測部22Lと符号化制御部23Lと切り替え部24Lとを備える。左目画像符号化部10Lのフレーム内予測部22Lは、第1の予測符号化部の一例である。フレーム内予測部22Lが行う予測符号化は、第1の予測符号化の一例である。   The left-eye image encoding unit 10L includes a motion detection unit 20L, a motion compensation unit 21L, an intra-frame prediction unit 22L, an encoding control unit 23L, and a switching unit 24L. The intra-frame prediction unit 22L of the left-eye image encoding unit 10L is an example of a first prediction encoding unit. Prediction coding performed by the intraframe prediction unit 22L is an example of first prediction coding.

右目画像符号化部10Rは、予測誤差信号生成部11Rと整数変換部12Rと量子化部13Rとエントロピー符号化部14Rと逆量子化部15Rと逆整数変換部16Rと参照画像生成部17Rとフィルタ処理部18Rとフレームメモリ19Rとを備える。   The right-eye image encoding unit 10R includes a prediction error signal generation unit 11R, an integer conversion unit 12R, a quantization unit 13R, an entropy encoding unit 14R, an inverse quantization unit 15R, an inverse integer conversion unit 16R, a reference image generation unit 17R, and a filter. A processing unit 18R and a frame memory 19R are provided.

また、右目画像符号化部10Rは、動き検出部20Rと動き補償部21Rとフレーム内予測部22Rと符号化制御部23Rと切り替え部24Rと領域設定部25とを備える。右目画像符号化部10Rの動き検出部20Rは、第2の予測符号化部の一例である。動き検出部20Rが行う予測符号化は、第2の予測符号化の一例である。   The right-eye image encoding unit 10R includes a motion detection unit 20R, a motion compensation unit 21R, an intra-frame prediction unit 22R, an encoding control unit 23R, a switching unit 24R, and a region setting unit 25. The motion detection unit 20R of the right-eye image encoding unit 10R is an example of a second predictive encoding unit. Predictive coding performed by the motion detection unit 20R is an example of second predictive coding.

左目画像符号化部10Lと右目画像符号化部10Rとのうち、領域設定部25以外の各部は、共通している。ただし、動き検出部20Lと動き検出部20Rとは異なる処理を行う。また、符号化制御部23Lと符号化制御部23Rとは異なる制御を行う。   Of the left-eye image encoding unit 10L and the right-eye image encoding unit 10R, each unit other than the region setting unit 25 is common. However, the motion detection unit 20L and the motion detection unit 20R perform different processes. Also, the encoding control unit 23L and the encoding control unit 23R perform different control.

以下、各部について説明する。以下の説明において、「L」は左目画像符号化部10Lの機能であることを示し、「R」は右目画像符号化部10Rの機能であることを示すものとする。   Hereinafter, each part will be described. In the following description, “L” indicates a function of the left-eye image encoding unit 10L, and “R” indicates a function of the right-eye image encoding unit 10R.

予測誤差信号生成部11は、原画像信号と予測画像信号とを入力する。予測誤差信号生成部11は、原画像信号と予測画像信号との差分を演算し、予測誤差信号を生成する。整数変換部12は、予測誤差信号生成部11から入力した予測誤差信号を整数変換して、整数変換後の信号を量子化部13に出力する。   The prediction error signal generation unit 11 receives the original image signal and the prediction image signal. The prediction error signal generation unit 11 calculates a difference between the original image signal and the prediction image signal and generates a prediction error signal. The integer conversion unit 12 performs integer conversion on the prediction error signal input from the prediction error signal generation unit 11 and outputs the signal after the integer conversion to the quantization unit 13.

量子化部13は、整数変換後の信号を量子化して、予測誤差信号の符号量を低下させた量子化データをエントロピー符号化部14に出力する。エントロピー符号化部14は、量子化データに対して、エントロピー符号化を行う。   The quantization unit 13 quantizes the signal after the integer conversion, and outputs quantized data in which the code amount of the prediction error signal is reduced to the entropy encoding unit 14. The entropy encoding unit 14 performs entropy encoding on the quantized data.

エントロピー符号化部14は、エントロピー符号化を行った符号化画像データを出力する。エントロピー符号化部14Lは、符号化画像データを左目画像として出力する。エントロピー符号化部14Rは、符号化画像データを右目画像として出力する。例えば、エントロピー符号化は、シンボルの頻度に応じて可変長の符号を割り当てる符号化方式を用いた符号化である。   The entropy encoding unit 14 outputs encoded image data subjected to entropy encoding. The entropy encoding unit 14L outputs the encoded image data as a left eye image. The entropy encoding unit 14R outputs the encoded image data as a right eye image. For example, entropy coding is coding using a coding method in which a variable-length code is assigned according to the symbol frequency.

逆量子化部15は、量子化部13から量子化データを入力し、入力した量子化データを逆量子化する。逆整数変換部16は、逆量子化部15から入力したデータに対して、逆整数変換処理を施す。これにより、符号化前の予測誤差信号と同程度の信号が得られる。   The inverse quantization unit 15 receives the quantized data from the quantization unit 13 and inversely quantizes the input quantized data. The inverse integer transform unit 16 performs an inverse integer transform process on the data input from the inverse quantization unit 15. Thereby, a signal comparable to the prediction error signal before encoding is obtained.

参照画像生成部17は、動き補償部21により動き補償されたマクロブロックの画素データと、逆量子化部15および逆整数変換部16が復号した予測誤差信号とを加算する。これにより、参照画像生成部17は、動き補償された参照画像(参照ピクチャとも称する)を生成する。   The reference image generation unit 17 adds the pixel data of the macroblock motion-compensated by the motion compensation unit 21 and the prediction error signal decoded by the inverse quantization unit 15 and the inverse integer transform unit 16. Accordingly, the reference image generation unit 17 generates a motion-compensated reference image (also referred to as a reference picture).

フィルタ処理部18は、参照画像のマクロブロックのデータに対して、デブロッキングフィルタ処理を行い、ブロックノイズの発生を抑制した後の参照画像のフレームをフレームメモリ19に記憶する。   The filter processing unit 18 performs a deblocking filtering process on the macroblock data of the reference image, and stores the frame of the reference image after suppressing the occurrence of block noise in the frame memory 19.

動き検出部20は、上述したように、左目画像符号化部10Lと右目画像符号化部10Rとで異なる処理を行う。左目画像符号化部10Lの動き検出部20Lは、時間的に前後する画像(フレーム)を参照した予測符号化を行う。この予測符号化は、インター予測とも称される。   As described above, the motion detection unit 20 performs different processing between the left-eye image encoding unit 10L and the right-eye image encoding unit 10R. The motion detection unit 20L of the left-eye image encoding unit 10L performs predictive encoding with reference to temporally changing images (frames). This predictive coding is also referred to as inter prediction.

右目画像符号化部10Rの動き検出部20Rは、ビュー間予測またはインター予測を行う。ビュー間予測は、同じ時刻の視点が異なるフレームを参照した予測符号化である。ビュー間予測は、視点間予測とも称される。実施形態の場合、動き検出部20Rは、領域設定部25が設定した左目画像の領域を参照したビュー間予測を行う。   The motion detection unit 20R of the right-eye image encoding unit 10R performs inter-view prediction or inter prediction. Inter-view prediction is predictive coding with reference to frames with different viewpoints at the same time. Inter-view prediction is also referred to as inter-view prediction. In the case of the embodiment, the motion detection unit 20R performs inter-view prediction with reference to the region of the left-eye image set by the region setting unit 25.

動き補償部21は、時間的に前後するフレームの動きを検出して、時間的に前のフレームに対して検出した動き分の動き補償を行う。例えば、動き補償部21は、時間的に前後するフレームに基づいて、動きベクトルを検出する。   The motion compensation unit 21 detects the motion of frames that are temporally forward and backward, and performs motion compensation for the detected motion with respect to the temporally previous frame. For example, the motion compensation unit 21 detects a motion vector on the basis of temporally moving frames.

フレーム内予測部22は、同じ画像(フレーム)内で予測符号化を行う。この予測符号化は、イントラ予測とも称される。フレーム内予測部22は、同じ画像内の周辺画素に基づいて、予測画像のマクロブロックを生成して、予測符号化を行う。   The intra-frame prediction unit 22 performs predictive encoding within the same image (frame). This predictive coding is also called intra prediction. The intra-frame prediction unit 22 generates a macro block of the predicted image based on the surrounding pixels in the same image, and performs predictive coding.

符号化制御部23Lは、左目画像符号化部10Lが行う予測符号化をイントラ予測にするか、またはインター予測にするかの制御を行う。符号化制御部23Rは、右目画像符号化部10Rが行う予測符号化をイントラ予測にするか、インター予測にするか、またはビュー間予測にするかの制御を行う。   The encoding control unit 23L controls whether the prediction encoding performed by the left-eye image encoding unit 10L is intra prediction or inter prediction. The encoding control unit 23R controls whether the prediction encoding performed by the right-eye image encoding unit 10R is intra prediction, inter prediction, or inter-view prediction.

例えば、H.264規格では、4×4画素をサブブロックとして、イントラリフレッシュを行う予測モードが策定されている。上記のサブブロックが、イントラリフレッシュ済み領域の境界に接している場合、サブブロックのうち何れかの画素が未リフレッシュ領域の画素を参照することがある。   For example, H.M. In the H.264 standard, a prediction mode for performing intra-refresh with 4 × 4 pixels as a sub-block is formulated. When the sub-block is in contact with the boundary of the intra-refreshed area, any pixel in the sub-block may refer to a pixel in the unrefreshed area.

この場合、イントラリフレッシュを行うことは制限される。符号化制御部23Lは、サブブロックがイントラリフレッシュの制限の対象になっていない場合、フレーム内予測部22Lがイントラリフレッシュを行うように制御する。一方、サブブロックがイントラリフレッシュの制限の対象になっている場合、符号化制御部23Lは、インターリフレッシュを行うように制御する。   In this case, performing intra refresh is limited. The encoding control unit 23L controls the intra-frame prediction unit 22L to perform intra refresh when the sub-block is not subject to intra refresh restriction. On the other hand, when the sub-block is subject to intra refresh restriction, the encoding control unit 23L controls to perform inter-refresh.

このため、符号化制御部23Lは、切り替え部24Lを制御する。サブブロックがイントラリフレッシュの制限の対象になっていない場合、符号化制御部23Lは、切り替え部24Lがフレーム内予測部22Lに接続する。サブブロックがイントラリフレッシュの制限の対象になっている場合、符号化制御部23Lは、切り替え部24Lが動き補償部21に接続する。   For this reason, the encoding control unit 23L controls the switching unit 24L. When the sub-block is not subject to intra refresh restriction, the coding control unit 23L connects the switching unit 24L to the intra-frame prediction unit 22L. When the sub-block is subject to intra refresh restriction, the encoding control unit 23L connects the switching unit 24L to the motion compensation unit 21.

領域設定部25は、右目画像のうち、ビュー間予測符号化を行う領域を設定する。領域設定部25は、左目画像符号化部10Lが左目画像に対してイントラリフレッシュを行う領域に対して所定量の差をつけた領域をビュー間予測符号化の対象の領域に設定する。この所定量の差は、左目画像と右目画像との視差に基づいている。   The region setting unit 25 sets a region for performing inter-view prediction encoding in the right eye image. The region setting unit 25 sets a region with a predetermined amount of difference from a region where the left-eye image encoding unit 10L performs intra refresh on the left-eye image as a target region for inter-view predictive encoding. This difference in the predetermined amount is based on the parallax between the left eye image and the right eye image.

<多視点動画像符号化における予測符号化の一例>
次に、多視点動画像符号化における予測符号化の一例について説明する。図2は、多視点動画像符号化にイントラ予測符号化を適用した一例を示す。イントラ予測符号化は、イントラリフレッシュとも称される。
<An example of predictive coding in multi-view video coding>
Next, an example of predictive coding in multi-view video coding will be described. FIG. 2 shows an example in which intra prediction encoding is applied to multi-view video encoding. Intra prediction encoding is also referred to as intra refresh.

図2の例の場合、リフレッシュ領域は左目画像および右目画像のうち、所定幅を有する一部の領域(リフレッシュ領域)に設定される。また、リフレッシュ領域は、経時的に所定幅の分だけずれていく。このように、リフレッシュ領域を順次ずらして行うイントラリフレッシュはイントラスライスと称される場合もある。   In the example of FIG. 2, the refresh area is set to a part of the left eye image and the right eye image having a predetermined width (refresh area). Further, the refresh area is shifted by a predetermined width over time. As described above, the intra refresh performed by sequentially shifting the refresh area may be referred to as an intra slice.

イントラスライスによる予測符号化では、上記のリフレッシュ領域にイントラリフレッシュが行われる。このため、エラーの伝播が抑制される。また、リフレッシュ領域は異なる時刻の画像に分散されるため、一度に画像の全領域に対してイントラリフレッシュが行われない。従って、符号化効率が向上する。   In predictive coding by intra slice, intra refresh is performed in the refresh area. For this reason, error propagation is suppressed. In addition, since the refresh area is distributed to images at different times, intra refresh is not performed on all areas of the image at one time. Therefore, the encoding efficiency is improved.

図3は、画像のうちリフレッシュ境界の近傍の領域の一例を示している。図3において、マクロブロックは、例えば、16×16画素の領域であるとする。リフレッシュ境界は、リフレッシュ済み領域(網掛けされた領域)と未リフレッシュ領域(網掛けされていない領域)との境界である。   FIG. 3 shows an example of an area in the vicinity of the refresh boundary in the image. In FIG. 3, it is assumed that the macroblock is an area of 16 × 16 pixels, for example. The refresh boundary is a boundary between a refreshed area (shaded area) and an unrefreshed area (non-shaded area).

イントラライン(ハッチングが施された領域)は、リフレッシュ境界に接しているマクロブロックの縦のラインである。イントララインのマクロブロックに対してイントラリフレッシュを行う場合、未リフレッシュ領域の画素を参照するイントラリフレッシュは制限される。   An intra line (a hatched region) is a vertical line of a macroblock that is in contact with a refresh boundary. When intra refresh is performed on an intra-line macroblock, intra refresh that refers to pixels in an unrefreshed area is limited.

図4は、上述したH.264規格で策定されているイントラリフレッシュを行う予測モードを示している。イントラリフレッシュを行う対象の画素は、4×4画素(サブブロック)である。このサブブロックは、マクロブロックに含まれる。   FIG. 2 shows a prediction mode for performing intra refresh defined in the H.264 standard. Pixels to be subjected to intra refresh are 4 × 4 pixels (sub blocks). This sub-block is included in a macroblock.

図4の例では、イントラリフレッシュが行われていない画素を未リフレッシュ画素と表記している。また、イントラリフレッシュが行われる際に未リフレッシュ画素が参照する画素を参照画素と表記している。図4の例において、参照画素には網掛けが施されており、未リフレッシュ画素には網掛けが施されていない。   In the example of FIG. 4, pixels that have not been subjected to intra refresh are denoted as unrefreshed pixels. In addition, a pixel referred to by an unrefreshed pixel when intra refresh is performed is referred to as a reference pixel. In the example of FIG. 4, the reference pixels are shaded, and the unrefreshed pixels are not shaded.

図4の例では、予測モード3および7以外の予測モードでは、サブブロックの各画素が参照する参照画素は未リフレッシュ領域に含まれない。一方、予測モード3および7では、サブブロックの各画素のうち複数画素が参照する参照画素は未リフレッシュ領域に含まれる。   In the example of FIG. 4, in the prediction modes other than the prediction modes 3 and 7, the reference pixel referred to by each pixel of the sub-block is not included in the unrefreshed area. On the other hand, in prediction modes 3 and 7, reference pixels referred to by a plurality of pixels among the pixels of the sub-block are included in the unrefreshed area.

未リフレッシュ領域の各画素は、イントラリフレッシュが行われていない。このため、予測モード3および7では、リフレッシュ境界に接するサブブロックがイントラリフレッシュを行うことが制限される。   Intra refresh is not performed on each pixel in the unrefreshed area. For this reason, in prediction modes 3 and 7, sub-blocks that are in contact with the refresh boundary are restricted from performing intra-refresh.

図5は、多視点動画像符号化における参照関係の一例を示している。図5の例において、「I」はIフレーム(Intra-Coded Frame)を示している。Iフレームは、イントラ予測により予測符号化されるフレームである。   FIG. 5 shows an example of a reference relationship in multi-view video encoding. In the example of FIG. 5, “I” indicates an I frame (Intra-Coded Frame). The I frame is a frame that is predictively encoded by intra prediction.

「P」はPフレーム(Predicted Frame)を示している。Pフレームは、インター予測により予測符号化されるフレームである。Pフレームは、前の時刻のフレーム(過去のフレーム)を参照して予測符号化が行われるフレームである。   “P” indicates a P frame (Predicted Frame). The P frame is a frame that is predictively encoded by inter prediction. The P frame is a frame on which predictive encoding is performed with reference to a frame at a previous time (past frame).

「B」はBフレーム(Bi-direction Frame)を示している。Bフレームは、インター予測により予測符号化されるフレームである。Bフレームは、前の時刻のフレーム、後の時刻のフレームまたは前後の時刻のフレームを参照して予測符号化が行われるフレームである。   “B” indicates a B-frame (Bi-direction Frame). The B frame is a frame that is predictively encoded by inter prediction. The B frame is a frame on which predictive encoding is performed with reference to a frame at a previous time, a frame at a later time, or a frame at a previous or subsequent time.

左目画像は、IフレームとBフレームとBフレームとPフレームとが1周期になっている。右目画像は、PフレームとBフレームとBフレームとPフレームとが1周期になっている。また、右目画像のリフレッシュは、リフレッシュ済みの左目画像を参照して行われる。これにより、ビュー間予測符号化が行われる。   The left-eye image has one cycle of an I frame, a B frame, a B frame, and a P frame. The right-eye image has one cycle of P frame, B frame, B frame, and P frame. Further, the refreshing of the right eye image is performed with reference to the refreshed left eye image. As a result, inter-view prediction encoding is performed.

図5の例では、右目画像のリフレッシュは、インター予測またはビュー間予測により行われる。従って、エラーの伝播の可能性があるため、動画像をエラーから早期に回復させるために、右目画像に対してイントラ予測を行ったフレーム(以下、イントラフレームと称する)が挿入される。このため、挿入されるイントラフレームのために情報量が多くなる。   In the example of FIG. 5, the refreshing of the right eye image is performed by inter prediction or inter-view prediction. Therefore, since there is a possibility of error propagation, a frame (hereinafter referred to as an intra frame) in which intra prediction is performed on the right eye image is inserted in order to recover the moving image from the error early. For this reason, the amount of information increases due to the inserted intra frame.

図2の例のように、左目画像と右目画像とにそれぞれ独立してイントラリフレッシュを行えば、イントラフレームを挿入しなくてもよい。ただし、左目画像と右目画像とにそれぞれ独立にイントラリフレッシュが行われるため、符号量が増大する。このため、符号化効率が低下する。   As in the example of FIG. 2, if the intra-refresh is performed independently on the left-eye image and the right-eye image, it is not necessary to insert an intra frame. However, since the intra-refresh is performed independently for the left-eye image and the right-eye image, the code amount increases. For this reason, encoding efficiency falls.

そこで、実施形態では、図6に示すように、左目画像符号化部10Lは、左目画像の所定の幅を有する領域をリフレッシュ領域Lとして、該リフレッシュ領域Lに対してイントラリフレッシュを行う。時刻Tにおいて、左目画像符号化部10Lは、リフレッシュ領域Lに対してイントラリフレッシュを行う。   Therefore, in the embodiment, as illustrated in FIG. 6, the left-eye image encoding unit 10 </ b> L performs an intra-refresh on the refresh region L with a region having a predetermined width of the left-eye image as a refresh region L. At time T, the left-eye image encoding unit 10L performs intra refresh on the refresh area L.

右目画像符号化部10Rは、同じ時刻Tの左目画像のリフレッシュ領域Lよりも狭い幅の領域をリフレッシュ領域Rとして、該リフレッシュ領域Rに対してビュー間予測符号化を行う。時刻Tにおけるリフレッシュ領域Rの幅は、左目画像と右目画像との視差に基づく。   The right-eye image encoding unit 10R performs inter-view predictive encoding on the refresh region R with a region having a width narrower than the refresh region L of the left-eye image at the same time T as the refresh region R. The width of the refresh region R at time T is based on the parallax between the left eye image and the right eye image.

左目画像符号化部10Lと右目画像符号化部10Rとは、経時的に同じ方向にリフレッシュ領域をずらしてリフレッシュを行う。このとき、リフレッシュ領域Rは、上記の視差に基づく幅分だけ、リフレッシュ領域Lよりも遅れている。   The left-eye image encoding unit 10L and the right-eye image encoding unit 10R perform refresh by shifting the refresh area in the same direction over time. At this time, the refresh area R is delayed from the refresh area L by the width based on the parallax.

右目画像符号化部10Rは、左目画像符号化部10Lが時刻Tの左目画像のリフレッシュ領域Lのうちリフレッシュ領域Rに相当する領域に対してイントラリフレッシュを行った後に、リフレッシュ領域Rに対してビュー間予測符号化を行う。   The right-eye image encoding unit 10R performs intra-refresh on the region corresponding to the refresh region R in the refresh region L of the left-eye image at time T after the left-eye image encoding unit 10L performs a view on the refresh region R. Inter prediction encoding is performed.

これにより、右目画像符号化部10Rがリフレッシュ領域Rのうち、リフレッシュ境界に接するサブブロックのリフレッシュを行うときには、既に左目画像符号化部10Lは、リフレッシュ境界を越えた領域に対してイントラリフレッシュを行っている可能性が高い。   As a result, when the right-eye image encoding unit 10R refreshes the sub-block that is in contact with the refresh boundary in the refresh region R, the left-eye image encoding unit 10L has already performed intra-refresh for the region that has exceeded the refresh boundary. There is a high possibility.

このため、右目画像のリフレッシュ境界に接するサブブロックはリフレッシュ済みの画素を参照する可能性が高くなる。よって、右目画像符号化部10Rは、イントラリフレッシュが制限されているサブブロックに対して、ビュー間予測符号化を行うことができる。   For this reason, there is a high possibility that the sub-block in contact with the refresh boundary of the right-eye image refers to the refreshed pixel. Therefore, the right-eye image encoding unit 10R can perform inter-view prediction encoding on a sub-block for which intra refresh is restricted.

時刻T+1において、左目画像符号化部10Lは、左目画像に対して、時刻Tにおいてリフレッシュしたリフレッシュ領域Lから該リフレッシュ領域Lの幅分をずらした領域を時刻T+1のリフレッシュ領域Lに設定する。そして、左目画像符号化部10Lは、設定したリフレッシュ領域Lに対してイントラリフレッシュを行う。   At time T + 1, the left-eye image encoding unit 10L sets, as the refresh area L at time T + 1, an area shifted from the refresh area L refreshed at time T by the width of the refresh area L with respect to the left-eye image. Then, the left-eye image encoding unit 10L performs intra refresh on the set refresh area L.

時刻T+1において、右目画像符号化部10Rは、右目画像に対して、時刻Tにおいてリフレッシュしたリフレッシュ領域Rから左目画像のリフレッシュ領域Lの幅分をずらした領域を時刻T+1のリフレッシュ領域Rに設定する。   At time T + 1, the right-eye image encoding unit 10R sets, as the refresh region R at time T + 1, a region where the width of the refresh region L of the left-eye image is shifted from the refresh region R refreshed at time T with respect to the right-eye image. .

このとき、右目画像符号化部10Rは、時刻T+1のリフレッシュ領域Rの幅をリフレッシュ領域Lの幅と同じ幅に設定する。これにより、時刻T+1のリフレッシュ領域Rとリフレッシュ領域Lとは同じ大きさになる。   At this time, the right-eye image encoding unit 10R sets the width of the refresh region R at time T + 1 to the same width as the width of the refresh region L. As a result, the refresh area R and the refresh area L at time T + 1 have the same size.

時刻T+1以降、左目画像符号化部10Lは、指定領域(図6において、太線で囲まれた領域)を設定する。指定領域は、右目画像符号化部10Rが現在のフレームと過去の1以上のフレームとにおいてイントラリフレッシュを行った領域である。   After time T + 1, the left-eye image encoding unit 10L sets a designated area (an area surrounded by a thick line in FIG. 6). The designated region is a region in which the right-eye image encoding unit 10R has performed intra refresh in the current frame and one or more past frames.

時刻T+1以降、右目画像符号化部10Rは、指定領域を参照して、設定したリフレッシュ領域Lに対してビュー間参照によるリフレッシュを行う。右目画像のリフレッシュ境界は、指定領域の先端よりも遅れている。   After time T + 1, the right-eye image encoding unit 10R performs refresh by inter-view reference for the set refresh area L with reference to the designated area. The refresh boundary of the right eye image is behind the tip of the designated area.

よって、右目画像符号化部10Rがビュー間予測符号化を行うときに、リフレッシュ領域Rのリフレッシュ境界に接するサブブロックにイントラリフレッシュの制限があったとしても、サブブロックをリフレッシュできる。   Therefore, when the right-eye image encoding unit 10R performs inter-view predictive encoding, the sub-block can be refreshed even if there is a restriction on intra-refresh on the sub-block that is in contact with the refresh boundary of the refresh region R.

<実施形態の具体例>
次に、図7を参照して、実施形態の具体例について説明する。左目画像および右目画像の幅方向をX方向とし、幅方向に直交する方向をY方向とする。また、左目画像および右目画像の両端のうち、最初にリフレッシュ領域が設定される端部を最後端とし、反対側の端部を最先端とする。
<Specific Example of Embodiment>
Next, a specific example of the embodiment will be described with reference to FIG. The width direction of the left eye image and the right eye image is defined as the X direction, and the direction orthogonal to the width direction is defined as the Y direction. Further, of both ends of the left-eye image and the right-eye image, the end portion where the refresh area is first set is the last end, and the opposite end portion is the most advanced end.

左目画像符号化部10Lの符号化制御部23Lは、イントラ予測を行うとき、フレーム内予測部22Lが接続されるように切り替え部24Lを制御する。フレーム内予測部22Lは、左目画像のうち最後端から幅nの領域をリフレッシュ領域Lに設定する。   When performing intra prediction, the encoding control unit 23L of the left-eye image encoding unit 10L controls the switching unit 24L so that the intra-frame prediction unit 22L is connected. The intra-frame prediction unit 22L sets an area having a width n from the end of the left-eye image as the refresh area L.

そして、フレーム内予測部22Lは、最後端から最先端に向けて、フレームごとに、順次イントラリフレッシュを行う。これにより、フレーム内予測部22Lは、左目画像に対してイントラリフレッシュを行う。   Then, the intra-frame prediction unit 22L sequentially performs intra-refresh for each frame from the last end to the forefront. Thereby, the intra-frame prediction unit 22L performs intra refresh on the left eye image.

右目画像符号化部10Rの領域設定部25は、リフレッシュ領域Rの幅aを設定する。この幅aは、左目画像と右目画像との視差に基づく。多視点動画像では、複数の視点で被写体を撮影する。従って、左目画像と右目画像との間に視差を生じる。   The region setting unit 25 of the right-eye image encoding unit 10R sets the width a of the refresh region R. The width a is based on the parallax between the left eye image and the right eye image. In a multi-view video, a subject is photographed from a plurality of viewpoints. Accordingly, a parallax is generated between the left eye image and the right eye image.

例えば、領域設定部25は、時刻Tにおいて、左目画像と右目画像とを比較して、視差に基づくずれ量を求めてもよい。左目画像と右目画像とは、同じ被写体を撮影しているため、領域設定部25は、2つの画像を比較することで、ずれ量を視差として求めることができる。領域設定部25は、求めたずれ量を幅aに設定してもよい。   For example, the region setting unit 25 may obtain a shift amount based on parallax by comparing the left eye image and the right eye image at time T. Since the left-eye image and the right-eye image are taken of the same subject, the region setting unit 25 can obtain the shift amount as the parallax by comparing the two images. The region setting unit 25 may set the obtained shift amount to the width a.

幅nは幅aよりも大きいものとする。従って、時刻Tにおいて、リフレッシュ領域Lはリフレッシュ領域Rよりも広い。右目画像符号化部10Rは、左目画像のうちリフレッシュ済みのリフレッシュ領域Lを参照して、ビュー間予測符号化を行う。   The width n is assumed to be larger than the width a. Therefore, at time T, the refresh area L is wider than the refresh area R. The right-eye image encoding unit 10R performs inter-view prediction encoding with reference to the refreshed refresh area L in the left-eye image.

右目画像符号化部10Rがビュー間予測符号化を行う場合、切り替え部24Rは動き補償部21Rに接続される。動き検出部20Rは、左目画像符号化部10Lのフレームメモリ19Lの左目画像を参照して、ビュー間予測符号化を右目画像のうちリフレッシュ領域Rに対して行う。   When the right-eye image encoding unit 10R performs inter-view prediction encoding, the switching unit 24R is connected to the motion compensation unit 21R. The motion detection unit 20R refers to the left-eye image in the frame memory 19L of the left-eye image encoding unit 10L and performs inter-view prediction encoding on the refresh region R in the right-eye image.

時刻T+1において、フレーム内予測部22Lは、左目画像のうち幅nのリフレッシュ領域Lに対してイントラリフレッシュを行う。左目画像符号化部10Lは、現在のフレームのリフレッシュ領域Lと1以上の過去のフレームのリフレッシュ済み領域とを含む指定領域を設定する。なお、指定領域は、リフレッシュ領域Lの先端から最後端までの領域としてもよい。   At time T + 1, the intraframe prediction unit 22L performs intra refresh on the refresh region L having a width n of the left-eye image. The left-eye image encoding unit 10L sets a designated area including a refresh area L of the current frame and a refreshed area of one or more past frames. The designated area may be an area from the front end to the rear end of the refresh area L.

右目画像符号化部10Rの領域設定部25は、左目画像の指定領域のうち幅nの領域をリフレッシュ領域Rに設定する。リフレッシュ領域Rは、最後端から幅aをずらした位置から幅nの領域になる。   The region setting unit 25 of the right-eye image encoding unit 10R sets the region of width n among the designated regions of the left-eye image as the refresh region R. The refresh region R is a region having a width n from a position where the width a is shifted from the end.

動き検出部20Rは、右目画像のうち領域設定部25が設定したリフレッシュ領域Rに対して、左目画像の指定領域を参照したビュー間予測符号化を行う。これにより、動き検出部20Rは、時刻T+1における右目画像のリフレッシュ領域Rを行う。   The motion detection unit 20R performs inter-view prediction encoding with reference to the designated region of the left-eye image for the refresh region R set by the region setting unit 25 in the right-eye image. Thereby, the motion detection unit 20R performs the refresh region R of the right-eye image at time T + 1.

時刻T+T1において、リフレッシュ領域Lは左目画像を一巡して、再び最初に設定された位置に戻っている。図7の例の場合、指定領域は分割されている。指定領域の一部は最後端から幅nの領域になり、残りは最先端から所定幅の領域になる。   At time T + T1, the refresh area L makes a round of the left eye image and returns to the initially set position again. In the example of FIG. 7, the designated area is divided. A part of the designated area is an area having a width n from the rear end, and the remaining part is an area having a predetermined width from the forefront.

時刻T+T1において、左目画像の指定領域に対応して、右目画像のリフレッシュ領域Rも分割されている。領域設定部25は、左目画像の指定領域に基づいて、左目画像の最先端から幅「n−a」の領域と最後端から幅aの領域とをリフレッシュ領域Rに設定する。   At time T + T1, the refresh area R of the right eye image is also divided corresponding to the designated area of the left eye image. The area setting unit 25 sets the area having the width “na” from the forefront of the left-eye image and the area having the width a from the rear end to the refresh area R based on the designated area of the left-eye image.

動き検出部20Rは、時刻T+T1における左目画像の指定領域を参照して、ビュー間予測符号化を行う。これにより、時刻T+T1における右目画像のリフレッシュ領域Rのリフレッシュが行われる。   The motion detection unit 20R performs inter-view prediction encoding with reference to the designated region of the left eye image at time T + T1. As a result, the refresh region R of the right eye image is refreshed at time T + T1.

従って、右目画像符号化部10Rは、左目画像符号化部10Lよりも幅aの分だけ遅れてリフレッシュを行う。この幅aは、左目画像と右目画像との視差に基づいている。右目画像符号化部10Rは、左目画像のうちイントラリフレッシュ済みの指定領域を参照して、ビュー間予測符号化を行う。   Therefore, the right-eye image encoding unit 10R performs the refresh with a delay of the width a from the left-eye image encoding unit 10L. The width a is based on the parallax between the left eye image and the right eye image. The right-eye image encoding unit 10R performs inter-view prediction encoding with reference to a designated region that has been intra-refreshed in the left-eye image.

このため、右目画像符号化部10Rは、イントラリフレッシュを行うことなく、右目画像をリフレッシュすることができる。従って、左目画像と右目画像とのそれぞれに対して、イントラリフレッシュが行われないため、符号化効率が向上する。   For this reason, the right-eye image encoding unit 10R can refresh the right-eye image without performing intra-refresh. Therefore, since intra refresh is not performed on each of the left eye image and the right eye image, encoding efficiency is improved.

また、右目画像符号化部10Rは、同じ時刻の左目画像の指定領域を参照して、ビュー間予測符号化を行っている。従って、右目画像符号化部10Rは、イントラフレームを挿入しなくても、右目画像のリフレッシュを行うことができる。このため、イントラフレームが挿入されないため、発生する情報量が抑制される。   Further, the right-eye image encoding unit 10R performs inter-view prediction encoding with reference to the designated region of the left-eye image at the same time. Therefore, the right-eye image encoding unit 10R can refresh the right-eye image without inserting an intra frame. For this reason, since an intra frame is not inserted, the amount of information generated is suppressed.

<実施形態のフローチャート>
次に、図8乃至図10のフローチャートを参照して、実施形態の処理の流れを説明する。左目画像符号化部10Lの符号化制御部23Lは、左目画像のうち、リフレッシュ領域Lを設定する(ステップS1)。例えば、符号化制御部23Lは、左目画像のX方向の幅を複数に等分して、等分した幅nの領域をリフレッシュ領域Lに設定してもよい。
<Flowchart of Embodiment>
Next, the processing flow of the embodiment will be described with reference to the flowcharts of FIGS. The encoding control unit 23L of the left-eye image encoding unit 10L sets a refresh area L in the left-eye image (Step S1). For example, the encoding control unit 23L may equally divide the width of the left-eye image in the X direction into a plurality of areas and set the equally divided area n as the refresh area L.

符号化制御部23Lは、リフレッシュ領域Lの全ての領域に符号化ブロックを設定する(ステップS2)。例えば、符号化制御部23Lは、符号化ブロックを4×4画素のサブブロックに設定してもよい。   The encoding control unit 23L sets an encoding block in all regions of the refresh region L (step S2). For example, the encoding control unit 23L may set the encoding block to a 4 × 4 pixel sub-block.

左目画像符号化部10Lは、左目画像内の全ての符号化ブロックについて、ラスタスキャン順で予測符号化を行うループを開始する(ステップS3)。符号化制御部23Lは、符号化ブロックがイントラリフレッシュの制限対象になっているか否かを判定する(ステップS4)。   The left-eye image encoding unit 10L starts a loop that performs predictive encoding in the raster scan order for all the encoded blocks in the left-eye image (step S3). The encoding control unit 23L determines whether or not the encoded block is an intra refresh restriction target (step S4).

上述したように、符号化ブロックが未リフレッシュ領域の画素を参照するイントラ予測符号化(イントラリフレッシュ)は制限される。従って、符号化ブロックがイントラリフレッシュの制限対象になっている場合(ステップS4でYES)、フレーム内予測部22Lは、リフレッシュ済み領域を参照したイントラ予測符号化を行う(ステップS5)。   As described above, intra prediction encoding (intra refresh) in which an encoding block refers to a pixel in an unrefreshed region is limited. Therefore, when the encoded block is a restriction target for intra refresh (YES in step S4), the intra-frame prediction unit 22L performs intra prediction encoding with reference to the refreshed region (step S5).

このため、ステップS4でYESの場合、符号化制御部23Lは、切り替え部24Lがフレーム内予測部22Lに接続されるように制御を行う。一方、符号化ブロックがイントラリフレッシュの制限対象になっていない場合(ステップS4でNO)、符号化制御部23Lは、インター符号化またはイントラ符号化を行うように制御する(ステップS5)。   For this reason, in the case of YES in step S4, the encoding control unit 23L performs control so that the switching unit 24L is connected to the intra-frame prediction unit 22L. On the other hand, when the encoded block is not a restriction target for intra refresh (NO in step S4), the encoding control unit 23L controls to perform inter encoding or intra encoding (step S5).

例えば、符号化ブロックがリフレッシュ領域Lの内側にある場合、符号化制御部23Lは、切り替え部24Lがフレーム内予測部22Lに接続される制御を行う。これにより、フレーム内予測部22Lは、リフレッシュ領域Lの内側にある符号化ブロックに対して、イントラ符号化を行う。   For example, when the coding block is inside the refresh region L, the coding control unit 23L performs control such that the switching unit 24L is connected to the intra-frame prediction unit 22L. As a result, the intra-frame prediction unit 22L performs intra coding on the coded block inside the refresh area L.

また、符号化ブロックがリフレッシュ領域Lの外側にある場合、符号化制御部23Lは、切り替え部24Lが動き補償部21Lに接続される制御を行う。これにより、動き検出部20Lは、リフレッシュ領域Lの外側にある符号化ブロックに対して、時間的に前後するフレームを参照したインター符号化を行う。   When the coding block is outside the refresh area L, the coding control unit 23L performs control such that the switching unit 24L is connected to the motion compensation unit 21L. As a result, the motion detection unit 20L performs inter coding on the coding block outside the refresh region L with reference to frames that are temporally adjacent.

左目画像符号化部10Lは、左目画像の1画像内の全ての符号化ブロックについて、ステップS5またはステップS6の処理が実行されるようにループ制御を行う(ステップS7)。ステップS3〜ステップS7のループが終了すると、処理は次のステップに進む。   The left-eye image encoding unit 10L performs loop control so that the process of step S5 or step S6 is executed for all the encoded blocks in one image of the left-eye image (step S7). When the loop from step S3 to step S7 ends, the process proceeds to the next step.

右目画像符号化部10Rの領域設定部25は、右目画像のリフレッシュ領域Rを設定する(ステップS8)。領域設定部25は、設定したリフレッシュ領域Rの内側の全ての領域にリフレッシュ対象の符号化ブロックを設定する(ステップS9)。そして、処理は「A」に進む。   The region setting unit 25 of the right eye image encoding unit 10R sets the refresh region R of the right eye image (step S8). The region setting unit 25 sets the encoding block to be refreshed in all regions inside the set refresh region R (step S9). Then, the process proceeds to “A”.

右目画像のリフレッシュ領域Rの設定について、図9のフローチャートを参照して説明する。領域設定部25は、左目画像符号化部10Lが設定するリフレッシュ領域Lが最初に左目画像に設定するリフレッシュ領域Lであるか否かを判定する(ステップS11)。   The setting of the refresh region R of the right eye image will be described with reference to the flowchart of FIG. The region setting unit 25 determines whether or not the refresh region L set by the left-eye image encoding unit 10L is the refresh region L that is initially set for the left-eye image (step S11).

リフレッシュ領域Lが最初に設定するリフレッシュ領域Lである場合(ステップS11でYES)、領域設定部25は、右目画像のリフレッシュ領域Rの幅aを設定する(ステップS12)。この幅aは、左目画像と右目画像との視差に基づく幅であり、実施形態では、固定値である。   When the refresh area L is the refresh area L that is set first (YES in step S11), the area setting unit 25 sets the width a of the refresh area R of the right-eye image (step S12). The width a is a width based on the parallax between the left eye image and the right eye image, and is a fixed value in the embodiment.

領域設定部25は、左目画像のリフレッシュ領域Lが最後端に設定されているか否かを判定する(ステップS13)。左目画像のリフレッシュ領域Lが最後端に設定されている場合(ステップS13でYES)、指定領域は、最後端からの所定領域と最先端までの所定領域とに分割されている。   The region setting unit 25 determines whether or not the refresh region L of the left-eye image is set at the last end (step S13). When the refresh area L of the left-eye image is set at the last end (YES in step S13), the designated area is divided into a predetermined area from the last end and a predetermined area up to the forefront.

従って、領域設定部25は、右目画像のリフレッシュ領域Rの幅を最後端から幅aの領域と最先端までの幅「n−a」の領域とに分割して設定する(ステップS14)。左目画像のリフレッシュ領域Lが最後端に設定されていない場合(ステップS13でNO)、領域設定部25は、右目画像のリフレッシュ領域Rの幅をnに設定する(ステップS15)。   Accordingly, the region setting unit 25 sets the width of the refresh region R of the right-eye image by dividing the width into the region of the width a and the region of the width “na” from the end to the forefront (step S14). If the refresh area L of the left-eye image is not set at the end (NO in step S13), the area setting unit 25 sets the width of the refresh area R of the right-eye image to n (step S15).

「A」以降の処理について、図10を参照して説明する。右目画像符号化部10Rは、右目画像内の全ての符号化ブロックについて、ラスタスキャン順で予測符号化を行うループを開始する(ステップS20)。   The processing after “A” will be described with reference to FIG. The right-eye image encoding unit 10R starts a loop that performs predictive encoding in the raster scan order for all the encoded blocks in the right-eye image (step S20).

符号化制御部23Rは、符号化ブロックがイントラリフレッシュの制限対象になっているか否かを判定する(ステップS21)。符号化ブロックがイントラリフレッシュの制限対象になっている場合(ステップS21でYES)、右目画像符号化部10Rは、左目画像の指定領域内の符号化ブロックについてビュー間予測符号化を行う(ステップS22)。   The encoding control unit 23R determines whether or not the encoded block is a restriction target for intra refresh (step S21). If the encoded block is a restriction target for intra refresh (YES in step S21), the right-eye image encoding unit 10R performs inter-view predictive encoding on the encoded block in the designated region of the left-eye image (step S22). ).

この場合、右目画像符号化部10Rの符号化制御部23Rは、切り替え部24Rが動き補償部21Rに接続される制御を行う。これにより、右目画像符号化部10Rは、左目画像の指定領域を参照したビュー間予測符号化を行う。   In this case, the encoding control unit 23R of the right-eye image encoding unit 10R performs control such that the switching unit 24R is connected to the motion compensation unit 21R. Thereby, the right-eye image encoding unit 10R performs inter-view prediction encoding with reference to the designated region of the left-eye image.

また、ステップS21でYESの場合、右目画像符号化部10Rは、リフレッシュ済み領域を参照したイントラ予測符号化を行ってもよい。この場合、符号化制御部23Rは、切り替え部24Rがフレーム内予測部22Rに接続される制御を行う。   Further, in the case of YES in step S21, the right eye image encoding unit 10R may perform intra prediction encoding with reference to the refreshed area. In this case, the encoding control unit 23R performs control such that the switching unit 24R is connected to the intra-frame prediction unit 22R.

符号化ブロックがイントラリフレッシュの制限対象になっていない場合(ステップS21でNO)、右目画像符号化部10Rは任意の方式(イントラ予測符号化、インター予測符号化またはビュー間予測符号化)で予測符号化を行う(ステップS23)。   If the encoded block is not a restriction target for intra refresh (NO in step S21), the right-eye image encoding unit 10R performs prediction using an arbitrary method (intra prediction encoding, inter prediction encoding, or inter-view prediction encoding). Encoding is performed (step S23).

右目画像符号化部10Rがイントラ予測符号化で右目画像の予測符号化を行う場合、符号化制御部23Rは、切り替え部24Rがフレーム内予測部22Rに接続される制御を行う。   When the right-eye image encoding unit 10R performs predictive encoding of the right-eye image by intra prediction encoding, the encoding control unit 23R performs control such that the switching unit 24R is connected to the intra-frame prediction unit 22R.

右目画像符号化部10Rがインター予測符号化またはビュー間予測符号化で右目画像の予測符号化を行う場合、符号化制御部23Rは、切り替え部24Rが動き補償部21Rに接続される制御を行う。   When the right-eye image encoding unit 10R performs predictive encoding of the right-eye image by inter prediction encoding or inter-view prediction encoding, the encoding control unit 23R performs control such that the switching unit 24R is connected to the motion compensation unit 21R. .

右目画像符号化部10Rは、右目画像の1画像内の全ての符号化ブロックについて、ステップS22またはステップS23の処理が実行させるようにループ制御を行う(ステップS37)。ステップS21〜ステップS24のループが終了すると、処理は終了する。   The right-eye image encoding unit 10R performs loop control so that the process of step S22 or step S23 is executed for all the encoded blocks in one image of the right-eye image (step S37). When the loop from step S21 to step S24 ends, the process ends.

<変形例の動画像符号化装置の一例>
次に、図11を参照して、変形例の動画像符号化装置の一例について説明する。変形例の動画像符号化装置1のうち、上述した動画像符号化装置1と共通している機能の説明は省略する。
<An example of a video encoding device according to a modification>
Next, an example of a moving image encoding apparatus according to a modification will be described with reference to FIG. Description of functions common to the above-described moving image encoding device 1 in the moving image encoding device 1 of the modification is omitted.

図11の例に示されるように、変形例の動画像符号化装置1の右目画像符号化部10Rは、候補領域設定部26と保持部27と統計部28とを備えている。候補領域設定部26は、右目画像のうち右目画像符号化部10Rが予測符号化を行うリフレッシュ領域Rの候補を設定する。以下、リフレッシュ領域Rの候補をリフレッシュ候補領域と称することがある。   As shown in the example of FIG. 11, the right-eye image encoding unit 10 </ b> R of the moving image encoding apparatus 1 according to the modification includes a candidate area setting unit 26, a holding unit 27, and a statistics unit 28. The candidate area setting unit 26 sets a candidate for the refresh area R in which the right-eye image encoding unit 10R performs predictive encoding in the right-eye image. Hereinafter, the refresh region R candidates may be referred to as refresh candidate regions.

保持部27は、ビュー間予測ベクトルを符号化ブロック単位で保持する。動き検出部20Rは、ビュー間予測符号化を行う。保持部27は、過去に動き検出部20Rがビュー間予測符号化を行ったときの予測ベクトルを1以上のフレームについて保持する。ビュー間予測符号化を行ったときの予測ベクトルは、左目画像と右目画像との視差を示している。   The holding unit 27 holds the inter-view prediction vector for each encoded block. The motion detection unit 20R performs inter-view prediction encoding. The holding unit 27 holds a prediction vector for one or more frames when the motion detection unit 20R has performed inter-view prediction encoding in the past. The prediction vector when inter-view prediction encoding is performed indicates the parallax between the left eye image and the right eye image.

統計部28は、保持部27が保持する過去の1以上のフレームの各符号化ブロックの予測ベクトルについて、統計処理を行う。統計部28が統計処理を行った結果を評価値とする。従って、評価値は、予測ベクトルに対して統計処理を行った値であるため、左目画像と右目画像との視差を示す値になる。   The statistical unit 28 performs statistical processing on the prediction vector of each encoded block of one or more past frames held by the holding unit 27. The result of statistical processing performed by the statistical unit 28 is used as an evaluation value. Therefore, since the evaluation value is a value obtained by performing statistical processing on the prediction vector, it is a value indicating the parallax between the left eye image and the right eye image.

統計部28は、直前の1フレームの各符号化ブロックの予測ベクトルの統計処理を行ってもよい。ただし、サンプル数が多いほど、統計処理の精度は向上する。このため、統計部28は、過去の複数フレームの各符号化ブロックの予測ベクトルの統計処理を行うことが好ましい。   The statistical unit 28 may perform statistical processing of the prediction vector of each encoded block of the immediately preceding one frame. However, the greater the number of samples, the better the accuracy of statistical processing. For this reason, it is preferable that the statistics part 28 performs the statistical process of the prediction vector of each encoding block of the past several frames.

例えば、統計部28は、過去の複数フレームの各符号化ブロックの予測ベクトルの平均値を評価値としてもよい。また、統計部28は、過去の複数フレームの各符号化ブロックの予測ベクトルの最大値を評価値としてもよい。   For example, the statistical unit 28 may use an average value of prediction vectors of each encoded block of a plurality of past frames as an evaluation value. Further, the statistical unit 28 may use the maximum value of the prediction vector of each encoded block of a plurality of past frames as the evaluation value.

<変形例の具体例>
次に、図12乃至図14を参照して、変形例の具体例について説明する。図12において、右目画像符号化部10Rの候補領域設定部26は、リフレッシュ候補領域(図中で太線の破線で囲まれた領域)の幅cを設定する。ここで、図13に示すように、左目画像符号化部10Lが左目画像に対してイントラリフレッシュを行うリフレッシュ領域Lの先端から左目画像の最後端までの幅をxnとする。
<Specific example of modification>
Next, a specific example of the modification will be described with reference to FIGS. In FIG. 12, the candidate area setting unit 26 of the right-eye image encoding unit 10 </ b> R sets the width c of the refresh candidate area (the area surrounded by the thick broken line in the figure). Here, as shown in FIG. 13, the width from the front end of the refresh area L where the left-eye image encoding unit 10L performs intra-refresh to the left-eye image to the last end of the left-eye image is set to xn.

この幅xnの領域は、左目画像のうち、リフレッシュ領域Lと既にイントラリフレッシュが行われたリフレッシュ済み領域との領域である。また、右目画像のうち、リフレッシュが行われたリフレッシュ済み領域の幅をbとする。   This area of width xn is the area of the refresh area L and the refreshed area that has already undergone intra refresh in the left-eye image. Also, the width of the refreshed area in the right-eye image that has been refreshed is b.

候補領域設定部26は、リフレッシュ候補領域の幅cを「c=xn―b」に設定する。図12は、リフレッシュ領域を設定する最初の時刻Tにおける左目画像のリフレッシュ領域Lおよび右目画像のリフレッシュ領域Rを示している。   The candidate area setting unit 26 sets the width c of the refresh candidate area to “c = xn−b”. FIG. 12 shows the refresh area L of the left eye image and the refresh area R of the right eye image at the first time T when setting the refresh area.

上述した実施形態と同様に、最初の時刻Tにおいて、左目画像符号化部10Lは、左目画像の最後端から幅nの領域をリフレッシュ領域Lに設定する。最初の時刻Tにおいて、左目画像にはリフレッシュ済み領域がない。   Similar to the above-described embodiment, at the first time T, the left-eye image encoding unit 10L sets a region having a width n from the end of the left-eye image as the refresh region L. At the first time T, the left-eye image has no refreshed area.

幅xnは、リフレッシュ領域Lとリフレッシュ済み領域との領域である。そして、最初の時刻Tにおいて、左目画像にリフレッシュ済み領域はない。よって、幅xnは、左目画像に設定されたリフレッシュ領域Lの幅nになる。   The width xn is an area between the refresh area L and the refreshed area. Then, at the first time T, there is no refreshed area in the left eye image. Therefore, the width xn is the width n of the refresh area L set for the left-eye image.

また、最初の時刻Tにおいて、右目画像にリフレッシュ済み領域はない。よって、候補領域設定部26は、リフレッシュ候補領域の幅cを「c=xn−b=n」に設定する。また、最初の時刻Tにおいて、領域設定部25は、左目画像と右目画像との視差に基づく幅aをリフレッシュ領域Rの幅mに設定する。   Also, at the first time T, there is no refreshed area in the right eye image. Therefore, the candidate area setting unit 26 sets the width c of the refresh candidate area to “c = xn−b = n”. At the first time T, the region setting unit 25 sets the width a based on the parallax between the left eye image and the right eye image to the width m of the refresh region R.

次に、図13を参照して、時刻T+T2における左目画像のリフレッシュ領域Lおよび右目画像のリフレッシュ領域Rについて説明する。時刻T+T2において、左目画像のリフレッシュ領域Lは、時刻TのときよりもX方向に進んでいる。   Next, the left eye image refresh area L and the right eye image refresh area R at time T + T2 will be described with reference to FIG. At time T + T2, the refresh area L of the left-eye image has advanced in the X direction from time T.

幅xnは、リフレッシュ領域Lとリフレッシュ済み領域との領域の幅である。よって、リフレッシュ済み領域の幅は「xn―n」になる。指定領域は、幅xnの全ての領域としてもよい。   The width xn is the width of the refresh area L and the refreshed area. Therefore, the width of the refreshed area is “xn−n”. The designated area may be all areas having a width xn.

右目画像符号化部10Rの候補領域設定部26は、リフレッシュ候補領域の幅cを設定する。時刻T+T2の時点において、右目画像のリフレッシュ済み領域の幅bがあるものとする。   The candidate area setting unit 26 of the right-eye image encoding unit 10R sets the width c of the refresh candidate area. It is assumed that there is a width b of the refreshed area of the right eye image at time T + T2.

従って、候補領域設定部26は、リフレッシュ候補領域の幅c(=xn―b)を設定する。領域設定部25は、候補領域設定部26が設定したリフレッシュ候補領域の幅cに基づいて、フレームごとに、リフレッシュ領域Rを設定する。   Accordingly, the candidate area setting unit 26 sets the width c (= xn−b) of the refresh candidate area. The region setting unit 25 sets the refresh region R for each frame based on the refresh candidate region width c set by the candidate region setting unit 26.

領域設定部25は、リフレッシュ領域Rの幅mを「m=c−v」に設定する。幅cは、リフレッシュ候補領域の幅である。幅vは、統計部28が統計処理を行った評価値に基づく幅である。   The region setting unit 25 sets the width m of the refresh region R to “m = cv”. The width c is the width of the refresh candidate area. The width v is a width based on an evaluation value obtained by performing statistical processing by the statistical unit 28.

統計部28は、保持部27が符号化ブロック単位で保持する保持する予測ベクトルに対して統計処理を行い、評価値を得る。この評価値は、過去のフレームにおいて、ビュー間予測符号化を行ったときの予測ベクトルに基づく値である。従って、評価値は、過去の左目画像と右目画像との視差に基づく値になる。   The statistical unit 28 performs statistical processing on the prediction vector held by the holding unit 27 in units of encoded blocks, and obtains an evaluation value. This evaluation value is a value based on a prediction vector when inter-view prediction encoding is performed in a past frame. Therefore, the evaluation value is a value based on the parallax between the past left-eye image and right-eye image.

そこで、領域設定部25は、フレームごとに、評価値に基づく幅vを反映したリフレッシュ領域Rの幅mを設定する。上述したように、リフレッシュ領域Rの幅mは、リフレッシュ候補領域の幅cから評価値に基づく幅vを減算した幅になる。   Therefore, the region setting unit 25 sets the width m of the refresh region R reflecting the width v based on the evaluation value for each frame. As described above, the width m of the refresh region R is a width obtained by subtracting the width v based on the evaluation value from the width c of the refresh candidate region.

評価値に基づく幅vは、左目画像と右目画像との視差を反映した値になる。よって、領域設定部25はリフレッシュ領域Rの幅mを「m=c−v」と設定することで、リフレッシュ領域Rの幅mは、左目画像と右目画像との視差に応じた可変値になる。   The width v based on the evaluation value is a value reflecting the parallax between the left eye image and the right eye image. Therefore, the region setting unit 25 sets the width m of the refresh region R to “m = c−v”, so that the width m of the refresh region R becomes a variable value according to the parallax between the left eye image and the right eye image. .

これにより、右目画像のリフレッシュ領域Rの幅nは、左目画像のリフレッシュ領域Lの幅nに同期するため、右目画像符号化部10Rは、左目画像のリフレッシュ済み領域を参照して、右目画像のリフレッシュを行うことができる。   Thus, since the width n of the refresh region R of the right eye image is synchronized with the width n of the refresh region L of the left eye image, the right eye image encoding unit 10R refers to the refreshed region of the left eye image and Refresh can be performed.

図14は、時刻T+T3の時点のリフレッシュ領域Lおよびリフレッシュ領域Rの一例を示している。左目画像符号化部10Lは、左目画像に対してイントラ符号化によるリフレッシュを行い、時刻T+T3の時点で、左目画像を一巡して、リフレッシュ領域Lは左目画像の最後端に戻っている。   FIG. 14 shows an example of the refresh area L and the refresh area R at time T + T3. The left-eye image encoding unit 10L performs refresh by intra-encoding on the left-eye image. At time T + T3, the left-eye image is made a round, and the refresh area L returns to the last end of the left-eye image.

上述した実施形態で説明したように、左目画像符号化部10Lは、左目画像の最後端から一部の領域と最先端までの一部の領域とに指定領域を分割する。この場合、右目画像符号化部10Rの候補領域設定部26は、右目画像のリフレッシュ候補領域の幅cを左目画像のリフレッシュ領域Lの幅nと同じ幅に設定する。   As described in the above-described embodiment, the left-eye image encoding unit 10L divides the designated region into a partial region from the rearmost end of the left-eye image to a partial region up to the forefront. In this case, the candidate area setting unit 26 of the right-eye image encoding unit 10R sets the width c of the refresh candidate area of the right-eye image to the same width as the width n of the refresh area L of the left-eye image.

また、領域設定部25は、リフレッシュ候補領域の幅cを幅vと幅mとに分割し、幅vの領域を右目画像の最先端までの領域に設定し、幅mの領域を右目画像の最後端からの領域に設定する。   In addition, the region setting unit 25 divides the width c of the refresh candidate region into a width v and a width m, sets the region with the width v as the region up to the forefront of the right-eye image, and sets the region with the width m as the right-eye image. Set the area from the end.

ここで、幅vの領域は、対応する左目画像の指定領域に含まれる。よって、右目画像符号化部10Rは、幅vの領域に対応する左目画像の指定領域を参照して、ビュー間予測符号化を行うことができる。   Here, the area of width v is included in the designated area of the corresponding left eye image. Therefore, the right-eye image encoding unit 10R can perform inter-view prediction encoding with reference to the designated region of the left-eye image corresponding to the region of width v.

領域設定部25は、幅vの領域をリフレッシュ領域Rの一部の領域に設定する。なお、幅vは、評価値に基づく幅である。一方、領域設定部25は、幅m(m=c−v)の領域もリフレッシュ領域Rの一部の領域に設定する。幅mは幅nより狭い。   The region setting unit 25 sets the region of the width v as a partial region of the refresh region R. The width v is a width based on the evaluation value. On the other hand, the region setting unit 25 also sets a region having a width m (m = cv) as a partial region of the refresh region R. The width m is narrower than the width n.

従って、右目画像符号化部10Rは、幅mに対応する左目画像の指定領域を参照してビュー間予測符号化を行うことができる。そこで、領域設定部25は、幅mの領域をリフレッシュ領域Rの一部の領域に設定する。   Therefore, the right-eye image encoding unit 10R can perform inter-view prediction encoding with reference to the designated region of the left-eye image corresponding to the width m. Therefore, the region setting unit 25 sets the region of width m as a partial region of the refresh region R.

従って、時刻T+T3において、左目画像の指定領域が分割されて、リフレッシュ領域Lが左目画像の最後端に接している場合、領域設定部25は、左目画像のリフレッシュ領域Lと同じ幅nの領域をリフレッシュ領域Rに設定する。この場合、リフレッシュ領域Rの幅は、最も広くなる。   Accordingly, at time T + T3, when the designated area of the left eye image is divided and the refresh area L is in contact with the end of the left eye image, the area setting unit 25 selects an area having the same width n as the refresh area L of the left eye image. Set to refresh region R. In this case, the width of the refresh region R is the widest.

上述したように、領域設定部25は、動画像データの各時刻のフレームごとに、右目画像のリフレッシ領域Rの大きさを、左目画像と右目画像との視差に基づいて、変化させている。このため、右目画像符号化部10Rは、右目画像のリフレッシュ領域Rにビュー間参照符号化を行うとき、左目画像のうちリフレッシュ済みの領域を参照する可能性を高くすることができる。   As described above, the region setting unit 25 changes the size of the refresh region R of the right-eye image based on the parallax between the left-eye image and the right-eye image for each time frame of the moving image data. Therefore, the right-eye image encoding unit 10R can increase the possibility of referring to the refreshed region of the left-eye image when performing inter-view reference encoding on the refresh region R of the right-eye image.

<変形例のフローチャート>
次に、変形例のフローチャートについて説明する。変形例の処理は、実施形態の各処理のうち、右目画像のリフレッシュ領域Rを設定する処理が実施形態の処理と異なる。つまり、変形例では、図8のステップS8の処理が実施形態の処理と異なる。
<Flow chart of modification>
Next, a flowchart of a modification will be described. The process of the modified example is different from the process of the embodiment in the process of setting the refresh region R of the right-eye image among the processes of the embodiment. That is, in the modification, the process of step S8 in FIG. 8 is different from the process of the embodiment.

右目画像のリフレッシュ領域Rを設定する処理以外の各種の処理は、実施形態で説明した処理と同様である。よって、実施形態と同様の処理については、変形例では説明を省略する。   Various processes other than the process of setting the refresh region R of the right-eye image are the same as the processes described in the embodiment. Therefore, description of processing similar to that in the embodiment is omitted in the modification.

変形例における右目画像のリフレッシュ領域Rの設定処理について説明する。領域設定部25は、左目画像符号化部10Lが設定するリフレッシュ領域Lが最初に左目画像に設定するリフレッシュ領域Lであるか否かを判定する(ステップS31)。   A process for setting the refresh region R of the right-eye image in the modification will be described. The region setting unit 25 determines whether or not the refresh region L set by the left-eye image encoding unit 10L is the refresh region L that is initially set for the left-eye image (step S31).

リフレッシュ領域Lが最初に設定するリフレッシュ領域Lである場合(ステップS31でYES)、領域設定部25は、右目画像のリフレッシュ領域Rの幅aを設定する(ステップS32)。この幅aは、左目画像と右目画像との視差に基づく幅である。   When the refresh area L is the refresh area L that is set first (YES in step S31), the area setting unit 25 sets the width a of the refresh area R of the right-eye image (step S32). The width a is a width based on the parallax between the left eye image and the right eye image.

候補領域設定部26は、左目画像のリフレッシュ領域Lが最後端に設定されているか否かを判定する(ステップS33)。左目画像のリフレッシュ領域Lが最後端に設定されていない場合(ステップS33でNO)、候補領域設定部26は、右目画像のリフレッシュ候補領域の幅cを設定する(ステップS34)。   The candidate area setting unit 26 determines whether or not the refresh area L of the left-eye image is set at the last end (step S33). If the refresh area L of the left-eye image is not set at the end (NO in step S33), the candidate area setting unit 26 sets the width c of the refresh candidate area of the right-eye image (step S34).

候補領域設定部26は、幅xnから幅bを減算することで、幅cを得る。そして、候補領域設定部26は、幅cの領域を右目画像のリフレッシュ候補領域に設定する。領域設定部25は、幅cから評価値に基づく幅vを減算した幅に対応する領域をリフレッシュ領域Rに設定する(ステップS35)。   The candidate area setting unit 26 obtains the width c by subtracting the width b from the width xn. Then, the candidate area setting unit 26 sets the area of the width c as the refresh candidate area for the right eye image. The region setting unit 25 sets a region corresponding to the width obtained by subtracting the width v based on the evaluation value from the width c as the refresh region R (step S35).

左目画像のリフレッシュ領域Lが最後端に設定されていると候補領域設定部26が判定した場合(ステップS33でYES)、候補領域設定部26は、右目画像のリフレッシュ候補領域の幅cを幅nと同じ幅に設定する(ステップS36)。   If the candidate area setting unit 26 determines that the refresh area L of the left-eye image is set at the end (YES in step S33), the candidate area setting unit 26 sets the width c of the refresh candidate area of the right-eye image to the width n. (Step S36).

そして、領域設定部25は、右目画像のリフレッシュ領域Rの一部の領域の幅を評価値に基づく幅vと同じ幅に設定する(ステップS37)。また、領域設定部25は、右目画像の最先端から幅vの領域をリフレッシュ領域Rの一部の領域に設定する。   Then, the area setting unit 25 sets the width of a part of the refresh area R of the right-eye image to the same width as the width v based on the evaluation value (step S37). The area setting unit 25 sets an area having a width v from the forefront of the right-eye image as a partial area of the refresh area R.

領域設定部25は、右目画像のリフレッシュ領域Rの一部の領域の幅を、リフレッシュ候補領域の幅cから評価値に基づく幅vを減算した幅に設定する(ステップS38)。また、領域設定部25は、右目画像の最後端から幅「c−v」の領域をリフレッシュ領域Rの一部の領域に設定する。   The area setting unit 25 sets the width of a part of the refresh area R of the right-eye image to a width obtained by subtracting the width v based on the evaluation value from the width c of the refresh candidate area (step S38). The area setting unit 25 sets an area having a width “cv” from the end of the right-eye image as a partial area of the refresh area R.

<動画像符号化装置のハードウェア構成の一例>
次に、図16の例を参照して、動画像符号化装置1のハードウェア構成の一例を説明する。図16の例に示すように、バス100に対して、プロセッサ111とRAM112とROM113と補助記憶装置114と媒体接続部115と通信インタフェース116とが接続されている。
<Example of Hardware Configuration of Video Encoding Device>
Next, an example of the hardware configuration of the moving image encoding device 1 will be described with reference to the example of FIG. As shown in the example of FIG. 16, a processor 111, a RAM 112, a ROM 113, an auxiliary storage device 114, a medium connection unit 115, and a communication interface 116 are connected to the bus 100.

プロセッサ111は任意の処理回路である。プロセッサ111はRAM112に展開されたプログラムを実行する。実行されるプログラムとしては、実施形態の処理を行うプログラムを適用してもよい。ROM113はRAM112に展開されるプログラムを記憶する不揮発性の記憶装置である。   The processor 111 is an arbitrary processing circuit. The processor 111 executes a program expanded in the RAM 112. As a program to be executed, a program for performing the processing of the embodiment may be applied. The ROM 113 is a non-volatile storage device that stores programs developed in the RAM 112.

補助記憶装置114は、種々の情報を記憶する記憶装置であり、例えばハードディスクドライブや半導体メモリ等を補助記憶装置114に適用してもよい。媒体接続部115は、可搬型記録媒体118と接続可能に設けられている。   The auxiliary storage device 114 is a storage device that stores various types of information. For example, a hard disk drive or a semiconductor memory may be applied to the auxiliary storage device 114. The medium connection unit 115 is provided so as to be connectable to the portable recording medium 118.

可搬型記録媒体118としては、可搬型のメモリや光学式ディスク(例えば、Compact Disc(CD)やDigital Versatile Disc(DVD)、半導体メモリ等)を適用してもよい。この可搬型記録媒体118に実施形態の処理を行うプログラムが記録されていてもよい。   As the portable recording medium 118, a portable memory or an optical disc (for example, Compact Disc (CD), Digital Versatile Disc (DVD), semiconductor memory, etc.) may be applied. A program for performing the processing of the embodiment may be recorded on the portable recording medium 118.

動画像符号化装置1の各部は、プロセッサ111が所定のプログラムを実行することにより実現されてもよい。また、動画像符号化装置1の各部はFPGA等により実現されてもよい。FPGAは、Field Programmable Gate Arrayの略称であり、プログラム可能な半導体集積回路である。   Each unit of the moving image encoding device 1 may be realized by the processor 111 executing a predetermined program. Moreover, each part of the moving image encoding device 1 may be realized by an FPGA or the like. FPGA is an abbreviation for Field Programmable Gate Array, and is a programmable semiconductor integrated circuit.

RAM112、ROM113、補助記憶装置114および可搬型記録媒体118は、何れもコンピュータ読み取り可能な有形の記憶媒体の一例である。これらの有形な記憶媒体は、信号搬送波のような一時的な媒体ではない。   The RAM 112, the ROM 113, the auxiliary storage device 114, and the portable recording medium 118 are all examples of a tangible storage medium that can be read by a computer. These tangible storage media are not temporary media such as signal carriers.

<その他>
本実施形態は、以上に述べた実施の形態に限定されるものではなく、本実施形態の要旨を逸脱しない範囲内で種々の構成または実施形態を取ることができる。
<Others>
The present embodiment is not limited to the above-described embodiment, and various configurations or embodiments can be taken without departing from the gist of the present embodiment.

1 動画像符号化装置
10L 左目画像符号化部
11L 右目画像符号化部
20L、20R 動き検出部
22L、22R フレーム内予測部
23L、23R 符号化制御部
24L、24R 切り替え部
25 領域決定部
26 候補領域決定部
27 保持部
28 統計部
111 プロセッサ
112 RAM
113 ROM
DESCRIPTION OF SYMBOLS 1 Moving image encoder 10L Left eye image encoding part 11L Right eye image encoding part 20L, 20R Motion detection part 22L, 22R Intraframe prediction part 23L, 23R Encoding control part 24L, 24R Switching part 25 Area | region determination part 26 Candidate area | region Determination unit 27 Holding unit 28 Statistics unit 111 Processor 112 RAM
113 ROM

Claims (10)

基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行う第1の予測符号化部と、
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を前記第2の領域として前記非基準画像上に設定する該領域設定部と
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、
を備える動画像符号化装置。
A first prediction encoding unit that performs first prediction encoding in the reference image while shifting a predetermined region for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. An area setting unit that is set for each frame, and is based on the parallax in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area the region which is delayed by the width of the said first region, and the region setting unit that sets on the non-reference image as the second region,
A second predictive coding unit that performs second predictive coding with reference to the first region of the reference image for the second region of the non-reference image;
A video encoding device comprising:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行う第1の予測符号化部と、
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記第1の領域を最初に設定した位置に再び前記第1の領域を設定した場合、前記第2の領域を前記非基準画像の両端に接する2つの領域に分割する該領域設定部と
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、
を備える動画像符号化装置。
A first prediction encoding unit that performs first prediction encoding in the reference image while shifting a predetermined region for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. An area setting unit that is set for each frame, and when the first area is set again at a position where the first area is initially set, the second area touches both ends of the non-reference image. The area setting unit for dividing the area into two areas ;
A second predictive coding unit that performs second predictive coding with reference to the first region of the reference image for the second region of the non-reference image;
A video encoding device comprising:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行う第1の予測符号化部と、
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定する領域設定部であって、前記基準画像と前記非基準画像との視差に基づく予測ベクトルに対して統計処理を行った評価値に基づいて、フレームごとに前記第2の領域の大きさを変化させる該領域設定部と
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行う第2の予測符号化部と、
を備える動画像符号化装置。
A first prediction encoding unit that performs first prediction encoding in the reference image while shifting a predetermined region for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. a region setting unit that sets for each frame, based on the evaluation value performed statistical processing on the prediction vector based on the parallax between the non-reference image and the reference image, of the second region for each frame The area setting unit for changing the size ;
A second predictive coding unit that performs second predictive coding with reference to the first region of the reference image for the second region of the non-reference image;
A video encoding device comprising:
前記領域設定部は、前記予測ベクトルのうち最大値または前記予測ベクトルの平均値を前記評価値とする、
請求項記載の動画像符号化装置。
The region setting unit uses the maximum value of the prediction vectors or the average value of the prediction vectors as the evaluation value.
The moving image encoding apparatus according to claim 3 .
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行うことと、Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定することであって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定することと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. It is set for each frame, and the width based on the parallax is set in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area. Setting a region delayed from the first region only as the second region on the non-reference image;
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータが実行する動画像符号化方法。A video encoding method in which a computer executes a process including:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行うことと、Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記第1の領域を最初に設定した位置に再び前記第1の領域を設定した場合、前記第2の領域を前記非基準画像の両端に接する2つの領域に分割することと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. Set for each frame, and when the first area is set again at the position where the first area was initially set, the second area is divided into two areas in contact with both ends of the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータが実行する動画像符号化方法。A video encoding method in which a computer executes a process including:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行うことと、Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記基準画像と前記非基準画像との視差に基づく予測ベクトルに対して統計処理を行った評価値に基づいて、フレームごとに前記第2の領域の大きさを変化させることと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. The size of the second region is changed for each frame based on an evaluation value that is set for each frame and statistical processing is performed on a prediction vector based on a parallax between the reference image and the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータが実行する動画像符号化方法。A video encoding method in which a computer executes a process including:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行うことと、
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定することであって、前記所定領域をずらしながら行われる前記第1の予測符号化によって前記第1の領域が前記基準画像上でずれる方向と同じ方向に、前記視差に基づく幅分だけ前記第1の領域から遅らせた領域を、前記第2の領域として前記非基準画像上に設定することと、
記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、
を含む処理をコンピュータに実行させるための動画像符号化プログラム。
Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. It is set for each frame, and the width based on the parallax is set in the same direction as the direction in which the first area is shifted on the reference image by the first predictive encoding performed while shifting the predetermined area. Setting a region delayed from the first region only as the second region on the non-reference image;
And be made to the second region of the previous SL non-reference image, the second predictive coding with reference to the first region of the reference image,
A moving picture encoding program for causing a computer to execute a process including:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行うことと、Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記第1の領域を最初に設定した位置に再び前記第1の領域を設定した場合、前記第2の領域を前記非基準画像の両端に接する2つの領域に分割することと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. Set for each frame, and when the first area is set again at the position where the first area was initially set, the second area is divided into two areas in contact with both ends of the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータに実行させるための動画像符号化プログラム。A moving picture encoding program for causing a computer to execute a process including:
基準画像に対して、フレームごとに所定領域をずらしながら前記基準画像内で第1の予測符号化を行うことと、Performing a first predictive encoding within the reference image while shifting a predetermined area for each frame with respect to the reference image;
非基準画像のうち、前記基準画像に対して前記第1の予測符号化が行われた第1の領域に対応する第2の領域を、前記基準画像と前記非基準画像との視差に基づいてフレームごとに設定し、前記基準画像と前記非基準画像との視差に基づく予測ベクトルに対して統計処理を行った評価値に基づいて、フレームごとに前記第2の領域の大きさを変化させることと、Based on the parallax between the reference image and the non-reference image, a second region corresponding to the first region in which the first predictive encoding is performed on the reference image among the non-reference images. The size of the second region is changed for each frame based on an evaluation value that is set for each frame and statistical processing is performed on a prediction vector based on a parallax between the reference image and the non-reference image. When,
前記非基準画像のうちの前記第2の領域に対して、前記基準画像の前記第1の領域を参照した第2の予測符号化を行うことと、Performing second predictive encoding with reference to the first region of the reference image for the second region of the non-reference image;
を含む処理をコンピュータに実行させるための動画像符号化プログラム。A moving picture encoding program for causing a computer to execute a process including:
JP2015064981A 2015-03-26 2015-03-26 Moving picture coding apparatus, moving picture coding method, and moving picture coding program Active JP6485159B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015064981A JP6485159B2 (en) 2015-03-26 2015-03-26 Moving picture coding apparatus, moving picture coding method, and moving picture coding program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015064981A JP6485159B2 (en) 2015-03-26 2015-03-26 Moving picture coding apparatus, moving picture coding method, and moving picture coding program

Publications (2)

Publication Number Publication Date
JP2016184891A JP2016184891A (en) 2016-10-20
JP6485159B2 true JP6485159B2 (en) 2019-03-20

Family

ID=57243268

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015064981A Active JP6485159B2 (en) 2015-03-26 2015-03-26 Moving picture coding apparatus, moving picture coding method, and moving picture coding program

Country Status (1)

Country Link
JP (1) JP6485159B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3617925B2 (en) * 1998-05-28 2005-02-09 Kddi株式会社 Stereo video encoding system
JP2014093602A (en) * 2012-11-01 2014-05-19 Toshiba Corp Image processing device, image processing method, image processing program, and stereoscopic image display device

Also Published As

Publication number Publication date
JP2016184891A (en) 2016-10-20

Similar Documents

Publication Publication Date Title
EP2781096B1 (en) Inside view motion prediction among texture and depth view components
EP2932472B1 (en) Inside view motion prediction among texture and depth view components with asymmetric spatial resolution
KR20200027487A (en) Method for inter prediction and apparatus thereof
KR101595419B1 (en) Method and apparatus for picture encoding/decoding
AU2013284038B2 (en) Method and apparatus of disparity vector derivation in 3D video coding
JP4663792B2 (en) Apparatus and method for encoding and decoding multi-view video
KR102216320B1 (en) Method for inter prediction and apparatus thereof
US10986359B2 (en) Method and device for inducing motion information between temporal points of sub prediction unit
WO2012008351A1 (en) Image processing device and image processing method
EP2319237A1 (en) Speculative start point selection for motion estimation iterative search
KR20120139552A (en) Method and a digital video encoder system for encoding digital video data
EP2314066A1 (en) Simple next search position selection for motion estimation iterative search
WO2012098845A1 (en) Image encoding method, image encoding device, image decoding method, and image decoding device
JP2014505398A (en) Multi-view video encoding / decoding apparatus and method
KR101524465B1 (en) Method and apparatus for multi-view video encoding using chrominance compensation, and method and apparatus for multi-view video decoding using chrominance compensation
JP2013115583A (en) Moving image encoder, control method of the same, and program
JP6485159B2 (en) Moving picture coding apparatus, moving picture coding method, and moving picture coding program
CN113709457A (en) Decoding and encoding method, device and equipment
JP6181242B2 (en) Image decoding method
JP5951915B2 (en) Image decoding method
JP5946980B1 (en) Image decoding method
JP5911982B2 (en) Image decoding method
JP5750191B2 (en) Image decoding method
KR20220066030A (en) Method for inter prediction and apparatus thereof
KR20140072939A (en) Method and apparatus for residual prediction for multi-view video coding

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181024

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190204

R150 Certificate of patent or registration of utility model

Ref document number: 6485159

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150