JP6324590B2 - Image encoding device, image encoding method and program, image decoding device, image decoding method and program - Google Patents

Image encoding device, image encoding method and program, image decoding device, image decoding method and program Download PDF

Info

Publication number
JP6324590B2
JP6324590B2 JP2017103759A JP2017103759A JP6324590B2 JP 6324590 B2 JP6324590 B2 JP 6324590B2 JP 2017103759 A JP2017103759 A JP 2017103759A JP 2017103759 A JP2017103759 A JP 2017103759A JP 6324590 B2 JP6324590 B2 JP 6324590B2
Authority
JP
Japan
Prior art keywords
image
information
unit
calculation accuracy
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017103759A
Other languages
Japanese (ja)
Other versions
JP2017200191A (en
Inventor
真悟 志摩
真悟 志摩
前田 充
充 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017103759A priority Critical patent/JP6324590B2/en
Publication of JP2017200191A publication Critical patent/JP2017200191A/en
Application granted granted Critical
Publication of JP6324590B2 publication Critical patent/JP6324590B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラムに関する。   The present invention relates to an image encoding device, an image encoding method and program, an image decoding device, an image decoding method and a program.

動画像の圧縮記録の符号化方式として、H.264/MPEG−4 AVC(以下H.264と略す)が知られている。(非特許文献1)H.264においては、符号化技術の制限を定義した複数のプロファイルが定義されており、例えばHigh10プロファイルは8ビット〜10ビットまでのビット深度の画像に対応している。   As an encoding method for compression recording of moving images, H.264 is used. H.264 / MPEG-4 AVC (hereinafter abbreviated as H.264) is known. (Non-Patent Document 1) H.264 defines a plurality of profiles that define encoding technology limitations. For example, the High 10 profile corresponds to an image having a bit depth of 8 bits to 10 bits.

近年、H.264の後継としてさらに高効率な符号化方式の国際標準化を行う活動が開始された。JCT−VC(Joint Collaborative Team on Video Coding)がISO/IECとITU−Tの間で設立された。このJCT−VCにおいて、HEVC(High Efficiency Video Coding)符号化方式(以下、HEVCと略す)として標準化が進められている。   In recent years, H.C. As a successor to H.264, activities to start international standardization of a more efficient coding method have started. JCT-VC (Joint Collaborative Team on Video Coding) was established between ISO / IEC and ITU-T. In this JCT-VC, standardization is underway as a HEVC (High Efficiency Video Coding) coding method (hereinafter abbreviated as HEVC).

HEVCにおいても8ビット〜10ビットまでのビット深度の画像に対応したMain10プロファイルが定義されている。(非特許文献2)   Also in HEVC, a Main 10 profile corresponding to an image having a bit depth of 8 bits to 10 bits is defined. (Non-Patent Document 2)

ITU−T H.264 (06/2011) Advancedvideo coding for generic audiovisual servicesITU-TH. H.264 (06/2011) Advanced video coding for generic audiovisual services JCT−VC 寄書 JCTVC−K1003_v10.doc インターネット<http://phenix.int‐evry.fr/jct/doc_end_user/documents/11_Shanghai/wg11/>JCT-VC contribution JCTVC-K1003_v10. doc Internet <http: // phenix. int-evry. fr / jct / doc_end_user / documents / 11_Shanghai / wg11 />

HEVCでは、直交変換や動き補償といった処理において、画像のビット深度に応じて演算精度を低下させることにより、実装の容易性を重視した構成となっている。例えば、下記の式(1)は色差信号の動き補償において、小数画素の動き補償処理に用いる計算式のうちの一つである。   HEVC has a configuration that emphasizes ease of mounting by reducing calculation accuracy in accordance with the bit depth of an image in processing such as orthogonal transformation and motion compensation. For example, the following formula (1) is one of calculation formulas used for motion compensation processing of sub-pixels in motion compensation of color difference signals.

ab0,0=(−2×B−1,0+58×B0,0+10×B1,0−2×B2,0)>>shift1…(1)
(ただし、shift1=色差ビット深度−8であり、「>>」は右へのビットシフトを表す。)
上記の式(1)において、Bi,jは整数画素位置の色差画素を、ab0,0は小数画素位置の色差画素を算出するための中間値を表している。式(1)では必ずビット深度に依存したshift1による右へのビットシフト処理が含まれるため、中間値ab0,0の取りうる値の範囲は画像のビット深度によらず一定となっている。こうした演算処理が導入されているため、HEVCにおいてはより高ビット深度の画像をサポートする場合においてもハードウェアの実装コストはさほど上昇しないと考えられている。その反面、上述のビットシフト処理に代表される演算により、高ビット深度の画像に対しては演算精度の低下が発生し、画質が向上しないといった問題が生じている。
ab 0,0 = (- 2 × B -1,0 + 58 × B 0,0 + 10 × B 1,0 -2 × B 2,0) >> shift1 ... (1)
(However, shift1 = chrominance bit depth−8, and “>>” represents a bit shift to the right.)
In the above equation (1), B i, j represents the color difference pixel at the integer pixel position, and ab 0,0 represents the intermediate value for calculating the color difference pixel at the decimal pixel position. Since the expression (1) always includes bit shift processing to the right by shift1 depending on the bit depth, the range of values that the intermediate values ab 0,0 can take is constant regardless of the bit depth of the image. Since such arithmetic processing is introduced, it is considered that the implementation cost of hardware does not increase so much in HEVC even when an image with a higher bit depth is supported. On the other hand, the calculation represented by the above-described bit shift processing causes a problem that the calculation accuracy is lowered for an image with a high bit depth and the image quality is not improved.

したがって、本発明は上述した課題を解決するためになされたものである。すなわち画像のビット深度によらず高ビット深度でも一定の精度を保った符号化処理と、ビット深度依存で高ビット深度では演算精度を低下させて実装の容易性を重視した符号化処理の両方をサポートする符号化・復号の実現を可能することを目的としている。   Therefore, the present invention has been made to solve the above-described problems. In other words, both encoding processing that maintains constant accuracy even at high bit depths regardless of the bit depth of the image, and encoding processing that emphasizes ease of implementation by reducing the calculation accuracy at high bit depths depending on the bit depth. The purpose is to realize supported encoding / decoding.

上述の問題点を解決するため、本発明の画像符号化装置以下の構成を有する、すなわち、画像を符号化する画像符号化装置であって、対象画素と予測画素との差分に対して変換処理を行って係数を導出する導出手段と前記係数に対応するデータと、前記係数に係る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグと、を符号化する符号化手段とを有する
また、本発明の画像復号装置は以下の構成を有する。すなわち、ビットストリームから画像を復号する画像復号装置であって、前記画像の画素に係る係数に対応するデータと、前記係数に係る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグと、を前記ビットストリームから復号する復号手段と、変換処理を行って、前記係数に基づく、対象画素と予測画素との差分を導出する導出手段とを有する。
In order to solve the above-described problems, the image coding apparatus according to the present invention has the following configuration, that is, an image coding apparatus that codes an image, and performs conversion processing on a difference between a target pixel and a prediction pixel A code that encodes the derivation means for deriving the coefficient by performing data, data corresponding to the coefficient, and a flag indicating whether the minimum and maximum values related to the coefficient are determined by the bit depth or fixed The image decoding apparatus of the present invention has the following configuration. That is, an image decoding apparatus for decoding an image from a bitstream, wherein data corresponding to a coefficient related to a pixel of the image and a minimum value and a maximum value related to the coefficient are determined by a bit depth or fixed. And a deriving unit for deriving a difference between the target pixel and the predicted pixel based on the coefficient by performing a conversion process.

本発明により、画像のビット深度によらず高ビット深度でも一定の精度を保った符号化処理と、ビット深度依存で高ビット深度では演算精度を低下させて実装の容易性を重視した符号化処理の両方をサポートする符号化・復号が実現できる。結果としてアプリケーションごとの要求仕様によりこれらの符号化処理を切り替えることが可能になる。   According to the present invention, an encoding process that maintains a constant accuracy even at a high bit depth regardless of the bit depth of the image, and an encoding process that emphasizes ease of implementation by reducing the calculation accuracy at a high bit depth depending on the bit depth. Encoding / decoding that supports both of the above can be realized. As a result, these encoding processes can be switched according to the required specifications for each application.

実施形態1における画像符号化装置の構成を示すブロック図1 is a block diagram illustrating a configuration of an image encoding device according to a first embodiment. 実施形態2における画像復号装置の構成を示すブロック図FIG. 3 is a block diagram illustrating a configuration of an image decoding device according to a second embodiment. 実施形態3における画像符号化装置の構成を示すブロック図FIG. 9 is a block diagram illustrating a configuration of an image encoding device according to a third embodiment. 実施形態4における画像復号装置の構成を示すブロック図FIG. 9 is a block diagram illustrating a configuration of an image decoding device according to a fourth embodiment. 実施形態1に係る画像符号化装置における画像符号化処理を示すフローチャート7 is a flowchart showing image encoding processing in the image encoding apparatus according to the first embodiment. 実施形態2に係る画像復号装置における画像復号処理を示すフローチャート7 is a flowchart showing image decoding processing in the image decoding apparatus according to the second embodiment. 実施形態3に係る画像符号化装置における画像符号化処理を示すフローチャート10 is a flowchart showing image encoding processing in the image encoding apparatus according to the third embodiment. 実施形態4に係る画像復号装置における画像復号処理を示すフローチャート10 is a flowchart showing image decoding processing in the image decoding apparatus according to the fourth embodiment. 実施形態5における画像符号化装置の構成を示すブロック図FIG. 7 is a block diagram illustrating a configuration of an image encoding device according to a fifth embodiment. 実施形態6における画像復号装置の構成を示すブロック図FIG. 9 is a block diagram illustrating a configuration of an image decoding device according to a sixth embodiment. 実施形態5における画像符号化装置の別な構成を示すブロック図FIG. 10 is a block diagram showing another configuration of the image encoding device according to the fifth embodiment. 実施形態6における画像復号装置の別な構成を示すブロック図FIG. 10 is a block diagram showing another configuration of the image decoding apparatus according to the sixth embodiment. 実施形態5に係る画像符号化装置における画像符号化処理を示すフローチャート10 is a flowchart showing image encoding processing in the image encoding device according to the fifth embodiment. 実施形態6に係る画像復号装置における画像復号処理を示すフローチャート10 is a flowchart showing image decoding processing in the image decoding apparatus according to the sixth embodiment. 実施形態5に係る画像符号化装置における画像符号化処理を示す別なフローチャートAnother flowchart showing an image encoding process in the image encoding device according to the fifth embodiment. 実施形態6に係る画像復号装置における画像復号処理を示す別なフローチャートAnother flowchart showing an image decoding process in the image decoding apparatus according to the sixth embodiment. 実施形態1によって生成され、実施形態2によって復号されるビットストリーム構造の一例を示す図The figure which shows an example of the bit stream structure produced | generated by Embodiment 1 and decoded by Embodiment 2. 実施形態3によって生成され、実施形態4によって復号されるビットストリーム構造の一例を示す図The figure which shows an example of the bit stream structure produced | generated by Embodiment 3 and decoded by Embodiment 4. 実施形態5によって生成され、実施形態6によって復号されるビットストリーム構造の一例を示す図The figure which shows an example of the bit stream structure produced | generated by Embodiment 5 and decoded by Embodiment 6. 本発明の画像符号化装置、復号装置に適用可能なコンピュータのハードウェア構成例を示すブロック図1 is a block diagram showing an example of a hardware configuration of a computer applicable to an image encoding device and a decoding device of the present invention. 実施形態1および実施形態2におけるレンジ情報、画像のビット深度と量子化係数の取りうる範囲の関係性を示す図The figure which shows the relationship between the range information in Embodiment 1 and Embodiment 2, the bit depth of an image, and the range which a quantization coefficient can take

以下、添付の図面を参照して、本願発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on the preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
以下、本発明の実施形態を、図面を用いて説明する。図1は本実施形態の画像符号化装置を示すブロック図である。図1において、101は画像データを入力する端子である。
<Embodiment 1>
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing an image encoding apparatus according to this embodiment. In FIG. 1, reference numeral 101 denotes a terminal for inputting image data.

102は入力部であり、入力された画像データのビット深度を解析するとともに正方形のブロック単位に分割する。103は変換量子化演算精度情報生成部であり、後述する変換量子化演算精度選択情報を生成する。と同時に、変換量子化部106で用いられる変換量子化処理や逆量子化逆変換部107で用いられる逆量子化逆変換処理の演算精度を示す変換量子化演算精度情報を生成する。104はヘッダ符号化部であり、画像のビット深度情報を初めとするビットストリームの復号に必要な情報を符号化し、ヘッダ符号データを生成する。   An input unit 102 analyzes the bit depth of the input image data and divides it into square blocks. Reference numeral 103 denotes a transform quantization operation accuracy information generation unit that generates transform quantization operation accuracy selection information described later. At the same time, transform quantization calculation accuracy information indicating the calculation accuracy of the transform quantization process used in the transform quantization unit 106 and the inverse quantization inverse transform process used in the inverse quantization inverse transform unit 107 is generated. Reference numeral 104 denotes a header encoding unit that encodes information necessary for decoding a bit stream including bit depth information of an image to generate header code data.

105は予測部であり、正方形に分割されたブロック単位でフレームメモリ109を参照してフレーム内予測であるイントラ予測やフレーム間予測であるインター予測などを行い、予測の方法を示す予測情報および予測誤差を生成する。106は変換量子化部であり、予測部105で生成された予測誤差をブロック単位で直交変換して変換係数を算出し、さらに変換係数を量子化して量子化係数を算出する。107は変換量子化部106で生成された量子化係数を逆量子化して変換係数を再生し、さらに逆直交変換して予測誤差を再生する逆量子化逆変換部である。   A prediction unit 105 refers to the frame memory 109 in units of blocks divided into squares, performs intra prediction that is intra-frame prediction, inter prediction that is inter-frame prediction, and the like. Generate an error. Reference numeral 106 denotes a transform quantization unit, which orthogonally transforms the prediction error generated by the prediction unit 105 in units of blocks to calculate transform coefficients, and further quantizes the transform coefficients to calculate quantization coefficients. Reference numeral 107 denotes an inverse quantization inverse transform unit that inversely quantizes the quantization coefficient generated by the transform quantization unit 106 to reproduce the transform coefficient, and further performs inverse orthogonal transform to reproduce a prediction error.

108は画像再生部であり、予測部105で生成された予測情報に基づいてフレームメモリ109を参照してイントラ予測やインター予測などを行い、逆量子化逆変換部107で生成された予測誤差から再生画像を生成する。109は画像再生部108で再生された画像を保持しておくフレームメモリである。110はブロック符号化部であり、予測部105で生成された予測情報や変換量子化部106で生成された量子化係数を符号化してブロック符号データを生成する。111は前段で生成されたヘッダ符号データおよびブロック符号データからビットストリームを形成して出力する統合符号化部である。112は端子であり、統合符号化部111で生成されたビットストリームを外部に出力する。   An image reproduction unit 108 refers to the frame memory 109 based on the prediction information generated by the prediction unit 105 and performs intra prediction, inter prediction, and the like. From the prediction error generated by the inverse quantization and inverse conversion unit 107 Generate a playback image. Reference numeral 109 denotes a frame memory that holds an image reproduced by the image reproducing unit 108. A block encoding unit 110 encodes the prediction information generated by the prediction unit 105 and the quantization coefficient generated by the transform quantization unit 106 to generate block code data. Reference numeral 111 denotes an integrated encoding unit that forms a bit stream from the header code data and block code data generated in the previous stage and outputs the bit stream. Reference numeral 112 denotes a terminal that outputs the bitstream generated by the integrated encoding unit 111 to the outside.

上記画像符号化装置における画像の符号化動作を以下に説明する。本実施形態では動画像データをフレーム単位に入力する構成となっているが、1フレーム分の静止画像データを入力する構成としても構わない。   An image encoding operation in the image encoding apparatus will be described below. In the present embodiment, moving image data is input in units of frames, but still image data for one frame may be input.

端子101から入力された1フレーム分の画像データは入力部102に入力される。本実施形態では10ビット深度の画像データが入力されるものとするが、入力される画像データのビット深度はこれに限定されない。入力部102では入力画像データのビット深度の解析を行い、ビット深度情報として後段のレンジ情報生成部103およびヘッダ符号化部104に出力する。ただし、ビット深度情報は外部から別途与えられ、変換量子化演算精度情報生成部103およびヘッダ符号化部104にそれぞれ入力する構成とすることも可能である。また、入力された画像データは正方形のブロック単位に分割され、予測部105に出力される。   The image data for one frame input from the terminal 101 is input to the input unit 102. In this embodiment, it is assumed that 10-bit depth image data is input, but the bit depth of the input image data is not limited to this. The input unit 102 analyzes the bit depth of the input image data, and outputs the bit depth information to the subsequent range information generation unit 103 and the header encoding unit 104. However, it is also possible to adopt a configuration in which the bit depth information is separately given from the outside and input to the transform quantization calculation accuracy information generation unit 103 and the header encoding unit 104, respectively. The input image data is divided into square blocks and output to the prediction unit 105.

変換量子化演算精度情報生成部103では、ビット深度によって演算精度を調節して実装容易性を優先した変換量子化処理を用いるか、ビット深度によらず演算精度を固定した変換量子化処理を用いるかを決定し、その情報を変換量子化演算精度選択情報とする。以下、前者のビット深度によって演算精度を調節した変換量子化処理を実装重視変換量子化処理、後者の演算精度を固定した変換量子化処理を精度重視変換量子化処理と呼称する。本実施形態では、前者の実装重視変換量子化処理が選択された場合には変換量子化演算精度選択情報は0となり、後者の精度重視変換量子化処理が選択された場合には変換量子化演算精度選択情報は1となるものとする。ただし、選択された変換量子化処理と変換量子化演算精度選択情報との組合せはこれらに限定されない。また、変換量子化演算精度選択情報の決定方法も特に限定されず、本符号化装置および対応する復号装置が使用されるアプリケーションを想定して符号化処理に先立って決定しておいても良いし、不図示のユーザによって選択されても良い。例えば、本実施形態の符号化装置が演算精度重視のアプリケーションで使用されることが想定される場合には、変換量子化演算精度選択情報を1とし、そうでなければ0とするといった具合である。   The transform quantization calculation accuracy information generation unit 103 uses a transform quantization process that adjusts the calculation precision according to the bit depth and prioritizes mounting ease, or uses a transform quantization process that fixes the calculation precision regardless of the bit depth. And the information is used as transform quantization calculation accuracy selection information. Hereinafter, the former transform quantization processing in which the calculation accuracy is adjusted according to the bit depth is referred to as implementation-oriented transform quantization processing, and the latter transform quantization processing in which the calculation accuracy is fixed is referred to as accuracy-oriented transform quantization processing. In the present embodiment, when the former implementation-oriented transform quantization process is selected, the transform quantization operation accuracy selection information is 0, and when the latter accuracy-oriented transform quantization process is selected, the transform quantization operation is performed. It is assumed that the accuracy selection information is 1. However, the combination of the selected transform quantization process and transform quantization calculation accuracy selection information is not limited to these. Also, the method for determining the transform quantization calculation accuracy selection information is not particularly limited, and may be determined prior to the encoding process assuming an application in which the present encoding device and the corresponding decoding device are used. It may be selected by a user (not shown). For example, when it is assumed that the encoding apparatus according to the present embodiment is used in an application in which calculation accuracy is important, the transform quantization calculation accuracy selection information is set to 1, otherwise it is set to 0. .

次に、変換量子化演算精度情報生成部103は、前述の変換量子化演算精度選択情報および入力部102から入力されたビット深度情報に基づいて変換量子化演算精度情報を生成する。変換量子化演算精度選択情報が1の場合には、画像のビット深度と基準となるビット深度である8ビットとの差分値を変換量子化演算精度情報とする。本実施形態では、画像のビット深度は10ビットであるので、変換量子化演算精度情報は2となる。また、変換量子化演算精度選択情報が0の場合には、0を変換量子化演算精度情報とする。ただし、変換量子化演算精度情報の値と意味の組合せは上記に限定されず、画像のビット深度が基準となるビット深度よりも大きい場合に、変換量子化処理の演算精度を高めることを示すことが出来る情報であれば良い。   Next, the transform quantization operation accuracy information generation unit 103 generates transform quantization operation accuracy information based on the above-described transform quantization operation accuracy selection information and the bit depth information input from the input unit 102. When the transform quantization operation accuracy selection information is 1, the difference value between the bit depth of the image and the reference bit depth of 8 bits is used as transform quantization operation accuracy information. In this embodiment, since the bit depth of the image is 10 bits, the transform quantization calculation accuracy information is 2. When the transform quantization operation accuracy selection information is 0, 0 is used as transform quantization operation accuracy information. However, the combination of value and meaning of transform quantization calculation accuracy information is not limited to the above, and indicates that the calculation accuracy of transform quantization processing is improved when the bit depth of the image is larger than the reference bit depth. Any information can be used.

生成された変換量子化演算精度選択情報はヘッダ符号化部104に出力され、変換量子化演算精度情報は変換量子化部106および逆量子化逆変換部107に出力される。   The generated transform quantization operation accuracy selection information is output to the header encoding unit 104, and the transform quantization operation accuracy information is output to the transform quantization unit 106 and the inverse quantization inverse transform unit 107.

ヘッダ符号化部104では、入力部102から入力されたビット深度情報および変換量子化演算精度情報生成部103から入力された変換量子化演算精度選択情報を初めとする復号に必要な情報を符号化し、ヘッダ符号データを生成する。このヘッダ符号データはビットストリームのヘッダ部に相当する。生成されたヘッダ符号データは統合符号化部111に出力される
一方、予測部105では入力部102で分割されたブロック単位の画像データが入力され、フレームメモリ109に格納されている符号化済みの画素を適宜参照してブロック単位の予測が行われ、予測画像が生成される。ブロック単位の入力画像と予測画像の差分として、予測誤差が生成され、変換量子化部106に入力される。また、予測部105では動きベクトルや予測モードなどの予測に必要な情報を予測情報として生成し、画像再生部108およびブロック符号化部110に出力する。
The header encoding unit 104 encodes information necessary for decoding including the bit depth information input from the input unit 102 and the transform quantization operation accuracy selection information input from the transform quantization operation accuracy information generation unit 103. The header code data is generated. This header code data corresponds to the header portion of the bit stream. The generated header code data is output to the integrated encoding unit 111, while the prediction unit 105 receives the block-unit image data divided by the input unit 102 and stores the encoded image data stored in the frame memory 109. Prediction in units of blocks is performed with reference to the pixels as appropriate, and a predicted image is generated. A prediction error is generated as a difference between the input image of the block unit and the predicted image, and is input to the transform quantization unit 106. Further, the prediction unit 105 generates information necessary for prediction such as a motion vector and a prediction mode as prediction information, and outputs the prediction information to the image reproduction unit 108 and the block encoding unit 110.

変換量子化部106では、まず、変換量子化演算精度情報生成部103から変換量子化演算精度情報を入力し、変換量子化処理における演算精度を決定する。本実施形態では、図21に示されたテーブルに基づいて、演算精度として水平・垂直各方向の一次元の直交変換や量子化処理といった各演算結果の取りうる範囲を決定するものとする。ただし、変換量子化演算精度情報と各演算結果の取りうる範囲の組合せはこれらに限定されない。本実施形態では、0または2の値を持つ変換量子化演算精度情報が入力されることから、各演算結果はそれぞれ−32768〜32767または−131072〜131071の範囲をもつことになる。各演算結果が上記の範囲外になった場合の処理については特に限定しないが、クリップ処理やビットシフト処理により結果を上記の範囲内におさめることができる。   The transform quantization unit 106 first inputs transform quantization operation accuracy information from the transform quantization operation accuracy information generation unit 103, and determines the operation accuracy in the transform quantization process. In the present embodiment, based on the table shown in FIG. 21, the range that can be taken by each calculation result such as one-dimensional orthogonal transformation or quantization processing in the horizontal and vertical directions is determined as the calculation accuracy. However, the combination of the transform quantization calculation accuracy information and the range that each calculation result can take is not limited to these. In this embodiment, since transform quantization calculation accuracy information having a value of 0 or 2 is input, each calculation result has a range of −32768 to 32767 or −131072 to 131071, respectively. There is no particular limitation on the processing when each calculation result falls outside the above range, but the result can be kept within the above range by clip processing or bit shift processing.

次に、上述の決定された演算精度に基づいて、予測部105から入力された予測誤差に対して直交変換を行い、変換係数を生成し、さらに変換係数を量子化し、量子化係数を生成する。生成された量子化係数は逆量子化逆変換部107およびブロック符号化部110に出力する。   Next, based on the above-described determined calculation accuracy, orthogonal transform is performed on the prediction error input from the prediction unit 105, a transform coefficient is generated, the transform coefficient is further quantized, and a quantized coefficient is generated. . The generated quantization coefficient is output to the inverse quantization inverse transform unit 107 and the block coding unit 110.

逆量子化逆変換部107においても変換量子化部106と同様に、まず、変換量子化演算精度情報生成部103から変換量子化演算精度情報を入力し、逆量子化逆変換処理における演算精度を決定する。本実施形態では、変換量子化部106と同様に、図21に示されたテーブルに基づいて、演算精度として逆量子化処理や垂直・水平各方向の一次元の直交変換処理といった各演算結果の取りうる範囲を決定するものとする。   Similarly to the transform quantization unit 106, the inverse quantization inverse transform unit 107 first inputs the transform quantization computation accuracy information from the transform quantization computation accuracy information generation unit 103, and increases the computation accuracy in the inverse quantization inverse transform process. decide. In the present embodiment, similar to the transform quantization unit 106, based on the table shown in FIG. 21, each computation result such as inverse quantization processing and one-dimensional orthogonal transform processing in each of the vertical and horizontal directions is calculated as computation accuracy. The possible range shall be determined.

次に、上述の決定された演算精度に基づいて、変換量子化部106から入力された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。再生された予測誤差は画像再生部108に出力される。   Next, based on the determined calculation accuracy, the quantization coefficient input from the transform quantization unit 106 is inversely quantized to reproduce the transform coefficient, and further, inverse orthogonal transform to the reconstructed transform coefficient is performed for prediction. Play back the error. The reproduced prediction error is output to the image reproduction unit 108.

画像再生部108では、予測部105から入力された予測情報に基づいて、フレームメモリ109を適宜参照して予測画像を生成し、生成された予測画像と逆量子化逆変換部107から入力された予測誤差から再生画像を生成する。生成された再生画像はフレームメモリ109に出力され、格納される。   In the image reproduction unit 108, based on the prediction information input from the prediction unit 105, a predicted image is generated by referring to the frame memory 109 as appropriate, and the generated prediction image and the inverse quantization inverse transform unit 107 are input. A reproduced image is generated from the prediction error. The generated reproduced image is output to the frame memory 109 and stored.

ブロック符号化部110では、ブロック単位で、変換量子化部106から入力された量子化係数および予測部105から入力された予測情報をエントロピー符号化し、ブロック符号データを生成する。エントロピー符号化の方法は特に指定しないが、ゴロム符号化、算術符号化、ハフマン符号化などを用いることができる。生成されたブロック符号データは統合符号化部111に出力される。   The block encoding unit 110 entropy-encodes the quantization coefficient input from the transform quantization unit 106 and the prediction information input from the prediction unit 105 in units of blocks to generate block code data. The entropy encoding method is not particularly specified, but Golomb encoding, arithmetic encoding, Huffman encoding, or the like can be used. The generated block code data is output to the integrated encoding unit 111.

統合符号化部111では、ブロック単位の符号化処理に先駆けてヘッダ符号化部104で生成されて入力されたヘッダ符号データおよびブロック符号化部110から入力されたブロック符号データを多重化してビットストリームが形成される。最終的に、統合符号化部111で形成されたビットストリームは端子112から外部に出力される。   The integrated encoding unit 111 multiplexes the header code data generated and input by the header encoding unit 104 and the block code data input from the block encoding unit 110 prior to the block-by-block encoding process to generate a bitstream. Is formed. Finally, the bit stream formed by the integrated encoding unit 111 is output from the terminal 112 to the outside.

図17(a)に本実施形態で生成されたビットストリームの一例を示す。変換量子化演算精度選択情報は変換量子化演算精度選択情報符号として、シーケンス、ピクチャ等のヘッダのいずれかに含まれる。また、ビット深度情報も同様にビット深度情報符号としてヘッダのいずれかに含まれる。   FIG. 17A shows an example of the bit stream generated in this embodiment. The transform quantization operation accuracy selection information is included as a transform quantization operation accuracy selection information code in one of headers such as a sequence and a picture. Similarly, bit depth information is also included in one of the headers as a bit depth information code.

ただし、ビットストリームの構成はこれに限定されず、図17(b)に示されるように、変換量子化演算精度選択情報符号を符号化する代わりに、対応するプロファイルを決定し、決定したプロファイルをプロファイル情報符号として符号化してもよい。例えば、メイン10ビットプロファイルとメイン10ビット高精度プロファイルが存在し、それぞれが変換量子化演算精度選択情報=0と変換量子化演算精度選択情報=1に対応するものとする。すなわち、メイン10ビットプロファイルでは変換量子化処理の各演算結果の取りうる範囲は画像のビット深度に関わらず一定であり、メイン10ビット高精度プロファイルでは上記の範囲は画像のビット深度に応じて変わることになる。この場合、変換量子化演算精度選択情報が0の場合にはメイン10ビットプロファイルを示す符号を、1の場合にはメイン10ビット高精度プロファイルを示す符号をプロファイル情報符号として符号化する構成をとっても構わない。   However, the configuration of the bit stream is not limited to this, and as shown in FIG. 17B, instead of encoding the transform quantization calculation accuracy selection information code, the corresponding profile is determined, and the determined profile is It may be encoded as a profile information code. For example, it is assumed that there are a main 10-bit profile and a main 10-bit high-accuracy profile, each corresponding to transform quantization calculation accuracy selection information = 0 and transform quantization calculation accuracy selection information = 1. That is, in the main 10-bit profile, the range that can be taken by each operation result of the transform quantization processing is constant regardless of the bit depth of the image, and in the main 10-bit high-accuracy profile, the above range varies depending on the bit depth of the image. It will be. In this case, when the transform quantization calculation accuracy selection information is 0, a code indicating the main 10-bit profile is encoded as a profile information code. I do not care.

図5は、実施形態1に係る画像符号化装置における画像符号化処理を示すフローチャートである。   FIG. 5 is a flowchart illustrating image encoding processing in the image encoding device according to the first embodiment.

まず、ステップS501にて、入力部102は入力された画像データのビット深度の解析を行い、ビット深度情報を生成する。ステップS502にて、変換量子化演算精度情報生成部103は、変換量子化処理における演算精度を示す変換量子化演算精度情報を選択するための変換量子化演算精度選択情報を生成する。ステップS503にて、変換量子化演算精度情報生成部103は、ステップS502で生成された変換量子化演算精度選択情報およびステップS501で生成されたビット深度情報に基づいて変換量子化演算精度情報を生成する。ステップS504にて、ヘッダ符号化部104は、ステップS501で生成されたビット深度情報およびステップS502で生成された変換量子化演算精度選択情報を初めとする復号に必要な情報を符号化してヘッダ符号データを生成する。   First, in step S501, the input unit 102 analyzes the bit depth of input image data and generates bit depth information. In step S502, the transform quantization operation accuracy information generation unit 103 generates transform quantization operation accuracy selection information for selecting transform quantization operation accuracy information indicating the operation accuracy in the transform quantization process. In step S503, the transform quantization operation accuracy information generation unit 103 generates transform quantization operation accuracy information based on the transform quantization operation accuracy selection information generated in step S502 and the bit depth information generated in step S501. To do. In step S504, the header encoding unit 104 encodes information necessary for decoding such as the bit depth information generated in step S501 and the transform quantization calculation accuracy selection information generated in step S502 to generate a header code. Generate data.

ステップS505にて、統合符号化部111はステップS504で生成されたヘッダ符号データからビットストリームのヘッダ部を形成し、出力する。ステップS506にて、入力部102は入力された画像データから正方形のブロックを切り出し、予測部105は切り出されたブロック単位の画像データに対し、ブロック単位の予測を行い、予測画像を生成する。ブロック単位の入力画像データと予測画像との差分として予測誤差が生成される。さらに動きベクトルや予測モードなどの予測に必要な情報を予測情報として生成する。   In step S505, the integrated encoding unit 111 forms the header part of the bit stream from the header code data generated in step S504, and outputs it. In step S506, the input unit 102 cuts out a square block from the input image data, and the prediction unit 105 performs block unit prediction on the cut out block unit image data to generate a predicted image. A prediction error is generated as the difference between the input image data in block units and the predicted image. Furthermore, information necessary for prediction such as a motion vector and a prediction mode is generated as prediction information.

ステップS507にて、変換量子化部106は、まず、ステップS503で生成された変換量子化演算精度情報に基づいて、変換量子化処理における演算精度を決定する。そして、決定された演算精度に基づいて、ステップS506で生成された予測誤差に直交変換を行って変換係数を生成し、さらに生成された変換係数を量子化し、量子化係数を生成する。ステップS508にて、逆量子化逆変換部107はまず、ステップS507と同様に、ステップS503で生成された変換量子化演算精度情報に基づいて逆量子化・逆変換処理における演算精度を決定する。そして、決定された演算精度に基づいて、ステップS507で生成された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。   In step S507, the transform quantization unit 106 first determines the computation accuracy in the transform quantization process based on the transform quantization computation accuracy information generated in step S503. Then, based on the determined calculation accuracy, orthogonal transform is performed on the prediction error generated in step S506 to generate a transform coefficient, and the generated transform coefficient is quantized to generate a quantized coefficient. In step S508, the inverse quantization inverse transform unit 107 first determines the computation accuracy in the inverse quantization / inverse transformation process based on the transform quantization computation accuracy information generated in step S503, as in step S507. Then, based on the determined calculation accuracy, the quantization coefficient generated in step S507 is inversely quantized to reproduce the transform coefficient, and further the inverse orthogonal transform to the reproduced transform coefficient is performed to reproduce the prediction error.

ステップS509にて、画像再生部108はステップS506で生成された予測情報に基づいて、フレームメモリ109を適宜参照して予測画像を生成する。そして生成された予測画像とステップS508で再生された予測誤差から再生画像を生成し、フレームメモリ109に格納する。ステップS510にて、ブロック符号化部110はステップS506で生成された予測情報およびステップS507で生成された量子化係数を符号化してブロック符号データを生成する。また、統合符号化部111は他の符号データも含め、ビットストリームを生成する。ステップS511にて、画像符号化装置はフレーム内の全てのブロックの符号化が終了したか否かの判定を行い、終了していれば符号化処理を終了し、そうでなければ次のブロックを対象としてステップS506に戻る。   In step S509, the image reproduction unit 108 generates a predicted image by appropriately referring to the frame memory 109 based on the prediction information generated in step S506. Then, a reproduced image is generated from the generated predicted image and the prediction error reproduced in step S508 and stored in the frame memory 109. In step S510, the block encoding unit 110 encodes the prediction information generated in step S506 and the quantization coefficient generated in step S507 to generate block code data. In addition, the integrated encoding unit 111 generates a bit stream including other code data. In step S511, the image encoding apparatus determines whether or not encoding of all the blocks in the frame has been completed. If the encoding has ended, the encoding process ends. If not, the next block is determined. The process returns to step S506 as a target.

以上の構成と動作により、特にステップS504で変換量子化演算精度選択情報を符号化することにより、アプリケーションの要求仕様に応じて演算精度や実装コストの異なる符号化処理の切り替え可能なビットストリームを生成することができる。   With the above configuration and operation, particularly by encoding the transform quantization calculation accuracy selection information in step S504, a bitstream that can be switched between encoding processes with different calculation accuracy and mounting cost according to the required specifications of the application is generated. can do.

なお、本実施形態では、ステップS508、S509、S510の順序で符号化処理のフローを説明したが、順序はこれに限らず、ステップS510はステップS507の後に実行されれば良い。   In the present embodiment, the flow of the encoding process has been described in the order of steps S508, S509, and S510. However, the order is not limited to this, and step S510 may be executed after step S507.

また、本実施形態では、変換量子化演算精度選択情報に基づいてステップS507およびS508の変換量子化処理のみが変更される構成としたが、量子化係数の範囲の変更に伴い、ステップS510の符号化処理も変更する構成としても構わない。その場合、変換量子化演算精度選択情報もしくは変換量子化演算精度情報がブロック符号化部110にも入力される構成となる。この場合、量子化係数の範囲に応じて最適なエントロピー符号化方法を選択することができるため、より高効率な符号化が実現できる。   In the present embodiment, only the transform quantization processing in steps S507 and S508 is changed based on the transform quantization calculation accuracy selection information. However, as the quantization coefficient range is changed, the code in step S510 is changed. The configuration may also be such that the digitization process is also changed. In this case, the transform quantization operation accuracy selection information or the transform quantization operation accuracy information is also input to the block coding unit 110. In this case, since an optimal entropy encoding method can be selected according to the range of quantization coefficients, more efficient encoding can be realized.

また、符号化する画像データのビット深度が8ビットであった場合、変換量子化演算精度選択情報符号を省略することも可能である。すなわち、ビット深度が8ビットであった場合、変換量子化演算精度情報は0に一意に決まるからであり、冗長な符号を削減することができる。   Further, when the bit depth of the image data to be encoded is 8 bits, the transform quantization calculation accuracy selection information code can be omitted. That is, when the bit depth is 8 bits, the transform quantization calculation accuracy information is uniquely determined to be 0, and redundant codes can be reduced.

また、本実施形態において、図21に示されたテーブルに基づいて、演算精度として水平・垂直各方向の一次元の直交変換や量子化処理といった各演算結果の取りうる範囲を決定したが、これに限定されない。例えば、変換量子化部106は変換量子化演算精度情報をaqとした時、演算精度を−2(15+aq)〜2(15+aq)−1として求めても構わない。 Further, in the present embodiment, based on the table shown in FIG. 21, the range that can be taken by each calculation result such as one-dimensional orthogonal transformation and quantization processing in the horizontal and vertical directions is determined as the calculation accuracy. It is not limited to. For example, the conversion quantization unit 106 when the transform quantization operation precision information was aq, may be calculated an arithmetic accuracy as -2 (15 + aq) ~2 ( 15 + aq) -1.

また、前述のメイン10ビットプロファイルとメイン10ビット高精度プロファイルにおいて、前者では必ず変換量子化演算精度選択情報は0とするが、後者では変換量子化演算精度選択情報符号を設けて0/1を選択する構成をもちいても構わない。これにより、高精度のプロファイルでも演算精度の選択も行えるようになる。   In the main 10-bit profile and the main 10-bit high-precision profile, the transform quantization calculation accuracy selection information is always set to 0 in the former, and the transform quantization calculation accuracy selection information code is set to 0/1 in the latter. You may use the structure to select. As a result, the calculation accuracy can be selected even with a high-precision profile.

なお、本実施形態では図5のステップS508において、ステップS503で生成された変換量子化演算精度情報に基づいて逆量子化・逆変換処理における演算精度を決定したが、ステップS507で求めた演算精度を用いてももちろん構わない。   In this embodiment, in step S508 of FIG. 5, the calculation accuracy in the inverse quantization / inverse transform process is determined based on the transform quantization calculation accuracy information generated in step S503. However, the calculation accuracy obtained in step S507 is determined. Of course you can use.

また、本実施形態で生成されるビットストリームは図17(a)に示される通り、変換量子化演算精度選択情報符号、ビット深度情報符号の順に符号化されるものとしたが、順序はこれに限定されない。   In addition, as shown in FIG. 17A, the bit stream generated in the present embodiment is encoded in the order of the transform quantization calculation accuracy selection information code and the bit depth information code. It is not limited.

<実施形態2>
図2は、本発明の実施形態2に係る画像復号装置の構成を示すブロック図である。本実施形態では、実施形態1で生成されたビットストリームの復号を例にとって説明する。
<Embodiment 2>
FIG. 2 is a block diagram showing the configuration of the image decoding apparatus according to Embodiment 2 of the present invention. In the present embodiment, description will be made by taking the decoding of the bitstream generated in the first embodiment as an example.

201はビットストリームを入力する端子である。202は分離復号部であり、ビットストリームから復号処理に関する情報であるヘッダ符号データおよび量子化係数や予測情報などブロック単位の情報であるブロック符号データに分離し、後段に出力する。203はヘッダ復号部であり、前述のヘッダ符号データを復号し、復号処理に関する情報を再生する。204は変換量子化演算精度情報設定部であり、逆量子化逆変換部206で用いられる逆量子化逆変換処理の演算精度を示す変換量子化演算精度情報を生成する。205はブロック復号部であり、ブロック符号データを復号して量子化係数や予測情報を再生する。   Reference numeral 201 denotes a terminal for inputting a bit stream. A separation / decoding unit 202 separates the bitstream into header code data, which is information related to decoding processing, and block code data, which is block unit information such as quantization coefficients and prediction information, and outputs it to the subsequent stage. A header decoding unit 203 decodes the above-described header code data and reproduces information related to the decoding process. Reference numeral 204 denotes a transform quantization calculation accuracy information setting unit that generates transform quantization calculation accuracy information indicating the calculation accuracy of the inverse quantization inverse transform process used by the inverse quantization inverse transform unit 206. Reference numeral 205 denotes a block decoding unit that decodes block code data and reproduces quantization coefficients and prediction information.

206はブロック復号部205で再生された量子化係数を逆量子化して変換係数を再生し、さらに逆直交変換して予測誤差を再生する逆量子化逆変換部である。207は画像再生部であり、ブロック復号部205で再生された予測情報に基づいてフレームメモリ208を参照してイントラ予測やインター予測などを行い、逆量子化逆変換部206で生成された予測誤差から再生画像データを生成する。208は画像再生部207で再生された画像データを保持しておくフレームメモリである。209は端子であり、再生された画像データを外部に出力する。   Reference numeral 206 denotes an inverse quantization inverse transform unit that inversely quantizes the quantization coefficient reproduced by the block decoding unit 205 to reproduce a transform coefficient, and further performs inverse orthogonal transform to reproduce a prediction error. Reference numeral 207 denotes an image reproduction unit, which performs intra prediction, inter prediction, and the like with reference to the frame memory 208 based on the prediction information reproduced by the block decoding unit 205, and generates a prediction error generated by the inverse quantization inverse transformation unit 206 Reproduced image data is generated from A frame memory 208 holds image data reproduced by the image reproduction unit 207. A terminal 209 outputs the reproduced image data to the outside.

上記画像復号装置における画像の復号動作を以下に説明する。本実施形態では、実施形態1で生成されたビットストリームを復号する。   An image decoding operation in the image decoding apparatus will be described below. In the present embodiment, the bit stream generated in the first embodiment is decoded.

図2において、端子201から入力されたビットストリームは分離復号部202に入力される。本実施形態では図17(a)に示されたビットストリームが入力されるものとする。分離復号部202では、入力されたビットストリームから復号処理に関する情報であるヘッダ符号データおよびブロック単位の情報であるブロック符号データに分離し後段に出力する。ヘッダ符号データはヘッダ復号部203に出力され、ブロック符号データはブロック復号部205に出力される。ヘッダ復号部203では、分離復号部202から入力されたヘッダ符号データから復号に必要な情報を復号し、変換量子化演算精度選択情報やビット深度情報を再生する。再生された変換量子化演算精度選択情報およびビット深度情報は変換量子化演算精度情報設定部204に出力される。   In FIG. 2, the bit stream input from the terminal 201 is input to the separation / decoding unit 202. In the present embodiment, it is assumed that the bit stream shown in FIG. The separation / decoding unit 202 separates the input bitstream into header code data that is information related to decoding processing and block code data that is information in block units, and outputs the result to the subsequent stage. The header code data is output to the header decoding unit 203, and the block code data is output to the block decoding unit 205. The header decoding unit 203 decodes information necessary for decoding from the header code data input from the separation decoding unit 202, and reproduces transform quantization calculation accuracy selection information and bit depth information. The reproduced transform quantization operation accuracy selection information and bit depth information are output to the transform quantization operation accuracy information setting unit 204.

変換量子化演算精度情報設定部204では、ヘッダ復号部203から入力された変換量子化演算精度選択情報およびビット深度情報に基づいて変換量子化演算精度情報を生成する。実施形態1の変換量子化演算精度情報生成部103と同様に、本実施形態では、変換量子化演算精度選択情報が1の場合には、ビット深度情報と基準となるビット深度である8ビットとの差分値を変換量子化演算精度情報とする。実施形態1で生成されたビットストリームは10ビットの画像が符号化されたものであるので、本実施形態におけるビット深度情報も10ビットとなるため、変換量子化演算精度情報は2となる。一方、変換量子化演算精度選択情報が0の場合には、0を変換量子化演算精度情報とする。ただし、実施形態1と同様に、変換量子化演算精度選択情報と変換量子化演算精度情報の組合せはこれらに限定されない。生成された変換量子化演算精度情報は逆量子化逆変換部206に出力される。   The transform quantization operation accuracy information setting unit 204 generates transform quantization operation accuracy information based on the transform quantization operation accuracy selection information and the bit depth information input from the header decoding unit 203. Similar to the transform quantization operation accuracy information generation unit 103 of the first embodiment, in this embodiment, when the transform quantization operation accuracy selection information is 1, the bit depth information and the reference bit depth of 8 bits are Is used as transform quantization calculation accuracy information. Since the bit stream generated in the first embodiment is obtained by encoding a 10-bit image, the bit depth information in this embodiment is also 10 bits, and thus the transform quantization calculation accuracy information is 2. On the other hand, when the transform quantization operation accuracy selection information is 0, 0 is used as transform quantization operation accuracy information. However, as in the first embodiment, the combination of transform quantization computation accuracy selection information and transform quantization computation accuracy information is not limited to these. The generated transform quantization calculation accuracy information is output to the inverse quantization inverse transform unit 206.

一方、ブロック復号部205では、分離復号部202から入力されたブロック符号データを復号し、量子化係数および予測情報を再生する。再生された量子化係数は逆量子化逆変換部206に、予測情報は画像再生部207に出力される。逆量子化逆変換部206ではまず、実施形態1の逆量子化逆変換部107と同様に、変換量子化演算精度情報設定部204から入力された変換量子化演算精度情報に基づいて、逆量子化逆変換処理における演算精度を決定する。本実施形態でも、実施形態1の逆量子化逆変換部107と同様に、図21に示されたテーブルに基づいて、演算精度として逆量子化処理や垂直・水平各方向の一次元の直交変換処理といった各演算処理の取りうる範囲を決定するものとする。   On the other hand, the block decoding unit 205 decodes the block code data input from the separation decoding unit 202 and reproduces the quantization coefficient and the prediction information. The reproduced quantization coefficient is output to the inverse quantization and inverse transform unit 206, and the prediction information is output to the image reproduction unit 207. In the inverse quantization inverse transform unit 206, first, similarly to the inverse quantization inverse transform unit 107 of the first embodiment, based on the transform quantization operation accuracy information input from the transform quantization operation accuracy information setting unit 204, the inverse quantization is performed. The calculation accuracy in the inverse conversion process is determined. Also in this embodiment, similarly to the inverse quantization inverse transform unit 107 of the first embodiment, based on the table shown in FIG. 21, the inverse quantization processing and the one-dimensional orthogonal transform in each of the vertical and horizontal directions are performed as the calculation accuracy. It is assumed that the range that each arithmetic processing such as processing can take is determined.

さらに、逆量子化逆変換部206では、上述の決定された演算精度に基づいて、ブロック復号部205から入力された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。再生された予測誤差は画像再生部207に出力される。   Further, the inverse quantization inverse transform unit 206 reproduces the transform coefficient by inversely quantizing the quantized coefficient input from the block decoding unit 205 based on the above-described determined calculation accuracy, and further reproduces the transformed transform coefficient. The prediction error is reproduced by inverse orthogonal transformation to. The reproduced prediction error is output to the image reproduction unit 207.

画像再生部207では、ブロック復号部205から入力された予測情報に基づいて、フレームメモリ208を適宜参照して予測画像を生成し、生成された予測画像と逆量子化逆変換部206から入力された予測誤差から再生画像を生成する。再生された画像データはフレームメモリ208に出力され格納される。同時に、再生された画像データは端子209から外部に出力される。   In the image reproduction unit 207, based on the prediction information input from the block decoding unit 205, the frame memory 208 is appropriately referred to generate a prediction image, and the generated prediction image and the inverse quantization inverse transformation unit 206 are input. A reproduced image is generated from the predicted error. The reproduced image data is output to and stored in the frame memory 208. At the same time, the reproduced image data is output from the terminal 209 to the outside.

図6は、実施形態2に係る画像復号装置における画像の復号処理を示すフローチャートである。   FIG. 6 is a flowchart illustrating an image decoding process in the image decoding apparatus according to the second embodiment.

まず、ステップS601にて、分離復号部202は入力されたビットストリームから復号処理に関する情報であるヘッダ符号データを分離する。ステップS602にて、ヘッダ復号部203はステップS601で分離されたヘッダ符号データから復号に必要な情報を復号し、変換量子化演算精度選択情報やビット深度情報を再生する。ステップS603にて、変換量子化演算精度情報設定部204は、ステップS602で再生された変換量子化演算精度選択情報およびビット深度情報に基づいて変換量子化演算精度情報を生成する。ステップS604にて、逆量子化逆変換部206はステップS603で生成された変換量子化演算精度情報に基づいて逆量子化・逆変換処理における演算精度を決定する。ステップS605にて、ブロック復号部205は分離復号部202でビットストリームからブロック単位の符号化データとして分離されたブロック符号データを復号し、量子化係数および予測情報を再生する。   First, in step S601, the separation / decoding unit 202 separates header code data, which is information related to decoding processing, from the input bitstream. In step S602, the header decoding unit 203 decodes information necessary for decoding from the header code data separated in step S601, and reproduces transform quantization calculation accuracy selection information and bit depth information. In step S603, the transform quantization operation accuracy information setting unit 204 generates transform quantization operation accuracy information based on the transform quantization operation accuracy selection information and the bit depth information reproduced in step S602. In step S604, the inverse quantization inverse transform unit 206 determines the computation accuracy in the inverse quantization / inverse transformation process based on the transform quantization computation accuracy information generated in step S603. In step S605, the block decoding unit 205 decodes the block code data separated as encoded data in units of blocks from the bit stream by the separation decoding unit 202, and reproduces the quantization coefficient and the prediction information.

ステップS606にて、逆量子化逆変換部206はステップS604で決定された演算精度に基づいて、ステップS605で生成された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。ステップS607にて、画像再生部207はステップS605で再生された予測情報に基づいて、フレームメモリ208を適宜参照して予測画像を生成する。そして生成された予測画像とステップS606で再生された予測誤差から再生画像を生成し、フレームメモリ208に格納する。同時に、再生された画像データは端子209から外部に出力される。ステップS608にて、画像復号装置はフレーム内の全てのブロックの復号が終了したか否かの判定を行い、終了していれば復号処理を終了し、そうでなければ次のブロックを対象としてステップS605に戻る。   In step S606, the inverse quantization inverse transform unit 206 reproduces the transform coefficient by dequantizing the quantization coefficient generated in step S605 based on the calculation accuracy determined in step S604, and further reproduces the transformed transform. The prediction error is reproduced by inverse orthogonal transform to coefficients. In step S607, the image reproduction unit 207 generates a predicted image by appropriately referring to the frame memory 208 based on the prediction information reproduced in step S605. Then, a reproduced image is generated from the generated predicted image and the prediction error reproduced in step S606 and stored in the frame memory 208. At the same time, the reproduced image data is output from the terminal 209 to the outside. In step S608, the image decoding apparatus determines whether or not the decoding of all the blocks in the frame has been completed. If the decoding has been completed, the decoding process is terminated. Otherwise, the step is performed on the next block. The process returns to S605.

以上の構成と動作により、特にステップS602で変換量子化演算精度選択情報を復号することにより、実施形態1で生成されたアプリケーションの要求仕様に応じて演算精度や実装コストの異なる復号処理の可能なビットストリームを復号することができる。   With the above configuration and operation, decoding can be performed with different calculation accuracy and mounting cost according to the required specifications of the application generated in the first embodiment, particularly by decoding the transform quantization calculation accuracy selection information in step S602. The bitstream can be decoded.

なお本実施形態では、入力されるビットストリームは図17(a)に示された変換量子化演算精度選択情報が独立して符号化されたものであるとしたが、これに限定さない。例えば、図17(b)に示されるように、変換量子化演算精度選択情報符号を符号化する代わりに、対応するプロファイルを示すプロファイル情報符号が符号化されたものであっても良い。この場合、変換量子化演算精度情報設定部204では、プロファイル情報符号およびビット深度情報から変換量子化演算精度情報を生成することになる。   In the present embodiment, the input bit stream is obtained by independently encoding the transform quantization calculation accuracy selection information shown in FIG. 17A, but the present invention is not limited to this. For example, as shown in FIG. 17B, a profile information code indicating a corresponding profile may be encoded instead of encoding the transform quantization calculation accuracy selection information code. In this case, the transform quantization operation accuracy information setting unit 204 generates transform quantization operation accuracy information from the profile information code and the bit depth information.

また、本実施形態では、変換量子化演算精度選択情報に基づいてステップS606の逆量子化逆変換処理のみが変更される構成としたが、量子化係数の範囲の変更に伴い、ステップS605の復号処理も変更する構成としてもよい。その場合、変換量子化演算精度選択情報もしくは変換量子化演算精度情報がブロック復号部205にも入力される構成となり、また、ブロック復号部205の復号処理は実施形態1のブロック符号化部110の符号化処理に対応している必要がある。この場合、量子化係数の範囲に応じて最適なエントロピー復号方法を選択することができるため、より高効率に符号化されたビットストリームの復号が実現できる。   In the present embodiment, only the inverse quantization and inverse transform process in step S606 is changed based on the transform quantization calculation accuracy selection information. However, in accordance with the change of the quantization coefficient range, the decoding in step S605 is performed. It is good also as a structure which changes a process. In that case, the transform quantization operation accuracy selection information or the transform quantization operation accuracy information is also input to the block decoding unit 205, and the decoding process of the block decoding unit 205 is performed by the block encoding unit 110 of the first embodiment. It is necessary to support encoding processing. In this case, since an optimal entropy decoding method can be selected according to the range of quantization coefficients, it is possible to realize decoding of a bit stream encoded with higher efficiency.

<実施形態3>
図3は本実施形態の画像符号化装置を示すブロック図である。図3において、実施形態1の図1と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。
<Embodiment 3>
FIG. 3 is a block diagram showing an image encoding apparatus according to this embodiment. In FIG. 3, the same numbers are assigned to portions that perform the same functions as those in FIG. 1 of the first embodiment, and description thereof is omitted.

323は動き補償演算精度情報生成部であり、後述する動き補償演算精度選択情報を生成する。と同時に、予測部305で用いられる動き補償処理の演算精度を示す動き補償演算精度情報を生成する。304はヘッダ符号化部であり、画像のビット深度情報を初めとするビットストリームの復号に必要な情報を符号化し、ヘッダ符号データを生成する。実施形態1のヘッダ符号化部104とは、変換量子化演算精度選択情報ではなく、後述の動き補償演算精度選択情報を符号化するところが異なる。   A motion compensation calculation accuracy information generation unit 323 generates motion compensation calculation accuracy selection information described later. At the same time, motion compensation calculation accuracy information indicating the calculation accuracy of the motion compensation processing used in the prediction unit 305 is generated. Reference numeral 304 denotes a header encoding unit that encodes information necessary for decoding a bitstream such as image bit depth information to generate header code data. It differs from the header encoding unit 104 of the first embodiment in that it encodes motion compensation calculation accuracy selection information, which will be described later, instead of transform quantization calculation accuracy selection information.

305は予測部であり、正方形に分割されたブロック単位でフレームメモリ109を参照してフレーム内予測であるイントラ予測やフレーム間予測であるインター予測などを行い、予測の方法を示す予測情報および予測誤差を生成する。実施形態1の予測部105とは、動き補償演算精度情報を入力し、入力された動き補償演算精度情報に基づいてインター予測を行うところが異なる。   A prediction unit 305 refers to the frame memory 109 in units of blocks divided into squares, performs intra prediction that is intra-frame prediction, inter prediction that is inter-frame prediction, and the like. Generate an error. The prediction unit 105 of the first embodiment is different in that motion compensation calculation accuracy information is input and inter prediction is performed based on the input motion compensation calculation accuracy information.

306は変換量子化部であり、予測部305で生成された予測誤差をブロック単位で直交変換して変換係数を算出し、さらに変換係数を量子化して量子化係数を算出する。実施形態1の変換量子化部106とは変換量子化演算精度情報を入力せず、常に同一の演算精度で変換量子化処理を行うところが異なる。   Reference numeral 306 denotes a transform quantization unit that computes transform coefficients by orthogonally transforming the prediction error generated by the prediction unit 305 in units of blocks, and further quantizes the transform coefficients to calculate quantization coefficients. It differs from the transform quantization unit 106 of the first embodiment in that transform quantization processing accuracy information is not input and transform quantization processing is always performed with the same computation accuracy.

307は変換量子化部306で生成された量子化係数を逆量子化して変換係数を再生し、さらに逆直交変換して予測誤差を再生する逆量子化逆変換部である。実施形態1の逆量子化逆変換部107とは変換量子化演算精度情報を入力せず、常に同一の演算精度で逆量子化逆変換処理を行うところが異なる。   Reference numeral 307 denotes an inverse quantization inverse transform unit that inversely quantizes the quantization coefficient generated by the transform quantization unit 306 to reproduce the transform coefficient, and further performs inverse orthogonal transform to reproduce a prediction error. It differs from the inverse quantization inverse transform unit 107 of the first embodiment in that the transform quantization computation accuracy information is not input and the inverse quantization inverse transform processing is always performed with the same computation accuracy.

308は画像再生部であり、予測部306で生成された予測情報に基づいてフレームメモリ109を参照してイントラ予測やインター予測などを行い、逆量子化逆変換部307で生成された予測誤差から再生画像を生成する。実施形態1の画像再生部108とは、動き補償演算精度情報を入力し、入力された動き補償演算精度情報に基づいてインター予測を行うところが異なる。   Reference numeral 308 denotes an image reproduction unit that performs intra prediction, inter prediction, and the like with reference to the frame memory 109 based on the prediction information generated by the prediction unit 306, and uses the prediction error generated by the inverse quantization inverse conversion unit 307. Generate a playback image. The difference from the image reproduction unit 108 of Embodiment 1 is that motion compensation calculation accuracy information is input and inter prediction is performed based on the input motion compensation calculation accuracy information.

上記画像符号化装置における画像の符号化動作を以下に説明する。   An image encoding operation in the image encoding apparatus will be described below.

入力部102では入力画像データのビット深度の解析を行い、ビット深度情報として後段の動き補償演算精度情報生成部323とヘッダ符号化部304に出力する。ただし、ビット深度情報は外部から別途与えられ、動き補償演算精度情報生成部323およびヘッダ符号化部304にそれぞれ入力する構成とすることも可能である。また、入力された画像データは正方形のブロック単位に分割され、予測部305に出力される。   The input unit 102 analyzes the bit depth of the input image data and outputs the bit depth information to the subsequent motion compensation calculation accuracy information generation unit 323 and the header encoding unit 304. However, it is also possible to adopt a configuration in which the bit depth information is separately provided from the outside and input to the motion compensation calculation accuracy information generation unit 323 and the header encoding unit 304, respectively. Further, the input image data is divided into square blocks and output to the prediction unit 305.

動き補償演算精度情報生成部323では、ビット深度によって演算精度を調節して実装容易性を優先した動き補償処理を用いるか、ビット深度によらず演算精度を固定した動き補償処理を用いるかを決定し、その情報を動き補償演算精度選択情報とする。以下、前者のビット深度によって演算精度を調節した動き補償処理を実装重視動き補償処理、後者の演算精度を固定した動き補償処理を精度重視動き補償処理と呼称する。本実施形態では、前者の実装重視動き補償処理が選択された場合には動き補償演算精度選択情報は0となり、後者の精度重視動き補償処理が選択された場合には動き補償演算精度選択情報は1となるものとする。ただし、選択された動き補償処理と動き補償演算精度選択情報との組合せはこれらに限定されない。また、動き補償演算精度選択情報の決定方法も特に限定されず、本符号化装置および対応する復号装置が使用されるアプリケーションを想定して符号化処理に先立って決定しておいても良いし、不図示のユーザによって選択されても良い。例えば、本実施形態の符号化装置が演算精度重視のアプリケーションで使用されることが想定される場合には、動き補償演算精度選択情報を1とし、そうでなければ0とするといった具合である。   The motion compensation calculation accuracy information generation unit 323 determines whether to use a motion compensation process that adjusts the calculation accuracy according to the bit depth and prioritizes mounting ease, or a motion compensation process that fixes the calculation accuracy regardless of the bit depth. The information is used as motion compensation calculation accuracy selection information. Hereinafter, the former motion compensation processing in which calculation accuracy is adjusted according to the bit depth is referred to as implementation-oriented motion compensation processing, and the latter motion compensation processing in which calculation accuracy is fixed is referred to as accuracy-oriented motion compensation processing. In the present embodiment, when the former implementation-oriented motion compensation process is selected, the motion compensation calculation accuracy selection information is 0, and when the latter accuracy-oriented motion compensation process is selected, the motion compensation calculation accuracy selection information is It shall be 1. However, the combination of the selected motion compensation process and motion compensation calculation accuracy selection information is not limited to these. Further, the determination method of the motion compensation calculation accuracy selection information is not particularly limited, and may be determined prior to the encoding process assuming an application in which the present encoding device and the corresponding decoding device are used. It may be selected by a user (not shown). For example, when it is assumed that the encoding apparatus of the present embodiment is used in an application in which calculation accuracy is important, the motion compensation calculation accuracy selection information is set to 1, and otherwise it is set to 0.

次に、動き補償演算精度情報生成部323は、前述の動き補償演算精度選択情報および入力部102から入力されたビット深度情報に基づいて動き補償演算精度情報を生成する。動き補償演算精度選択情報が0の場合には、画像のビット深度と基準となるビット深度である8ビットとの差分値を動き補償演算精度情報とする。本実施形態では画像のビット深度は10ビットであるので、動き補償演算精度情報は2となる。また、動き補償演算精度選択情報が1の場合には、動き補償演算精度情報は0とする。ただし、動き補償演算精度情報の値と意味の組合せは上記に限定されず、画像のビット深度が基準となるビット深度よりも大きい場合に、動き補償処理の演算精度を高めることを示すことが出来る情報であれば良い。   Next, the motion compensation calculation accuracy information generation unit 323 generates motion compensation calculation accuracy information based on the above-described motion compensation calculation accuracy selection information and the bit depth information input from the input unit 102. When the motion compensation calculation accuracy selection information is 0, the difference value between the bit depth of the image and the reference bit depth of 8 bits is used as motion compensation calculation accuracy information. In this embodiment, since the bit depth of the image is 10 bits, the motion compensation calculation accuracy information is 2. When the motion compensation calculation accuracy selection information is 1, the motion compensation calculation accuracy information is 0. However, the combination of the value and meaning of the motion compensation calculation accuracy information is not limited to the above, and when the bit depth of the image is larger than the reference bit depth, it can be shown that the calculation accuracy of the motion compensation processing is improved. It only needs to be information.

生成された動き補償演算精度選択情報はヘッダ符号化部304に出力され、動き補償演算精度情報は予測部305および画像再生部308に出力される。   The generated motion compensation calculation accuracy selection information is output to the header encoding unit 304, and the motion compensation calculation accuracy information is output to the prediction unit 305 and the image reproduction unit 308.

ヘッダ符号化部304では、入力部102から入力されたビット深度情報および動き補償演算精度情報生成部323から入力された動き補償演算精度選択情報を初めとする復号に必要な情報を符号化し、ヘッダ符号データを生成する。このヘッダ符号化データはビットストリームのヘッダ部に相当する。生成されたヘッダ符号データは統合符号化部111に出力される。   The header encoding unit 304 encodes information necessary for decoding, including the bit depth information input from the input unit 102 and the motion compensation calculation accuracy selection information input from the motion compensation calculation accuracy information generation unit 323, and includes a header. Generate code data. This header encoded data corresponds to the header portion of the bit stream. The generated header code data is output to the integrated encoding unit 111.

一方、予測部305では、入力部102で分割されたブロック単位の画像データおよび動き補償演算精度情報生成部323で生成された動き補償演算精度情報が入力される。次にブロック単位の予測を行い、フレーム内予測であるイントラ予測やフレーム間予測であるインター予測などの予測の方法を示す予測情報を生成する。予測情報の生成方法は特に限定されず、フレームメモリ109に格納されている符号化済みの画素と符号化対象ブロックの画素との類似度から決定しても良いし、画像の統計的な情報を用いて決定しても良い。生成された予測方法は画像再生部308およびブロック符号化部110に出力される。そして生成された予測情報に基づいてフレームメモリ109に格納されている符号化済みの画素を適宜参照し予測画像が生成される。予測画像の生成にあたり、符号化対象ブロックがインター予測符号化されている場合、動き補償演算精度情報に基づいた動き補償処理を行う。具体的には、前述の式(1)で示された色差信号の動き補償における小数画素の動き補償処理に用いる計算式のうちの一つは、本実施形態では下記の式(2)のようになる。   On the other hand, the prediction unit 305 receives the image data in units of blocks divided by the input unit 102 and the motion compensation calculation accuracy information generated by the motion compensation calculation accuracy information generation unit 323. Next, prediction in units of blocks is performed, and prediction information indicating a prediction method such as intra prediction that is intra-frame prediction or inter prediction that is inter-frame prediction is generated. The generation method of the prediction information is not particularly limited, and may be determined based on the similarity between the encoded pixel stored in the frame memory 109 and the pixel of the encoding target block. It may be determined using. The generated prediction method is output to the image reproduction unit 308 and the block encoding unit 110. Based on the generated prediction information, the encoded image stored in the frame memory 109 is appropriately referred to generate a predicted image. When the prediction target image is generated, if the encoding target block is inter prediction encoded, a motion compensation process based on the motion compensation calculation accuracy information is performed. Specifically, one of the calculation formulas used for the motion compensation processing of the sub-pixels in the motion compensation of the color difference signal shown by the above-described formula (1) is the following formula (2) in the present embodiment. become.

ab0,0=(−2×B−1,0+58×B0,0+10×B1,0−2×B2,0)>>shift…(2)
(ただし、shift=動き補償演算精度情報であり、「>>」は右へのビットシフトを表す。)
上記の式(2)においても、前述の式(1)と同様に、Bi,jは整数画素位置の色差画素を、ab0,0は小数画素位置の色差画素を算出するための中間値を表している。式(2)ではshiftによる右へのビットシフト処理は動き補償演算精度情報に基づいている。そのため、動き補償演算精度情報生成部323にて実装重視動き補償処理が選択された場合、式(2)ではビット深度に依存した右へのビットシフト処理が含まれるため、中間値ab0,0の取りうる値の範囲は画像のビット深度によらず一定となる。一方、動き補償演算精度情報生成部323にて精度重視動き補償が選択された場合、式(2)ではshiftの値は常に0となり、右へのビットシフト処理は実行されず、演算精度を保った処理が可能となる。
ab 0,0 = (- 2 × B -1,0 + 58 × B 0,0 + 10 × B 1,0 -2 × B 2,0) >> shift ... (2)
(However, shift = motion compensation calculation accuracy information, and “>>” represents a bit shift to the right.)
Also in the above equation (2), like the above equation (1), B i, j is an intermediate value for calculating the color difference pixel at the integer pixel position, and ab 0,0 is the color difference pixel at the decimal pixel position. Represents. In Expression (2), the bit shift process to the right by shift is based on motion compensation calculation accuracy information. Therefore, when the implementation-oriented motion compensation process is selected by the motion compensation calculation accuracy information generation unit 323, the expression (2) includes a bit shift process to the right depending on the bit depth, and thus the intermediate value ab 0,0 The range of values that can be taken is constant regardless of the bit depth of the image. On the other hand, when accuracy-oriented motion compensation is selected by the motion compensation calculation accuracy information generation unit 323, the shift value is always 0 in Equation (2), the right bit shift processing is not executed, and the calculation accuracy is maintained. Can be processed.

最後に、予測部305では、ブロック単位の入力画像と生成された予測画像の差分として、予測誤差が生成され、変換量子化部306に出力される。   Finally, the prediction unit 305 generates a prediction error as a difference between the input image in units of blocks and the generated prediction image, and outputs the prediction error to the transform quantization unit 306.

変換量子化部306では、予測部305から入力された予測誤差に対して直交変換を行い、変換係数を生成し、さらに変換係数を量子化し、量子化係数を生成する。生成された量子化係数は逆量子化逆変換部307およびブロック符号化部110に出力する。   The transform quantization unit 306 performs orthogonal transform on the prediction error input from the prediction unit 305, generates transform coefficients, further quantizes the transform coefficients, and generates quantized coefficients. The generated quantization coefficient is output to the inverse quantization inverse transform unit 307 and the block coding unit 110.

逆量子化逆変換部307では、変換量子化部306から入力された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。再生された予測誤差は画像再生部308に出力される。   The inverse quantization inverse transform unit 307 dequantizes the quantization coefficient input from the transform quantization unit 306 to reproduce the transform coefficient, and further performs inverse orthogonal transform to the reconstructed transform coefficient to reproduce a prediction error. The reproduced prediction error is output to the image reproduction unit 308.

画像再生部308では、予測部305から入力された予測情報および動き補償演算精度情報生成部323から入力された動き補償演算精度情報に基づいて、フレームメモリ109を適宜参照して予測画像を再生する。予測画像の生成にあたり、符号化対象ブロックがインター予測符号化されている場合、動き補償演算精度情報に基づいた動き補償処理を行う。具体的には、予測部305と同様に、式(2)に代表される動き補償処理を行う。   The image reproduction unit 308 reproduces a predicted image by appropriately referring to the frame memory 109 based on the prediction information input from the prediction unit 305 and the motion compensation calculation accuracy information input from the motion compensation calculation accuracy information generation unit 323. . When the prediction target image is generated, if the encoding target block is inter prediction encoded, a motion compensation process based on the motion compensation calculation accuracy information is performed. Specifically, similarly to the prediction unit 305, motion compensation processing represented by Expression (2) is performed.

そして、画像再生部308では、生成された予測画像と逆量子化逆変換部307から入力された予測誤差から再生画像を生成する。生成された再生画像はフレームメモリ109に出力され、格納される。   Then, the image reproduction unit 308 generates a reproduction image from the generated prediction image and the prediction error input from the inverse quantization inverse transformation unit 307. The generated reproduced image is output to the frame memory 109 and stored.

図18(a)に本実施形態で生成されたビットストリームの一例を示す。動き補償演算精度選択情報は動き補償演算精度選択情報符号として、シーケンス、ピクチャ等のヘッダのいずれかに含まれる。また、ビット深度情報も同様にビット深度情報符号としてヘッダのいずれかに含まれる。   FIG. 18A shows an example of the bit stream generated in this embodiment. The motion compensation calculation accuracy selection information is included as a motion compensation calculation accuracy selection information code in any of the headers of sequences, pictures, and the like. Similarly, bit depth information is also included in one of the headers as a bit depth information code.

ただし、ビットストリームの構成はこれに限定されず、図18(b)に示されるように動き補償演算精度選択情報符号を符号化する代わりに、対応するプロファイルを決定し、決定したプロファイルをプロファイル情報符号として符号化してもよい。例えば、メイン10ビットプロファイルとメイン10ビット高精度プロファイルが存在し、それぞれが動き補償演算精度選択情報=0と動き補償演算精度選択情報=1に対応するものとする。すなわち、メイン10ビットプロファイルでは実装重視動き補償処理が選択され、メイン10ビット高精度プロファイルでは精度重視動き補償処理が選択されることになる。この場合、動き補償演算精度選択情報が0の場合にはメイン10ビットプロファイルを示す符号を、1の場合にはメイン10ビット高精度プロファイルを示す符号をプロファイル情報符号として符号化する構成をとっても構わない。   However, the configuration of the bit stream is not limited to this, and instead of encoding the motion compensation calculation accuracy selection information code as shown in FIG. 18B, a corresponding profile is determined, and the determined profile is used as profile information. You may encode as a code | symbol. For example, it is assumed that there are a main 10-bit profile and a main 10-bit high-precision profile, which correspond to motion compensation calculation accuracy selection information = 0 and motion compensation calculation accuracy selection information = 1, respectively. That is, the implementation-oriented motion compensation process is selected in the main 10-bit profile, and the accuracy-oriented motion compensation process is selected in the main 10-bit high-accuracy profile. In this case, when the motion compensation calculation accuracy selection information is 0, a code indicating a main 10-bit profile may be encoded as a profile information code. Absent.

図7は、実施形態3に係る画像符号化装置における符号化処理を示すフローチャートである。実施形態1の図5と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。   FIG. 7 is a flowchart illustrating an encoding process in the image encoding device according to the third embodiment. The same numbers are assigned to portions that perform the same functions as those in FIG. 5 of the first embodiment, and descriptions thereof are omitted.

ステップS722にて、動き補償演算精度情報生成部323は、動き補償処理における演算精度を示す動き補償演算精度情報を選択するための動き補償演算精度選択情報を生成する。本実施形態では、実装重視動き補償処理が選択された場合には動き補償演算精度選択情報は0となり、後者の精度重視動き補償処理が選択された場合には動き補償演算精度選択情報は1となるものとする。   In step S722, the motion compensation calculation accuracy information generation unit 323 generates motion compensation calculation accuracy selection information for selecting motion compensation calculation accuracy information indicating the calculation accuracy in the motion compensation process. In this embodiment, the motion compensation calculation accuracy selection information is 0 when the implementation-oriented motion compensation processing is selected, and the motion compensation calculation accuracy selection information is 1 when the latter accuracy-oriented motion compensation processing is selected. Shall be.

ステップS723にて、動き補償演算精度情報生成部323は、ステップS722で生成された動き補償演算精度選択情報およびステップS501で生成されたビット深度情報に基づいて動き補償演算精度情報を生成する。ステップS704にて、ヘッダ符号化部304では、ステップS501で生成されたビット深度情報およびステップS502で生成された動き補償演算精度選択情報を初めとする復号に必要な情報を符号化してヘッダ符号データを生成する。   In step S723, the motion compensation calculation accuracy information generation unit 323 generates motion compensation calculation accuracy information based on the motion compensation calculation accuracy selection information generated in step S722 and the bit depth information generated in step S501. In step S704, the header encoding unit 304 encodes information necessary for decoding, including the bit depth information generated in step S501 and the motion compensation calculation accuracy selection information generated in step S502, to generate header code data. Is generated.

ステップS706にて、入力部102は入力された画像データから正方形のブロックを切り出し、予測部305は切り出されたブロック単位の画像データに対し、ブロック単位の予測を行う。さらに、フレーム内予測であるイントラ予測やフレーム間予測であるインター予測などの予測の方法を示す予測情報を生成する。そして生成された予測情報に基づいてフレームメモリ109に格納されている符号化済みの画素を適宜参照し、予測画像を生成する。予測画像の生成にあたり、符号化対象ブロックがインター予測符号化されている場合、ステップS723で生成された動き補償演算精度情報に基づいた動き補償処理を行う。具体的には前述の式(2)に代表される動き補償処理が実行される。さらにブロック単位の入力画像データと予測画像との差分として予測誤差を生成する。   In step S706, the input unit 102 cuts out a square block from the input image data, and the prediction unit 305 performs block unit prediction on the cut out block unit image data. Furthermore, prediction information indicating a prediction method such as intra prediction that is intra-frame prediction or inter prediction that is inter-frame prediction is generated. Based on the generated prediction information, the encoded pixel stored in the frame memory 109 is referred to as appropriate to generate a predicted image. When generating the predicted image, if the target block to be encoded is inter prediction encoded, a motion compensation process based on the motion compensation calculation accuracy information generated in step S723 is performed. Specifically, the motion compensation process represented by the above-described equation (2) is executed. Further, a prediction error is generated as a difference between the input image data in block units and the predicted image.

ステップS707にて、変換量子化部306は、ステップS706で生成された予測誤差に直交変換を行って変換係数を生成し、さらに生成された変換係数を量子化し、量子化係数を生成する。ステップS708にて、逆量子化逆変換部307はステップS707で生成された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。   In step S707, the transform quantization unit 306 performs orthogonal transform on the prediction error generated in step S706 to generate transform coefficients, further quantizes the generated transform coefficients, and generates quantized coefficients. In step S708, the inverse quantization inverse transform unit 307 performs inverse quantization on the quantization coefficient generated in step S707 to reproduce the transform coefficient, and further performs inverse orthogonal transform to the reconstructed transform coefficient to reproduce a prediction error. .

ステップS709にて、画像再生部308はステップS706で生成された予測情報に基づいて、フレームメモリ109を適宜参照して予測画像を生成する。予測画像の生成に当たり、符号化対象ブロックがインター予測符号化されている場合、ステップS723で生成された動き補償演算精度情報に基づいた動き補償処理を行う。具体的には、ステップS706と同様に、式(2)に代表される動き補償処理を行う。そして生成された予測画像とステップS708で再生された予測誤差から再生画像を生成し、フレームメモリ109に格納する。ステップS711にて、画像符号化装置はフレーム内の全てのブロックの符号化が終了したか否かの判定を行い、終了していれば符号化処理を終了し、そうでなければ次のブロックを対象としてステップS706に戻る。   In step S709, the image reproduction unit 308 generates a predicted image by appropriately referring to the frame memory 109 based on the prediction information generated in step S706. When generating the predicted image, if the target block to be encoded is inter prediction encoded, a motion compensation process based on the motion compensation calculation accuracy information generated in step S723 is performed. Specifically, similarly to step S706, motion compensation processing represented by equation (2) is performed. Then, a reproduced image is generated from the generated predicted image and the prediction error reproduced in step S 708 and stored in the frame memory 109. In step S711, the image coding apparatus determines whether or not coding of all the blocks in the frame is finished. If finished, the coding process is finished. If not, the next block is selected. The process returns to step S706 as a target.

以上の構成と動作により、特にステップS704で動き補償演算精度選択情報を符号化することにより、アプリケーションの要求仕様に応じて演算精度や実装コストの異なる符号化処理の切り替え可能なビットストリームを生成することができる。   With the above configuration and operation, in particular, by encoding the motion compensation calculation accuracy selection information in step S704, a bitstream that can be switched between encoding processes with different calculation accuracy and implementation cost according to the required specifications of the application is generated. be able to.

なお、本実施形態では、ステップS708、S709、S510の順序で符号化処理のフローを説明したが、順序はこれに限らず、ステップS510はステップS707の後に実行されれば良い。   In this embodiment, the flow of the encoding process has been described in the order of steps S708, S709, and S510. However, the order is not limited to this, and step S510 may be executed after step S707.

また、符号化する画像データのビット深度が8ビットであった場合、動き補償演算精度選択情報符号を省略することも可能である。すなわち、ビット深度が8ビットで合った場合、動き補償演算精度情報は0に一意に決まるからであり、冗長な符号を削減することが出来る。   When the bit depth of the image data to be encoded is 8 bits, the motion compensation calculation accuracy selection information code can be omitted. That is, when the bit depth matches 8 bits, the motion compensation calculation accuracy information is uniquely determined to be 0, and redundant codes can be reduced.

また、前述のメイン10ビットプロファイルとメイン10ビット高精度プロファイルにおいて、前者では必ず動き補償演算精度選択情報は0とするが、後者では動き補償演算精度選択情報符号を設けて0/1を選択する構成を用いても構わない。これにより、高精度のプロファイルでも演算精度の選択も行えるようになる。   In the main 10-bit profile and the main 10-bit high-precision profile, the motion compensation calculation accuracy selection information is always 0 in the former, but the latter selects 0/1 by providing a motion compensation calculation accuracy selection information code. A configuration may be used. As a result, the calculation accuracy can be selected even with a high-precision profile.

また、本実施形態で生成されるビットストリームは図18(a)に示される通り、動き補償演算精度選択情報符号、ビット深度情報符号の順に符号化されるものとしたが、順序はこれに限定されない。   In addition, the bitstream generated in the present embodiment is encoded in the order of the motion compensation calculation accuracy selection information code and the bit depth information code as shown in FIG. 18A, but the order is limited to this. Not.

<実施形態4>
図4は本実施形態の画像復号装置を示すブロック図である。図4において、実施形態2の図2と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。本実施形態では、実施形態3で生成されたビットストリームの復号を例にとって説明する。
<Embodiment 4>
FIG. 4 is a block diagram showing an image decoding apparatus according to this embodiment. In FIG. 4, the same numbers are assigned to portions that perform the same functions as those in FIG. 2 of the second embodiment, and the description thereof is omitted. In the present embodiment, the decoding of the bitstream generated in the third embodiment will be described as an example.

403はヘッダ復号部であり、ビットストリームから分離されたヘッダ符号データを復号し、復号処理に関する情報を再生する。424は動き補償演算精度情報設定部であり、画像再生部407で用いられる動き補償処理の演算精度を示す動き補償演算精度情報を生成する。406はブロック復号部205で再生された量子化係数を逆量子化して変換係数を再生し、さらに逆直交変換して予測誤差を再生する逆量子化逆変換部である。実施形態2の逆量子化逆変換部206とは変換量子化演算精度情報を入力せず、常に同一の演算精度で逆量子化逆変換処理を行うところが異なる。   A header decoding unit 403 decodes the header code data separated from the bit stream, and reproduces information related to the decoding process. Reference numeral 424 denotes a motion compensation calculation accuracy information setting unit that generates motion compensation calculation accuracy information indicating the calculation accuracy of the motion compensation processing used in the image reproduction unit 407. Reference numeral 406 denotes an inverse quantization inverse transform unit that inversely quantizes the quantization coefficient reproduced by the block decoding unit 205 to reproduce a transform coefficient, and further performs inverse orthogonal transform to reproduce a prediction error. The difference from the inverse quantization inverse transform unit 206 of the second embodiment is that the transform quantization computation accuracy information is not input and the inverse quantization inverse transform process is always performed with the same computation accuracy.

407は画像再生部であり、ブロック復号部205で再生された予測情報に基づいてフレームメモリ208を参照してイントラ予測やインター予測などを行い、逆量子化逆変換部206で生成された予測誤差から再生画像を生成する。実施形態2の画像再生部207とは、動き補償演算精度情報を入力し、入力された動き補償演算精度情報に基づいてインター予測を行うところが異なる。   Reference numeral 407 denotes an image reproduction unit that performs intra prediction, inter prediction, and the like with reference to the frame memory 208 based on the prediction information reproduced by the block decoding unit 205, and generates a prediction error generated by the inverse quantization inverse transformation unit 206. A playback image is generated from The image reproducing unit 207 of the second embodiment is different from the image reproducing unit 207 in that motion compensation calculation accuracy information is input and inter prediction is performed based on the input motion compensation calculation accuracy information.

上記画像復号装置における画像の復号動作を以下に説明する。本実施形態では、実施形態3で生成されたビットストリームを復号する。   An image decoding operation in the image decoding apparatus will be described below. In the present embodiment, the bit stream generated in the third embodiment is decoded.

ヘッダ復号部403では、分離復号部202から入力されたヘッダ符号データから復号に必要な情報を復号し、動き補償演算精度選択情報やビット深度情報を再生する。再生された動き補償演算精度選択情報およびビット深度情報は動き補償演算精度情報設定部424に出力される。   The header decoding unit 403 decodes information necessary for decoding from the header code data input from the separation decoding unit 202, and reproduces motion compensation calculation accuracy selection information and bit depth information. The reproduced motion compensation calculation accuracy selection information and bit depth information are output to the motion compensation calculation accuracy information setting unit 424.

動き補償演算精度情報設定部424では、ヘッダ復号部403から入力された動き補償演算精度選択情報およびビット深度情報に基づいて動き補償演算精度情報を生成する。実施形態3の動き補償演算精度情報生成部323と同様に、本実施形態では、動き補償演算精度選択情報が0の場合には、ビット深度情報と基準となるビット深度である8ビットの差分値を動き補償演算精度情報とする。実施形態3で生成されたビットストリームは10ビットの画像が符号化されたものであるので、本実施形態におけるビット深度情報も10ビットとなるため、動き補償演算精度情報は2となる。一方、動き補償演算精度選択情報が1の場合には、0を動き補償演算精度情報とする。ただし、実施形態3と同様に、動き補償演算精度選択情報と動き補償演算精度情報の組合せはこれらに限定されない。生成された動き補償演算精度情報は画像再生部407に出力される。   The motion compensation calculation accuracy information setting unit 424 generates motion compensation calculation accuracy information based on the motion compensation calculation accuracy selection information and the bit depth information input from the header decoding unit 403. Similar to the motion compensation calculation accuracy information generation unit 323 of the third embodiment, in this embodiment, when the motion compensation calculation accuracy selection information is 0, the 8-bit difference value that is the bit depth information and the reference bit depth is used. Is motion compensation calculation accuracy information. Since the bit stream generated in the third embodiment is obtained by encoding a 10-bit image, the bit depth information in this embodiment is 10 bits, and the motion compensation calculation accuracy information is 2. On the other hand, when the motion compensation calculation accuracy selection information is 1, 0 is used as the motion compensation calculation accuracy information. However, as in the third embodiment, the combination of motion compensation calculation accuracy selection information and motion compensation calculation accuracy information is not limited to these. The generated motion compensation calculation accuracy information is output to the image reproduction unit 407.

逆量子化逆変換部406では、ブロック復号部205から入力された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。再生された予測誤差は画像再生部407に出力される。   The inverse quantization inverse transform unit 406 dequantizes the quantized coefficient input from the block decoding unit 205 to reproduce the transform coefficient, and further performs inverse orthogonal transform to the reconstructed transform coefficient to reproduce the prediction error. The reproduced prediction error is output to the image reproduction unit 407.

画像再生部407では、ブロック復号部205から入力された予測情報および動き補償演算精度情報設定部424から入力された動き補償演算精度情報に基づいてフレームメモリ208を適宜参照して予測画像を生成する。予測画像の生成にあたり、復号対象ブロックがインター予測符号化されている場合、動き補償演算精度情報に基づいた動き補償処理を行う。具体的には、前述の式(2)に代表される動き頬賞処理を行う。生成された予測画像と逆量子化逆変換部406から入力された予測誤差から再生画像を生成する。生成された再生画像はフレームメモリ208に出力され、格納される。   The image reproduction unit 407 generates a predicted image by appropriately referring to the frame memory 208 based on the prediction information input from the block decoding unit 205 and the motion compensation calculation accuracy information input from the motion compensation calculation accuracy information setting unit 424. . When generating a predicted image, when the decoding target block is inter-predictively encoded, motion compensation processing based on motion compensation calculation accuracy information is performed. Specifically, the motion cheek award process represented by the above formula (2) is performed. A reproduced image is generated from the generated predicted image and the prediction error input from the inverse quantization and inverse transform unit 406. The generated reproduced image is output to the frame memory 208 and stored.

図8は、実施形態4に係る画像復号装置における復号処理を示すフローチャートである。実施形態2の図6と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。   FIG. 8 is a flowchart illustrating a decoding process in the image decoding apparatus according to the fourth embodiment. The same numbers are assigned to portions that perform the same functions as those in FIG. 6 of the second embodiment, and descriptions thereof are omitted.

ステップS802にて、ヘッダ復号部403はステップS601で分離されたヘッダ符号データから復号に必要な情報を復号し、動き補償演算精度選択情報やビット深度情報を再生する。ステップS823にて、動き補償演算精度情報設定部424はステップS802で再生された動き補償演算精度選択情報およびビット深度情報に基づいて動き補償演算精度情報を生成する。ステップS824にて、画像再生部407はステップS823で生成された動き補償変換量子化演算精度情報に基づいて後段の動き補償処理における演算精度を決定する。ステップS806にて、逆量子化逆変換部406はステップS605で生成された量子化係数を逆量子化して変換係数を再生し、さらに再生された変換係数に逆直交変換して予測誤差を再生する。   In step S802, the header decoding unit 403 decodes information necessary for decoding from the header code data separated in step S601, and reproduces motion compensation calculation accuracy selection information and bit depth information. In step S823, the motion compensation calculation accuracy information setting unit 424 generates motion compensation calculation accuracy information based on the motion compensation calculation accuracy selection information and the bit depth information reproduced in step S802. In step S824, the image reproduction unit 407 determines the calculation accuracy in the subsequent motion compensation processing based on the motion compensation transform quantization calculation accuracy information generated in step S823. In step S806, the inverse quantization inverse transform unit 406 dequantizes the quantization coefficient generated in step S605 to reproduce the transform coefficient, and further performs inverse orthogonal transform to the reconstructed transform coefficient to reproduce the prediction error. .

ステップS807にて、画像再生部407はステップS605で再生された予測情報に基づいて、フレームメモリ208を適宜参照して予測画像を生成する。予測画像の生成に当たり、復号対象ブロックがインター予測符号化されている場合、ステップS824で決定された動き補償情報に基づいた動き補償処理を行う。具体的には、前述の式(2)に代表される動き補償処理を行う。そして生成された予測画像とステップS806で再生された予測画像から再生画像データを生成し、フレームメモリ208に格納する。同時に端子209から再生画像データを出力する。   In step S807, the image reproduction unit 407 generates a predicted image by appropriately referring to the frame memory 208 based on the prediction information reproduced in step S605. When generating the predicted image, if the decoding target block is inter-predictively encoded, a motion compensation process based on the motion compensation information determined in step S824 is performed. Specifically, a motion compensation process represented by the above-described equation (2) is performed. Then, reproduced image data is generated from the generated predicted image and the predicted image reproduced in step S 806 and stored in the frame memory 208. At the same time, the reproduced image data is output from the terminal 209.

以上の構成と動作により、特にステップS802で動き補償演算精度選択情報を復号することにより、実施形態3で生成されたアプリケーションの要求仕様に応じて演算精度や実装コストの異なる復号処理の可能なビットストリームを復号することができる。   With the above configuration and operation, in particular, by decoding the motion compensation calculation accuracy selection information in step S802, bits that can be decoded with different calculation accuracy and implementation cost according to the required specifications of the application generated in the third embodiment. The stream can be decoded.

なお、本実施形態では、入力されるビットストリームは図18(a)に示された動き補償演算精度選択情報が独立して符号化されたものであるとしたが、これに限定されない。例えば、図18(b)に示されるように、動き補償演算精度選択情報符号を符号化する代わりに、対応するプロファイルを示すプロファイル情報符号が符号化されたものであっても良い。この場合、動き補償演算精度情報設定部424では、プロファイル情報符号およびビット深度情報から動き補償演算精度情報を生成することになる。   In the present embodiment, the input bit stream is obtained by independently encoding the motion compensation calculation accuracy selection information shown in FIG. 18A, but the present invention is not limited to this. For example, as shown in FIG. 18B, instead of encoding a motion compensation calculation accuracy selection information code, a profile information code indicating a corresponding profile may be encoded. In this case, the motion compensation calculation accuracy information setting unit 424 generates motion compensation calculation accuracy information from the profile information code and the bit depth information.

<実施形態5>
図9は本実施形態の画像符号化装置を示すブロック図である。図9において実施形態1の図1および実施形態3の図3と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。
<Embodiment 5>
FIG. 9 is a block diagram showing an image encoding apparatus according to this embodiment. In FIG. 9, the same numbers are assigned to portions that perform the same functions as those in FIG. 1 of the first embodiment and FIG. 3 of the third embodiment, and description thereof is omitted.

902は入力部であり、入力された画像データのビット深度を解析するとともに正方形のブロック単位に分割する。実施形態1の入力部102とはビット深度情報を動き補償演算精度情報生成部323にも出力するところが異なる。904はヘッダ符号化部であり、画像のビット深度情報を初めとするビットストリームの復号に必要な情報を符号化し、ヘッダ符号データを生成する。   Reference numeral 902 denotes an input unit that analyzes the bit depth of input image data and divides it into square blocks. Unlike the input unit 102 of the first embodiment, the bit depth information is also output to the motion compensation calculation accuracy information generation unit 323. Reference numeral 904 denotes a header encoding unit that encodes information necessary for decoding a bitstream including bit depth information of an image to generate header code data.

上記の画像符号化装置における画像の符号化動作を以下に説明する。   An image encoding operation in the image encoding apparatus will be described below.

入力部902では入力画像データのビット深度の解析を行い、ビット深度情報として後段の動き補償演算精度情報生成部323、変換量子化演算精度情報生成部103およびヘッダ符号化部904に出力する。ただし、ビット深度情報は外部から別途与えられ、動き補償演算精度情報生成部323、変換量子化演算精度情報生成部103およびヘッダ符号化部904にそれぞれ入力する構成とすることも可能である。また、入力された画像データは正方形のブロック単位に分割され、予測部305に出力される。   The input unit 902 analyzes the bit depth of the input image data, and outputs the bit depth information to the subsequent motion compensation calculation accuracy information generation unit 323, the transform quantization calculation accuracy information generation unit 103, and the header encoding unit 904. However, the bit depth information may be separately provided from the outside and input to the motion compensation calculation accuracy information generation unit 323, the transform quantization calculation accuracy information generation unit 103, and the header encoding unit 904, respectively. Further, the input image data is divided into square blocks and output to the prediction unit 305.

ヘッダ符号化部904では、まず、入力部902からビット深度情報を、動き補償演算精度情報生成部323から動き補償演算精度選択情報を、変換量子化演算精度情報生成部から変換量子化演算精度選択情報を入力する。そして入力されたこれらの情報を初めとする復号に必要な情報を符号化し、ヘッダ符号データを生成する。このヘッダ符号化データはビットストリームのヘッダ部に相当し、統合符号化部111に出力される。   The header encoding unit 904 first selects bit depth information from the input unit 902, motion compensation calculation accuracy selection information from the motion compensation calculation accuracy information generation unit 323, and transform quantization calculation accuracy selection from the transform quantization calculation accuracy information generation unit. Enter information. Then, information necessary for decoding such as the input information is encoded to generate header code data. This header encoded data corresponds to the header part of the bit stream and is output to the integrated encoding unit 111.

図19(a)に本実施形態で生成されたビットストリームの一例を示す。変換量子化演算精度選択情報は変換量子化演算精度選択情報符号として、動き補償演算精度選択情報は動き補償演算精度選択情報符号として、シーケンス、ピクチャ等のヘッダのいずれかに含まれる。また、ビット深度情報も同様にビット深度情報符号としてヘッダのいずれかに含まれる。   FIG. 19A shows an example of the bit stream generated in the present embodiment. The transform quantization operation accuracy selection information is included as a transform quantization operation accuracy selection information code, and the motion compensation operation accuracy selection information is included as a motion compensation operation accuracy selection information code in one of the headers of a sequence, a picture, and the like. Similarly, bit depth information is also included in one of the headers as a bit depth information code.

ただし、ビットストリームの構成はこれに限定されず、図19(b)に示されるように動き補償演算精度選択情報符号および変換量子化演算精度選択情報符号を符号化する代わりに対応するプロファイルを決定し、プロファイル情報符号として符号化しても良い。例えば、メイン10ビットプロファイルとメイン10ビット高精度プロファイルが存在し、メイン10ビットプロファイルは変換量子化演算精度選択情報=0および動き補償演算精度選択情報=0に対応するものとする。また、メイン10ビット高精度プロファイルは変換量子化演算精度選択情報=1および動き補償演算精度選択情報=1に対応するものとする。すなわち、メイン10ビットプロファイルでは実装重視変換量子化処理および実装重視動き補償処理が選択され、メイン10ビット高精度プロファイルでは精度重視変換量子化処理および精度重視動き補償処理が選択されることになる。この場合、変換量子化演算精度選択情報および動き補償演算精度選択情報が0の場合にはメイン10ビットプロファイルを示す符号をプロファイル情報符号として符号化する。また、変換量子化演算精度選択情報および動き補償演算精度選択情報が1の場合にはメイン10ビット高精度プロファイルを示す符号をプロファイル情報符号として符号化する構成をとっても構わない。   However, the configuration of the bitstream is not limited to this, and a corresponding profile is determined instead of encoding the motion compensation calculation accuracy selection information code and the transform quantization calculation accuracy selection information code as shown in FIG. However, it may be encoded as a profile information code. For example, there are a main 10-bit profile and a main 10-bit high accuracy profile, and the main 10-bit profile corresponds to transform quantization calculation accuracy selection information = 0 and motion compensation calculation accuracy selection information = 0. The main 10-bit high accuracy profile corresponds to transform quantization calculation accuracy selection information = 1 and motion compensation calculation accuracy selection information = 1. That is, the implementation-oriented conversion quantization process and the implementation-oriented motion compensation process are selected in the main 10-bit profile, and the precision-oriented conversion quantization process and the accuracy-oriented motion compensation process are selected in the main 10-bit high-accuracy profile. In this case, when the transform quantization calculation accuracy selection information and the motion compensation calculation accuracy selection information are 0, a code indicating the main 10-bit profile is encoded as a profile information code. Moreover, when the transform quantization calculation accuracy selection information and the motion compensation calculation accuracy selection information are 1, a code indicating a main 10-bit high accuracy profile may be encoded as a profile information code.

図13は、実施形態3に係る画像符号化装置における符号化処理を示すフローチャートである。実施形態1の図5および実施形態3の図7と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。   FIG. 13 is a flowchart illustrating an encoding process in the image encoding device according to the third embodiment. The parts having the same functions as those of FIG. 5 of the first embodiment and FIG. 7 of the third embodiment are given the same numbers, and the description thereof is omitted.

ステップS1301にて、入力部902は入力された画像データのビット深度の解析を行い、ビット深度情報を生成する。ステップS1304にて、ヘッダ符号化部904は、復号に必要な情報を符号化してヘッダ符号データを生成する。復号に必要な情報には、ステップS1301で生成されたビット深度情報、ステップS502で生成された変換量子化演算精度選択情報およびステップS722で生成された動き補償演算精度選択情報が含まれる。   In step S1301, the input unit 902 analyzes the bit depth of the input image data and generates bit depth information. In step S1304, the header encoding unit 904 encodes information necessary for decoding to generate header code data. The information necessary for decoding includes the bit depth information generated in step S1301, the transform quantization calculation accuracy selection information generated in step S502, and the motion compensation calculation accuracy selection information generated in step S722.

以上の構成と動作により、特にステップS502およびS722で生成した符号化処理の演算精度の情報をステップS1304で符号化する。これによってアプリケーションの要求仕様に応じて演算精度や実装コストの異なる符号化処理の切り替え可能なビットストリームを生成することが出来る。   With the above configuration and operation, information on the calculation accuracy of the encoding processing generated in steps S502 and S722 is encoded in step S1304. As a result, it is possible to generate a bitstream that can be switched between encoding processes with different calculation accuracy and implementation cost according to the required specifications of the application.

なお、本実施形態では、ステップS508、S709、S510の順序で符号化処理のフローを説明したが、順序はこれに限らず、ステップS510はステップS507の後に実行されれば良い。   In this embodiment, the flow of the encoding process has been described in the order of steps S508, S709, and S510. However, the order is not limited to this, and step S510 may be executed after step S507.

また、符号化する画像データのビット深度が8ビットであった場合、変換量子化演算精度選択情報符号および動き補償演算精度選択情報符号を省略することも可能である。すなわち、ビット深度が8ビットであった場合、変換量子化演算精度情報および動き補償演算精度情報は0に一意に決まるからであり、冗長な符号を削減することができる。   Further, when the bit depth of the image data to be encoded is 8 bits, the transform quantization calculation accuracy selection information code and the motion compensation calculation accuracy selection information code can be omitted. That is, when the bit depth is 8 bits, the transform quantization calculation accuracy information and the motion compensation calculation accuracy information are uniquely determined to be 0, and redundant codes can be reduced.

また、前述のメイン10ビット高精度プロファイルにおいて、変換量子化演算精度選択情報符号および動き補償選択情報符号を設けて0/1を選択する構成を用いても構わない。これにより高精度のプロファイルでも演算精度の選択も行えるようになる。   In addition, in the main 10-bit high-accuracy profile described above, a configuration in which a transform quantization calculation accuracy selection information code and a motion compensation selection information code are provided to select 0/1 may be used. This makes it possible to select calculation accuracy even with a high-precision profile.

なお、本実施形態では図13のステップS508において、ステップS503で生成された変換量子化演算精度情報に基づいて逆量子化・逆変換処理における演算精度を決定したが、ステップS507で求めた演算精度を用いてももちろん構わない。   In this embodiment, in step S508 in FIG. 13, the calculation accuracy in the inverse quantization / inverse transform process is determined based on the transform quantization calculation accuracy information generated in step S503. However, the calculation accuracy obtained in step S507 is determined. Of course you can use.

また、本実施形態で生成されるビットストリームは図19(a)に示される通り、変換量子化演算精度選択情報符号、動き補償演算精度選択情報符号、ビット深度情報符号の順に符号化されるものとしたが、順序はこれに限定されない。   Further, as shown in FIG. 19A, the bit stream generated in the present embodiment is encoded in the order of transform quantization calculation accuracy selection information code, motion compensation calculation accuracy selection information code, and bit depth information code. However, the order is not limited to this.

さらに本実施形態では、動き補償演算精度情報生成部323および変換量子化演算精度情報生成部103を独立に設けたが、図11に示されるように演算精度情報生成部1143を一つだけ設ける構成をとることも可能である。その場合、演算精度情報生成部1143で生成された演算精度情報は、予測部1105、変換量子化部1106、逆量子化逆変換部1107、および画像再生部1108に入力され、入力された演算精度情報に基づいた処理が行われる。また、ヘッダ符号化部1104では、演算精度選択情報とビット深度情報の符号化が行われる。   Furthermore, in this embodiment, the motion compensation calculation accuracy information generation unit 323 and the transform quantization calculation accuracy information generation unit 103 are provided independently, but as shown in FIG. 11, only one calculation accuracy information generation unit 1143 is provided. It is also possible to take In this case, the calculation accuracy information generated by the calculation accuracy information generation unit 1143 is input to the prediction unit 1105, the transform quantization unit 1106, the inverse quantization inverse transform unit 1107, and the image reproduction unit 1108, and the input calculation accuracy is input. Processing based on the information is performed. Also, the header encoding unit 1104 encodes calculation accuracy selection information and bit depth information.

また、その場合、対応する符号化処理を示すフローチャートは図15のようになる。図15において、ステップS1501はステップS501と同様に入力部1101でビット深度の解析を行う、ステップS1542は変換量子化処理および動き補償処理の演算精度選択情報を生成する。ステップS1543は変換量子化処理および動き補償処理の演算精度情報を生成する。ステップS1504は演算精度選択情報を符号化する。ステップS1506およびステップS1509ではステップS1543で生成した演算精度情報に基づき、動き補償処理を行う。ステップS1507ではステップS1543で生成した演算精度情報に基づき、変換量子化処理を行う。ステップS1508ではステップS1543で生成した演算精度情報に基づき、逆量子化逆変換処理を行う。   In this case, a flowchart showing the corresponding encoding process is as shown in FIG. In FIG. 15, step S1501 analyzes the bit depth by the input unit 1101 as in step S501, and step S1542 generates calculation accuracy selection information for transform quantization processing and motion compensation processing. In step S1543, calculation accuracy information of the transform quantization process and the motion compensation process is generated. Step S1504 encodes calculation accuracy selection information. In step S1506 and step S1509, motion compensation processing is performed based on the calculation accuracy information generated in step S1543. In step S1507, transform quantization processing is performed based on the calculation accuracy information generated in step S1543. In step S1508, inverse quantization inverse transformation processing is performed based on the calculation accuracy information generated in step S1543.

これにより、変換量子化および動き補償でそれぞれ独立した変換量子化演算精度情報および動き補償演算精度情報を用いていたが、共通した演算精度情報を用いることができる。   Thus, independent transform quantization calculation accuracy information and motion compensation calculation accuracy information are used for transform quantization and motion compensation, but common calculation accuracy information can be used.

またその場合、生成されるビットストリームの一例は図19(c)によって示される。演算精度選択情報は演算精度選択情報符号として、シーケンス、ピクチャ等のヘッダのいずれかに含まれ、ビット深度情報も同様にビット深度情報符号としてヘッダのいずれかに含まれる。さらに上述の実施形態と同様に、演算精度選択情報を演算精度選択情報符号として符号化する代わりに、対応するプロファイルを決定し、決定したプロファイルをプロファイル情報として符号化してもよい。その場合、生成されるビットストリームの一例は図19(b)によって示される。   In that case, an example of the generated bit stream is shown in FIG. The calculation accuracy selection information is included as a calculation accuracy selection information code in one of the headers of a sequence, a picture, and the like, and the bit depth information is also included in one of the headers as a bit depth information code. Further, similarly to the above-described embodiment, instead of encoding the calculation accuracy selection information as the calculation accuracy selection information code, a corresponding profile may be determined, and the determined profile may be encoded as profile information. In that case, an example of the generated bitstream is shown in FIG.

<実施形態6>
図10は本実施形態の画像符号化装置を示すブロック図である。図10において実施形態の図2および実施形態4の図4と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。
<Embodiment 6>
FIG. 10 is a block diagram showing an image encoding apparatus according to this embodiment. In FIG. 10, the same numbers are assigned to portions that perform the same functions as those in FIG. 2 of the embodiment and FIG. 4 of the embodiment 4, and the description thereof is omitted.

1003はヘッダ復号部であり、ビットストリームから分離されたヘッダ符号データを復号し、復号処理に関する情報を再生する。   Reference numeral 1003 denotes a header decoding unit that decodes header code data separated from the bit stream and reproduces information related to the decoding process.

上記画像復号装置における画像の復号動作を以下に説明する。本実施形態では、実施形態5で生成されたビットストリームを復号する。   An image decoding operation in the image decoding apparatus will be described below. In the present embodiment, the bit stream generated in the fifth embodiment is decoded.

ヘッダ復号部1003では、分離復号部202から入力されたヘッダ符号データから復号に必要な情報を復号し、動き補償演算精度選択情報、変換量子化演算精度選択情報およびビット深度情報を再生する。再生された動き補償演算精度選択情報は動き補償演算精度情報設定部424に出力され、再生された変換量子化演算精度選択情報は変換量子化演算精度情報設定部204に出力される。また、再生されたビット深度情報は変換量子化演算精度情報設定部204および動き補償演算精度情報設定部424に出力される。   The header decoding unit 1003 decodes information necessary for decoding from the header code data input from the separation decoding unit 202, and reproduces motion compensation calculation accuracy selection information, transform quantization calculation accuracy selection information, and bit depth information. The reproduced motion compensation calculation accuracy selection information is output to the motion compensation calculation accuracy information setting unit 424, and the reproduced transform quantization operation accuracy selection information is output to the transform quantization operation accuracy information setting unit 204. The reproduced bit depth information is output to the transform quantization calculation accuracy information setting unit 204 and the motion compensation calculation accuracy information setting unit 424.

図14は、実施形態6に係る画像復号装置における復号処理を示すフローチャートである。実施形態2の図6および実施形態4の図8と同様の機能を果たす部分に関しては同じ番号を付与し、説明を省略する。   FIG. 14 is a flowchart illustrating a decoding process in the image decoding apparatus according to the sixth embodiment. The parts having the same functions as those in FIG. 6 of the second embodiment and FIG. 8 of the fourth embodiment are given the same numbers, and the description thereof is omitted.

ステップS1402にて、ヘッダ復号部1003はステップS601で分離されたヘッダ符号データから復号に必要な情報を復号し、動き補償演算精度選択情報、変換量子化演算精度選択情報およびビット深度情報を再生する。   In step S1402, the header decoding unit 1003 decodes information necessary for decoding from the header code data separated in step S601, and reproduces motion compensation calculation accuracy selection information, transform quantization calculation accuracy selection information, and bit depth information. .

以上の構成と動作により、特にステップS1402で復号処理に関する動き補償演算精度選択情報、変換量子化演算精度選択情報の復号が可能になる。これにより、実施形態5で生成されたアプリケーションの要求仕様に応じて演算精度や実装コストの異なる復号処理の可能なビットストリームを復号できる。   With the above configuration and operation, it is possible to decode the motion compensation calculation accuracy selection information and the transform quantization calculation accuracy selection information regarding the decoding process, particularly in step S1402. As a result, it is possible to decode a bitstream that can be decoded with different calculation accuracy and implementation cost in accordance with the required specifications of the application generated in the fifth embodiment.

なお、本実施形態では、入力されるビットストリームは図19(a)に示された変換量子化演算精度選択情報および動き補償演算精度選択情報が独立して符号化されたものであるとしたが、これに限定されない。例えば、図19(b)に示されるように、変換量子化演算精度選択情報符号および動き補償演算精度選択情報符号を符号化する代わりに、対応するプロファイルを示すプロファイル情報符号が符号化されたものであっても良い。この場合、動き補償演算精度情報設定部424および変換量子化演算精度情報設定部204では、プロファイル情報符号およびビット深度情報から動き補償演算精度情報および変換量子化演算精度情報を生成することになる。   In the present embodiment, the input bitstream is obtained by independently encoding the transform quantization calculation accuracy selection information and the motion compensation calculation accuracy selection information shown in FIG. 19A. However, the present invention is not limited to this. For example, as shown in FIG. 19B, instead of encoding the transform quantization calculation accuracy selection information code and the motion compensation calculation accuracy selection information code, a profile information code indicating a corresponding profile is encoded. It may be. In this case, the motion compensation computation accuracy information setting unit 424 and the transform quantization computation accuracy information setting unit 204 generate motion compensation computation accuracy information and transform quantization computation accuracy information from the profile information code and the bit depth information.

さらに本実施形態では、変換量子化演算精度情報設定部204と動き補償演算精度情報設定部424を独立に設けたが、図12に示されるように演算精度情報設定部1244を一つだけ設ける構成をとることも可能である。その場合、演算精度情報設定部1244で設定された演算精度情報は、逆量子化逆変換部1206および画像再生部1207に入力され、入力された演算精度情報に基づいた処理が行われる。   Furthermore, in this embodiment, the transform quantization calculation accuracy information setting unit 204 and the motion compensation calculation accuracy information setting unit 424 are provided independently, but as shown in FIG. 12, only one calculation accuracy information setting unit 1244 is provided. It is also possible to take In this case, the calculation accuracy information set by the calculation accuracy information setting unit 1244 is input to the inverse quantization inverse transform unit 1206 and the image reproduction unit 1207, and processing based on the input calculation accuracy information is performed.

また、その場合、対応する復号処理を示すフローチャートは図16のようになる。図16において、S1602は演算精度選択情報を復号する。ステップS1643は逆量子化逆変換処理および動き補償処理の演算精度情報を再生する。ステップS1644は再生された演算精度情報に基づき、逆量子化逆変換処理および動き補償処理の演算精度情報を再生し、決定する。ステップS1606およびステップS1607ではステップS1644で決定したそれぞれの演算精度情報に基づき、逆量子化逆変換処理と動き補償処理を行う。これにより、変換量子化および動き補償でそれぞれ独立した変換量子化演算精度情報および動き補償演算精度情報を用いていたが、共通した演算精度情報を用いることができる。   In this case, a flowchart showing the corresponding decoding process is as shown in FIG. In FIG. 16, S1602 decodes calculation accuracy selection information. Step S1643 reproduces the calculation accuracy information of the inverse quantization inverse transform process and the motion compensation process. In step S1644, the calculation accuracy information of the inverse quantization inverse transform process and the motion compensation process is reproduced and determined based on the reproduced calculation accuracy information. In steps S1606 and S1607, inverse quantization inverse transformation processing and motion compensation processing are performed based on the respective calculation accuracy information determined in step S1644. Thus, independent transform quantization calculation accuracy information and motion compensation calculation accuracy information are used for transform quantization and motion compensation, but common calculation accuracy information can be used.

またその場合、入力されるビットストリームの一例は図19(c)によって示され、変換量子化演算精度選択情報および動き補償演算精度選択情報が独立して符号化されているものであるとしたが、これに限定されない。上述の実施形態と同様に、演算精度選択情報を演算精度選択情報符号として符号化されているものの代わりに、対応するプロファイルがプロファイル情報として符号化されているものであっても良い。その場合、入力されるビットストリームの一例は図19(b)によって示される。   In that case, an example of the input bit stream is shown in FIG. 19C, and the transform quantization calculation accuracy selection information and the motion compensation calculation accuracy selection information are encoded independently. However, the present invention is not limited to this. Similarly to the above-described embodiment, instead of the calculation accuracy selection information encoded as the calculation accuracy selection information code, the corresponding profile may be encoded as profile information. In that case, an example of the input bit stream is shown in FIG.

<実施形態7>
図1、図2、図3、図4、図9、図10、図11、図12に示した各処理部はハードウェアでもって構成しているものとして上記実施形態では説明した。しかし、これらの図に示した各処理部で行う処理をコンピュータプログラムでもって構成しても良い。
<Embodiment 7>
1, 2, 3, 4, 9, 10, 11, and 12 have been described in the above embodiment as being configured by hardware. However, the processing performed by each processing unit shown in these drawings may be configured by a computer program.

図20は、上記各実施形態に係る画像表示装置に適用可能なコンピュータのハードウェアの構成例を示すブロック図である。   FIG. 20 is a block diagram illustrating a configuration example of computer hardware applicable to the image display device according to each of the above embodiments.

CPU2001は、RAM2002やROM2003に格納されているコンピュータプログラムやデータを用いてコンピュータ全体の制御を行うと共に、上記各実施形態に係る画像処理装置が行うものとして上述した各処理を実行する。即ち、CPU2001は、図1、図2、図3、図4、図9、図10、図11、図12に示した各処理部として機能することになる。   The CPU 2001 controls the entire computer using computer programs and data stored in the RAM 2002 and the ROM 2003, and executes the processes described above as performed by the image processing apparatus according to each of the above embodiments. That is, the CPU 2001 functions as each processing unit shown in FIGS. 1, 2, 3, 4, 9, 10, 11, and 12.

RAM2002は、外部記憶装置2006からロードされたコンピュータプログラムやデータ、I/F(インターフェース)2007を介して外部から取得したデータなどを一時的に記憶するためのエリアを有する。更に、RAM2002は、CPU2001が各種の処理を実行する際に用いるワークエリアを有する。即ち、RAM2002は、例えば、フレームメモリとして割り当てたり、その他の各種のエリアを適宜提供したりすることができる。   The RAM 2002 has an area for temporarily storing computer programs and data loaded from the external storage device 2006, data acquired from the outside via the I / F (interface) 2007, and the like. Further, the RAM 2002 has a work area used when the CPU 2001 executes various processes. That is, for example, the RAM 2002 can be allocated as a frame memory or can provide various other areas as appropriate.

ROM2003には、本コンピュータの設定データや、ブートプログラムなどが格納されている。操作部2004は、キーボードやマウスなどにより構成されており、本コンピュータのユーザが操作することで、各種の指示をCPU2001に対して入力することができる。出力部2005は、CPU2001による処理結果を表示する。また出力部2005は例えば液晶ディスプレイで構成される。   The ROM 2003 stores setting data of the computer, a boot program, and the like. The operation unit 2004 includes a keyboard, a mouse, and the like, and various instructions can be input to the CPU 2001 by a user of the computer. The output unit 2005 displays the processing result by the CPU 2001. The output unit 2005 is configured by a liquid crystal display, for example.

外部記憶装置2006は、ハードディスクドライブ装置に代表される、大容量情報記憶装置である。外部記憶装置2006には、OS(オペレーティングシステム)や、図1、図2、図3、図4、図9、図10、図11、図12に示した各部の機能をCPU2001に実現させるためのコンピュータプログラムが保存されている。更には、外部記憶装置2006には、処理対象としての各画像データが保存されていても良い。   The external storage device 2006 is a large-capacity information storage device represented by a hard disk drive device. In the external storage device 2006, an OS (operating system) and functions of each unit shown in FIGS. 1, 2, 3, 4, 9, 10, 11, and 12 are realized by the CPU 2001. A computer program is stored. Furthermore, each image data as a processing target may be stored in the external storage device 2006.

外部記憶装置2006に保存されているコンピュータプログラムやデータは、CPU2001による制御に従って適宜、RAM2002にロードされ、CPU2001による処理対象となる。I/F2007には、LANやインターネット等のネットワーク、投影装置や表示装置などの他の機器を接続することができ、本コンピュータはこのI/F2007を介して様々な情報を取得したり、送出したりすることができる。2008は上述の各部を繋ぐバスである。   Computer programs and data stored in the external storage device 2006 are appropriately loaded into the RAM 2002 under the control of the CPU 2001 and are processed by the CPU 2001. The I / F 2007 can be connected to a network such as a LAN or the Internet, and other devices such as a projection device and a display device. The computer can acquire and send various information via the I / F 2007. Can be. Reference numeral 2008 denotes a bus connecting the above-described units.

上述の構成からなる作動は前述のフローチャートで説明した作動をCPU2001が中心となってその制御を行う。   The operation having the above-described configuration is controlled by the CPU 2001 centered on the operation described in the above flowchart.

また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワークまたは各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (23)

画像を符号化する画像符号化装置であって、
対象画素と予測画素との差分に対して変換処理を行って係数を導出する導出手段と
前記係数に対応するデータと、前記係数に係る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグと、を符号化する符号化手段と、
を有することを特徴とする画像符号化装置。
An image encoding device for encoding an image, comprising:
Deriving means for deriving a coefficient by performing conversion processing on the difference between the target pixel and the predicted pixel, data corresponding to the coefficient, and the minimum value and the maximum value related to the coefficient are determined or fixed by the bit depth A flag indicating whether or not, encoding means for encoding,
An image encoding apparatus comprising:
前記変換処理は直交変換処理である
ことを特徴とする請求項1記載の画像符号化装置。
The image coding apparatus according to claim 1, wherein the transform process is an orthogonal transform process.
前記導出手段は、前記画像に含まれるブロック単位に、前記係数を導出する
ことを特徴とする請求項1又は2に記載の画像符号化装置。
The image coding apparatus according to claim 1, wherein the deriving unit derives the coefficient for each block included in the image.
前記対象画素に基づく予測処理を行って前記予測画素を導出する予測処理手段
を有することを特徴とする請求項1〜3のいずれか1項に記載の画像符号化装置。
The image encoding apparatus according to claim 1, further comprising: a prediction processing unit that performs prediction processing based on the target pixel to derive the prediction pixel.
前記係数に対応するデータは、量子化処理が行われた前記係数を示すデータである
ことを特徴とする請求項1〜4のいずれか1項に記載の画像符号化装置。
The image encoding apparatus according to claim 1, wherein the data corresponding to the coefficient is data indicating the coefficient that has been subjected to quantization processing.
前記フラグは、前記係数が取り得る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグである
ことを特徴とする請求項1〜5のいずれか1項に記載の画像符号化装置。
The said flag is a flag which shows whether the minimum value and the maximum value which the said coefficient can take are determined by the bit depth, or are fixed. The one of the Claims 1-5 characterized by the above-mentioned. Image encoding device.
前記フラグは、前記変換処理において取り得る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグである
ことを特徴とする請求項1〜6のいずれか1項に記載の画像符号化装置。
The said flag is a flag which shows whether the minimum value and the maximum value which can be taken in the said conversion process are determined by a bit depth, or are fixed. The one of Claims 1-6 characterized by the above-mentioned. Image coding apparatus.
前記ビット深度は、符号化される前記画像のビット深度である
ことを特徴とする請求項1〜7のいずれか1項に記載の画像符号化装置。
The image coding apparatus according to any one of claims 1 to 7, wherein the bit depth is a bit depth of the image to be encoded.
前記符号化手段は、前記ビット深度を示す情報を符号化する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像符号化装置。
The image encoding apparatus according to claim 1, wherein the encoding unit encodes information indicating the bit depth.
ビットストリームから画像を復号する画像復号装置であって、
前記画像の画素に係る係数に対応するデータと、前記係数に係る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグと、を前記ビットストリームから復号する復号手段と、
変換処理を行って、前記係数に基づく、対象画素と予測画素との差分を導出する導出手段と
を有することを特徴とする画像復号装置。
An image decoding device for decoding an image from a bitstream,
Decoding means for decoding from the bitstream data corresponding to coefficients related to pixels of the image and a flag indicating whether the minimum and maximum values related to the coefficients are determined by a bit depth or fixed ,
An image decoding apparatus comprising: a derivation unit that performs conversion processing and derives a difference between a target pixel and a predicted pixel based on the coefficient.
前記変換処理は逆直交変換処理である
ことを特徴とする請求項10記載の画像復号装置。
The image decoding apparatus according to claim 10, wherein the transform process is an inverse orthogonal transform process.
前記導出手段は、前記画像に含まれるブロック単位に、前記係数に基づく前記差分を導出する
ことを特徴とする請求項10又は11に記載の画像復号装置。
The image decoding device according to claim 10 or 11, wherein the derivation unit derives the difference based on the coefficient for each block included in the image.
前記予測画素と前記差分から前記画像を生成する生成手段
を有することを特徴とする請求項10〜12のいずれか1項に記載の画像復号装置。
The image decoding apparatus according to claim 10, further comprising a generation unit configured to generate the image from the prediction pixel and the difference.
前記係数は逆量子化処理が行われた後の変換係数であり、
前記導出手段は、前記逆量子化処理が行われた後の前記変換係数に対して前記変換処理を行うことで前記差分を導出する
ことを特徴とする請求項10〜13のいずれか1項に記載の画像復号装置。
The coefficient is a transform coefficient after the inverse quantization process is performed,
The derivation unit derives the difference by performing the transformation process on the transformation coefficient after the inverse quantization process is performed. The difference according to any one of claims 10 to 13, The image decoding device described.
前記フラグは、前記係数が取り得る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグである
ことを特徴とする請求項10〜14のいずれか1項に記載の画像復号装置。
15. The flag according to claim 10, wherein the flag is a flag indicating whether a minimum value and a maximum value that can be taken by the coefficient are determined by a bit depth or are fixed. Image decoding device.
前記フラグは、前記変換処理において取り得る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグである
ことを特徴とする請求項10〜15のいずれか1項に記載の画像復号装置。
The said flag is a flag which shows whether the minimum value and the maximum value which can be taken in the said conversion process are determined by a bit depth, or are fixed. The one of Claims 10-15 characterized by the above-mentioned. Image decoding apparatus.
前記ビット深度は、復号される前記画像のビット深度である
ことを特徴とする請求項10〜16のいずれか1項に記載の画像復号装置。
The image decoding device according to any one of claims 10 to 16, wherein the bit depth is a bit depth of the image to be decoded.
前記ビット深度を示す情報は、前記ビットストリームから復号される
ことを特徴とする請求項10〜17のいずれか1項に記載の画像復号装置。
The image decoding device according to any one of claims 10 to 17, wherein the information indicating the bit depth is decoded from the bit stream.
前記導出手段は、前記フラグに応じた最小値及び最大値に従った前記変換処理を行って、前記係数から前記差分を導出する
ことを特徴とする請求項10〜18のいずれか1項に記載の画像復号装置。
The said derivation | leading-out means performs the said conversion process according to the minimum value and maximum value according to the said flag, and derives | leads-out the said difference from the said coefficient. The any one of Claims 10-18 characterized by the above-mentioned. Image decoding apparatus.
画像を符号化する画像符号化方法であって、
対象画素と予測画素との差分に対して変換処理を行って係数を導出する導出工程と
前記係数に対応するデータと、前記係数に係る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグと、を符号化する符号化工程と、
を有することを特徴とする画像符号化方法。
An image encoding method for encoding an image, comprising:
A derivation step of deriving a coefficient by performing a conversion process on the difference between the target pixel and the predicted pixel, data corresponding to the coefficient, and the minimum and maximum values related to the coefficient are determined or fixed by the bit depth An encoding step for encoding a flag indicating whether or not
An image encoding method characterized by comprising:
ビットストリームから画像を復号する画像復号方法であって、
前記画像の画素に係る係数に対応するデータと、前記係数に係る最小値及び最大値がビット深度によって決定されるか又は固定であるかを示すフラグと、を前記ビットストリームから復号する復号工程と、
変換処理を行って、前記係数に基づく、対象画素と予測画素との差分を導出する導出工程と
を有することを特徴とする画像復号方法。
An image decoding method for decoding an image from a bitstream,
A decoding step of decoding from the bitstream data corresponding to coefficients related to pixels of the image and a flag indicating whether the minimum and maximum values related to the coefficients are determined by a bit depth or fixed; ,
An image decoding method comprising: a derivation step of performing a conversion process and deriving a difference between the target pixel and the predicted pixel based on the coefficient.
請求項1〜9のいずれか1項に記載の画像符号化装置の各手段としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the image encoding device according to any one of claims 1 to 9. 請求項10〜19のいずれか1項に記載の画像復号装置の各手段としてコンピュータを機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the image decoding device according to any one of claims 10 to 19.
JP2017103759A 2017-05-25 2017-05-25 Image encoding device, image encoding method and program, image decoding device, image decoding method and program Active JP6324590B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017103759A JP6324590B2 (en) 2017-05-25 2017-05-25 Image encoding device, image encoding method and program, image decoding device, image decoding method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017103759A JP6324590B2 (en) 2017-05-25 2017-05-25 Image encoding device, image encoding method and program, image decoding device, image decoding method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012287785A Division JP6157114B2 (en) 2012-12-28 2012-12-28 Image encoding device, image encoding method and program, image decoding device, image decoding method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018076452A Division JP2018142969A (en) 2018-04-11 2018-04-11 Image encoding apparatus, image encoding method and program, image decoding apparatus, and image decoding method and program

Publications (2)

Publication Number Publication Date
JP2017200191A JP2017200191A (en) 2017-11-02
JP6324590B2 true JP6324590B2 (en) 2018-05-16

Family

ID=60238288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017103759A Active JP6324590B2 (en) 2017-05-25 2017-05-25 Image encoding device, image encoding method and program, image decoding device, image decoding method and program

Country Status (1)

Country Link
JP (1) JP6324590B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018142969A (en) * 2018-04-11 2018-09-13 キヤノン株式会社 Image encoding apparatus, image encoding method and program, image decoding apparatus, and image decoding method and program
US10743017B2 (en) 2012-12-28 2020-08-11 Canon Kabushiki Kaisha Encoding including transform and quantization, or decoding including inverse-transform and inverse-quantization
WO2020177662A1 (en) * 2019-03-01 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Implementation aspects in intra block copy in video coding
US11228775B2 (en) 2019-02-02 2022-01-18 Beijing Bytedance Network Technology Co., Ltd. Data storage in buffers for intra block copy in video coding
US11375217B2 (en) 2019-02-02 2022-06-28 Beijing Bytedance Network Technology Co., Ltd. Buffer management for intra block copy in video coding
US11523107B2 (en) 2019-07-11 2022-12-06 Beijing Bytedance Network Technology Co., Ltd. Bitstream conformance constraints for intra block copy in video coding
US11528476B2 (en) 2019-07-10 2022-12-13 Beijing Bytedance Network Technology Co., Ltd. Sample identification for intra block copy in video coding
US11546581B2 (en) 2019-03-04 2023-01-03 Beijing Bytedance Network Technology Co., Ltd. Implementation aspects in intra block copy in video coding
US11575888B2 (en) 2019-07-06 2023-02-07 Beijing Bytedance Network Technology Co., Ltd. Virtual prediction buffer for intra block copy in video coding
US11882287B2 (en) 2019-03-01 2024-01-23 Beijing Bytedance Network Technology Co., Ltd Direction-based prediction for intra block copy in video coding

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08256341A (en) * 1995-03-17 1996-10-01 Sony Corp Image signal coding method, image signal coder, image signal recording medium and image signal decoder
WO2007114368A1 (en) * 2006-03-30 2007-10-11 Kabushiki Kaisha Toshiba Image coding apparatus and method, and image decoding apparatus and method
WO2007116551A1 (en) * 2006-03-30 2007-10-18 Kabushiki Kaisha Toshiba Image coding apparatus and image coding method, and image decoding apparatus and image decoding method
US8942289B2 (en) * 2007-02-21 2015-01-27 Microsoft Corporation Computational complexity and precision control in transform-based digital media codec
JP5697301B2 (en) * 2008-10-01 2015-04-08 株式会社Nttドコモ Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, moving picture decoding program, and moving picture encoding / decoding system
US9185422B2 (en) * 2010-07-15 2015-11-10 Qualcomm Incorporated Variable localized bit-depth increase for fixed-point transforms in video coding
EP2902918A1 (en) * 2011-06-30 2015-08-05 Samsung Electronics Co., Ltd Video decoding method restricting the range of intermediate decoding values

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10743017B2 (en) 2012-12-28 2020-08-11 Canon Kabushiki Kaisha Encoding including transform and quantization, or decoding including inverse-transform and inverse-quantization
JP2018142969A (en) * 2018-04-11 2018-09-13 キヤノン株式会社 Image encoding apparatus, image encoding method and program, image decoding apparatus, and image decoding method and program
US11228775B2 (en) 2019-02-02 2022-01-18 Beijing Bytedance Network Technology Co., Ltd. Data storage in buffers for intra block copy in video coding
US11375217B2 (en) 2019-02-02 2022-06-28 Beijing Bytedance Network Technology Co., Ltd. Buffer management for intra block copy in video coding
US11438613B2 (en) 2019-02-02 2022-09-06 Beijing Bytedance Network Technology Co., Ltd. Buffer initialization for intra block copy in video coding
WO2020177662A1 (en) * 2019-03-01 2020-09-10 Beijing Bytedance Network Technology Co., Ltd. Implementation aspects in intra block copy in video coding
US11956438B2 (en) 2019-03-01 2024-04-09 Beijing Bytedance Network Technology Co., Ltd. Direction-based prediction for intra block copy in video coding
US11882287B2 (en) 2019-03-01 2024-01-23 Beijing Bytedance Network Technology Co., Ltd Direction-based prediction for intra block copy in video coding
US11546581B2 (en) 2019-03-04 2023-01-03 Beijing Bytedance Network Technology Co., Ltd. Implementation aspects in intra block copy in video coding
US11575888B2 (en) 2019-07-06 2023-02-07 Beijing Bytedance Network Technology Co., Ltd. Virtual prediction buffer for intra block copy in video coding
US11528476B2 (en) 2019-07-10 2022-12-13 Beijing Bytedance Network Technology Co., Ltd. Sample identification for intra block copy in video coding
US11936852B2 (en) 2019-07-10 2024-03-19 Beijing Bytedance Network Technology Co., Ltd. Sample identification for intra block copy in video coding
US11523107B2 (en) 2019-07-11 2022-12-06 Beijing Bytedance Network Technology Co., Ltd. Bitstream conformance constraints for intra block copy in video coding

Also Published As

Publication number Publication date
JP2017200191A (en) 2017-11-02

Similar Documents

Publication Publication Date Title
JP6324590B2 (en) Image encoding device, image encoding method and program, image decoding device, image decoding method and program
JP6157114B2 (en) Image encoding device, image encoding method and program, image decoding device, image decoding method and program
KR101985004B1 (en) Coding apparatus, decoding apparatus, coding method, decoding method, and computer-readable storage medium
JP2014116733A (en) Image encoding device, image encoding method and program, image decoding device and image decoding method and program
JP2009290463A (en) Encoding/decoding device, encoding/decoding method, and program
JP6041554B2 (en) Image encoding device, image encoding method and program, image decoding device, image decoding method and program
JP2018142969A (en) Image encoding apparatus, image encoding method and program, image decoding apparatus, and image decoding method and program
JP6541763B2 (en) Image decoding apparatus, image decoding method and program
WO2020129463A1 (en) Image encoding device, image encoding method, image decoding device, and image decoding method
JP7279109B2 (en) Image decoding method and program
JP6743225B2 (en) Image decoding apparatus, image decoding method and program
JP6272441B2 (en) Image decoding apparatus, image decoding method and program
JP6891325B2 (en) Image coding method
JP5937926B2 (en) Image encoding device, image decoding device, image encoding program, and image decoding program
JP2012119969A (en) Image encoding system conversion device and image encoding system conversion program
JP2020098986A (en) Image encoding device, image decoding device, control method thereof, and program
JP2015019305A (en) Image encoder, image encoding method, and program, image decoder, image decoding method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180410

R151 Written notification of patent or utility model registration

Ref document number: 6324590

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151