WO2011052217A1 - 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路 - Google Patents

画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路 Download PDF

Info

Publication number
WO2011052217A1
WO2011052217A1 PCT/JP2010/006385 JP2010006385W WO2011052217A1 WO 2011052217 A1 WO2011052217 A1 WO 2011052217A1 JP 2010006385 W JP2010006385 W JP 2010006385W WO 2011052217 A1 WO2011052217 A1 WO 2011052217A1
Authority
WO
WIPO (PCT)
Prior art keywords
matrix
quantization scaling
scaling matrix
image
update parameter
Prior art date
Application number
PCT/JP2010/006385
Other languages
English (en)
French (fr)
Inventor
チョン スーン リム
ミン リー
ハイ ウェイ サン
陽司 柴原
西 孝啓
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to RU2012116555/07A priority Critical patent/RU2012116555A/ru
Priority to MX2012004556A priority patent/MX2012004556A/es
Priority to AU2010312983A priority patent/AU2010312983B2/en
Priority to CN201080048051.1A priority patent/CN102577386B/zh
Priority to KR1020127010645A priority patent/KR101680877B1/ko
Priority to US13/502,592 priority patent/US9467710B2/en
Priority to JP2011538260A priority patent/JPWO2011052217A1/ja
Priority to EP10826353.4A priority patent/EP2495974B1/en
Publication of WO2011052217A1 publication Critical patent/WO2011052217A1/ja
Priority to US15/255,549 priority patent/US10630997B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • H04N19/463Embedding additional information in the video signal during the compression process by compressing encoding parameters before transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Definitions

  • the present invention can be used for encoding any multimedia data, and in particular, can be used for decoding and encoding images and videos.
  • quantization is an important step in compressing data by removing some information in the image or video. Quantization is typically performed by transforming spatial domain data into the frequency domain so that the data can be better compressed by losing information in the quantization process.
  • the quantization process can be controlled by quantization parameters. At this time, if the value of the quantization parameter is large, the amount of compression increases, and more information is lost. And vice versa.
  • each frequency coefficient in the two-dimensional transform block can be quantized using both the quantization parameter and the corresponding value of the quantization scaling matrix.
  • matrix value refers to the value of the coefficient that constitutes the matrix (the same applies hereinafter).
  • AbsCoeff [i] [j] abs (QuantizedCoeff [i] [j]) * LevelScale * ScalingMatrix [i] [j] >> (QShift)
  • ScalingMatrix [i] [j] is a quantization scaling matrix value.
  • the quantization scaling matrix can be included in either the sequence header or the picture header.
  • quantized scaling matrix values are rearranged in a predetermined order to calculate a difference between preceding and subsequent values, and the difference value is included in a sequence header or picture header and encoded.
  • One of the problems of the prior art is the number of bits necessary for transmitting the quantization scaling matrix value in the picture header.
  • a large number of quantization scaling matrices are transmitted to the decoder through the picture header, a large amount of bits is required, resulting in a decrease in coding efficiency.
  • the present invention has been made in view of the above problems, and an object thereof is to provide an image encoding method and an image encoding method capable of encoding or decoding a quantization scaling matrix with a small number of bits.
  • the image decoding method is a method for decoding an encoded image included in an encoded stream. Specifically, a previously obtained quantization scaling matrix, a matrix acquisition step for acquiring a past quantization scaling matrix used for decoding a new quantization scaling matrix, and the past quantization scaling matrix An update parameter acquisition step for acquiring an update parameter indicating a change amount of the new quantization scaling matrix from the encoded stream, the past quantization scaling matrix acquired in the matrix acquisition step, and the update parameter acquisition A matrix decoding step of decoding the new quantization scaling matrix using the update parameter acquired in step, and the new quantization scaling matrix decoded in the matrix decoding step Used and an image decoding step of decoding the coded image.
  • the second update parameter indicating the degree of the above may be acquired from the encoded stream.
  • a prediction matrix predicting the new quantization scaling matrix is calculated using the past quantization scaling matrix and the first and second update parameters, and the calculated matrix is calculated.
  • the new quantization scaling matrix may be decoded using a prediction matrix.
  • a delta matrix that is a difference between the new quantization scaling matrix and the prediction matrix may be acquired from the encoded stream.
  • the new quantization scaling matrix may be decoded by adding the prediction matrix and the delta matrix.
  • each of the new quantization scaling matrix, the past quantization scaling matrix, the prediction matrix, and the delta matrix is a matrix composed of n values (n is a natural number of 2 or more). Also good.
  • n new values constituting the new quantization scaling matrix are M new (i)
  • n values constituting the previous quantization scaling matrix are M old (i)
  • the delta matrix is constituted.
  • n values are ⁇ M (i)
  • the first coefficient obtained from the first update parameter is P 1
  • the second coefficient obtained from the second update parameter is P 2
  • the coefficient F may be a value that matches the value of the direct current component of the past quantization scaling matrix.
  • the coefficient F may be a value that matches an average value of n values constituting the past quantization scaling matrix.
  • the encoded stream may include an update flag indicating whether or not the update parameter is included.
  • the image decoding method may decode the new quantization scaling matrix when a value indicating that the update parameter is included is set in the update flag.
  • the encoded stream may include an update type flag indicating an encoding method of the new quantization scaling matrix. Then, in the image decoding method, when the value indicating that the new quantization scaling matrix is encoded using the past quantization scaling matrix is set in the update type flag, The new quantization scaling matrix may be decoded using the quantization scaling matrix and the update parameter.
  • the encoded stream may include identification information for specifying the past quantization scaling matrix.
  • a quantization scaling matrix specified by the identification information among a plurality of already decoded quantization scaling matrices may be acquired as the past quantization scaling matrix.
  • the image encoding method is a method for encoding an image. Specifically, a matrix acquisition step of acquiring a past quantization scaling matrix that is an already encoded quantization scaling matrix and is used for encoding a new quantization scaling matrix, and the past quantization scaling. An update parameter calculation step for calculating an update parameter indicating a change amount of the new quantization scaling matrix with respect to the matrix, an encoded image encoded using the new quantization scaling matrix, and the update parameter calculation step. And an encoding step for generating an encoded stream including the calculated update parameter.
  • a second update parameter indicating the degree of the above may be calculated.
  • the first and second update parameters may be included in the encoded stream.
  • a prediction matrix that predicts the new quantization scaling matrix is calculated using the past quantization scaling matrix and the first and second update parameters, and the new The first and second update parameters may be calculated so that a value of a delta matrix that is a difference between a simple quantization scaling matrix and the prediction matrix is minimized.
  • the delta matrix may be further included in the encoded stream. According to the above configuration, each value of the delta matrix can be set to a value as close to 0 as possible, so that the encoding efficiency is improved.
  • identification information for specifying the past quantization scaling matrix acquired in the matrix acquisition step may be further included in the encoded stream. Thereby, for example, it is possible to select a past quantization matrix having the highest correlation with a new quantization scaling matrix.
  • An image decoding apparatus decodes an encoded image included in an encoded stream. Specifically, a previously obtained quantization scaling matrix, a matrix acquisition unit that acquires a past quantization scaling matrix used for decoding a new quantization scaling matrix, and the past quantization scaling matrix An update parameter acquisition unit that acquires an update parameter indicating a change amount of the new quantization scaling matrix from the encoded stream, the past quantization scaling matrix acquired by the matrix acquisition unit, and the update parameter acquisition A matrix decoding unit that decodes the new quantization scaling matrix using the update parameter acquired by the unit, and the encoded image using the new quantization scaling matrix decoded in the matrix decoding step. Decrypt And an image decoding unit.
  • the image encoding device encodes an image. Specifically, a matrix acquisition unit that is an already encoded quantization scaling matrix and acquires a past quantization scaling matrix used for encoding a new quantization scaling matrix; and the past quantization scaling An update parameter calculation unit that calculates an update parameter indicating a change amount of the new quantization scaling matrix with respect to the matrix, an encoded image encoded using the new quantization scaling matrix, and the update parameter calculation unit An encoding unit that generates an encoded stream including the calculated update parameter.
  • a program causes a computer to decode an encoded image included in an encoded stream. Specifically, a previously obtained quantization scaling matrix, a matrix acquisition step for acquiring a past quantization scaling matrix used for decoding a new quantization scaling matrix, and the past quantization scaling matrix An update parameter acquisition step for acquiring an update parameter indicating a change amount of the new quantization scaling matrix from the encoded stream, the past quantization scaling matrix acquired in the matrix acquisition step, and the update parameter acquisition A matrix decoding step of decoding the new quantization scaling matrix using the update parameter acquired in step, and the new quantization scaling matrix decoded in the matrix decoding step Using an image decoding step of decoding the encoded image, it causes the computer to execute.
  • a program causes a computer to encode an image. Specifically, a matrix acquisition step of acquiring a past quantization scaling matrix that is an already encoded quantization scaling matrix and is used for encoding a new quantization scaling matrix, and the past quantization scaling. An update parameter calculation step for calculating an update parameter indicating a change amount of the new quantization scaling matrix with respect to the matrix, an encoded image encoded using the new quantization scaling matrix, and the update parameter calculation step. The computer executes an encoding step for generating an encoded stream including the calculated update parameter.
  • the integrated circuit decodes the encoded image included in the encoded stream. Specifically, a previously obtained quantization scaling matrix, a matrix acquisition unit that acquires a past quantization scaling matrix used for decoding a new quantization scaling matrix, and the past quantization scaling matrix An update parameter acquisition unit that acquires an update parameter indicating a change amount of the new quantization scaling matrix from the encoded stream, the past quantization scaling matrix acquired by the matrix acquisition unit, and the update parameter acquisition A matrix decoding unit that decodes the new quantization scaling matrix using the update parameter acquired by the unit, and the encoded image using the new quantization scaling matrix decoded in the matrix decoding step. Decrypt And an image decoding unit.
  • An integrated circuit encodes an image. Specifically, a matrix acquisition unit that is an already encoded quantization scaling matrix and acquires a past quantization scaling matrix used for encoding a new quantization scaling matrix; and the past quantization scaling An update parameter calculation unit that calculates an update parameter indicating a change amount of the new quantization scaling matrix with respect to the matrix, an encoded image encoded using the new quantization scaling matrix, and the update parameter calculation unit An encoding unit that generates an encoded stream including the calculated update parameter.
  • the encoding efficiency is improved.
  • FIG. 1 is a functional block diagram of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram of an image encoding device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a relationship between a quantization scaling matrix value and an inverse quantization absolute value.
  • FIG. 4A is a diagram illustrating an example of update parameters set in the sequence header.
  • FIG. 4B is a diagram illustrating an example of update parameters set in the picture header.
  • FIG. 5 is a diagram illustrating two types of update parameters that are encoded in a picture header or sequence header.
  • FIG. 6 is a flowchart illustrating an example of a process for decoding a quantized scaling matrix value.
  • FIG. 1 is a functional block diagram of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 2 is a functional block diagram of an image encoding device according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a relationship
  • FIG. 7 is a flowchart illustrating an example of a process for encoding the quantization scaling matrix value.
  • FIG. 8 is a flowchart illustrating an example of a decoding process for updating the quantization scaling matrix value of one block transform size.
  • FIG. 9 is a flowchart illustrating an example of an encoding process for updating a quantization scaling matrix value of one block transform size.
  • FIG. 10 is a flowchart illustrating an example of processing for decoding update parameters.
  • FIG. 11 is a flowchart illustrating an example of a process for encoding an update parameter.
  • FIG. 12 is a flowchart illustrating an example of a decoding process for calculating a new quantization scaling matrix value.
  • FIG. 12 is a flowchart illustrating an example of a decoding process for calculating a new quantization scaling matrix value.
  • FIG. 13 is a flowchart illustrating an example of an encoding process for calculating a new quantization scaling matrix value.
  • FIG. 14 is a detailed functional block diagram of an image decoding apparatus according to an embodiment of the present invention.
  • FIG. 15 is a detailed functional block diagram of an image encoding device according to an embodiment of the present invention.
  • FIG. 16 is a schematic diagram illustrating an example of the overall configuration of a content supply system that implements a content distribution service.
  • FIG. 17 is a diagram illustrating an appearance of a mobile phone.
  • FIG. 18 is a block diagram illustrating a configuration example of a mobile phone.
  • FIG. 19 is a schematic diagram illustrating an example of the overall configuration of a digital broadcasting system.
  • FIG. 20 is a block diagram illustrating a configuration example of a television.
  • FIG. 21 is a block diagram illustrating a configuration example of an information reproducing / recording unit that reads and writes information from and on a recording medium that is an optical disk.
  • FIG. 22 is a diagram illustrating a structure example of a recording medium that is an optical disk.
  • FIG. 23 is a block diagram illustrating a configuration example of an integrated circuit that realizes the image encoding method and the image decoding method according to each embodiment.
  • Embodiment 1 Hereinafter, with reference to the drawings, configurations and operations of the image decoding apparatus and the image encoding apparatus according to Embodiment 1 will be described.
  • the image decoding apparatus 10 includes a matrix acquisition unit 11, an update parameter acquisition unit 12, a matrix decoding unit 13, and an image decoding unit 14, and includes an encoded image included in the encoded stream. Is a device that decodes.
  • the matrix acquisition unit 11 acquires a quantized scaling matrix that has already been decoded and is used for decoding a new quantized scaling matrix. Then, the matrix acquisition unit 11 outputs the acquired past quantization scaling matrix to the matrix decoding unit 13. Note that the already-decoded quantization scaling matrix is held in the memory (not shown) of the image decoding apparatus 10.
  • the selection method of the past quantization scaling matrix is not particularly limited.
  • the quantization scaling matrix decoded immediately before may be selected.
  • a past quantization scaling matrix may be selected based on this identification information.
  • a default quantization scaling matrix defined in the standard may be selected.
  • the update parameter acquisition unit 12 acquires an update parameter indicating a change amount of a new quantization scaling matrix with respect to the past quantization scaling matrix from the encoded stream. Then, the update parameter acquisition unit 12 outputs the acquired update parameter to the matrix decoding unit 13.
  • the update parameter acquired here includes a first update parameter indicating the magnification of the new quantization scaling matrix with respect to the past quantization scaling matrix, and variations of a plurality of values constituting the new quantization scaling matrix.
  • a second update parameter indicating the degree, and a delta matrix that is a difference between a new quantization scaling matrix and a prediction matrix (described later).
  • the matrix decoding unit 13 decodes a new quantization scaling matrix using the past quantization scaling matrix acquired by the matrix acquisition unit 11 and the update parameter acquired by the update parameter acquisition unit 12. The matrix decoding unit 13 then outputs the decoded new quantization scaling matrix to the image decoding unit 14.
  • the matrix decoding unit 13 calculates a prediction matrix obtained by predicting a new quantization scaling matrix using the past quantization scaling matrix and the first and second update parameters. Then, the matrix decoding unit 13 decodes a new quantization scaling matrix by adding the prediction matrix and the delta matrix.
  • the image decoding unit 14 decodes the encoded image included in the encoded stream using the new quantization scaling matrix decoded by the matrix decoding unit 13, and outputs the decoded image.
  • the image encoding device 20 includes a matrix acquisition unit 21, an update parameter calculation unit 22, and an encoding unit 23, and is an apparatus that encodes an image.
  • the matrix acquisition unit 21 acquires a previous quantization scaling matrix that is an already encoded quantization scaling matrix and is used for encoding a new quantization scaling matrix. Then, the matrix acquisition unit 21 outputs the acquired past quantization scaling matrix to the update parameter calculation unit 22. Note that the already-encoded quantization scaling matrix is held in the memory (not shown) of the image encoding device 20.
  • the selection method of the past quantization scaling matrix is not particularly limited.
  • the quantization scaling matrix coded immediately before may be selected.
  • the quantization scaling matrix having the highest correlation with the new quantization scaling matrix may be selected. In this case, it is necessary to include identification information for specifying the selected quantization scaling matrix in the encoded stream.
  • the update parameter calculation unit 22 calculates update parameters (first and second update parameters, delta matrix, and the like) indicating the amount of change in the new quantization scaling matrix with respect to the past quantization scaling matrix. Then, the update parameter calculation unit 22 outputs the calculated update parameter to the encoding unit 23.
  • the delta matrix is a difference between a prediction matrix in which a new quantization scaling matrix is predicted using a past quantization scaling matrix and first and second update parameters, and a new quantization scaling matrix. It is. Then, the update parameter calculation unit 22 may calculate the first and second update parameters so that the value of the delta matrix is minimized.
  • the encoding unit 23 generates and outputs an encoded stream including an encoded image encoded using the new quantization scaling matrix and the update parameter calculated by the update parameter calculation unit 22. Furthermore, the encoding unit 23 may include identification information for specifying the past quantization scaling matrix in the encoded stream.
  • FIG. 3 is a diagram showing the relationship between the quantization scaling matrix value and the inverse quantization absolute value. As shown in FIG. 3, the larger the quantization scaling matrix value, the larger the quantization scale step, and vice versa.
  • 4A and 4B are diagrams illustrating examples of parameters used for updating the quantization scaling matrix included in the picture header and the sequence header.
  • an update flag (D202), an update denominator (D204), and an update parameter (D206) can be included.
  • the picture header (D214) can include an update flag (D202), an update denominator (D204), and an update parameter (D206) as shown in FIG. 4B, for example.
  • the update flag (D202, D208) is a flag indicating whether or not the header includes information for decoding a new quantization scaling matrix, that is, an update parameter. For example, when 1 is set in the update flags (D202, D208), the update denominators (D204, D210) and the update parameters (D206, D212) may be set thereafter.
  • the update denominators (D204, D210) are used to determine the rate of change when updating the quantization scaling matrix.
  • FIG. 5 is a diagram showing two types of update parameters (D302) encoded in a picture header or sequence header (hereinafter collectively referred to as “header”). As shown in FIG. 5, the update parameter (D302) is prepared for each of the M conversion sizes, and each includes an update flag (D300) and an update type flag (D304).
  • the update flag (D300) indicates whether or not the quantization scaling matrix value for this transform size is updated.
  • the update type flag (D304) is a flag indicating a coding method of a new quantization scaling matrix.
  • a new quantization scaling matrix is encoded using a past quantization scaling matrix (hereinafter referred to as “first method”). It shows that.
  • first method a past quantization scaling matrix
  • the first update parameter (D310), the second update parameter (D312), the number of delta matrix values (D314), and the subsequent delta matrix value (D316) are headers. It is encoded within.
  • the new quantization scaling matrix is encoded without using the past quantization scaling matrix (hereinafter referred to as “second method”).
  • the delta matrix value (D306) is encoded in the header.
  • the second method for example, as in the conventional method of encoding a quantization scaling matrix, a plurality of values constituting the quantization scaling matrix are arranged in a predetermined order, and the difference value between the preceding and succeeding values is arranged in a delta matrix The value (D3016) may be used.
  • FIG. 6 is a flowchart showing the decoding process of the update parameter in the header.
  • the image decoding apparatus 10 decodes the update flag (D202, D208) in the header (S400), and checks the value of the update flag (S402).
  • the image decoding apparatus 10 decodes the update denominators (D204, D210) (S404).
  • the update denominator is used, for example, to determine the rate of change when updating the quantization scaling matrix value.
  • the image decoding apparatus 10 decodes the update parameters (D206, D212) (S406).
  • the image decoding apparatus 10 calculates a new quantization scaling matrix value (S408).
  • FIG. 7 is a flowchart showing the encoding process of the update parameter in the header.
  • the image encoding device 20 encodes an update flag (S500).
  • the update flag information indicating whether or not an update parameter for generating a new quantization scaling matrix is included in the header is set.
  • the image encoding device 20 encodes the update denominator (S504).
  • the image encoding device 20 calculates an update parameter for generating a new quantization scaling matrix (S506).
  • the image encoding device 20 encodes the calculated update parameter and includes it in the encoded stream (S508).
  • FIG. 8 is a flowchart for explaining a decoding process for updating the quantization scaling matrix value of one block transform size.
  • the image decoding device 10 decodes the update flag (D300) included in the header (S600). Next, if the value of the update flag is 1 (Yes in S601), the image decoding apparatus 10 decodes the update type flag (D304) included in the header (S602).
  • the image decoding apparatus 10 decodes the update parameter (D302) included in the header (S606), and performs past quantization scaling according to the first method.
  • a new quantization scaling matrix value is calculated using the matrix value (S608).
  • the image decoding apparatus 10 decodes a new quantization scaling matrix value according to the second method without using the past quantization scaling matrix value. (S610).
  • FIG. 9 is a flowchart for explaining an encoding process for updating a quantization scaling matrix value of one block transform size.
  • the image encoding device 20 encodes the update flag set by itself (S700).
  • the image encoding device 20 encodes the update type flag set by itself (S704).
  • the image encoding device 20 calculates an update parameter using the past quantization scaling matrix value (S708), and the calculated update parameter. Is encoded (S710).
  • the image encoding device 20 encodes a new quantization scaling matrix value without using the past quantization scaling matrix value (S714). ).
  • FIG. 10 is a flowchart for explaining the process of decoding the update parameter.
  • the image decoding device 10 decodes the first update parameter and the second update parameter using information included in the header (S800 to S802).
  • the image decoding apparatus 10 initializes all delta matrix values to zero values (S804). Then, the image decoding apparatus 10 decodes the number of encoded delta matrix values included in the header (S806). Finally, the image decoding apparatus 10 decodes the delta matrix value (S808 to S814).
  • the number of delta matrix values that can be decoded here is based on the decoded number of encoded delta matrix values.
  • These delta matrix values are arranged in a predetermined scanning order, for example, a zigzag scanning order in each conversion block, and represent the delta matrix values from the low frequency component to the high frequency component of the two-dimensional conversion block.
  • the scanning order varies depending on the size of the conversion block size. For example, the scanning order for an 8 ⁇ 2 block is different from the scanning order for a 2 ⁇ 8 block.
  • FIG. 11 is a flowchart for explaining the process of encoding the update parameter.
  • the image encoding device 20 encodes the first update parameter and the second update parameter (S900 to S902).
  • the image encoding device 20 calculates the number of delta matrix values to be encoded (S904).
  • One example of a calculation that determines the number of delta matrix values is to determine the position of the last non-zero delta matrix value at the scan position.
  • the image encoding device 20 encodes the number of delta matrix values (S906).
  • the image encoding device 20 encodes the delta matrix value of the transform block size until the final position in the block scanning order is equal to the number of encoded delta matrix values (S908 to S914).
  • FIG. 12 is a flowchart for explaining a decoding process for calculating a new quantization scaling matrix value using the first method.
  • the image decoding apparatus 10 acquires a past scaling matrix value (S1000).
  • the image decoding apparatus 10 scales the past quantization scaling matrix value by the first coefficient determined by the first update parameter (D310) shown in FIG. Calculate (S1002).
  • the first value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the first coefficient can be expressed by the following equation, for example.
  • the update denominator is expressed in a header or set to a predefined value, as shown in FIGS. 4A and 4B.
  • the predefined value is 16 or 128, for example.
  • the first coefficient calculated by the above equation may be set in the header as the first update parameter. This eliminates the need for an area for setting an update denominator in the header and eliminates the need for the image decoding apparatus 10 to perform the above calculation.
  • the image decoding apparatus 10 calculates a difference value between the past quantization scaling matrix value and the fixed value (S1004).
  • the difference value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the fixed value is a value determined at least for each quantization scaling matrix.
  • the DC component value for example, 16
  • Average value average scaling matrix value
  • the image decoding apparatus 10 scales the difference value calculated in S1004 calculated by the second coefficient determined by the second update parameter (D312) illustrated in FIG. Is calculated (S1006).
  • the second value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the update denominator is expressed in a header or set to a predefined value, as shown in FIGS. 4A and 4B.
  • the predefined value is 16 or 128, for example.
  • the second coefficient calculated by the above equation may be set in the header as the second update parameter. This eliminates the need for an area for setting an update denominator in the header and eliminates the need for the image decoding apparatus 10 to perform the above calculation.
  • a prediction matrix value is obtained by calculating the sum of the first value and the second value (S1008).
  • the prediction matrix value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the image decoding apparatus 10 calculates a new quantization scaling matrix value by adding the delta matrix value to the calculated prediction matrix value (adding corresponding coefficients) (S1010).
  • the processing of FIG. 12 can be expressed as the following Equation 1.
  • M new (i) indicates n values constituting a new quantization scaling matrix.
  • M old (i) indicates n values constituting the past quantization scaling matrix.
  • ⁇ M (i) indicates n values constituting the delta matrix.
  • P 1 indicates the first coefficient
  • P 2 indicates the second coefficient
  • F indicates a fixed value.
  • Equation 1 corresponds to the processing of S1002 of FIG. 12, and the second term of Equation 1 corresponds to S1004 to S1006 of FIG. Moreover, a prediction matrix is obtained by adding the first term and the second term of Equation 1 (that is, corresponding to S1008 in FIG. 12). Then, a new quantization scaling matrix is obtained by adding the third term of Equation 1 to the prediction matrix (that is, corresponding to S1010 in FIG. 12).
  • FIG. 13 is a flowchart for explaining an encoding process for calculating an update parameter from a quantized scaling matrix value.
  • the image encoding device 20 determines a past quantization scaling matrix (S1100).
  • the past quantization scaling matrix may be selected, for example, from among a plurality of already encoded quantization scaling matrices, the one having the highest correlation with the new quantization scaling matrix.
  • the image encoding device 20 calculates the first value by scaling the past scaling matrix value by the first coefficient determined by the first update parameter (D310) shown in FIG. (S1102).
  • the first value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the first coefficient can be expressed by the following equation, for example.
  • the update denominator is expressed in a header or set to a predefined value.
  • the predefined value is, for example, 16 or 128.
  • the first coefficient calculated by the above equation may be set in the header as the first update parameter. This eliminates the need for an area for setting an update denominator in the header, and eliminates the need for the image encoding device 20 to perform the above calculation.
  • the image encoding device 20 calculates a difference value between the past scaling matrix value and the fixed value (S1104).
  • the difference value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the description thereof will be omitted.
  • the image encoding device 20 scales the difference value calculated in S1104 with the second coefficient determined by the second update parameter (D312) illustrated in FIG. Is calculated (S1106).
  • the second value calculated here is a matrix having the same number of coefficients as the quantization scaling matrix.
  • the update denominator is expressed in a header or set to a predefined value, as shown in FIGS. 4A and 4B.
  • the predefined value is 16 or 128, for example.
  • the second coefficient calculated by the above equation may be set in the header as the second update parameter. This eliminates the need for an area for setting an update denominator in the header, and eliminates the need for the image encoding device 20 to perform the above calculation.
  • the image encoding device 20 obtains a prediction matrix value by calculating the sum of the first value and the second value (S1108). Then, the image encoding device 20 calculates a delta matrix value by subtracting the prediction matrix value calculated in S1108 from the new quantization scaling matrix value (S1110).
  • the processing of FIG. 13 can be expressed as the following Equation 2.
  • a first coefficient P 1 is multiplied to each value which constitutes the past quantization scaling matrices. That is, the first coefficient P 1 is a coefficient for changing the overall magnification without changing the variation of a plurality of values constituting the past quantization scaling matrix.
  • the fixed value F is subtracted from each value which constitutes the past quantization scaling matrix, second coefficient P 2 is multiplied to the subtraction value.
  • the fixed value F a value close to (typically coincides with) the value of the direct current component of the past quantization scaling matrix is set. If it does so, the value of the low frequency component close
  • the second coefficient P 2 among a plurality of values constituting the past quantization scaling matrix, the effect on the low-frequency component relatively small influence on the high-frequency component is relatively large. That is, in the operation of the third term of Equation 2, as the second value of the coefficient P 2 is increased to increase the variation between the values of the high frequency component of the low-frequency components of the new quantization scaling matrix be able to.
  • the image encoding device 10 selects the past quantization scaling parameter having the highest correlation with the new quantization scaling parameter and minimizes the delta matrix value (for example, the mean square error is minimized). As such, by determining the first and second update parameters, the coding efficiency can be improved.
  • FIG. 14 is a detailed functional block diagram of the image decoding apparatus 10A according to an embodiment of the present invention.
  • the exemplary image decoding device 10A includes a quantization scaling matrix parameter analysis unit 1200, a quantization scaling matrix value calculation unit 1202, a quantization scaling matrix value storage unit 1204, and a first memory unit 1206.
  • the quantization scaling matrix parameter analysis unit 1200 reads the header (D1201) from the encoded stream, and outputs the update parameter (D1203) to the quantization scaling matrix calculation unit 1202.
  • the quantization scaling matrix parameter analysis unit 1200 corresponds to, for example, the update parameter acquisition unit 12 in FIG.
  • the quantization scaling matrix calculation unit 1202 then outputs a new quantization scaling matrix value (D1205) to the quantization scaling matrix value storage unit 1204.
  • the quantization scaling matrix calculation unit 1202 corresponds to, for example, the matrix acquisition unit 11 and the matrix decoding unit 13 in FIG.
  • the quantization scaling matrix value storage unit 1204 stores the new quantization scaling matrix value (D1207) in the first memory unit 1206.
  • the inverse quantization unit 1208, the inverse transform unit 1210, the sample reconstruction unit 1212, the memory unit 1216, and the sample prediction unit 1214 form part of the image decoding device 10A and correspond to, for example, the image decoding unit 14 in FIG. To do.
  • the inverse quantization unit 1208 takes in a picture coding block (D1213) and a new quantization scaling matrix value (D1211), and executes an inverse quantization process.
  • the inversely quantized coefficient (D1215) is transmitted to the inverse transform unit 1210, and the decoding residual (D1217) is output to the sample reconstruction unit 1212.
  • the sample reconstruction unit 1212 takes in the decoding residual (D1217) and the prediction sample (D1221), and outputs the reconstruction sample (D1219).
  • the reconstructed sample (D1219) is then stored in the second memory unit 1216 and used by the sample prediction unit 1214 to generate the prediction sample (D1221).
  • FIG. 15 is a diagram illustrating an image encoding device 20A according to an embodiment of the present invention.
  • the exemplary image encoding device 20A includes a quantization scaling matrix update parameter calculation unit 1300, a quantization scaling matrix parameter writing unit 1302, a first memory unit 1304, a subtraction unit 1306, and a conversion unit. 1308, a quantization unit 1310, an inverse quantization unit 1312, an inverse transformation unit 1314, a second memory unit 1318, an addition unit 1320, and a sample prediction unit 1316.
  • the subtraction unit 1306, the conversion unit 1308, the quantization unit 1310, the inverse quantization unit 1312, the inverse conversion unit 1314, the memory unit 1318, the addition unit 1320, and the sample prediction unit 1316 form part of the encoding device 20A.
  • it corresponds to the encoding unit 23 in FIG.
  • the quantization scaling matrix update parameter calculation unit 1300 takes in the new quantization scaling matrix value (D1301) and the quantization scaling matrix value from the first memory unit 1304, and updates the quantization scaling matrix parameter writing unit 1302 with the update parameter (D1303). Is output.
  • the quantization scaling matrix update parameter calculation unit 1300 corresponds to, for example, the matrix acquisition unit 21 and the update parameter calculation unit 22 illustrated in FIG.
  • the quantization scaling matrix parameter writing unit 1302 writes the quantization scaling matrix update parameter (D1305) in the header.
  • the quantization scaling matrix parameter writing unit 1302 corresponds to, for example, a part of the function of the encoding unit 23 in FIG.
  • the subtraction unit 1306 takes in the uncompressed sample (D1309) and the prediction sample (D1315) of the picture, and outputs the residual block (D1311) to the conversion unit 1308.
  • the transform unit 1308 transforms the residual block (D1311) and outputs the transform coefficient (D1313) to the quantization unit 1310.
  • the quantization unit 1310 reads the transform coefficient (D1313) and the new quantization scaling matrix value (D1307), and outputs a coded sample (D1317) of the picture.
  • the inverse quantization unit 1312 reads the encoded sample (D1317), performs an inverse quantization process using the new quantization scaling matrix value (D1307), and sends the inverse quantization coefficient (D1319) to the inverse transform unit 1314. Output.
  • the inverse transformation unit 1314 outputs the reconstructed residual (D1327) to the addition unit 1320.
  • the adding unit 1329 reads the reconstructed residual (D1327) and the prediction sample (D1315), and outputs the reconstructed samples (D1321, D1325) of the picture.
  • the reconstructed sample (D1325) is stored in the second memory unit 1318.
  • the sample prediction unit 1316 reads the reconstructed sample (D1323) from the second memory unit 1318 and outputs the prediction sample (D1315).
  • the storage medium may be any medium that can record a program, such as a magnetic disk, an optical disk, a magneto-optical disk, an IC card, and a semiconductor memory.
  • FIG. 16 is a diagram showing an overall configuration of a content supply system ex100 that realizes a content distribution service.
  • the communication service providing area is divided into desired sizes, and base stations ex106 to ex110, which are fixed radio stations, are installed in each cell.
  • the content supply system ex100 includes a computer ex111, a PDA (Personal Digital Assistant) ex112, a camera ex113, a mobile phone ex114, a game machine via the Internet ex101, the Internet service provider ex102, the telephone network ex104, and the base stations ex106 to ex110. Each device such as ex115 is connected.
  • PDA Personal Digital Assistant
  • each device may be directly connected to the telephone network ex104 without going through the base stations ex106 to ex110 which are fixed wireless stations.
  • the devices may be directly connected to each other via short-range wireless or the like.
  • the camera ex113 is a device that can shoot moving images such as a digital video camera
  • the camera ex116 is a device that can shoot still images and movies such as a digital camera.
  • the mobile phone ex114 is a GSM (Global System for Mobile Communications) method, a CDMA (Code Division Multiple Access) method, a W-CDMA (Wideband-Code Division Multiple Access L (Semiconductor Access) method, a W-CDMA (Wideband-Code Division Multiple Access L method, or a high access rate).
  • GSM Global System for Mobile Communications
  • CDMA Code Division Multiple Access
  • W-CDMA Wideband-Code Division Multiple Access L (Semiconductor Access) method
  • W-CDMA Wideband-Code Division Multiple Access L method
  • a high access rate A High Speed Packet Access
  • PHS Personal Handyphone System
  • the camera ex113 and the like are connected to the streaming server ex103 through the base station ex109 and the telephone network ex104, thereby enabling live distribution and the like.
  • the content for example, music live video
  • the streaming server ex103 streams the content data transmitted to the requested client.
  • the client include a computer ex111, a PDA ex112, a camera ex113, a mobile phone ex114, a game machine ex115, and the like that can decode the encoded data.
  • Each device that has received the distributed data decodes and reproduces the received data.
  • the encoded processing of the captured data may be performed by the camera ex113, the streaming server ex103 that performs the data transmission processing, or may be performed in a shared manner.
  • the decryption processing of the distributed data may be performed by the client, the streaming server ex103, or may be performed in a shared manner.
  • still images and / or moving image data captured by the camera ex116 may be transmitted to the streaming server ex103 via the computer ex111.
  • the encoding process in this case may be performed by any of the camera ex116, the computer ex111, and the streaming server ex103, or may be performed in a shared manner.
  • these encoding processing and decoding processing are generally performed in a computer ex111 and an LSI (Large Scale Integration) ex500 included in each device.
  • the LSI ex500 may be configured as a single chip or a plurality of chips.
  • image encoding and image decoding software is incorporated into some recording medium (CD-ROM, flexible disk, hard disk, etc.) that can be read by the computer ex111 and the like, and the encoding processing and decoding processing are performed using the software. May be.
  • moving image data acquired by the camera may be transmitted. The moving image data at this time is data encoded by the LSI ex500 included in the mobile phone ex114.
  • the streaming server ex103 may be a plurality of servers or a plurality of computers, and may process, record, and distribute data in a distributed manner.
  • the encoded data can be received and reproduced by the client.
  • the information transmitted by the user can be received, decrypted and reproduced in real time by the client, and even a user who does not have special rights or facilities can realize personal broadcasting.
  • the image encoding method or the image decoding method shown in the above embodiment may be used for encoding and decoding of each device constituting the content supply system.
  • FIG. 17 is a diagram illustrating the mobile phone ex114 using the image encoding method and the image decoding method described in the above embodiment.
  • the cellular phone ex114 includes an antenna ex601 for transmitting and receiving radio waves to and from the base station ex110, a video from a CCD camera, a camera unit ex603 capable of taking a still image, a video shot by the camera unit ex603, and an antenna ex601.
  • a display unit ex602 such as a liquid crystal display that displays data obtained by decoding received video and the like, a main body unit composed of a group of operation keys ex604, an audio output unit ex608 such as a speaker for outputting audio, and a voice input Audio input unit ex605 such as a microphone, recorded moving image or still image data, received mail data, moving image data or still image data, etc., for storing encoded data or decoded data
  • Recording media ex607 can be attached to media ex607 and mobile phone ex114 And a slot unit ex606 for.
  • the recording medium ex607 stores a flash memory element, which is a kind of EEPROM, which is a nonvolatile memory that can be electrically rewritten and erased, in a plastic case such as an SD card.
  • the mobile phone ex114 has a power supply circuit ex710, an operation input control unit ex704, an image encoding unit, and a main control unit ex711 configured to control the respective units of the main body unit including the display unit ex602 and the operation key ex604.
  • Unit ex712, camera interface unit ex703, LCD (Liquid Crystal Display) control unit ex702, image decoding unit ex709, demultiplexing unit ex708, recording / reproducing unit ex707, modulation / demodulation circuit unit ex706, and audio processing unit ex705 are connected to each other via a synchronization bus ex713. It is connected.
  • the power supply circuit ex710 activates the camera-equipped digital mobile phone ex114 by supplying power to each unit from the battery pack. .
  • the cellular phone ex114 converts the audio signal collected by the audio input unit ex605 in the audio call mode into digital audio data by the audio processing unit ex705 based on the control of the main control unit ex711 including a CPU, a ROM, a RAM, and the like.
  • the modulation / demodulation circuit unit ex706 performs spread spectrum processing, the transmission / reception circuit unit ex701 performs digital analog conversion processing and frequency conversion processing, and then transmits the result via the antenna ex601.
  • the cellular phone ex114 amplifies the received data received by the antenna ex601 in the voice call mode, performs frequency conversion processing and analog-digital conversion processing, performs spectrum despreading processing by the modulation / demodulation circuit unit ex706, and performs analog speech by the voice processing unit ex705. After the data is converted, it is output via the audio output unit ex608.
  • text data of the e-mail input by operating the operation key ex604 on the main body is sent to the main control unit ex711 via the operation input control unit ex704.
  • the main control unit ex711 performs spread spectrum processing on the text data in the modulation / demodulation circuit unit ex706, performs digital analog conversion processing and frequency conversion processing in the transmission / reception circuit unit ex701, and then transmits the text data to the base station ex110 via the antenna ex601.
  • the image data captured by the camera unit ex603 is supplied to the image encoding unit ex712 via the camera interface unit ex703.
  • the image data captured by the camera unit ex603 can be directly displayed on the display unit ex602 via the camera interface unit ex703 and the LCD control unit ex702.
  • the image encoding unit ex712 is configured to include the image encoding device described in the present invention, and an encoding method using the image data supplied from the camera unit ex603 in the image encoding device described in the above embodiment. Is converted into encoded image data by compression encoding and sent to the demultiplexing unit ex708. At the same time, the mobile phone ex114 sends the sound collected by the sound input unit ex605 during imaging by the camera unit ex603 to the demultiplexing unit ex708 via the sound processing unit ex705 as digital sound data.
  • the demultiplexing unit ex708 multiplexes the encoded image data supplied from the image encoding unit ex712 and the audio data supplied from the audio processing unit ex705 by a predetermined method, and the resulting multiplexed data is a modulation / demodulation circuit unit Spread spectrum processing is performed in ex706, digital analog conversion processing and frequency conversion processing are performed in the transmission / reception circuit unit ex701, and then transmission is performed via the antenna ex601.
  • the received data received from the base station ex110 via the antenna ex601 is subjected to spectrum despreading processing by the modulation / demodulation circuit unit ex706, and the resulting multiplexing is obtained.
  • Data is sent to the demultiplexing unit ex708.
  • the demultiplexing unit ex708 separates the multiplexed data into a bit stream of image data and a bit stream of audio data, and a synchronization bus
  • the encoded image data is supplied to the image decoding unit ex709 via ex713 and the audio data is supplied to the audio processing unit ex705.
  • the image decoding unit ex709 is configured to include the image decoding device described in the present application, and is reproduced by decoding the bit stream of the image data with a decoding method corresponding to the encoding method described in the above embodiment.
  • Moving image data is generated and supplied to the display unit ex602 via the LCD control unit ex702, thereby displaying, for example, moving image data included in a moving image file linked to a home page.
  • the audio processing unit ex705 converts the audio data into analog audio data, and then supplies the analog audio data to the audio output unit ex608.
  • the audio data included in the moving image file linked to the home page is reproduced.
  • a decoding device can be incorporated. Specifically, in the broadcasting station ex201, audio data, video data, or a bit stream in which those data are multiplexed is transmitted to a communication or broadcasting satellite ex202 via radio waves. In response, the broadcasting satellite ex202 transmits a radio wave for broadcasting, and a home antenna ex204 having a satellite broadcasting receiving facility receives the radio wave, and the television (receiver) ex300 or the set top box (STB) ex217 or the like. The device decodes the bitstream and reproduces it.
  • the reader / recorder ex218 that reads and decodes a bitstream in which image data and audio data recorded on recording media ex215 and ex216 such as CD and DVD as recording media are multiplexed is also shown in the above embodiment. It is possible to implement an image decoding device. In this case, the reproduced video signal is displayed on the monitor ex219. Further, a configuration in which an image decoding device is mounted in a set-top box ex217 connected to a cable ex203 for cable television or an antenna ex204 for satellite / terrestrial broadcasting, and this is reproduced on the monitor ex219 of the television is also conceivable. At this time, the image decoding apparatus may be incorporated in the television instead of the set top box. In addition, a car ex210 having an antenna ex205 can receive a signal from a satellite ex202 or a base station and reproduce a moving image on a display device such as a car navigation ex211 included in the car ex210.
  • audio data, video data recorded on a recording medium ex215 such as DVD or BD, or an encoded bit stream in which those data are multiplexed are read and decoded, or audio data, video data or these are recorded on the recording medium ex215.
  • the image decoding apparatus or the image encoding apparatus described in the above embodiment can also be mounted on the reader / recorder ex218 that encodes the data and records the multiplexed data as multiplexed data.
  • the reproduced video signal is displayed on the monitor ex219.
  • the recording medium ex215 on which the encoded bit stream is recorded allows other devices and systems to reproduce the video signal.
  • the other reproduction device ex212 can reproduce the video signal on the monitor ex213 using the recording medium ex214 on which the encoded bitstream is copied.
  • an image decoding device may be mounted in the set-top box ex217 connected to the cable ex203 for cable television or the antenna ex204 for satellite / terrestrial broadcasting and displayed on the monitor ex219 of the television.
  • the image decoding apparatus may be incorporated in the television instead of the set top box.
  • FIG. 20 is a diagram illustrating a television (receiver) ex300 that uses the image decoding method and the image encoding method described in the above embodiment.
  • the television ex300 obtains or outputs a bit stream of video information via the antenna ex204 or the cable ex203 that receives the broadcast, and a tuner ex301 that outputs or outputs the encoded data that is received or demodulated.
  • Modulation / demodulation unit ex302 that modulates data for transmission to the outside, and multiplexing / separation unit ex303 that separates demodulated video data and audio data, or multiplexes encoded video data and audio data Is provided.
  • the television ex300 decodes each of the audio data and the video data, or encodes the respective information, the audio signal processing unit ex304, the signal processing unit ex306 including the video signal processing unit ex305, and the decoded audio signal. And an output unit ex309 including a display unit ex308 such as a display for displaying the decoded video signal.
  • the television ex300 includes an interface unit ex317 including an operation input unit ex312 that receives an input of a user operation.
  • the television ex300 includes a control unit ex310 that controls each unit in an integrated manner, and a power supply circuit unit ex311 that supplies power to each unit.
  • the interface unit ex317 includes a bridge ex313 connected to an external device such as a reader / recorder ex218, a slot unit ex314 for enabling recording media ex216 such as an SD card, and an external recording such as a hard disk
  • a driver ex315 for connecting to a medium, a modem ex316 for connecting to a telephone network, and the like may be included.
  • the recording medium ex216 is capable of electrically recording information by using a nonvolatile / volatile semiconductor memory element to be stored.
  • Each part of the television ex300 is connected to each other via a synchronous bus.
  • the television ex300 receives a user operation from the remote controller ex220 or the like, and demultiplexes the video data and audio data demodulated by the modulation / demodulation unit ex302 by the multiplexing / separation unit ex303 based on the control of the control unit ex310 having a CPU or the like. . Furthermore, the television ex300 decodes the separated audio data by the audio signal processing unit ex304, and the separated video data is decoded by the video signal processing unit ex305 using the decoding method described in the above embodiment. The decoded audio signal and video signal are output to the outside from the output unit ex309.
  • these signals may be temporarily stored in the buffers ex318, ex319, etc. so that the audio signal and the video signal are reproduced in synchronization.
  • the television ex300 may read the encoded bitstream encoded from the recording media ex215 and ex216 such as a magnetic / optical disk and an SD card, not from a broadcast or the like. Next, a configuration will be described in which the television ex300 encodes an audio signal and a video signal and transmits them to the outside or writes them to a recording medium or the like.
  • the television ex300 receives a user operation from the remote controller ex220 or the like, and encodes an audio signal with the audio signal processing unit ex304 based on the control of the control unit ex310, and the video signal with the video signal processing unit ex305 in the above embodiment. Encoding is performed using the described encoding method.
  • the encoded audio signal and video signal are multiplexed by the multiplexing / demultiplexing unit ex303 and output to the outside. When multiplexing, these signals may be temporarily stored in the buffers ex320 and ex321 so that the audio signal and the video signal are synchronized.
  • a plurality of buffers ex318 to ex321 may be provided as shown in the figure, or a configuration in which one or more buffers are shared may be used. Further, in addition to the illustrated example, data may be stored in the buffer as a buffer material that prevents system overflow and underflow even between the modulation / demodulation unit ex302 and the multiplexing / demultiplexing unit ex303, for example.
  • the television ex300 In addition to acquiring audio data and video data from broadcast and recording media, the television ex300 has a configuration for receiving AV input of a microphone and a camera, and even if encoding processing is performed on the data acquired therefrom Good.
  • the television ex300 has been described as a configuration capable of the above-described encoding processing, multiplexing, and external output. However, all of these processing cannot be performed, and the above reception, decoding processing, and external
  • the configuration may be such that only one of the outputs is possible.
  • the decoding process or the encoding process may be performed by either the television ex300 or the reader / recorder ex218.
  • the television ex300 and the reader / recorder ex218 may be shared with each other.
  • FIG. 21 shows the configuration of the information reproducing / recording unit ex400 when data is read from or written to an optical disk.
  • the information reproducing / recording unit ex400 includes elements ex401 to ex407 described below.
  • the optical head ex401 irradiates a laser spot on the recording surface of the recording medium ex215 that is an optical disc to write information, and detects information reflected from the recording surface of the recording medium ex215 to read the information.
  • the modulation recording unit ex402 electrically drives a semiconductor laser built in the optical head ex401 and modulates the laser beam according to the recording data.
  • the reproduction demodulator ex403 amplifies a reproduction signal obtained by electrically detecting reflected light from the recording surface by a photodetector built in the optical head ex401, separates and demodulates a signal component recorded on the recording medium ex215, and is necessary. To play back information.
  • the buffer ex404 temporarily holds information to be recorded on the recording medium ex215 and information reproduced from the recording medium ex215.
  • the disk motor ex405 rotates the recording medium ex215.
  • the servo control unit ex406 moves the optical head ex401 to a predetermined information track while controlling the rotational drive of the disk motor ex405, and performs a laser spot tracking process.
  • the system control unit ex407 controls the entire information reproduction / recording unit ex400.
  • the system control unit ex407 uses various types of information held in the buffer ex404, and generates and adds new information as necessary. This is realized by recording / reproducing information through the optical head ex401 while the unit ex403 and the servo control unit ex406 are operated cooperatively.
  • the system control unit ex407 includes, for example, a microprocessor, and executes these processes by executing a read / write program.
  • the optical head ex401 has been described as irradiating a laser spot, but it may be configured to perform higher-density recording using near-field light.
  • FIG. 22 shows a schematic diagram of a recording medium ex215 that is an optical disk.
  • Guide grooves grooves
  • address information indicating the absolute position on the disc is recorded in advance on the information track ex230 by changing the shape of the groove.
  • This address information includes information for specifying the position of the recording block ex231 which is a unit for recording data, and the recording and reproducing apparatus specifies the recording block by reproducing the information track ex230 and reading the address information. be able to.
  • the recording medium ex215 includes a data recording area ex233, an inner peripheral area ex232, and an outer peripheral area ex234.
  • the area used for recording user data is the data recording area ex233, and the inner circumference area ex232 and the outer circumference area ex234 arranged on the inner circumference or outer circumference of the data recording area ex233 are used for specific purposes other than recording user data. Used.
  • the information reproducing / recording unit ex400 reads / writes encoded audio data, video data, or encoded data obtained by multiplexing these data, with respect to the data recording area ex233 of the recording medium ex215.
  • an optical disk such as a single-layer DVD or BD has been described as an example.
  • the present invention is not limited to these, and an optical disk having a multilayer structure and capable of recording other than the surface may be used. It also has a structure that performs multidimensional recording / reproduction, such as recording information using light of various different wavelengths at the same location on the disc, and recording different layers of information from various angles. It may be an optical disk.
  • the car ex210 having the antenna ex205 can receive data from the satellite ex202 and the like, and the moving image can be reproduced on a display device such as the car navigation ex211 that the car ex210 has.
  • the configuration of the car navigation ex211 may be, for example, a configuration in which a GPS receiving unit is added in the configuration illustrated in FIG.
  • the mobile phone ex114 and the like can be used in three ways: a transmitting terminal having only an encoder and a receiving terminal having only a decoder. The implementation form of can be considered.
  • the image encoding method or the image decoding method described in the above embodiment can be used in any of the above-described devices and systems, and by doing so, the effects described in the above embodiment can be obtained. be able to.
  • FIG. 23 shows a configuration of an LSI ex500 that is made into one chip.
  • the LSI ex500 includes elements ex501 to ex509 described below, and each element is connected via a bus ex510.
  • the power supply circuit unit ex505 starts up to an operable state by supplying power to each unit when the power supply is in an on state.
  • the LSI ex500 when performing the encoding process, inputs an AV signal from the microphone ex117, the camera ex113, and the like by the AV I / Oex 509 based on the control of the control unit ex501 having the CPU ex502, the memory controller ex503, the stream controller ex504, and the like. Accept.
  • the input AV signal is temporarily stored in an external memory ex511 such as SDRAM.
  • the accumulated data is appropriately divided into a plurality of times according to the processing amount and the processing speed, and sent to the signal processing unit ex507.
  • the signal processing unit ex507 performs encoding of an audio signal and / or encoding of a video signal.
  • the encoding process of the video signal is the encoding process described in the above embodiment.
  • the signal processing unit ex507 further performs processing such as multiplexing the encoded audio data and the encoded video data according to circumstances, and outputs the result from the stream I / Oex 506 to the outside.
  • the output bit stream is transmitted to the base station ex107 or written to the recording medium ex215. It should be noted that data should be temporarily stored in the buffer ex508 so that the data is synchronized when multiplexed.
  • the LSI ex500 is obtained by reading from the encoded data obtained via the base station ex107 by the stream I / Oex 506 or the recording medium ex215 based on the control of the control unit ex501.
  • the encoded data is temporarily stored in the memory ex511 or the like.
  • the accumulated data is appropriately divided into a plurality of times according to the processing amount and the processing speed and sent to the signal processing unit ex507.
  • the signal processing unit ex507 performs decoding of audio data and / or decoding of video data.
  • the decoding process of the video signal is the decoding process described in the above embodiment.
  • each signal may be temporarily stored in the buffer ex508 or the like so that the decoded audio signal and the decoded video signal can be reproduced in synchronization.
  • the decoded output signal is output from each output unit such as the mobile phone ex114, the game machine ex115, and the television ex300 through the memory ex511 or the like as appropriate.
  • the memory ex511 has been described as an external configuration of the LSI ex500.
  • a configuration included in the LSI ex500 may be used.
  • the buffer ex508 is not limited to one, and a plurality of buffers may be provided.
  • the LSI ex500 may be made into one chip or a plurality of chips.
  • LSI LSI
  • IC system LSI
  • super LSI ultra LSI depending on the degree of integration
  • the method of circuit integration is not limited to LSI, and implementation with a dedicated circuit or a general-purpose processor is also possible.
  • An FPGA that can be programmed after manufacturing the LSI or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
  • the present invention is not limited to these embodiments. Unless it deviates from the meaning of the present invention, various forms conceived by those skilled in the art are applied to the embodiment, and other forms constructed by combining components and steps in different embodiments are also included in the present invention. It is included in the range.
  • the present invention is advantageously used in an image encoding device that encodes an image and an image decoding device that decodes an encoded image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

 画像復号方法は、既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、過去の量子化スケーリングマトリクスに対する新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、符号化ストリームから取得する更新パラメータ取得ステップと、マトリクス取得ステップで取得された過去の量子化スケーリングマトリクスと、更新パラメータ取得ステップで取得された更新パラメータとを用いて、新たな量子化スケーリングマトリクスを復号するマトリクス復号ステップと、マトリクス復号ステップで復号された新たな量子化スケーリングマトリクスを用いて符号化画像を復号する画像復号ステップとを含む。

Description

画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路
 本発明は、あらゆるマルチメディアデータ符号化に用いることができ、特に、画像および映像の復号及び符号化に用いることができる。
 あらゆる画像または映像の符号化方式において、量子化は、画像または映像内のいくらかの情報を除去することでデータを圧縮する重要なステップである。量子化処理において情報を失うことでデータをよりよく圧縮できるように、量子化は通常、空間領域のデータを周波数領域に変換して実行される。
 大抵の画像または映像の符号化方式において、量子化処理は量子化パラメータによって制御できる。このとき量子化パラメータの値が大きければ圧縮量も大きくなり、より多くの情報が失われる。そしてその逆も成立する。
 量子化処理を制御するためには、大抵の画像または映像の符号化方式において、量子化パラメータの他に、量子化および逆量子化処理を量子化スケーリングマトリクス値のセットによっても制御できる(例えば、特許文献1参照)。ここで、2次元変換ブロックにおける各周波数係数は、量子化パラメータと、量子化スケーリングマトリクスの対応する値との両方を用いて量子化できる。なお、「マトリクス値」とは、マトリクスを構成する係数の値を指す(以下同じ)。
 逆量子化処理の一例は、次の式で表すことが出来る。
AbsCoeff[i][j] = abs(QuantizedCoeff[i][j])*LevelScale*ScalingMatrix[i][j]>>(QShift)
 ここで、LevelScaleおよびQShiftは、量子化パラメータによって制御される。また、ScalingMatrix[i][j]は、量子化スケーリングマトリクス値である。
 ISO/IEC 14496-10 (MPEG-4 AVC)のような映像符号化方式では、量子化スケーリングマトリクスは、シーケンスヘッダ内またはピクチャヘッダ内の何れかに含めて符号化できる。従来、量子化スケーリングマトリクス値は、所定の順序に並び替えられて前後の値の差分を算出し、この差分値をシーケンスヘッダまたはピクチャヘッダ内に含めて符号化される。
特開2008-193410号公報
 先行技術の課題の1つは、ピクチャヘッダ内の量子化スケーリングマトリクス値の送信に必要なビット数である。特に、多くの量子化スケーリングマトリクスがピクチャヘッダを通してデコーダに送信されるときは、大量のビットを必要とするので、符号化効率が低下する。
 本発明は、上記の課題に鑑みてなされたものであり、量子化スケーリングマトリクスを少ないビット数で符号化し、又は復号できる画像符号化方法及び画像符号化方法を提供することを目的とする。
 本発明の一形態に係る画像復号方法は、符号化ストリームに含まれる符号化画像を復号する方法である。具体的には、既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得ステップと、前記マトリクス取得ステップで取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得ステップで取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号ステップと、前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号ステップとを含む。
 上記構成のように、過去の量子化スケーリングマトリクスに基づいて、新たな量子化スケーリングマトリクスを算出することにより、従来と比較して、新たな量子化スケーリングマトリクスを算出するために、符号化ストリームに含めなければならない情報量を削減することができる。その結果、符号化効率が向上する。
 また、前記更新パラメータ取得ステップでは、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの倍率を示す第1の更新パラメータと、前記新たな量子化スケーリングマトリクスを構成する複数の値のばらつきの度合いを示す第2の更新パラメータとを、前記符号化ストリームから取得してもよい。そして、前記マトリクス復号ステップでは、前記過去の量子化スケーリングマトリクスと、前記第1及び第2の更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを予測した予測マトリクスを算出し、算出した前記予測マトリクスを用いて前記新たな量子化スケーリングマトリクスを復号してもよい。
 さらに、前記更新パラメータ取得ステップでは、前記新たな量子化スケーリングマトリクスと前記予測マトリクスとの差分であるデルタマトリクスを、前記符号化ストリームから取得してもよい。そして、前記マトリクス復号ステップでは、前記予測マトリクスと前記デルタマトリクスとを加算することによって、前記新たな量子化スケーリングマトリクスを復号してもよい。
 一例として、前記新たな量子化スケーリングマトリクス、前記過去の量子化スケーリングマトリクス、前記予測マトリクス、及び前記デルタマトリクスは、それぞれn(nは2以上の自然数)個の値で構成される行列であってもよい。そして、前記新たな量子化スケーリングマトリクスを構成するn個の値をMnew(i)、前記過去の量子化スケーリングマトリクスを構成するn個の値をMold(i)、前記デルタマトリクスを構成するn個の値をΔM(i)、前記第1の更新パラメータから得られる第1の係数をP、前記第2の更新パラメータから得られる第2の係数をP、前記新たな量子化スケーリングマトリクス毎に定まる係数をF、及びi=1~nとすると、前記マトリクス復号ステップでは、下記式1により、前記新たな量子化スケーリングマトリクスを復号してもよい。
 なお、前記係数Fは、前記過去の量子化スケーリングマトリクスの直流成分の値に一致する値であってもよい。また、前記係数Fは、前記過去の量子化スケーリングマトリクスを構成するn個の値の平均値に一致する値であってもよい。
 さらに、前記符号化ストリームは、前記更新パラメータが含まれているか否かを示す更新フラグを含んでもよい。そして、該画像復号方法は、前記更新パラメータが含まれていることを示す値が前記更新フラグに設定されている場合に、前記新たな量子化スケーリングマトリクスを復号してもよい。
 さらに、前記符号化ストリームは、前記新たな量子化スケーリングマトリクスの符号化方法を示す更新タイプフラグを含んでもよい。そして、該画像復号方法は、前記新たな量子化スケーリングマトリクスを前記過去の量子化スケーリングマトリクスを用いて符号化していることを示す値が前記更新タイプフラグに設定されている場合に、前記過去の量子化スケーリングマトリクスと前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号してもよい。
 さらに、前記符号化ストリームは、前記過去の量子化スケーリングマトリクスを特定するための識別情報を含んでもよい。そして、前記マトリクス取得ステップでは、既に復号された複数の量子化スケーリングマトリクスのうち、前記識別情報によって特定される量子化スケーリングマトリクスを、前記過去の量子化スケーリングマトリクスとして取得してもよい。
 本発明の一形態に係る画像符号化方法は、画像を符号化する方法である。具体的には、既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出ステップと、前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出ステップで算出された前記更新パラメータとを含む符号化ストリームを生成する符号化ステップとを含む。
 上記構成のように、過去の量子化スケーリングマトリクスに基づいて、新たな量子化スケーリングマトリクスを算出することにより、従来と比較して、新たな量子化スケーリングマトリクスを算出するために、符号化ストリームに含めなければならない情報量を削減することができる。その結果、符号化効率が向上する。
 また、前記更新パラメータ算出ステップでは、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの倍率を示す第1の更新パラメータと、前記新たな量子化スケーリングマトリクスを構成する複数の値のばらつきの度合いを示す第2の更新パラメータとを算出してもよい。そして、前記符号化ステップでは、前記第1及び第2の更新パラメータを前記符号化ストリームに含めてもよい。
 また、前記更新パラメータ算出ステップでは、前記過去の量子化スケーリングマトリクスと、前記第1及び第2の更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを予測した予測マトリクスを算出し、前記新たな量子化スケーリングマトリクスと前記予測マトリクスとの差分であるデルタマトリクスの値が最小になるように、前記第1及び第2の更新パラメータを算出してもよい。そして、前記符号化ステップでは、さらに、前記デルタマトリクスを前記符号化ストリームに含めてもよい。上記構成によれば、デルタマトリクスの各値を限りなく0に近い値にすることができるので、符号化効率が向上する。
 さらに、前記符号化ステップでは、さらに、前記マトリクス取得ステップで取得された前記過去の量子化スケーリングマトリクスを特定するための識別情報を、前記符号化ストリームに含めてもよい。これにより、例えば、新たな量子化スケーリングマトリクスとの相関が最も高い過去の量子化マトリクスを選択すること等が可能となる。
 本発明の一形態に係る画像復号装置は、符号化ストリームに含まれる符号化画像を復号する。具体的には、既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得部と、前記マトリクス取得部で取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得部で取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号部と、前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号部とを備える。
 本発明の一形態に係る画像符号化装置は、画像を符号化する。具体的には、既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出部と、前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出部で算出された前記更新パラメータとを含む符号化ストリームを生成する符号化部とを備える。
 本発明の一形態に係るプログラムは、コンピュータに、符号化ストリームに含まれる符号化画像を復号させる。具体的には、既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得ステップと、前記マトリクス取得ステップで取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得ステップで取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号ステップと、前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号ステップとを、コンピュータに実行させる。
 本発明の他の形態に係るプログラムは、コンピュータに、画像を符号化させる。具体的には、既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出ステップと、前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出ステップで算出された前記更新パラメータとを含む符号化ストリームを生成する符号化ステップとを、コンピュータに実行させる。
 本発明の一形態に係る集積回路は、符号化ストリームに含まれる符号化画像を復号する。具体的には、既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得部と、前記マトリクス取得部で取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得部で取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号部と、前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号部とを備える。
 本発明の他の形態に係る集積回路は、画像を符号化する。具体的には、既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出部と、前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出部で算出された前記更新パラメータとを含む符号化ストリームを生成する符号化部とを備える。
 本発明によれば、量子化スケーリングマトリクス値の符号量が減るので、符号化効率が改善される。
図1は、本発明の一形態に係る画像復号装置の機能ブロック図である。 図2は、本発明の一形態に係る画像符号化装置の機能ブロック図である。 図3は、量子化スケーリングマトリクス値と逆量子化絶対値との間の関係を示す図である。 図4Aは、シーケンスヘッダ内に設定される更新パラメータの例を示す図である。 図4Bは、ピクチャヘッダ内に設定される更新パラメータの例を示す図である。 図5は、ピクチャヘッダまたはシーケンスヘッダ内に符号化されている2つのタイプの更新パラメータを示す図である。 図6は、量子化スケーリングマトリクス値を復号する処理の一例を示すフローチャートである。 図7は、量子化スケーリングマトリクス値を符号化する処理の一例を示すフローチャートである。 図8は、1ブロック変換サイズの量子化スケーリングマトリクス値を更新する復号処理の一例を示すフローチャートである。 図9は、1ブロック変換サイズの量子化スケーリングマトリクス値を更新する符号化処理の一例を示すフローチャートである。 図10は、更新パラメータを復号する処理の一例を示すフローチャートである。 図11は、更新パラメータを符号化する処理の一例を示すフローチャートである。 図12は、新たな量子化スケーリングマトリクス値を算出する復号処理の一例を示すフローチャートである。 図13は、新たな量子化スケーリングマトリクス値を算出する符号化処理の一例を示すフローチャートである。 図14は、本発明の一形態に係る画像復号装置の詳細な機能ブロック図である。 図15は、本発明の一形態に係る画像符号化装置の詳細な機能ブロック図である。 図16は、コンテンツ配信サービスを実現するコンテンツ供給システムの全体構成の一例を示す模式図である。 図17は、携帯電話の外観を示す図である。 図18は、携帯電話の構成例を示すブロック図である。 図19は、デジタル放送用システムの全体構成の一例を示す模式図である。 図20は、テレビの構成例を示すブロック図である。 図21は、光ディスクである記録メディアに情報の読み書きを行う情報再生記録部の構成例を示すブロック図である。 図22は、光ディスクである記録メディアの構造例を示す図である。 図23は、各実施の形態に係る画像符号化方法および画像復号方法を実現する集積回路の構成例を示すブロック図である。
 (実施の形態1)
 以下、図面を参照して、実施の形態1に係る画像復号装置及び画像符号化装置の構成及び動作を説明する。
 画像復号装置10は、図1に示されるように、マトリクス取得部11と、更新パラメータ取得部12と、マトリクス復号部13と、画像復号部14とを備え、符号化ストリームに含まれる符号化画像を復号する装置である。
 マトリクス取得部11は、既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得する。そして、マトリクス取得部11は、取得した過去の量子化スケーリングマトリクスを、マトリクス復号部13に出力する。なお、既に復号された量子化スケーリングマトリクスは、画像復号装置10のメモリ(図示省略)に保持されている。
 過去の量子化スケーリングマトリクスの選択方法は特に限定されないが、例えば、直前に復号された量子化スケーリングマトリクスを選択してもよい。又は、符号化ストリームに過去の量子化スケーリングマトリクスを特定するための識別情報が含まれている場合には、この識別情報に基づいて、過去の量子化スケーリングマトリクスを選択してもよい。又は、規格に定めるデフォルトの量子化スケーリングマトリクスを選択してもよい。
 更新パラメータ取得部12は、過去の量子化スケーリングマトリクスに対する新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、符号化ストリームから取得する。そして、更新パラメータ取得部12は、取得した更新パラメータを、マトリクス復号部13に出力する。
 なお、ここで取得される更新パラメータは、過去の量子化スケーリングマトリクスに対する新たな量子化スケーリングマトリクスの倍率を示す第1の更新パラメータと、新たな量子化スケーリングマトリクスを構成する複数の値のばらつきの度合いを示す第2の更新パラメータと、新たな量子化スケーリングマトリクスと予測マトリクス(後述)との差分であるデルタマトリクスとを含む。
 マトリクス復号部13は、マトリクス取得部11で取得された過去の量子化スケーリングマトリクスと、更新パラメータ取得部12で取得された更新パラメータとを用いて、新たな量子化スケーリングマトリクスを復号する。そして、マトリクス復号部13は、復号した新たな量子化スケーリングマトリクスを、画像復号部14に出力する。
 より具体的には、マトリクス復号部13は、過去の量子化スケーリングマトリクスと、第1及び第2の更新パラメータとを用いて、新たな量子化スケーリングマトリクスを予測した予測マトリクスを算出する。そして、マトリクス復号部13は、予測マトリクスとデルタマトリクスとを加算することによって、新たな量子化スケーリングマトリクスを復号する。
 画像復号部14は、マトリクス復号部13で復号された新たな量子化スケーリングマトリクスを用いて、符号化ストリームに含まれる符号化画像を復号し、復号画像を出力する。
 画像符号化装置20は、図2に示されるように、マトリクス取得部21と、更新パラメータ算出部22と、符号化部23とを備え、画像を符号化する装置である。
 マトリクス取得部21は、既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得する。そして、マトリクス取得部21は、取得した過去の量子化スケーリングマトリクスを、更新パラメータ算出部22に出力する。なお、既に符号化された量子化スケーリングマトリクスは、画像符号化装置20のメモリ(図示省略)に保持されている。
 過去の量子化スケーリングマトリクスの選択方法は特に限定されないが、例えば、直前に符号化された量子化スケーリングマトリクスを選択してもよい。又は、新たな量子化スケーリングマトリクスとの相関が最も高い量子化スケーリングマトリクスを選択してもよい。この場合、選択した量子化スケーリングマトリクスを特定するための識別情報を、符号化ストリームに含める必要がある。
 更新パラメータ算出部22は、過去の量子化スケーリングマトリクスに対する新たな量子化スケーリングマトリクスの変化量を示す更新パラメータ(第1及び第2の更新パラメータ、及びデルタマトリクス等)を算出する。そして、更新パラメータ算出部22は、算出した更新パラメータを、符号化部23に出力する。
 一例として、デルタマトリクスは、過去の量子化スケーリングマトリクスと、第1及び第2の更新パラメータとを用いて、新たな量子化スケーリングマトリクスを予測した予測マトリクスと、新たな量子化スケーリングマトリクスとの差分である。そして、更新パラメータ算出部22は、このデルタマトリクスの値が最小になるように、第1及び第2の更新パラメータを算出すればよい。
 符号化部23は、新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、更新パラメータ算出部22で算出された更新パラメータとを含む符号化ストリームを生成し、出力する。さらに、符号化部23は、過去の量子化スケーリングマトリクスを特定するための識別情報を、符号化ストリームに含めてもよい。
 図3は、量子化スケーリングマトリクス値と、逆量子化絶対値との間の関係を示す図である。図3に示されるように、量子化スケーリングマトリクス値が大きければ、量子化スケールステップも大きくなり、その逆も成立する。
 図4A及び図4Bは、ピクチャヘッダおよびシーケンスヘッダ内に含まれる、量子化スケーリングマトリクスの更新に用いられるパラメータの例を示す図である。
 シーケンスヘッダ(D200)には、例えば図4Aに示されるように、更新フラグ(D202)と、更新デノミネータ(D204)と、更新パラメータ(D206)とを含めることができる。同様に、ピクチャヘッダ(D214)には、例えば図4Bに示されるように、更新フラグ(D202)と、更新デノミネータ(D204)と、更新パラメータ(D206)とを含めることができる。
 更新フラグ(D202、D208)は、当該ヘッダに新たな量子化スケーリングマトリクスを復号するための情報、すなわち、更新パラメータが含まれているか否かを示すフラグである。例えば、更新フラグ(D202、D208)に1が設定されている場合に、その後に更新デノミネータ(D204、D210)及び更新パラメータ(D206、D212)を設定すればよい。更新デノミネータ(D204、D210)は、量子化スケーリングマトリクスを更新する際の変化率を決定するために用いられる。
 図5は、ピクチャヘッダまたはシーケンスヘッダ(以下、これらを総称して「ヘッダ」と表記する)内に符号化されている2つのタイプの更新パラメータ(D302)を示す図である。更新パラメータ(D302)は、図5に示されるように、M個の変換サイズそれぞれに対して用意されており、それぞれが更新フラグ(D300)と、更新タイプフラグ(D304)とを含む。
 更新フラグ(D300)は、この変換サイズに対する量子化スケーリングマトリクス値が更新されるか否かを示す。更新タイプフラグ(D304)は、新たな量子化スケーリングマトリクスの符号化方法を示すフラグである。
 例えば、更新タイプフラグ(D304)に0が設定されている場合、新たな量子化スケーリングマトリクスを過去の量子化スケーリングマトリクスを用いて符号化している(以下、「第1の方法」と表記する)ことを示す。この場合、図5の右下に示されるように、第1更新パラメータ(D310)、第2更新パラメータ(D312)、デルタマトリクス値の数(D314)、およびそれに続くデルタマトリクス値(D316)がヘッダ内に符号化されている。
 一方、更新タイプフラグ(D304)に値1が設定されている場合、新たな量子化スケーリングマトリクスを過去の量子化スケーリングマトリクスを用いずに符号化している(以下、「第2の方法」と表記する)ことを示す。この場合、図5の左下に示されるように、デルタマトリクス値(D306)がヘッダ内に符号化されている。この第2の方法は、例えば、量子化スケーリングマトリクスを符号化する従来の方法のように、量子化スケーリングマトリクスを構成する複数の値を所定の順序で並べ、前後の値の差分値をデルタマトリクス値(D3016)とすればよい。
 図6は、ヘッダ内の更新パラメータの復号処理を示すフローチャートである。
 まず、画像復号装置10は、ヘッダ内の更新フラグ(D202、D208)を復号し(S400)、更新フラグの値を確認する(S402)。
 次に、画像復号装置10は、更新フラグの値が1であれば(S402でYes)、更新デノミネータ(D204、D210)を復号する(S404)。更新デノミネータは、例えば、量子化スケーリングマトリクス値を更新するときに、変化率を決定するために用いられる。次に、画像復号装置10は、更新パラメータ(D206、D212)を復号する(S406)。そして、画像復号装置10は、新たな量子化スケーリングマトリクス値を算出する(S408)。
 図7は、ヘッダ内の更新パラメータの符号化処理を示すフローチャートである。
 まず、画像符号化装置20は、更新フラグを符号化する(S500)。この更新フラグには、新たな量子化スケーリングマトリクスを生成するための更新パラメータを、ヘッダに含めるか否かを示す情報が設定される。
 次に、画像符号化装置20は、更新フラグの値に1を設定した場合(S502でYes)、更新デノミネータを符号化する(S504)。次に、画像符号化装置20は、新たな量子化スケーリングマトリクスを生成するための更新パラメータを算出する(S506)。そして、画像符号化装置20は、算出した更新パラメータを符号化して、符号化ストリームに含める(S508)。
 図8は、1ブロック変換サイズの量子化スケーリングマトリクス値を更新する復号処理を説明するフローチャートである。
 まず、画像復号装置10は、ヘッダに含まれる更新フラグ(D300)を復号する(S600)。次に、画像復号装置10は、更新フラグの値が1であれば(S601でYes)、ヘッダに含まれる更新タイプフラグ(D304)を復号する(S602)。
 次に、更新タイプフラグが0であれば(S604でYes)、画像復号装置10は、ヘッダに含まれる更新パラメータ(D302)を復号し(S606)、第1の方法に従って、過去の量子化スケーリングマトリクス値を用いて新たな量子化スケーリングマトリクス値を算出する(S608)。
 一方、更新タイプフラグが1であれば(S604でNo)、画像復号装置10は、第2の方法に従って、過去の量子化スケーリングマトリクス値を用いずに、新たな量子化スケーリングマトリクス値を復号する(S610)。
 図9は、1ブロック変換サイズの量子化スケーリングマトリクス値を更新する符号化処理を説明するフローチャートである。まず、画像符号化装置20は、自らが設定した更新フラグを符号化する(S700)。
 次に、更新フラグの値が1であれば(S702でYes)、画像符号化装置20は、自らが設定した更新タイプフラグを符号化する(S704)。次に、更新タイプフラグの値が0であれば(S706でYes)、画像符号化装置20は、過去の量子化スケーリングマトリクス値を用いて更新パラメータを算出し(S708)、算出された更新パラメータを符号化する(S710)。
 一方、更新タイプフラグの値が1であれば(S706でNo)、画像符号化装置20は、過去の量子化スケーリングマトリクス値を用いずに、新たな量子化スケーリングマトリクス値を符号化する(S714)。
 図10は、更新パラメータを復号する処理を説明するフローチャートである。
 まず、画像復号装置10は、ヘッダに含まれる情報を用いて、第1の更新パラメータと、第2の更新パラメータとを復号する(S800~S802)。
 次に、画像復号装置10は、全てのデルタマトリクス値をゼロ値に初期化する(S804)。そして、画像復号装置10は、ヘッダに含まれる符号化されたデルタマトリクス値の数を復号する(S806)。最後に、画像復号装置10は、デルタマトリクス値を復号する(S808~S814)。
 ここで復号できるデルタマトリクス値の数は、符号化されたデルタマトリクス値の復号された数に基づく。これらのデルタマトリクス値は、各変換ブロックにおいて、所定の走査順、例えばジグザグスキャン順に並べられており、2次元変換ブロックの低周波成分から高周波成分に対するデルタマトリクス値を表す。変換ブロックサイズの大きさにより、走査順は異なってくる。例えば、8×2ブロックの場合の走査順序と、2×8ブロックの場合の走査順序とは異なる。
 図11は、更新パラメータを符号化する処理を説明するフローチャートである。
 まず、画像符号化装置20は、第1の更新パラメータと、第2の更新パラメータとを符号化する(S900~S902)。
 次に、画像符号化装置20は、符号化対象のデルタマトリクス値の数を算出する(S904)。デルタマトリクス値の数を求める計算の一例は、走査位置における最後の非ゼロデルタマトリクス値の位置を求めることである。次に、画像符号化装置20は、デルタマトリクス値の数を符号化する(S906)。そして最後に、画像符号化装置20は、ブロックの走査順の最終位置が符号化済みデルタマトリクス値の数と等しくなるまで、変換ブロックサイズのデルタマトリクス値を符号化する(S908~S914)。
 図12は、第1の方法を用いて、新たな量子化スケーリングマトリクス値を算出する復号処理を説明するフローチャートである。
 まず、画像復号装置10は、過去のスケーリングマトリクス値を取得する(S1000)。次に、画像復号装置10は、図5に示される第1の更新パラメータ(D310)によって決定された第1の係数で、過去の量子化スケーリングマトリクス値をスケーリングすることで、第1の値を算出する(S1002)。ここで算出される第1の値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。
 なお、第1の係数は、例えば、以下の式によって表すことができる。
 第1の係数=(第1の更新パラメータ+更新デノミネータ)/更新デノミネータ
 更新デノミネータは、図4A及び図4Bに示されるように、ヘッダに表現されるか、予め定義された値に設定される。予め定義された値は、例えば、16または128である。ただし、上記の式で算出される第1の係数を、第1の更新パラメータとしてヘッダに設定しておいてもよい。これにより、ヘッダ内における更新デノミネータを設定する領域が必要なくなると共に、画像復号装置10で上記の演算を行う必要がなくなる。
 次に、画像復号装置10は、過去の量子化スケーリングマトリクス値と、固定値との差分値を算出する(S1004)。ここで算出される差分値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。
 なお、固定値は、少なくとも量子化スケーリングマトリクス毎に定められる値であって、例えば、過去の量子化スケーリングマトリクス値の直流成分の値(例えば、16)、過去の量子化スケーリングマトリクスの全ての値の平均値(平均スケーリングマトリクス値)であってもよい。
 次に、画像復号装置10は、図5に示される第2の更新パラメータ(D312)によって決定された第2の係数で、算出されたS1004で算出された差分値をスケーリングすることで、第2の値を算出する(S1006)。ここで算出される第2の値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。
 なお、第2の係数は、例えば、以下の式によって表すことができる。
 第2の係数=第2の更新パラメータ/更新デノミネータ
 更新デノミネータは、図4A及び図4Bに示されるように、ヘッダに表現されるか、予め定義された値に設定される。予め定義された値は、例えば、16または128である。ただし、上記の式で算出される第2の係数を、第2の更新パラメータとしてヘッダに設定しておいてもよい。これにより、ヘッダ内における更新デノミネータを設定する領域が必要なくなると共に、画像復号装置10で上記の演算を行う必要がなくなる。
 次に、第1の値と第2の値との和を算出することで、予測マトリクス値を得る(S1008)。ここで算出される予測マトリクス値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。
 そして、画像復号装置10は、算出された予測マトリクス値にデルタマトリクス値を加算(対応する係数同士を加算する)することで、新たな量子化スケーリングマトリクス値を算出する(S1010)。図12の処理は、下記式1のように表すことができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、Mnew(i)は、新たな量子化スケーリングマトリクスを構成するn個の値を示す。Mold(i)は、過去の量子化スケーリングマトリクスを構成するn個の値を示す。ΔM(i)は、デルタマトリクスを構成するn個の値を示す。また、Pは第1の係数を、Pは第2の係数を、Fは固定値を示す。そして、新たな量子化スケーリングマトリクス、過去の量子化スケーリングマトリクス、予測マトリクス、及びデルタマトリクスは、それぞれn(nは2以上の自然数)個の値で構成される行列(すなわち、i=1~n)である。
 ここで、式1の第1項は図12のS1002の処理に対応し、式1の第2項は図12のS1004~S1006に対応する。また、式1の第1項と第2項とを加算することにより、予測マトリクスが得られる(すなわち、図12のS1008に対応する)。そして、予測マトリクスに、式1の第3項を加算することにより、新たな量子化スケーリングマトリクスが得られる(すなわち、図12のS1010に対応する)。
 図13は、量子化スケーリングマトリクス値から更新パラメータを算出する符号化処理を説明するフローチャートである。
 まず、画像符号化装置20は、過去の量子化スケーリングマトリクスを決定する(S1100)。ここで、過去の量子化スケーリングマトリクスは、例えば、既に符号化されている複数の量子化スケーリングマトリクスのうち、新たな量子化スケーリングマトリクスとの相関が最も高いものを選択してもよい。
 次に、画像符号化装置20は、図5に示される第1の更新パラメータ(D310)によって決定された第1の係数で過去のスケーリングマトリクス値をスケーリングすることで、第1の値を算出する(S1102)。ここで算出される第1の値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。
 なお、第1の係数は、例えば、以下の式によって表すことができる。
 第1の係数=(第1の更新パラメータ+更新デノミネータ)/更新デノミネータ
 更新デノミネータは、図4A及び図4Bに示されるように、ヘッダに表現されるか、予め定義された値に設定される。予め定義された値は、例えば、16または128である。ただし、上記の式で算出される第1の係数を、第1の更新パラメータとしてヘッダに設定しておいてもよい。これにより、ヘッダ内における更新デノミネータを設定する領域が必要なくなると共に、画像符号化装置20で上記の演算を行う必要がなくなる。
 次に、画像符号化装置20は、過去のスケーリングマトリクス値と、固定値との差分値を算出する(S1104)。ここで算出される差分値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。また、固定値の具体例は既に説明しているので、再度の説明は省略する。
 次に、画像符号化装置20は、図5に示される第2の更新パラメータ(D312)によって決定された第2の係数で、S1104で算出された差分値をスケーリングすることで、第2の値を算出する(S1106)。ここで算出される第2の値は、量子化スケーリングマトリクスと同じ数の係数を持つマトリクスである。
 なお、第2の係数は、例えば、以下の式によって表すことができる。
 第2の係数=第2の更新パラメータ/更新デノミネータ
 更新デノミネータは、図4A及び図4Bに示されるように、ヘッダに表現されるか、予め定義された値に設定される。予め定義された値は、例えば、16または128である。ただし、上記の式で算出される第2の係数を、第2の更新パラメータとしてヘッダに設定しておいてもよい。これにより、ヘッダ内における更新デノミネータを設定する領域が必要なくなると共に、画像符号化装置20で上記の演算を行う必要がなくなる。
 次に、画像符号化装置20は、第1の値と第2の値との和を算出することで、予測マトリクス値を得る(S1108)。そして、画像符号化装置20は、新たな量子化スケーリングマトリクス値から、S1108で算出された予測マトリクス値を減算することで、デルタマトリクス値を算出する(S1110)。図13の処理は、下記式2のように表すことができる。
Figure JPOXMLDOC01-appb-M000002
 各変数の説明は、上記の式1と共通するので、再度の説明は省略する。
 なお、式2の第2項では、過去の量子化スケーリングマトリクスを構成する各値に第1の係数Pが乗算される。すなわち、第1の係数Pは、過去の量子化スケーリングマトリクスを構成する複数の値のばらつきを変更することなく、全体の倍率を変更するための係数である。
 一方、式2の第3項では、過去の量子化スケーリングマトリクスを構成する各値から固定値Fを減算し、その減算値に第2の係数Pが乗算される。ここで、固定値Fには、過去の量子化スケーリングマトリクスの直流成分の値に近い(典型的には、一致する)値が設定される。そうすると、過去の量子化スケーリングマトリクスを構成する複数の値のうち、直流成分の値に近い低周波成分の値は0に近づくことになる。
 その結果、第2の係数Pは、過去の量子化スケーリングマトリクスを構成する複数の値のうち、低周波成分に与える影響は相対的に小さく、高周波成分に与える影響は相対的に大きい。すなわち、式2の第3項の演算では、第2の係数Pの値が大きくなる程、新たな量子化スケーリングマトリクスの低周波成分の値と高周波成分の値との間のばらつきを大きくすることができる。
 そして、式2の第2項及び第3項を加算した予測マトリクスの各値が、新たな量子化スケーリングマトリクスの対応する値に近い程、デルタマトリクスの値も0に近づく。そこで、画像符号化装置10は、新たな量子化スケーリングパラメータとの相関が最も高い過去の量子化スケーリングパラメータを選択すると共に、デルタマトリクス値が最も小さくなるように(例えば、平均二乗誤差が最小になるように)、第1及び第2の更新パラメータを決定することにより、符号化効率を向上させることができる。
 図14は、本発明の一形態に係る画像復号装置10Aの詳細な機能ブロック図である。図14に示されるように、この例示的な画像復号装置10Aは、量子化スケーリングマトリクスパラメータ解析部1200、量子化スケーリングマトリクス値算出部1202、量子化スケーリングマトリクス値格納部1204、第1メモリ部1206、逆量子化部1208、逆変換部1210、サンプル再構築部1212、サンプル予測部1214、および第2メモリ部1216を備える。
 量子化スケーリングマトリクスパラメータ解析部1200は、符号化ストリームからヘッダ(D1201)を読み出し、更新パラメータ(D1203)を量子化スケーリングマトリクス算出部1202に出力する。この量子化スケーリングマトリクスパラメータ解析部1200は、例えば、図1の更新パラメータ取得部12に対応する。
 量子化スケーリングマトリクス算出部1202は、その後、新たな量子化スケーリングマトリクス値(D1205)を量子化スケーリングマトリクス値格納部1204に出力する。この量子化スケーリングマトリクス算出部1202は、例えば、図1のマトリクス取得部11及びマトリクス復号部13に対応する。
 そして、量子化スケーリングマトリクス値格納部1204は、新たな量子化スケーリングマトリクス値(D1207)を第1メモリ部1206に格納する。
 逆量子化部1208、逆変換部1210、サンプル再構築部1212、メモリ部1216、およびサンプル予測部1214は、画像復号装置10Aの一部を形成し、例えば、図1の画像復号部14に対応する。
 逆量子化部1208は、ピクチャの符号化ブロック(D1213)と、新たな量子化スケーリングマトリクス値(D1211)とを取り込み、逆量子化処理を実行する。逆量子化済み係数(D1215)は、逆変換部1210に送信され、復号残差(D1217)がサンプル再構築部1212に出力される。
 サンプル再構築部1212は、復号残差(D1217)と、予測サンプル(D1221)とを取り込み、再構築サンプル(D1219)を出力する。再構築サンプル(D1219)は、その後、第2メモリ部1216に格納され、サンプル予測部1214によって予測サンプル(D1221)の生成に用いられることになる。
 図15は、本発明の一形態に係る画像符号化装置20Aを示す図である。図15に示されるように、この例示的な画像符号化装置20Aは、量子化スケーリングマトリクス更新パラメータ算出部1300、量子化スケーリングマトリクスパラメータ書き込み部1302、第1メモリ部1304、減算部1306、変換部1308、量子化部1310、逆量子化部1312、逆変換部1314、第2メモリ部1318、加算部1320、およびサンプル予測部1316を備える。
 減算部1306、変換部1308、量子化部1310、逆量子化部1312、逆変換部1314、メモリ部1318と、加算部1320、およびサンプル予測部1316は、符号化装置20Aの一部を形成し、例えば、図2の符号化部23に対応する。
 量子化スケーリングマトリクス更新パラメータ算出部1300は、第1メモリ部1304から新たな量子化スケーリングマトリクス値(D1301)および量子化スケーリングマトリクス値を取り込み、量子化スケーリングマトリクスパラメータ書き込み部1302に更新パラメータ(D1303)を出力する。この量子化スケーリングマトリクス更新パラメータ算出部1300は、例えば、図2のマトリクス取得部21及び更新パラメータ算出部22に相当する。量子化スケーリングマトリクスパラメータ書き込み部1302は、量子化スケーリングマトリクス更新パラメータ(D1305)をヘッダに書き込む。この量子化スケーリングマトリクスパラメータ書き込み部1302は、例えば、図2の符号化部23の機能の一部に対応する。
 減算部1306は、ピクチャの非圧縮サンプル(D1309)と予測サンプル(D1315)とを取り込み、残差ブロック(D1311)を変換部1308に出力する。変換部1308は、残差ブロック(D1311)を変換し、変換係数(D1313)を量子化部1310に出力する。量子化部1310は、変換係数(D1313)と、新たな量子化スケーリングマトリクス値(D1307)とを読み出し、ピクチャの符号化サンプル(D1317)を出力する。
 逆量子化部1312は、符号化サンプル(D1317)を読み出し、新たな量子化スケーリングマトリクス値(D1307)を用いて逆量子化処理を実行し、逆量子化係数(D1319)を逆変換部1314に出力する。逆変換部1314は、再構築残差(D1327)を加算部1320に出力する。加算部1329は、再構築残差(D1327)と予測サンプル(D1315)とを読み出し、ピクチャの再構築サンプル(D1321、D1325)を出力する。再構築サンプル(D1325)は、第2メモリ部1318に格納される。サンプル予測部1316は、第2メモリ部1318から再構築サンプル(D1323)を読み出し、予測サンプル(D1315)を出力することになる。
 (実施の形態2)
 上記実施の形態で示した画像符号化方法または画像復号方法の構成を実現するためのプログラムを記憶メディアに記録することにより、上記実施の形態で示した処理を独立したコンピュータシステムにおいて簡単に実施することが可能となる。記憶メディアは、磁気ディスク、光ディスク、光磁気ディスク、ICカード、半導体メモリ等、プログラムを記録できるものであればよい。
 さらにここで、上記実施の形態で示した画像符号化方法および画像復号方法の応用例とそれを用いたシステムを説明する。
 図16は、コンテンツ配信サービスを実現するコンテンツ供給システムex100の全体構成を示す図である。通信サービスの提供エリアを所望の大きさに分割し、各セル内にそれぞれ固定無線局である基地局ex106~ex110が設置されている。
 このコンテンツ供給システムex100は、インターネットex101にインターネットサービスプロバイダex102および電話網ex104、および、基地局ex106~ex110を介して、コンピュータex111、PDA(Personal Digital Assistant)ex112、カメラex113、携帯電話ex114、ゲーム機ex115などの各機器が接続される。
 しかし、コンテンツ供給システムex100は図16のような構成に限定されず、いずれかの要素を組み合わせて接続するようにしてもよい。また、固定無線局である基地局ex106~ex110を介さずに、各機器が電話網ex104に直接接続されてもよい。また、各機器が近距離無線等を介して直接相互に接続されていてもよい。
 カメラex113はデジタルビデオカメラ等の動画撮影が可能な機器であり、カメラex116はデジタルカメラ等の静止画撮影、動画撮影が可能な機器である。また、携帯電話ex114は、GSM(Global System for Mobile Communications)方式、CDMA(Code Division Multiple Access)方式、W-CDMA(Wideband-Code Division Multiple Access)方式、もしくはLTE(Long Term Evolution)方式、HSPA(High Speed Packet Access)の携帯電話機、または、PHS(Personal Handyphone System)等であり、いずれでも構わない。
 コンテンツ供給システムex100では、カメラex113等が基地局ex109、電話網ex104を通じてストリーミングサーバex103に接続されることで、ライブ配信等が可能になる。ライブ配信では、ユーザがカメラex113を用いて撮影するコンテンツ(例えば、音楽ライブの映像等)に対して上記実施の形態で説明したように符号化処理を行い、ストリーミングサーバex103に送信する。一方、ストリーミングサーバex103は要求のあったクライアントに対して送信されたコンテンツデータをストリーム配信する。クライアントとしては、上記符号化処理されたデータを復号することが可能な、コンピュータex111、PDAex112、カメラex113、携帯電話ex114、ゲーム機ex115等がある。配信されたデータを受信した各機器では、受信したデータを復号処理して再生する。
 なお、撮影したデータの符号化処理はカメラex113で行っても、データの送信処理をするストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。同様に配信されたデータの復号処理はクライアントで行っても、ストリーミングサーバex103で行ってもよいし、互いに分担して行ってもよい。また、カメラex113に限らず、カメラex116で撮影した静止画像および/または動画像データを、コンピュータex111を介してストリーミングサーバex103に送信してもよい。この場合の符号化処理はカメラex116、コンピュータex111、ストリーミングサーバex103のいずれで行ってもよいし、互いに分担して行ってもよい。
 また、これら符号化処理および復号処理は、一般的にコンピュータex111および各機器が有するLSI(Large Scale Integration)ex500において処理する。LSIex500は、ワンチップであっても複数チップからなる構成であってもよい。なお、画像符号化用および画像復号用のソフトウェアをコンピュータex111等で読み取り可能な何らかの記録メディア(CD-ROM、フレキシブルディスク、ハードディスクなど)に組み込み、そのソフトウェアを用いて符号化処理および復号処理を行ってもよい。さらに、携帯電話ex114がカメラ付きである場合には、そのカメラで取得した動画データを送信してもよい。このときの動画データは携帯電話ex114が有するLSIex500で符号化処理されたデータである。
 また、ストリーミングサーバex103は複数のサーバまたは複数のコンピュータであって、データを分散して処理したり記録したり配信するものであってもよい。
 以上のようにして、コンテンツ供給システムex100では、符号化されたデータをクライアントが受信して再生することができる。このようにコンテンツ供給システムex100では、ユーザが送信した情報をリアルタイムでクライアントが受信して復号し、再生することができ、特別な権利または設備を有さないユーザでも個人放送を実現できる。
 このコンテンツ供給システムを構成する各機器の符号化、復号には上記実施の形態で示した画像符号化方法あるいは画像復号方法を用いるようにすればよい。
 その一例として携帯電話ex114について説明する。
 図17は、上記実施の形態で説明した画像符号化方法と画像復号方法を用いた携帯電話ex114を示す図である。携帯電話ex114は、基地局ex110との間で電波を送受信するためのアンテナex601、CCDカメラ等の映像、静止画を撮ることが可能なカメラ部ex603、カメラ部ex603で撮影した映像、アンテナex601で受信した映像等が復号されたデータを表示する液晶ディスプレイ等の表示部ex602、操作キーex604群から構成される本体部、音声出力をするためのスピーカ等の音声出力部ex608、音声入力をするためのマイク等の音声入力部ex605、撮影した動画もしくは静止画のデータ、受信したメールのデータ、動画のデータもしくは静止画のデータ等、符号化されたデータまたは復号されたデータを保存するための記録メディアex607、携帯電話ex114に記録メディアex607を装着可能とするためのスロット部ex606を有している。記録メディアex607はSDカード等のプラスチックケース内に電気的に書換えおよび消去が可能な不揮発性メモリであるEEPROMの一種であるフラッシュメモリ素子を格納したものである。
 さらに、携帯電話ex114について図18を用いて説明する。携帯電話ex114は表示部ex602および操作キーex604を備えた本体部の各部を統括的に制御するようになされた主制御部ex711に対して、電源回路部ex710、操作入力制御部ex704、画像符号化部ex712、カメラインターフェース部ex703、LCD(Liquid Crystal Display)制御部ex702、画像復号部ex709、多重分離部ex708、記録再生部ex707、変復調回路部ex706および音声処理部ex705が同期バスex713を介して互いに接続されている。
 電源回路部ex710は、ユーザの操作により終話および電源キーがオン状態にされると、バッテリパックから各部に対して電力を供給することによりカメラ付デジタル携帯電話ex114を動作可能な状態に起動する。
 携帯電話ex114は、CPU、ROMおよびRAM等でなる主制御部ex711の制御に基づいて、音声通話モード時に音声入力部ex605で集音した音声信号を音声処理部ex705によってデジタル音声データに変換し、これを変復調回路部ex706でスペクトラム拡散処理し、送受信回路部ex701でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex601を介して送信する。また携帯電話ex114は、音声通話モード時にアンテナex601で受信した受信データを増幅して周波数変換処理およびアナログデジタル変換処理を施し、変復調回路部ex706でスペクトラム逆拡散処理し、音声処理部ex705によってアナログ音声データに変換した後、音声出力部ex608を介してこれを出力する。
 さらに、データ通信モード時に電子メールを送信する場合、本体部の操作キーex604の操作によって入力された電子メールのテキストデータは操作入力制御部ex704を介して主制御部ex711に送出される。主制御部ex711は、テキストデータを変復調回路部ex706でスペクトラム拡散処理し、送受信回路部ex701でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex601を介して基地局ex110へ送信する。
 データ通信モード時に画像データを送信する場合、カメラ部ex603で撮像された画像データを、カメラインターフェース部ex703を介して画像符号化部ex712に供給する。また、画像データを送信しない場合には、カメラ部ex603で撮像した画像データをカメラインターフェース部ex703およびLCD制御部ex702を介して表示部ex602に直接表示することも可能である。
 画像符号化部ex712は、本願発明で説明した画像符号化装置を備えた構成であり、カメラ部ex603から供給された画像データを上記実施の形態で示した画像符号化装置に用いた符号化方法によって圧縮符号化することにより符号化画像データに変換し、これを多重分離部ex708に送出する。また、このとき同時に携帯電話ex114は、カメラ部ex603で撮像中に音声入力部ex605で集音した音声を、音声処理部ex705を介してデジタルの音声データとして多重分離部ex708に送出する。
 多重分離部ex708は、画像符号化部ex712から供給された符号化画像データと音声処理部ex705から供給された音声データとを所定の方式で多重化し、その結果得られる多重化データを変復調回路部ex706でスペクトラム拡散処理し、送受信回路部ex701でデジタルアナログ変換処理および周波数変換処理を施した後にアンテナex601を介して送信する。
 データ通信モード時にホームページ等にリンクされた動画像ファイルのデータを受信する場合、アンテナex601を介して基地局ex110から受信した受信データを変復調回路部ex706でスペクトラム逆拡散処理し、その結果得られる多重化データを多重分離部ex708に送出する。
 また、アンテナex601を介して受信された多重化データを復号するには、多重分離部ex708は、多重化データを分離することにより画像データのビットストリームと音声データのビットストリームとに分け、同期バスex713を介して当該符号化画像データを画像復号部ex709に供給すると共に当該音声データを音声処理部ex705に供給する。
 次に、画像復号部ex709は、本願で説明した画像復号装置を備えた構成であり、画像データのビットストリームを上記実施の形態で示した符号化方法に対応した復号方法で復号することにより再生動画像データを生成し、これを、LCD制御部ex702を介して表示部ex602に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる動画データが表示される。このとき同時に音声処理部ex705は、音声データをアナログ音声データに変換した後、これを音声出力部ex608に供給し、これにより、例えばホームページにリンクされた動画像ファイルに含まれる音声データが再生される。
 なお、上記システムの例に限られず、最近は衛星、地上波によるデジタル放送が話題となっており、図19に示すようにデジタル放送用システムにも上記実施の形態の少なくとも画像符号化装置または画像復号装置を組み込むことができる。具体的には、放送局ex201では音声データ、映像データまたはそれらのデータが多重化されたビットストリームが電波を介して通信または放送衛星ex202に伝送される。これを受けた放送衛星ex202は、放送用の電波を発信し、衛星放送受信設備をもつ家庭のアンテナex204はこの電波を受信し、テレビ(受信機)ex300またはセットトップボックス(STB)ex217などの装置はビットストリームを復号してこれを再生する。また、記録媒体であるCDおよびDVD等の記録メディアex215、ex216に記録した画像データと、音声データが多重化されたビットストリームを読み取り、復号するリーダ/レコーダex218にも上記実施の形態で示した画像復号装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示される。また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に画像復号装置を実装し、これをテレビのモニタex219で再生する構成も考えられる。このときセットトップボックスではなく、テレビ内に画像復号装置を組み込んでも良い。また、アンテナex205を有する車ex210で、衛星ex202または基地局等から信号を受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画を再生することも可能である。
 また、DVD、BD等の記録メディアex215に記録した音声データ、映像データまたはそれらのデータが多重化された符号化ビットストリームを読み取り復号する、または、記録メディアex215に、音声データ、映像データまたはそれらのデータを符号化し、多重化データとして記録するリーダ/レコーダex218にも上記実施の形態で示した画像復号装置または画像符号化装置を実装することが可能である。この場合、再生された映像信号はモニタex219に表示される。また、符号化ビットストリームが記録された記録メディアex215により、他の装置およびシステム等は、映像信号を再生することができる。例えば、他の再生装置ex212は、符号化ビットストリームがコピーされた記録メディアex214を用いて、モニタex213に映像信号を再生することができる。
 また、ケーブルテレビ用のケーブルex203または衛星/地上波放送のアンテナex204に接続されたセットトップボックスex217内に画像復号装置を実装し、これをテレビのモニタex219で表示してもよい。このときセットトップボックスではなく、テレビ内に画像復号装置を組み込んでもよい。
 図20は、上記実施の形態で説明した画像復号方法および画像符号化方法を用いたテレビ(受信機)ex300を示す図である。テレビex300は、上記放送を受信するアンテナex204またはケーブルex203等を介して映像情報のビットストリームを取得、または、出力するチューナex301と、受信した符号化データを復調する、または、生成された符号化データを外部に送信するために変調する変調/復調部ex302と、復調した映像データと音声データとを分離する、または、符号化された映像データと音声データとを多重化する多重/分離部ex303を備える。また、テレビex300は、音声データ、映像データそれぞれを復号する、または、それぞれの情報を符号化する音声信号処理部ex304、映像信号処理部ex305を有する信号処理部ex306と、復号された音声信号を出力するスピーカex307、復号された映像信号を表示するディスプレイ等の表示部ex308を有する出力部ex309とを有する。さらに、テレビex300は、ユーザ操作の入力を受け付ける操作入力部ex312等を有するインターフェース部ex317を有する。さらに、テレビex300は、各部を統括的に制御する制御部ex310、各部に電力を供給する電源回路部ex311を有する。インターフェース部ex317は、操作入力部ex312以外に、リーダ/レコーダex218等の外部機器と接続されるブリッジex313、SDカード等の記録メディアex216を装着可能とするためのスロット部ex314、ハードディスク等の外部記録メディアと接続するためのドライバex315、電話網と接続するモデムex316等を有していてもよい。なお記録メディアex216は、格納する不揮発性/揮発性の半導体メモリ素子により電気的に情報の記録を可能としたものである。テレビex300の各部は同期バスを介して互いに接続されている。
 まず、テレビex300がアンテナex204等により外部から取得したデータを復号し、再生する構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、CPU等を有する制御部ex310の制御に基づいて、変調/復調部ex302で復調した映像データ、音声データを多重/分離部ex303で分離する。さらにテレビex300は、分離した音声データを音声信号処理部ex304で復号し、分離した映像データを映像信号処理部ex305で上記実施の形態で説明した復号方法を用いて復号する。復号した音声信号、映像信号は、それぞれ出力部ex309から外部に向けて出力される。出力する際には、音声信号と映像信号が同期して再生するよう、バッファex318、ex319等に一旦これらの信号を蓄積するとよい。また、テレビex300は、放送等からではなく、磁気/光ディスク、SDカード等の記録メディアex215、ex216から符号化された符号化ビットストリームを読み出してもよい。次に、テレビex300が音声信号および映像信号を符号化し、外部に送信または記録メディア等に書き込む構成について説明する。テレビex300は、リモートコントローラex220等からのユーザ操作を受け、制御部ex310の制御に基づいて、音声信号処理部ex304で音声信号を符号化し、映像信号処理部ex305で映像信号を上記実施の形態で説明した符号化方法を用いて符号化する。符号化した音声信号、映像信号は多重/分離部ex303で多重化され外部に出力される。多重化する際には、音声信号と映像信号が同期するように、バッファex320、ex321等に一旦これらの信号を蓄積するとよい。なお、バッファex318~ex321は図示しているように複数備えていてもよいし、一つ以上のバッファを共有する構成であってもよい。さらに、図示している以外に、例えば変調/復調部ex302と多重/分離部ex303との間等でもシステムのオーバフローおよびアンダーフローを避ける緩衝材としてバッファにデータを蓄積することとしてもよい。
 また、テレビex300は、放送および記録メディア等から音声データおよび映像データを取得する以外に、マイクおよびカメラのAV入力を受け付ける構成を備え、それらから取得したデータに対して符号化処理を行ってもよい。なお、ここではテレビex300は、上記の符号化処理、多重化、および、外部出力ができる構成として説明したが、これらのすべての処理を行うことはできず、上記受信、復号処理、および、外部出力のうちいずれかのみが可能な構成であってもよい。
 また、リーダ/レコーダex218で記録メディアから符号化ビットストリームを読み出す、または、書き込む場合には、上記復号処理または符号化処理はテレビex300およびリーダ/レコーダex218のうちいずれかで行ってもよいし、テレビex300とリーダ/レコーダex218とが互いに分担して行ってもよい。
 一例として、光ディスクからデータの読み込みまたは書き込みをする場合の情報再生/記録部ex400の構成を図21に示す。情報再生/記録部ex400は、以下に説明する要素ex401~ex407を備える。光ヘッドex401は、光ディスクである記録メディアex215の記録面にレーザスポットを照射して情報を書き込み、記録メディアex215の記録面からの反射光を検出して情報を読み込む。変調記録部ex402は、光ヘッドex401に内蔵された半導体レーザを電気的に駆動し記録データに応じてレーザ光の変調を行う。再生復調部ex403は、光ヘッドex401に内蔵されたフォトディテクタにより記録面からの反射光を電気的に検出した再生信号を増幅し、記録メディアex215に記録された信号成分を分離して復調し、必要な情報を再生する。バッファex404は、記録メディアex215に記録するための情報および記録メディアex215から再生した情報を一時的に保持する。ディスクモータex405は記録メディアex215を回転させる。サーボ制御部ex406は、ディスクモータex405の回転駆動を制御しながら光ヘッドex401を所定の情報トラックに移動させ、レーザスポットの追従処理を行う。システム制御部ex407は、情報再生/記録部ex400全体の制御を行う。上記の読み出しおよび書き込みの処理は、システム制御部ex407が、バッファex404に保持された各種情報を利用し、また必要に応じて新たな情報の生成および追加を行うと共に、変調記録部ex402、再生復調部ex403およびサーボ制御部ex406を協調動作させながら、光ヘッドex401を通して、情報の記録再生を行うことにより実現される。システム制御部ex407は、例えばマイクロプロセッサで構成され、読み出し書き込みのプログラムを実行することでそれらの処理を実行する。
 以上では、光ヘッドex401はレーザスポットを照射するとして説明したが、近接場光を用いてより高密度な記録を行う構成であってもよい。
 図22に光ディスクである記録メディアex215の模式図を示す。記録メディアex215の記録面には案内溝(グルーブ)がスパイラル状に形成され、情報トラックex230には、あらかじめグルーブの形状の変化によってディスク上の絶対位置を示す番地情報が記録されている。この番地情報はデータを記録する単位である記録ブロックex231の位置を特定するための情報を含み、記録および再生を行う装置は、情報トラックex230を再生し番地情報を読み取ることで記録ブロックを特定することができる。また、記録メディアex215は、データ記録領域ex233、内周領域ex232、外周領域ex234を含んでいる。ユーザデータを記録するために用いる領域がデータ記録領域ex233であり、データ記録領域ex233の内周または外周に配置されている内周領域ex232と外周領域ex234は、ユーザデータの記録以外の特定用途に用いられる。情報再生/記録部ex400は、このような記録メディアex215のデータ記録領域ex233に対して、符号化された音声データ、映像データまたはそれらのデータを多重化した符号化データの読み書きを行う。
 以上では、1層のDVD、BD等の光ディスクを例に挙げ説明したが、これらに限ったものではなく、多層構造であって表面以外にも記録可能な光ディスクであってもよい。また、ディスクの同じ場所にさまざまな異なる波長の色の光を用いて情報を記録したり、さまざまな角度から異なる情報の層を記録したりするなど、多次元的な記録/再生を行う構造の光ディスクであってもよい。
 また、デジタル放送用システムex200において、アンテナex205を有する車ex210で衛星ex202等からデータを受信し、車ex210が有するカーナビゲーションex211等の表示装置に動画を再生することも可能である。なお、カーナビゲーションex211の構成は例えば図20に示す構成のうち、GPS受信部を加えた構成が考えられ、同様なことがコンピュータex111および携帯電話ex114等でも考えられる。また、上記携帯電話ex114等の端末は、テレビex300と同様に、符号化器および復号器を両方持つ送受信型端末の他に、符号化器のみの送信端末、復号器のみの受信端末という3通りの実装形式が考えられる。
 このように、上記実施の形態で示した画像符号化方法あるいは画像復号方法を上述したいずれの機器およびシステムに用いることは可能であり、そうすることで、上記実施の形態で説明した効果を得ることができる。
 また、本発明は、上記実施の形態に限定されるものではなく、本発明の範囲を逸脱することなく種々の変形または修正が可能である。
 (実施の形態3)
 上記各実施の形態で示した画像符号化方法および装置、画像復号方法および装置は、典型的には集積回路であるLSIで実現される。一例として、図23に1チップ化されたLSIex500の構成を示す。LSIex500は、以下に説明する要素ex501~ex509を備え、各要素はバスex510を介して接続している。電源回路部ex505は電源がオン状態の場合に各部に対して電力を供給することで動作可能な状態に起動する。
 例えば符号化処理を行う場合には、LSIex500は、CPUex502、メモリコントローラex503およびストリームコントローラex504等を有する制御部ex501の制御に基づいて、AV I/Oex509によりマイクex117およびカメラex113等からAV信号の入力を受け付ける。入力されたAV信号は、一旦SDRAM等の外部のメモリex511に蓄積される。制御部ex501の制御に基づいて、蓄積したデータは、処理量および処理速度に応じて適宜複数回に分けるなどされ、信号処理部ex507に送られる。信号処理部ex507は、音声信号の符号化および/または映像信号の符号化を行う。ここで映像信号の符号化処理は、上記実施の形態で説明した符号化処理である。信号処理部ex507ではさらに、場合により符号化された音声データと符号化された映像データを多重化するなどの処理を行い、ストリームI/Oex506から外部に出力する。この出力されたビットストリームは、基地局ex107に向けて送信されたり、または、記録メディアex215に書き込まれたりする。なお、多重化する際には同期するよう、一旦バッファex508にデータを蓄積するとよい。
 また、例えば復号処理を行う場合には、LSIex500は、制御部ex501の制御に基づいて、ストリームI/Oex506によって基地局ex107を介して得た符号化データ、または、記録メディアex215から読み出して得た符号化データを一旦メモリex511等に蓄積する。制御部ex501の制御に基づいて、蓄積したデータは、処理量および処理速度に応じて適宜複数回に分けるなどされ信号処理部ex507に送られる。信号処理部ex507は、音声データの復号および/または映像データの復号を行う。ここで映像信号の復号処理は、上記実施の形態で説明した復号処理である。さらに、場合により復号された音声信号と復号された映像信号を同期して再生できるようそれぞれの信号を一旦バッファex508等に蓄積するとよい。復号された出力信号は、メモリex511等を適宜介しながら、携帯電話ex114、ゲーム機ex115およびテレビex300等の各出力部から出力される。
 なお、上記では、メモリex511がLSIex500の外部の構成として説明したが、LSIex500の内部に含まれる構成であってもよい。バッファex508も一つに限ったものではなく、複数のバッファを備えていてもよい。また、LSIex500は1チップ化されてもよいし、複数チップ化されてもよい。
 なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
 また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA、または、LSI内部の回路セルの接続および設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
 さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
 以上、本発明に係る符号化方法、符号化装置、復号方法および復号装置について、実施の形態に基づいて説明したが、本発明は、これらの実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を当該実施の形態に施した形態、および、異なる実施の形態における構成要素およびステップ等を組み合わせて構築される別の形態も、本発明の範囲内に含まれる。
 本発明は、画像を符号化する画像符号化装置、及び符号化画像を復号する画像復号装置に有利に利用される。
 10,10A 画像復号装置
 11,21 マトリクス取得部
 12 更新パラメータ取得部
 13 マトリクス復号部
 14 画像復号部
 20,20A 画像符号化装置
 22 更新パラメータ算出部
 23 符号化部
 1200 量子化スケーリングマトリクスパラメータ解析部
 1202 量子化スケーリングマトリクス算出部
 1204 量子化スケーリングマトリクス値格納部
 1206,1216,1304,1318 メモリ部
 1208,1312 逆量子化部
 1210,1314 逆変換部
 1212 サンプル再構築部
 1214,1316 サンプル予測部
 1300 量子化スケーリングマトリクス更新パラメータ算出部
 1302 量子化スケーリングマトリクスパラメータ書き込み部
 1306 減算部
 1308 変換部
 1310 量子化部
 1320 加算部
 ex100 コンテンツ供給システム
 ex101 インターネット
 ex102 インターネットサービスプロバイダ
 ex103 ストリーミングサーバ
 ex104 電話網
 ex106,ex107,ex108,ex109,ex110 基地局
 ex111 コンピュータ
 ex112 PDA
 ex113,ex116 カメラ
 ex114 カメラ付デジタル携帯電話(携帯電話)
 ex115 ゲーム機
 ex117 マイク
 ex200 デジタル放送用システム
 ex201 放送局
 ex202 放送衛星(衛星)
 ex203 ケーブル
 ex204,ex205,ex601 アンテナ
 ex210 車
 ex211 カーナビゲーション(カーナビ)
 ex212 再生装置
 ex213,ex219 モニタ
 ex214,ex215,ex216,ex607 記録メディア
 ex217 セットトップボックス(STB)
 ex218 リーダ/レコーダ
 ex220 リモートコントローラ
 ex230 情報トラック
 ex231 記録ブロック
 ex232 内周領域
 ex233 データ記録領域
 ex234 外周領域
 ex300 テレビ
 ex301 チューナ
 ex302 変調/復調部
 ex303 多重/分離部
 ex304 音声信号処理部
 ex305 映像信号処理部
 ex306,ex507 信号処理部
 ex307 スピーカ
 ex308,ex602 表示部
 ex309 出力部
 ex310,ex501 制御部
 ex311,ex505,ex710 電源回路部
 ex312 操作入力部
 ex313 ブリッジ
 ex314,ex606 スロット部
 ex315 ドライバ
 ex316 モデム
 ex317 インターフェース部
 ex318,ex319,ex320,ex321,ex404,ex508 バッファ
 ex400 情報再生/記録部
 ex401 光ヘッド
 ex402 変調記録部
 ex403 再生復調部
 ex405 ディスクモータ
 ex406 サーボ制御部
 ex407 システム制御部
 ex500 LSI
 ex502 CPU
 ex503 メモリコントローラ
 ex504 ストリームコントローラ
 ex506 ストリームI/O
 ex509 AV I/O
 ex510 バス
 ex603 カメラ部
 ex604 操作キー
 ex605 音声入力部
 ex608 音声出力部
 ex701 送受信回路部
 ex702 LCD制御部
 ex703 カメラインターフェース部(カメラI/F部)
 ex704 操作入力制御部
 ex705 音声処理部
 ex706 変復調回路部
 ex707 記録再生部
 ex708 多重分離部
 ex709 画像復号部
 ex711 主制御部
 ex712 画像符号化部
 ex713 同期バス

Claims (19)

  1.  符号化ストリームに含まれる符号化画像を復号する画像復号方法であって、
     既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得ステップと、
     前記マトリクス取得ステップで取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得ステップで取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号ステップと、
     前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号ステップとを含む
     画像復号方法。
  2.  前記更新パラメータ取得ステップでは、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの倍率を示す第1の更新パラメータと、前記新たな量子化スケーリングマトリクスを構成する複数の値のばらつきの度合いを示す第2の更新パラメータとを、前記符号化ストリームから取得し、
     前記マトリクス復号ステップでは、前記過去の量子化スケーリングマトリクスと、前記第1及び第2の更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを予測した予測マトリクスを算出し、算出した前記予測マトリクスを用いて前記新たな量子化スケーリングマトリクスを復号する
     請求項1に記載の画像復号方法。
  3.  前記更新パラメータ取得ステップでは、さらに、前記新たな量子化スケーリングマトリクスと前記予測マトリクスとの差分であるデルタマトリクスを、前記符号化ストリームから取得し、
     前記マトリクス復号ステップでは、前記予測マトリクスと前記デルタマトリクスとを加算することによって、前記新たな量子化スケーリングマトリクスを復号する
     請求項2に記載の画像復号方法。
  4.  前記新たな量子化スケーリングマトリクス、前記過去の量子化スケーリングマトリクス、前記予測マトリクス、及び前記デルタマトリクスは、それぞれn(nは2以上の自然数)個の値で構成される行列であり、
     前記新たな量子化スケーリングマトリクスを構成するn個の値をMnew(i)、前記過去の量子化スケーリングマトリクスを構成するn個の値をMold(i)、前記デルタマトリクスを構成するn個の値をΔM(i)、前記第1の更新パラメータから得られる第1の係数をP、前記第2の更新パラメータから得られる第2の係数をP、前記新たな量子化スケーリングマトリクス毎に定まる係数をF、及びi=1~nとすると、
     前記マトリクス復号ステップでは、式1により、前記新たな量子化スケーリングマトリクスを復号する
    Figure JPOXMLDOC01-appb-M000003
     請求項3に記載の画像復号方法。
  5.  前記係数Fは、前記過去の量子化スケーリングマトリクスの直流成分の値に一致する
     請求項4に記載の画像復号方法。
  6.  前記係数Fは、前記過去の量子化スケーリングマトリクスを構成するn個の値の平均値に一致する
     請求項4に記載の画像復号方法。
  7.  前記符号化ストリームは、さらに、前記更新パラメータが含まれているか否かを示す更新フラグを含み、
     該画像復号方法は、前記更新パラメータが含まれていることを示す値が前記更新フラグに設定されている場合に、前記新たな量子化スケーリングマトリクスを復号する
     請求項1~6のいずれか1項に記載の画像復号方法。
  8.  前記符号化ストリームは、さらに、前記新たな量子化スケーリングマトリクスの符号化方法を示す更新タイプフラグを含み、
     該画像復号方法は、前記新たな量子化スケーリングマトリクスを前記過去の量子化スケーリングマトリクスを用いて符号化していることを示す値が前記更新タイプフラグに設定されている場合に、前記過去の量子化スケーリングマトリクスと前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号する
     請求項1~7のいずれか1項に記載の画像復号方法。
  9.  前記符号化ストリームは、さらに、前記過去の量子化スケーリングマトリクスを特定するための識別情報を含み、
     前記マトリクス取得ステップでは、既に復号された複数の量子化スケーリングマトリクスのうち、前記識別情報によって特定される量子化スケーリングマトリクスを、前記過去の量子化スケーリングマトリクスとして取得する
     請求項1~8のいずれか1項に記載の画像復号方法。
  10.  画像を符号化する画像符号化方法であって、
     既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出ステップと、
     前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出ステップで算出された前記更新パラメータとを含む符号化ストリームを生成する符号化ステップとを含む
     画像符号化方法。
  11.  前記更新パラメータ算出ステップでは、前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの倍率を示す第1の更新パラメータと、前記新たな量子化スケーリングマトリクスを構成する複数の値のばらつきの度合いを示す第2の更新パラメータとを算出し、
     前記符号化ステップでは、前記第1及び第2の更新パラメータを前記符号化ストリームに含める
     請求項10に記載の画像符号化方法。
  12.  前記更新パラメータ算出ステップでは、前記過去の量子化スケーリングマトリクスと、前記第1及び第2の更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを予測した予測マトリクスを算出し、前記新たな量子化スケーリングマトリクスと前記予測マトリクスとの差分であるデルタマトリクスの値が最小になるように、前記第1及び第2の更新パラメータを算出し、
     前記符号化ステップでは、さらに、前記デルタマトリクスを前記符号化ストリームに含める
     請求項11に記載の画像符号化方法。
  13.  前記符号化ステップでは、さらに、前記マトリクス取得ステップで取得された前記過去の量子化スケーリングマトリクスを特定するための識別情報を、前記符号化ストリームに含める
     請求項10~12のいずれか1項に記載の画像符号化方法。
  14.  符号化ストリームに含まれる符号化画像を復号する画像復号装置であって、
     既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得部と、
     前記マトリクス取得部で取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得部で取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号部と、
     前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号部とを備える
     画像復号装置。
  15.  画像を符号化する画像符号化装置であって、
     既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出部と、
     前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出部で算出された前記更新パラメータとを含む符号化ストリームを生成する符号化部とを備える
     画像符号化装置。
  16.  コンピュータに、符号化ストリームに含まれる符号化画像を復号させるプログラムであって、
     既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得ステップと、
     前記マトリクス取得ステップで取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得ステップで取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号ステップと、
     前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号ステップとを、コンピュータに実行させる
     プログラム。
  17.  コンピュータに、画像を符号化させるプログラムであって、
     既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得ステップと、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出ステップと、
     前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出ステップで算出された前記更新パラメータとを含む符号化ストリームを生成する符号化ステップとを、コンピュータに実行させる
     プログラム。
  18.  符号化ストリームに含まれる符号化画像を復号する集積回路であって、
     既に復号された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの復号に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを、前記符号化ストリームから取得する更新パラメータ取得部と、
     前記マトリクス取得部で取得された前記過去の量子化スケーリングマトリクスと、前記更新パラメータ取得部で取得された前記更新パラメータとを用いて、前記新たな量子化スケーリングマトリクスを復号するマトリクス復号部と、
     前記マトリクス復号ステップで復号された前記新たな量子化スケーリングマトリクスを用いて前記符号化画像を復号する画像復号部とを備える
     集積回路。
  19.  画像を符号化する集積回路であって、
     既に符号化された量子化スケーリングマトリクスであって、新たな量子化スケーリングマトリクスの符号化に用いられる過去の量子化スケーリングマトリクスを取得するマトリクス取得部と、
     前記過去の量子化スケーリングマトリクスに対する前記新たな量子化スケーリングマトリクスの変化量を示す更新パラメータを算出する更新パラメータ算出部と、
     前記新たな量子化スケーリングマトリクスを用いて符号化された符号化画像と、前記更新パラメータ算出部で算出された前記更新パラメータとを含む符号化ストリームを生成する符号化部とを備える
     集積回路。
     
PCT/JP2010/006385 2009-10-30 2010-10-29 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路 WO2011052217A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
RU2012116555/07A RU2012116555A (ru) 2009-10-30 2010-10-29 Способ декодирования изображений, способ кодирования изображений, аппаратура декодирования изображений, аппаратура кодирования изображений, программа и интегральная схема
MX2012004556A MX2012004556A (es) 2009-10-30 2010-10-29 Metodo de descodificacion de imagenes, metodo de codificacion de imagenes, dispositivo descodificador de imagenes, dispositivo codificador de imagenes, programas y circuitos integrados.
AU2010312983A AU2010312983B2 (en) 2009-10-30 2010-10-29 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
CN201080048051.1A CN102577386B (zh) 2009-10-30 2010-10-29 图像解码方法、图像编码方法、图像解码装置、图像编码装置、以及集成电路
KR1020127010645A KR101680877B1 (ko) 2009-10-30 2010-10-29 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치, 프로그램, 및 집적 회로
US13/502,592 US9467710B2 (en) 2009-10-30 2010-10-29 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
JP2011538260A JPWO2011052217A1 (ja) 2009-10-30 2010-10-29 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路
EP10826353.4A EP2495974B1 (en) 2009-10-30 2010-10-29 Coding of quantization matrices
US15/255,549 US10630997B2 (en) 2009-10-30 2016-09-02 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009251518 2009-10-30
JP2009-251518 2009-10-30

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/502,592 A-371-Of-International US9467710B2 (en) 2009-10-30 2010-10-29 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit
US15/255,549 Continuation US10630997B2 (en) 2009-10-30 2016-09-02 Image decoding method, image coding method, image decoding apparatus, image coding apparatus, program, and integrated circuit

Publications (1)

Publication Number Publication Date
WO2011052217A1 true WO2011052217A1 (ja) 2011-05-05

Family

ID=43921650

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/006385 WO2011052217A1 (ja) 2009-10-30 2010-10-29 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路

Country Status (11)

Country Link
US (2) US9467710B2 (ja)
EP (1) EP2495974B1 (ja)
JP (1) JPWO2011052217A1 (ja)
KR (1) KR101680877B1 (ja)
CN (1) CN102577386B (ja)
AU (1) AU2010312983B2 (ja)
MX (1) MX2012004556A (ja)
RU (1) RU2012116555A (ja)
SG (1) SG10201406241PA (ja)
TW (1) TW201141238A (ja)
WO (1) WO2011052217A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012173063A1 (ja) * 2011-06-17 2012-12-20 ソニー株式会社 画像処理装置および方法
US20130003837A1 (en) * 2011-06-29 2013-01-03 General Instrument Corporation Methods and system for using a scan coding pattern during intra coding
US20130051457A1 (en) * 2011-06-25 2013-02-28 Qualcomm Incorporated Quantization in video coding
CN103096052A (zh) * 2011-11-04 2013-05-08 华为技术有限公司 一种图像编码、解码的方法和装置
US20130170555A1 (en) * 2011-12-28 2013-07-04 Broadcom Corporation Adapting transform coefficient scaling in video/image coding to block features identified in the transform domain
US20150043637A1 (en) * 2012-04-13 2015-02-12 Sony Corporation Image processing device and method
CN111064966A (zh) * 2012-04-16 2020-04-24 韩国电子通信研究院 图像解码方法和图像编码方法
JP2020098986A (ja) * 2018-12-17 2020-06-25 キヤノン株式会社 画像符号化装置及び画像復号装置及びそれらの制御方法及びプログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117744A1 (en) 2011-03-03 2012-09-07 Panasonic Corporation Method of encoding an image into a coded image, method of decoding a coded image, and apparatuses thereof
US9826229B2 (en) 2012-09-29 2017-11-21 Google Technology Holdings LLC Scan pattern determination from base layer pixel information for scalable extension
US9350988B1 (en) 2012-11-20 2016-05-24 Google Inc. Prediction mode-based block ordering in video coding
US9681128B1 (en) 2013-01-31 2017-06-13 Google Inc. Adaptive pre-transform scanning patterns for video and image compression
WO2017082670A1 (ko) * 2015-11-12 2017-05-18 엘지전자 주식회사 영상 코딩 시스템에서 계수 유도 인트라 예측 방법 및 장치
WO2020041003A1 (en) 2018-08-23 2020-02-27 Interdigital Vc Holdings, Inc. Coding of quantization matrices using parametric models
US11206395B2 (en) * 2019-09-24 2021-12-21 Mediatek Inc. Signaling quantization matrix
WO2022220545A1 (ko) * 2021-04-12 2022-10-20 엘지전자 주식회사 저주파 비분리 변환 설계 방법 및 장치

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06284412A (ja) * 1993-03-26 1994-10-07 Sony Corp 画像信号符号化方法および画像信号符号化装置、画像信号復号化方法および画像信号復号化装置、ならびに画像信号記録媒体
JP2001313946A (ja) * 1997-02-08 2001-11-09 Matsushita Electric Ind Co Ltd デコード方法
JP2003189308A (ja) * 2001-12-14 2003-07-04 Victor Co Of Japan Ltd 動画像符号化装置、符号化方法、復号化装置、復号化方法及び動画像符号列伝送方法
JP2007520948A (ja) * 2004-01-20 2007-07-26 松下電器産業株式会社 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置およびプログラム
JP2008193410A (ja) 2007-02-05 2008-08-21 Matsushita Electric Ind Co Ltd 画像符号化装置、録画装置、動画像符号化方法、動画像符号化プログラム
WO2008132890A1 (ja) * 2007-04-16 2008-11-06 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4015238A (en) * 1975-11-24 1977-03-29 Harris Corporation Metric updater for maximum likelihood decoder
US5629778A (en) * 1995-05-15 1997-05-13 Polaroid Corporation Method and apparatus for reduction of image data compression noise
ID20721A (id) 1997-02-08 1999-02-18 Matsushita Electric Ind Co Ltd Matriks pengkuantitasan untuk penyandian gambar yang diam dan bergerak
US7215708B2 (en) * 2001-05-22 2007-05-08 Koninklijke Philips Electronics N.V. Resolution downscaling of video images
US7299190B2 (en) * 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
CN101699866B (zh) * 2004-01-30 2016-08-03 松下电器(美国)知识产权公司 运动图片编码方法和运动图片解码方法
EP2373033A3 (en) 2004-01-30 2011-11-30 Panasonic Corporation Picture coding and decoding method, apparatus, and program thereof
AU2006338425B2 (en) 2006-02-13 2010-12-09 Kabushiki Kaisha Toshiba Moving image encoding/decoding method and device and program
CN101317463B (zh) 2006-03-16 2012-10-17 华为技术有限公司 在编解码中的实现量化的方法和装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06284412A (ja) * 1993-03-26 1994-10-07 Sony Corp 画像信号符号化方法および画像信号符号化装置、画像信号復号化方法および画像信号復号化装置、ならびに画像信号記録媒体
JP2001313946A (ja) * 1997-02-08 2001-11-09 Matsushita Electric Ind Co Ltd デコード方法
JP2003189308A (ja) * 2001-12-14 2003-07-04 Victor Co Of Japan Ltd 動画像符号化装置、符号化方法、復号化装置、復号化方法及び動画像符号列伝送方法
JP2007520948A (ja) * 2004-01-20 2007-07-26 松下電器産業株式会社 画像符号化方法、画像復号化方法、画像符号化装置、画像復号化装置およびプログラム
JP2008193410A (ja) 2007-02-05 2008-08-21 Matsushita Electric Ind Co Ltd 画像符号化装置、録画装置、動画像符号化方法、動画像符号化プログラム
WO2008132890A1 (ja) * 2007-04-16 2008-11-06 Kabushiki Kaisha Toshiba 画像符号化と画像復号化の方法及び装置

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012173063A1 (ja) * 2011-06-17 2012-12-20 ソニー株式会社 画像処理装置および方法
US20130051457A1 (en) * 2011-06-25 2013-02-28 Qualcomm Incorporated Quantization in video coding
US9854275B2 (en) * 2011-06-25 2017-12-26 Qualcomm Incorporated Quantization in video coding
US20130003837A1 (en) * 2011-06-29 2013-01-03 General Instrument Corporation Methods and system for using a scan coding pattern during intra coding
CN103096052A (zh) * 2011-11-04 2013-05-08 华为技术有限公司 一种图像编码、解码的方法和装置
CN103096052B (zh) * 2011-11-04 2015-11-25 华为技术有限公司 一种图像编码、解码的方法和装置
US9667958B2 (en) 2011-11-04 2017-05-30 Huawei Technologies Co., Ltd. Image coding and decoding methods and apparatuses
US10091531B2 (en) 2011-11-04 2018-10-02 Huawei Technologies Co., Ltd. Image coding and decoding methods and apparatuses
US20130170555A1 (en) * 2011-12-28 2013-07-04 Broadcom Corporation Adapting transform coefficient scaling in video/image coding to block features identified in the transform domain
US20150043637A1 (en) * 2012-04-13 2015-02-12 Sony Corporation Image processing device and method
CN111064966A (zh) * 2012-04-16 2020-04-24 韩国电子通信研究院 图像解码方法和图像编码方法
CN111131838A (zh) * 2012-04-16 2020-05-08 韩国电子通信研究院 图像解码方法和图像编码方法
CN111131820A (zh) * 2012-04-16 2020-05-08 韩国电子通信研究院 图像解码方法和图像编码方法
CN111147851A (zh) * 2012-04-16 2020-05-12 韩国电子通信研究院 图像解码方法和图像编码方法
CN111147852A (zh) * 2012-04-16 2020-05-12 韩国电子通信研究院 图像解码方法和图像编码方法
CN111064966B (zh) * 2012-04-16 2022-05-31 韩国电子通信研究院 图像解码方法和图像编码方法
CN111147851B (zh) * 2012-04-16 2022-09-13 韩国电子通信研究院 图像解码方法和图像编码方法
US11553183B2 (en) 2012-04-16 2023-01-10 Electronics And Telecommunications Research Institute Method and device for encoding/decoding image
JP2020098986A (ja) * 2018-12-17 2020-06-25 キヤノン株式会社 画像符号化装置及び画像復号装置及びそれらの制御方法及びプログラム
WO2020129407A1 (ja) * 2018-12-17 2020-06-25 キヤノン株式会社 画像符号化装置及び画像復号装置及びそれらの制御方法及びプログラム
RU2765428C1 (ru) * 2018-12-17 2022-01-31 Кэнон Кабусики Кайся Устройство кодирования изображений, устройство декодирования изображений, способы управления ими и программа
US11849114B2 (en) 2018-12-17 2023-12-19 Canon Kabushiki Kaisha Image encoding apparatus, image decoding apparatus, control methods thereof, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
MX2012004556A (es) 2012-05-08
RU2012116555A (ru) 2013-12-10
EP2495974B1 (en) 2017-10-25
US20120201297A1 (en) 2012-08-09
CN102577386B (zh) 2015-03-11
KR20120099418A (ko) 2012-09-10
EP2495974A4 (en) 2014-02-26
JPWO2011052217A1 (ja) 2013-03-14
US10630997B2 (en) 2020-04-21
AU2010312983A2 (en) 2012-06-28
AU2010312983A1 (en) 2012-05-17
TW201141238A (en) 2011-11-16
KR101680877B1 (ko) 2016-11-29
US20160373776A1 (en) 2016-12-22
SG10201406241PA (en) 2014-11-27
EP2495974A1 (en) 2012-09-05
AU2010312983B2 (en) 2015-10-29
US9467710B2 (en) 2016-10-11
CN102577386A (zh) 2012-07-11

Similar Documents

Publication Publication Date Title
WO2011052217A1 (ja) 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置、プログラム、及び集積回路
WO2011052215A1 (ja) 復号方法、復号装置、符号化方法、および符号化装置
JP5574345B2 (ja) 符号化方法、エラー検出方法、復号方法、符号化装置、エラー検出装置及び復号装置
JP5588438B2 (ja) 画像符号化方法及び画像符号化装置
JP5479470B2 (ja) 動画像符号化方法、動画像符号化装置、プログラム、および集積回路
WO2011016251A1 (ja) 符号化方法、復号方法、符号化装置及び復号装置
WO2011016250A1 (ja) 符号化方法、復号方法、符号化装置及び復号装置
WO2010087157A1 (ja) 画像符号化方法及び画像復号方法
WO2010125812A1 (ja) 画像復号方法、画像符号化方法、画像復号装置および画像符号化装置
JP5679980B2 (ja) 画像符号化方法、画像復号方法、画像符号化装置及び画像復号装置
JP5499035B2 (ja) 画像符号化方法、画像符号化装置、プログラムおよび集積回路
WO2011052216A1 (ja) 画像符号化方法、画像復号方法、画像符号化装置および画像復号装置
JP5546044B2 (ja) 画像復号装置、画像符号化装置、画像復号回路及び画像復号方法
WO2011089865A1 (ja) 画像符号化方法、画像復号方法、それらの装置、プログラムおよび集積回路
WO2011052213A1 (ja) 画像復号方法、画像符号化方法、それらの装置、プログラムおよび集積回路

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080048051.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10826353

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011538260

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13502592

Country of ref document: US

Ref document number: MX/A/2012/004556

Country of ref document: MX

REEP Request for entry into the european phase

Ref document number: 2010826353

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010826353

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 3635/CHENP/2012

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 2010312983

Country of ref document: AU

ENP Entry into the national phase

Ref document number: 20127010645

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2010312983

Country of ref document: AU

Date of ref document: 20101029

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2012116555

Country of ref document: RU