WO2010032693A1 - 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム - Google Patents

動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム Download PDF

Info

Publication number
WO2010032693A1
WO2010032693A1 PCT/JP2009/065945 JP2009065945W WO2010032693A1 WO 2010032693 A1 WO2010032693 A1 WO 2010032693A1 JP 2009065945 W JP2009065945 W JP 2009065945W WO 2010032693 A1 WO2010032693 A1 WO 2010032693A1
Authority
WO
WIPO (PCT)
Prior art keywords
reference image
signal
prediction signal
decoding
encoding
Prior art date
Application number
PCT/JP2009/065945
Other languages
English (en)
French (fr)
Inventor
鈴木 芳典
ブン チュンセン
イェンス ライナー オーム
マティアス ウィン
アレクサンダー ストヤノビッチ
タン ティオ ケン
Original Assignee
株式会社エヌ・ティ・ティ・ドコモ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社エヌ・ティ・ティ・ドコモ filed Critical 株式会社エヌ・ティ・ティ・ドコモ
Priority to EP09814538.6A priority Critical patent/EP2352295B1/en
Priority to CN200980116976.2A priority patent/CN102027746B/zh
Publication of WO2010032693A1 publication Critical patent/WO2010032693A1/ja
Priority to US13/051,768 priority patent/US9277238B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques

Definitions

  • the present invention relates to a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, a moving image encoding program, and a moving image decoding program, and more particularly to prediction signals in predictive encoding and predictive decoding. It is about generation.
  • Compressive encoding technology is used to efficiently transmit and store moving image data.
  • MPEG1, 2, 4 and H.264 are available. 261-H. H.264 is widely used.
  • a prediction signal of a target image to be encoded is generated using adjacent images adjacent on the time axis, and a difference between the target image and the prediction signal is encoded. As a result, a reduction in the amount of data is realized.
  • This method is called interframe coding.
  • an image of one frame is divided into block regions each having 16 ⁇ 16 pixels, and the image is encoded in units of blocks.
  • a prediction signal is generated by performing motion compensation prediction on a target block of an image to be encoded with reference to another frame that has been encoded and restored.
  • a difference value between the target block and the prediction signal is obtained, and discrete cosine transform and quantization processing are performed to generate encoded data.
  • a bi-directional prediction method is used to reduce quantization noise or the like included in the prediction signal or to predict a newly appearing image signal.
  • the target block has two motion amounts
  • the first prediction signal is obtained from the first reference image temporally before the target block by the first motion amount
  • the target block is determined by the second motion amount.
  • a second prediction signal is obtained from a second reference image that is later in time, and the prediction signal is generated by averaging the first and second prediction signals.
  • the first and second prediction signals may be obtained from two reference images that are temporally ahead, and a prediction signal may be generated by averaging them. Details of interframe coding are described in, for example, Patent Document 1 and Non-Patent Document 1.
  • the prediction signal generation method described above has the following problems.
  • the images constituting the moving image may include those in which the texture (picture) constituting the image changes with time.
  • a texture signal fine movement is shown for each pixel, and pixels at the same position between frames change with time. Examples include ocean waves, smoke, and flower beds in the breeze.
  • Such a texture is called “dynamic texture”.
  • the target block to be encoded is hardly different from the pixels of the frames before and after the target block. Therefore, if the premise that the motion-compensated prediction signal is similar to the target signal is established, the difference signal can be kept low. That is, data compression using the property that the signal correlation between frames is high is realized.
  • the value of the pixel changes with time even if predicted from the previous and subsequent frames, and the pixel of the target block does not resemble the pixel at the same position in the predicted signal. Becomes larger.
  • the amount of compressed data may increase.
  • the correlation between frames of a moving image including a dynamic texture is low, and it is difficult to achieve a high compression rate with the conventional technology.
  • it is difficult to transmit a differential signal having a large amount of data so that there is a problem that the texture signal in the reproduced image is almost lost.
  • An object of the present invention is to provide a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, a moving image encoding program, and a moving image decoding program.
  • a moving image encoding apparatus includes an input unit that inputs a target signal included in a target image to be encoded among moving images composed of a plurality of images, and a prediction signal for the target signal.
  • a prediction signal generation unit that generates a difference signal
  • a difference generation unit that generates a difference signal that is a difference between the target signal and the prediction signal
  • an encoding unit that encodes the difference signal by a predetermined method to generate an encoded difference signal.
  • a storage means for storing as a reference image to be referred to, and an existing reference image that is an already generated reference image stored in the storage means, an observation matrix is obtained, and a new reference image that is a new reference image based on the observation matrix
  • the Form and a reference image generation means for storing in the storage means, the prediction signal generating means generates a prediction signal by using at least the new reference image, it is characterized.
  • the input unit inputs the target signal included in the encoding target image among the moving images composed of a plurality of images
  • the prediction signal generating unit includes: A prediction signal generation step for generating a prediction signal for the target signal, a difference generation unit for generating a difference signal that is a difference between the target signal and the prediction signal, and an encoding unit for converting the difference signal into a predetermined method
  • An encoding step for generating an encoded differential signal by encoding, a decoding unit for decoding the encoded differential signal to generate a decoded differential signal, and an adding unit for adding a prediction signal to the decoded differential signal Then, an adding step for generating a reproduction signal, a storage means, a storage step for storing the reproduction signal as a reference image to be referred to when a prediction signal is generated, and a reference image generation means, A reference image generation that obtains an observation matrix using an existing reference image that is an already generated reference image stored in the storage means
  • the moving picture coding program of the present invention generates a prediction signal for a target signal, input means for inputting a target signal included in a coding target picture among moving pictures composed of a plurality of pictures.
  • Prediction signal generation means difference generation means for generating a difference signal that is a difference between the target signal and the prediction signal, encoding means for encoding the difference signal by a predetermined method to generate an encoded difference signal, and an encoded difference signal Decoding means for decoding to generate a decoded differential signal, adding means for adding a prediction signal to the decoded differential signal to generate a reproduction signal, and the reproduction signal are stored as a reference image to be referred to when the prediction signal is generated An observation matrix is obtained using the storage means and an existing reference image that is an already generated reference image stored in the storage means, and a new reference image that is a new reference image is generated based on the observation matrix Is operated as a reference image generation means for storing in storage means Te, the prediction signal generating means generates a prediction signal by using
  • a target signal of an encoding target image that is a part of a moving image is input, and the signal The difference signal from the prediction signal is encoded, and the reproduction signal is generated by decoding the encoded difference signal and adding the prediction signal, and the reproduction signal is stored as a reference image for prediction signal generation.
  • the At that time an observation matrix is obtained using the existing reference image already generated, a new reference image is generated based on the observation matrix, and a prediction signal is generated using at least the new reference image. It is possible to newly generate a reference image that matches the nature of the non-dynamic texture. As a result, a prediction signal closer to the dynamic texture in the encoding target image can be generated. As a result, the data amount of the moving image compressed by suppressing the difference signal can be effectively reduced.
  • the reference image generation means obtains an observation matrix and a state vector based on the existing reference image, and generates a new reference image based on the observation matrix and the state vector. If such a reference image generation means is provided, a prediction signal closer to the dynamic texture in the encoding target image can be generated.
  • the encoding means further encodes the state vector.
  • providing the state vector to the decoding side eliminates the need to generate a state vector on the decoding side, thereby realizing efficient decoding processing.
  • the reference image generation means obtains an observation matrix by executing singular value decomposition on a matrix composed of a plurality of existing reference images. With this configuration, it is possible to generate a prediction signal that is closer to the dynamic texture in the encoding target image.
  • the moving image decoding apparatus includes an input unit that inputs compressed data including an encoded differential signal obtained by predictive encoding a moving image, and a decoding unit that decodes the encoded differential signal to generate a decoded differential signal.
  • the prediction signal generating means for generating a prediction signal for the decoded differential signal, the adding means for adding the prediction signal to the decoded differential signal to generate a reproduction signal, and the reproduction signal are referred to when the prediction signal is generated.
  • An observation matrix is obtained using a storage means for storing as a reference image and an existing reference image which is an already generated reference image stored in the storage means, and a new reference image which is a new reference image is generated based on the observation matrix.
  • a reference image generation means for storing in the storage means, wherein the prediction signal generation means generates a prediction signal using at least the new reference image.
  • the moving picture decoding apparatus of the present invention includes an input unit that inputs compressed data including a coded differential signal obtained by predictive coding a moving picture, and decoding that generates a decoded differential signal by decoding the coded differential signal.
  • Means a prediction signal generating means for generating a prediction signal for the decoded differential signal, an adding means for adding a prediction signal to the decoded differential signal to generate a reproduction signal, and a reproduction signal for reference when the prediction signal is generated
  • Storage means for storing as a reference image
  • the prediction signal generation means obtains at least one of an observation matrix and a state vector using an existing reference image that is an already generated reference image stored in the storage means, A prediction signal is generated based on an observation matrix or a state vector.
  • the input means inputs the compressed data including the encoded differential signal obtained by predictively encoding the moving picture
  • the decoding means decodes the encoded differential signal.
  • a decoding step for generating a decoded differential signal, a predicted signal generating unit for generating a predicted signal for the decoded differential signal, and an adding unit for generating a reproduced signal by adding the predicted signal to the decoded differential signal An adding step, a storing means for storing the reproduction signal as a reference image to be referred to when the prediction signal is generated, and a reference image generating means stored in the storing means by the reference image generating means.
  • the input means inputs the compressed data including the encoded differential signal obtained by predictively encoding the moving picture, and the decoding means decodes the encoded differential signal.
  • a decoding step for generating a decoded differential signal, a predicted signal generating unit for generating a predicted signal for the decoded differential signal, and an adding unit for generating a reproduced signal by adding the predicted signal to the decoded differential signal And a storing step in which the storage means stores the reproduction signal as a reference image to be referred to when the prediction signal is generated.
  • the already generated data stored in the storage means is stored. Obtaining at least one of an observation matrix and a state vector using an existing reference image that is a reference image of and generating a prediction signal based on the observation matrix or the state vector And butterflies.
  • the moving picture decoding program generates a decoded differential signal by decoding an encoded differential signal, input means for inputting compressed data including a coded differential signal obtained by predicting and encoding a moving picture.
  • Decoding means for generating, prediction signal generating means for generating a prediction signal for the decoded differential signal, addition means for adding a prediction signal to the decoded differential signal to generate a reproduction signal, and reproduction signal being referred to when the prediction signal is generated Storage means for storing as a reference image, and an observation matrix is obtained using an existing reference image that is an already generated reference image stored in the storage means, and a new reference image that is a new reference image is generated based on the observation matrix And operating as reference image generation means for storing in the storage means, wherein the prediction signal generation means generates a prediction signal using at least the new reference image.
  • the moving picture decoding program of the present invention is an input means for inputting compressed data including an encoded differential signal obtained by predicting and encoding a moving picture, and generates a decoded differential signal by decoding the encoded differential signal.
  • the prediction signal generation means obtains at least one of an observation matrix and a state vector using an existing reference image that is an already generated reference image stored in the storage means, and stores the observation matrix as an observation matrix. Alternatively, the prediction signal is generated based on the state vector.
  • compressed data including an encoded differential signal is input, the encoded differential signal is decoded, and a prediction signal is added to the decoded differential signal. Is added to generate a reproduction signal, and the reproduction signal is stored as a reference image for generating a prediction signal.
  • an observation matrix or state vector is obtained using an existing reference image that has already been generated, and a prediction signal is generated based on the observation matrix or state vector. Therefore, a prediction signal is generated using only the existing reference image.
  • the reference image generation means obtains an observation matrix and a state vector based on the existing reference image, and generates a new reference image based on the observation matrix and the state vector. If such a reference image generation means is provided, a prediction signal closer to the dynamic texture in the encoding target image can be generated.
  • the compressed data further includes vector compressed data corresponding to the state vector, the decoding means restores the vector compressed data to generate a decoded state vector, and the reference image generating means is based on the observation matrix and the decoded state vector. It is also preferable to generate a new reference image. In this way, since the state vector is provided from the encoding side, the process of generating the state vector is not necessary, and an efficient decoding process is realized.
  • the reference image generation means obtains an observation matrix by performing singular value decomposition on a matrix composed of a plurality of existing reference images. In this case, a prediction signal closer to the dynamic texture in the encoding target image can be generated.
  • a moving image encoding apparatus includes an input unit that inputs a target signal included in an encoding target image among moving images including a plurality of images, and an encoding target image.
  • Dividing means for dividing into a plurality of areas, a prediction signal generating means for generating a prediction signal for a target signal in a target area of the plurality of areas, and a differential signal that is a difference between the target signal and the prediction signal in the target area Difference generating means, encoding means for encoding the difference signal by a predetermined method to generate an encoded difference signal, decoding means for decoding the encoded difference signal to generate a decoded difference signal, and a decoded difference signal Addition means for adding a prediction signal to generate a reproduction signal of the target region, storage means for storing the reproduction signal as a reference image to be referred to when the prediction signal is generated, and already generated data stored in the storage means Reference picture of A reference image generation unit that obtains an
  • the moving image encoding apparatus of the present invention includes an input unit that inputs a target signal included in an encoding target image among moving images composed of a plurality of images, and divides the encoding target image into a plurality of regions.
  • Adding means for generating a reproduction signal of the target area storage means for storing the reproduction signal as a reference image to be referred to when the prediction signal is generated, and a previously generated reference image stored in the storage means.
  • a reference image generation unit that obtains an observation matrix using, generates a new reference image that is a new reference image based on the observation matrix, and stores the new reference image in a storage unit, and at least two target regions.
  • a position setting unit that sets an insertion position of a new reference image in a reference image list that manages a plurality of reference images, and at least an encoded difference signal and position information that indicates the insertion position of the new reference image for a large area are entropy.
  • An entropy encoding means for encoding the prediction signal generation means updates a reference image list for a large area based on position information indicating an insertion position of a new reference image, and the prediction signal generation means A prediction signal for the target region is generated using a reference image selected from the reference images included in the reference image list for the large region to which the Ropi encoding means encodes the reference image number indicating the reference image used for generation of the prediction signal of the target region, characterized in that.
  • the input unit inputs an object signal included in an encoding target image among moving images composed of a plurality of images
  • the dividing unit encodes A division step for dividing the target image into a plurality of regions, a prediction signal generation unit for generating a prediction signal for a target signal in the target region of the plurality of regions, and a difference generation unit for the target region
  • a difference generation step for generating a difference signal that is a difference between the target signal and the prediction signal
  • an encoding unit that encodes the difference signal by a predetermined method to generate an encoded difference signal
  • a decoding unit A decoding step for decoding the encoded differential signal to generate a decoded differential signal, an adding step for adding the prediction signal to the decoded differential signal to generate a reproduction signal of the target region, and storing
  • a storage step for storing the reproduction signal as a reference image to be referred to when the prediction signal is generated, and a reference image generation unit that stores an existing reference image that is
  • the reference image list is updated based on the position information indicating the insertion position of the new reference image to generate the prediction signal
  • the prediction signal of the target region is generated using a reference image selected from the reference images included in the reference image list, and in the entropy encoding step, a reference indicating the reference image used for generating the prediction signal of the target region is generated.
  • the image number is encoded.
  • the input unit inputs an object signal included in an encoding target image among moving images composed of a plurality of images
  • the dividing unit encodes A division step for dividing the target image into a plurality of regions, a prediction signal generation unit for generating a prediction signal for a target signal in the target region of the plurality of regions, and a difference generation unit for the target region
  • a difference generation step for generating a difference signal that is a difference between the target signal and the prediction signal
  • a decoding unit A decoding step for decoding the encoded differential signal to generate a decoded differential signal, an adding step for adding the prediction signal to the decoded differential signal to generate a reproduction signal for the target region,
  • a position setting step for setting a position for inserting a new reference image in a reference image list for managing a plurality of reference images, and an entropy encoding unit includes a new reference image for at least an encoded difference signal and a large region.
  • the reference image list for the large region is updated based on the position information indicating the insertion position of the reference region.
  • a reference image selected from the reference image included in the reference image list for the large region to which the target region belongs is selected.
  • a prediction signal for the target region is generated, and in the entropy encoding step, a reference image number indicating a reference image used to generate the prediction signal for the target region is encoded.
  • a new reference image is generated based on an observation matrix. Since it is generated, it is possible to newly generate a reference image that matches the nature of the dynamic texture that does not exist in the existing reference image, and it is possible to generate a prediction signal that is closer to the dynamic texture in the encoding target image. As a result, it is possible to effectively reduce the data amount of the moving image compressed by suppressing the difference signal to be small. That is, the dynamic texture can be efficiently encoded.
  • a reference image list for managing the new reference image or the existing reference image is used, and a prediction signal is generated using a reference image selected from the reference images included in the reference image list. Is generated. For this reason, a prediction signal closer to the dynamic texture in the encoding target image can be generated, and the difference signal can be further reduced, or a signal visually resembling the target signal can be reproduced without encoding the difference signal. It becomes possible to do. Furthermore, in the above-described moving picture coding apparatus and the like, since the insertion position of the new reference picture in the reference picture list is also coded, it is possible to suppress the code amount required for the reference picture selection information.
  • the position setting means If the new reference image is not included in the reference image list, the position setting means generates position information indicating that the new reference image is not included in the reference image list.
  • the entropy encoding means It is preferable that position information indicating that it is not included in the reference image list is entropy-encoded, and the prediction signal generation unit updates the reference image list so as not to include the new reference image.
  • position setting step of the new reference image when the new reference image is not included in the reference image list, position information indicating that the new reference image is not included in the reference image list is generated, and the entropy encoding step Then, it is preferable that the position information indicating that the new reference image is not included in the reference image list is entropy-encoded, and the reference image list is updated so that the new reference image is not included in the prediction signal generation step. If such position setting means and position setting step are provided, the creation of the reference image list and the selection of the reference image can be expanded and the degree of freedom can be increased.
  • the reference image generation means obtains an observation matrix and a state vector based on the existing reference image, and generates a new reference image based on the observation matrix and the state vector.
  • the entropy encoding means further entropy encodes the state vector.
  • providing the state vector to the decoding side eliminates the need to generate a state vector on the decoding side, thereby realizing efficient decoding processing.
  • the reference image generation means generates a new reference image by obtaining at least one of an observation matrix and a state vector by performing singular value decomposition on a matrix composed of a plurality of existing reference images. .
  • the reference image generation means generates a prediction signal that is closer to the dynamic texture in the encoding target image.
  • the moving image decoding apparatus includes an input unit that inputs compressed data including an encoded difference signal obtained by predictive encoding a moving image, and restores at least the encoded difference signal of a target region to be decoded from the compressed data.
  • Entropy decoding means for decoding decoding means for decoding the encoded differential signal of the target area to generate a decoded differential signal, prediction signal generating means for generating a prediction signal of the target area for the decoded differential signal, and prediction to the decoded differential signal
  • An adding means for adding the signals to generate a reproduction signal of the target area; a storage means for storing the reproduction signal of the target area as a reference image to be referred to when the prediction signal is generated; and A reference image that obtains an observation matrix using an existing reference image that is an already generated reference image, generates a new reference image that is a new reference image based on the observation matrix, and stores it in the storage means Generating means, wherein the entropy decoding means decodes position information indicating the insertion
  • the moving picture decoding apparatus of the present invention includes an input unit that inputs compressed data including an encoded differential signal obtained by predictive encoding a moving picture, and an encoded differential signal of a target region that is at least a decoding target from the compressed data.
  • Entropy decoding means for restoring the decoding, decoding means for decoding the encoded difference signal of the target area to generate a decoded differential signal, prediction signal generating means for generating a prediction signal of the target area for the decoded differential signal, and decoded differential signal Adding means for adding the prediction signal to generate a reproduction signal of the target area, storage means for storing the reproduction signal of the target area as a reference image to be referred to when the prediction signal is generated, and storing in the storage means
  • An observation matrix is obtained using the existing reference image that is the already generated reference image, and a new reference image that is a new reference image is generated based on the observation matrix and stored in the storage means
  • a reference image generation unit, and the entropy decoding unit includes a position indicating the insertion position of a new reference image in a reference image list for managing a plurality of reference images for a large region composed of at least two target regions.
  • the information is decoded from the compressed data
  • the prediction signal generating unit updates the reference image list for the large area based on the position information indicating the insertion position of the new reference image
  • the entropy decoding unit is based on the updated reference image list.
  • the reference image number indicating the reference image used when generating the prediction signal of the target region is decoded from the compressed data, and the prediction signal generating means uses the reference image indicated by the decoded reference image number to predict the target region prediction signal. Is generated.
  • the moving picture decoding apparatus of the present invention includes an input unit that inputs compressed data including an encoded differential signal obtained by predictive encoding a moving picture, and an encoded differential signal of a target region that is at least a decoding target from the compressed data.
  • Entropy decoding means for restoring the decoding
  • decoding means for decoding the encoded difference signal of the target area to generate a decoded differential signal
  • prediction signal generating means for generating a prediction signal of the target area for the decoded differential signal
  • decoded differential signal And adding means for adding the prediction signal to generate a reproduction signal of the target area, and storage means for storing the reproduction signal of the target area as a reference image to be referred to when the prediction signal is generated.
  • the decoding means decodes position information indicating the insertion position of the new reference image in the reference image list managing a plurality of reference images from the compressed data, and the prediction signal generating means
  • the reference image list is updated based on the position information indicating the insertion position of the new reference image, and an observation matrix is obtained using an existing reference image that is an already generated reference image stored in the storage means.
  • a new reference image that is a new reference image is generated and stored in the storage means, and the entropy decoding means indicates a reference image number indicating a reference image used when generating a prediction signal of the target region based on the updated reference image list Is decoded from the compressed data, and the prediction signal generating means generates a prediction signal of the target region using the reference image indicated by the decoded reference image number.
  • the input means inputs the compressed data including the encoded differential signal obtained by predictively coding the moving picture, and the entropy decoding means becomes at least a decoding target from the compressed data.
  • An entropy decoding step for restoring the encoded differential signal of the target region, a decoding unit for decoding the encoded differential signal of the target region to generate a decoded differential signal, and a prediction signal generating unit for the decoded differential signal A prediction signal generating step for generating a prediction signal for the target area; an adding means for generating a reproduction signal for the target area by adding the prediction signal to the decoded differential signal; and a storage means for generating the reproduction signal for the target area.
  • a storage step of storing as a reference image to be referred to when a prediction signal is generated, and a reference image generation unit stored in the storage unit A reference image generation step of obtaining an observation matrix using an existing reference image that is a reference image, generating a new reference image that is a new reference image based on the observation matrix, and storing the new reference image in a storage unit, and an entropy decoding step Then, the position information indicating the insertion position of the new reference image in the reference image list for managing the plurality of reference images is decoded from the compressed data, and the prediction signal generation step refers to the position information indicating the insertion position of the new reference image.
  • the image list is updated, and in the entropy decoding step, a reference image number indicating a reference image used when generating a prediction signal of the target region based on the updated reference image list is decoded from the compressed data.
  • a prediction signal of a target region is generated using a reference image indicated by a decoded reference image number.
  • the input means inputs the compressed data including the encoded differential signal obtained by predictively coding the moving picture
  • the entropy decoding means uses at least the decoding target from the compressed data.
  • An entropy decoding step for restoring the encoded difference signal of the target region, a decoding unit for decoding the encoded differential signal of the target region to generate a decoded differential signal, and a prediction signal generating unit for decoding the difference
  • a prediction signal generating step for generating a prediction signal of the target region for the signal
  • an adding unit for generating a reproduction signal of the target region by adding the prediction signal to the decoded differential signal
  • a storage unit for reproducing the target region A storing step for storing the signal as a reference image to be referred to when the prediction signal is generated, and a reference image generating means are stored in the storing step.
  • a reference image generation step that obtains an observation matrix using an existing reference image that is an already generated reference image, generates a new reference image that is a new reference image based on the observation matrix, and stores the new reference image in a storage step.
  • position information indicating the insertion position of the new reference image in the reference image list for managing a plurality of reference images is decoded from the compressed data for a large region composed of at least two target regions.
  • the prediction signal generation step the reference image list for the large region is updated based on position information indicating the insertion position of the new reference image, and in the entropy decoding step, a prediction signal for the target region is generated based on the updated reference image list.
  • the reference image number indicating the reference image used for the decoding is decoded from the compressed data. Generating a prediction signal of the target region using the reference image indicated by irradiation image number, characterized in that.
  • the input means inputs the compressed data including the encoded differential signal obtained by predictively coding the moving picture
  • the entropy decoding means uses at least the decoding target from the compressed data.
  • An entropy decoding step for restoring the encoded difference signal of the target region, a decoding unit for decoding the encoded differential signal of the target region to generate a decoded differential signal, and a prediction signal generating unit for decoding the difference
  • a prediction signal generating step for generating a prediction signal of the target region for the signal
  • an adding unit for generating a reproduction signal of the target region by adding the prediction signal to the decoded differential signal
  • a storage unit for reproducing the target region A storage step for storing the signal as a reference image to be referred to when the prediction signal is generated.
  • Position information indicating the insertion position of the new reference image in the reference image list for managing the reference image is decoded from the compressed data, and the prediction signal generation step generates the reference image list based on the position information indicating the insertion position of the new reference image.
  • an observation matrix is obtained using an existing reference image that is an already generated reference image stored in the storage unit, and a new reference image that is a new reference image is generated based on the observation matrix and stored in the storage unit
  • the reference image number indicating the reference image used when generating the prediction signal of the target region based on the updated reference image list is decoded from the compressed data.
  • the prediction signal generation step the decoded reference image is decoded.
  • a prediction signal of a target region is generated using a reference image indicated by a number.
  • a new reference image is generated based on an observation matrix. Therefore, it is possible to newly generate a reference image that matches the nature of the dynamic texture that does not exist in the existing reference image, and it is possible to generate a prediction signal closer to the dynamic texture. As a result, it is possible to effectively reduce the data amount of the moving image compressed by suppressing the difference signal to be small. Further, in the above-described moving picture decoding device or the like, a prediction image is generated using a reference image selected from the reference images included in the reference image list, using the reference image list for managing the new reference image and the existing reference image.
  • the insertion position of the new reference image in the reference image list is also obtained by decoding from the compressed data, so that it is possible to suppress the amount of code required for the reference image selection information. It becomes.
  • the entropy decoding unit decodes position information indicating that the new reference image is not included in the reference image list, and the prediction signal generation unit updates the reference image list so as not to include the new reference image.
  • position information indicating that the new reference image is not included in the reference image list is decoded, and in the prediction signal generation step, the reference image list is updated so as not to include the new reference image.
  • the creation of the reference image list and the selection of the reference image can be expanded and the degree of freedom can be increased.
  • the reference image generation means obtains an observation matrix and a state vector based on the reference image, and generates a new reference image based on the observation matrix and the state vector.
  • the compressed data further includes vector compressed data corresponding to the state vector, and the decoding means restores the vector compressed data to generate a decoded state vector when decoding the encoded differential signal into the decoded differential signal, and references It is also preferable that the image generation unit generates a new reference image based on the observation matrix and the decoded state vector. In this way, the state vector is provided from the encoding side, so that the process of generating the state vector can be eliminated, and an efficient decoding process can be realized.
  • the reference image generation means generates a new reference image by obtaining at least one of an observation matrix and a state vector by performing singular value decomposition on a matrix composed of a plurality of existing reference images. .
  • a prediction signal closer to the dynamic texture in the encoding target image can be generated.
  • the present invention it is possible to reduce the data amount of the compressed moving image by generating a prediction signal suitable for the moving image including the dynamic texture.
  • FIG. 11 It is a perspective view of a computer for executing a program stored in a recording medium.
  • FIG. 10 is a flowchart showing the operation of the moving picture encoding device of Fig. 9.
  • FIG. 12 is a flowchart showing the structure of the moving image decoding apparatus concerning 2nd Embodiment of this invention.
  • 12 is a flowchart illustrating an operation of the video decoding device in FIG. 11.
  • 12 is a flowchart illustrating another operation of the video decoding device in FIG. 11.
  • FIG. 11 It is a figure which shows an example of another reference image list. It is a figure which shows an example of another reference image list.
  • FIG. 1 is a block diagram showing a configuration of a moving picture encoding apparatus according to a preferred embodiment of the present invention.
  • the moving picture encoding apparatus 1 shown in FIG. 1 includes an input terminal (input unit) 101, a block division unit 102, a prediction signal generation unit (prediction signal generation unit) 103, a frame memory (storage unit) 104, and a subtraction.
  • the block dividing unit 102 receives a moving image signal composed of images of a plurality of frames from the input terminal 101, and divides the encoding target image, which is the encoding target of the moving image signal, into a plurality of regions. . Specifically, the block division unit 102 divides the image into blocks (regions) each including 16 ⁇ 16 pixels, but may be divided into blocks each including 8 ⁇ 8 pixels or any other size. And may be divided into blocks of shape (eg, non-square).
  • the block division unit 102 transmits a pixel signal (hereinafter referred to as “target pixel signal”) of a region (hereinafter referred to as “target block”) of the pixel signal of the divided block via a line L102. Then, it is output to the subtractor 105 via the line L103 to the prediction signal generation unit 103.
  • the prediction signal generation unit 103 generates a prediction signal composed of 16 ⁇ 16 pixels for predicting the image of the target pixel signal of the target block. That is, the prediction signal generation unit 103 performs conventional MPEG-2, 4, H.264, etc. For example, the amount of motion of the target block is detected based on the reference image stored in the frame memory 104 using the method specified by H.264, and the obtained motion vector (motion amount) and the reference image are used. The prediction signal is calculated. This reference image is a reproduced image that has been restored after being encoded in the past (details will be described later).
  • the prediction signal generation unit 103 detects the amount of motion based on the target pixel signal of the target block input via the line L103 and the reference image referenced from the frame memory 104 via the line L105. A prediction signal is generated, and the prediction signal is sent to the subtracter 105 and the adder 110 via lines L104 and L106.
  • the subtractor 105 subtracts the prediction signal for the target pixel signal sent from the prediction signal generation unit 103 from the target pixel signal sent from the block division unit 102 to generate a difference signal that is the difference between the two signals. To do.
  • the difference signal is output to the conversion unit 106 via the line L107, and is converted into an encoded difference signal by a predetermined encoding method by the conversion unit 106 and the quantization unit 107.
  • the transform unit 106 performs transform cosine transform on the difference signal to generate transform coefficients.
  • the transform coefficient is output to the quantization unit 107 via the line L108, and the quantization unit 107 quantizes the transform coefficient to generate an encoded differential signal, and then the entropy coding unit 111 and the inverse quantization via the line L109. Output to the unit 108.
  • the entropy encoding unit 111 converts the encoded differential signal into a variable length code, and then outputs it to the output terminal 112 via the line L110.
  • the entropy encoding unit 111 may apply arithmetic encoding instead of the variable length code.
  • the motion vector of the target block obtained by the prediction signal generation unit 103 is sent to the entropy encoding unit 111 via the line L111, and the entropy encoding unit 111 converts the motion vector into a variable-length code, and an output terminal To 112.
  • the inverse quantization unit 108 and the inverse transform unit 109 reproduce a decoded differential signal from the encoded differential signal in a decoding scheme corresponding to the encoding scheme by the transform unit 106 and the quantizing unit 107. Specifically, the inverse quantization unit 108 inversely quantizes the quantized transform coefficient to return it to the transform coefficient, and outputs the transform coefficient to the inverse transform unit 109 via the line L112. The inverse transform unit 109 inversely discretes the transform coefficient. The differential signal is restored by cosine transform. Then, the inverse transform unit 109 sends the decoded differential signal to the adder 110 via the line L113.
  • the adder 110 reproduces the target pixel signal of the target block as a reproduction signal by adding the prediction signal input via the line L106 to the decoded differential signal, and stores it in the frame memory 104 via the line L114.
  • the frame memory 104 holds a plurality of target pixel signals (hereinafter referred to as “existing reference images”) that have been processed as target blocks in the past in this way, and a prediction signal of the target block to be processed next. Referenced when generating
  • the reference image generation unit 113 generates a new reference image that is different from the existing reference image already stored in the frame memory 104. That is, the reference image generation unit 113 acquires an existing reference image stored in the frame memory 104 via the line L116.
  • FIG. 2 shows an image of an existing reference image stored in the frame memory 104.
  • FIG. 2A shows an existing reference image in the case where frames are encoded in the order of display of moving image signals.
  • Reproduced images of the frames 201, 202, 203, 204, and 205 are pixels. They are stored as vectors y t , y t + 1 , y t + 2 , y t + 3 , y t + 4 (subscripts indicate time).
  • encoding processing is performed in the order of the frames 201, 202,..., 205, and at the timing when the frame 206 is processed as the target frame, the reproduced images of the frames 201 to 205 are stored in the frame memory 104 in the existing reference image. Is stored as FIG.
  • FIG. 2B shows an existing reference image when bi-directional prediction is performed at the time of motion amount detection.
  • the frame 210 is encoded.
  • the frame memory 104 stores the frame 207. Reproduced images of ⁇ 209, 211, 212 are stored as existing reference images.
  • the reference image generation unit 113 generates a new reference image using a part of the existing reference image stored in the frame memory 104 as described above. For example, the reference image generation unit 113 uses the following equation (1) from the pixel vectors y t , y t + 1 , y t + 2 , y t + 3 , and y t + 4 of the five existing reference images in the frame memory 104, and uses the pixel vector y t , to form a configured matrix Y t t + 4 from y t + 1, y t + 2, y t + 3, y t + 4.
  • the reference image generation unit 113 performs a singular value decomposition process on the matrix Y t t + 4 composed of the existing reference images.
  • QR decomposition as shown in the following formula (2) can be employed.
  • the matrix X t t + 4 in the formula (2) is expressed by the following formula (3); Is a matrix represented by In this way, the reference image generation unit 113 obtains the observation matrix C and the vectors x t , x t + 1 , x t + 2 , x t + 3 , and x t + 4 .
  • the reference image generation unit 113 calculates the following expression (4) from the vectors x t , x t + 1 , x t + 2 , x t + 3 , and x t + 4 ; Is used to obtain the state transition matrix A.
  • the matrices X t + 1 t + 4 and X t t + 3 are given by the following equations (5) and (6), respectively.
  • (•) + indicates a pseudo inverse matrix.
  • the reference image generation unit 113 uses the state transition matrix A obtained in this way, the following equation (7); After obtaining the state vector x t + 5 using As shown in FIG. 4, a new reference image y ′′ t + 5 having the property of dynamic texture is generated based on the state vector x t + 5 and the observation matrix C. This new reference image is generated in the frame memory 104 via the line L115. Stored.
  • the observation matrix C is obtained from the reference images x t , x t + 1 , x t + 2 , x t + 3 , x t + 4 as shown in the equation (1), and the frame memory
  • the new reference image added by the reference image generation unit 113 in the past to 104 is not used.
  • the reliability of the new reference image is high, it may be used to calculate the observation matrix C or the like.
  • a method other than singular value decomposition may be used. Examples include eigenvalue decomposition, LU decomposition, and Cholesky decomposition.
  • the prediction signal generation unit 103 generates a prediction signal for the target pixel signal of the target block of the next frame using at least the new reference image.
  • the prediction signal generation unit 103 may generate a prediction signal using both the existing reference image and the new reference image, or may generate a prediction signal using only the new reference image.
  • the prediction signal generation unit 103 determines a reference block closest to the pixel signal of the target block as a prediction signal for the plurality of reference images.
  • the prediction signal generation unit 103 refers to the identification information attached to the existing reference image or the new reference image.
  • the prediction signal generation unit 103 After the reproduction signal of the frame immediately before the target frame is stored in the frame memory 104, the prediction signal generation unit 103 generates a new reference image from the reference images of the five most recent frames including the reproduction image. This is not a limitation. Further, after obtaining the observation matrix C and the state vector xt + 5 in the prediction signal generation unit 103, the prediction signal of the target pixel signal may be directly generated using them.
  • the target pixel signal of the target block to be encoded is input by the block dividing unit 102 (step S01).
  • the prediction signal generation unit 103 generates a prediction signal for the target pixel signal using the reference image stored in the frame memory 104 (step S02).
  • the subtractor 105 generates a difference signal based on the target pixel signal and the prediction signal (step S03).
  • the difference signal is transformed and quantized by the transform unit 106 and the quantization unit 107, and an encoded difference signal is generated (step S04).
  • the coded differential signal is inversely quantized and inversely transformed by the inverse quantizing unit 108 and inverse transforming unit 109, and is reproduced as a decoded differential signal (step S05). Further, the adder 110 adds the decoded differential signal and the prediction signal to generate a reproduction signal (step S06). This reproduction signal is stored as a reference image in the frame memory 104 (step S07). Such processing for the target block is repeated for all target blocks in the target frame.
  • the reference image generation unit 113 After one frame to be encoded is encoded, the reference image generation unit 113 performs singular value decomposition processing on a part of the existing reference images stored in the frame memory 104, and the observation matrix C and state vector xt + 5 are generated (step S08). Next, a new reference image is generated by the reference image generation unit 113 based on the observation matrix C and the state vector x t + 5 , and is stored in the frame memory 104 as a reference image for encoding the next frame (step S09). Such a new reference image generation process is repeated for all or some of the frames of the moving image. On the other hand, the encoded differential signal of the target frame is included in the compressed data and output via the entropy encoding unit 111 (step S10).
  • FIG. 4 is a block diagram showing the configuration of the video decoding device 40 according to a preferred embodiment of the present invention.
  • the moving picture decoding apparatus 40 shown in the figure includes an input terminal (input unit) 401, a data analysis unit (input unit) 402, an inverse quantization unit (decoding unit) 403, and an inverse conversion unit (decoding unit) 404.
  • each component of the video decoding device 40 will be described.
  • Compressed and encoded data including an encoded differential signal is input from the input terminal 401 to the data analysis unit 402.
  • the data analysis unit 402 analyzes and extracts a motion vector necessary for generating a prediction signal and a quantization parameter for performing inverse quantization in addition to the encoded differential signal from the compressed data. Then, the data analysis unit 402 outputs the extracted encoded difference signal and quantization parameter to the inverse quantization unit 403 via the line L402, and information about the motion vector to the prediction signal generation unit 407 via the line L410. Send it out.
  • This encoded differential signal is decoded by the inverse quantization unit 403 and the inverse transform unit 404 and restored to the differential signal.
  • the inverse quantization unit 403 performs inverse quantization on the encoded differential signal of the target block based on the quantization parameter.
  • the inverse quantization unit 403 outputs the encoded quantized differential signal to the inverse transform unit 404 via the line L403.
  • the inverse transform unit 404 performs inverse discrete cosine transform on the encoded differential signal input from the inverse quantization unit 403 to generate a decoded differential signal.
  • the inverse transform unit 404 outputs the generated decoded differential signal to the adder 405 via the line L404.
  • the prediction signal generation unit 407 generates a prediction signal for the decoded differential signal to be processed based on the motion vector extracted by the data analysis unit 402 and the reference image referenced from the frame memory 406.
  • the generated prediction signal is sent to the adder 405 via the line L407.
  • the adder 405 generates a reproduction signal of the target block by adding the prediction signal to the decoded differential signal restored by the inverse transform unit 404. Further, the adder 405 stores the reproduction signal in the frame memory 406 as a reference image. The reproduction signal is transmitted to an external image display device (not shown) via the output terminal 409.
  • the reference image generation unit 408 performs an observation matrix by singular value decomposition processing based on a part of existing reference images stored in the frame memory 406. C and the state vector xt + 5 are obtained.
  • the observation matrix C is generated using the existing reproduced image stored in the frame memory 406, but the observation matrix C may be generated by combining new reference images generated in the past.
  • the reference image generation unit 408 generates a new reference image y ′′ t + 5 having a dynamic texture property in the same manner as the reference image generation unit 113, and stores it in the frame memory 406 via the line L408b.
  • the prediction signal generation unit 407 generates a prediction signal for the target block of the next frame based on at least the new reference image y ′′ t + 5 .
  • step S21 when compressed data including an encoded differential signal is input to the data analysis unit 402, an encoded differential signal, a motion vector, and a quantization parameter are extracted from the compressed data (step S21).
  • the encoded differential signal is decoded by the inverse quantization unit 403 and the inverse transform unit 404, and a decoded differential signal is generated (step S22).
  • the prediction signal generation unit 407 generates a prediction signal based on the motion vector and the reference image referenced from the frame memory 406 (step S23).
  • the adder 405 adds the decoded differential signal and the prediction signal to generate a reproduction signal (step S24). This reproduction signal is stored in the frame memory 406 as a reference signal (step S25).
  • the reference image generation unit 408 performs singular value decomposition on the reference image stored in the frame memory 406, thereby obtaining the observation matrix C and the state vector xt + 5 (step S26). Then, the reference image generating unit 408, a new reference image y using observation matrix C and the state vector x t + 5 "is t + 5 is generated and stored in the frame memory 406 (step S27). The new reference image y" of t + 5 The generation is used as a reference image for decoding the next frame. The processing so far is repeated for one frame of the encoded differential signal, and then a reproduced image is output from the output terminal 409 (step S28).
  • the observation matrix C and the state vector x t + 5 are obtained using the already generated existing reference images stored in the memory, and new based on them. Since the reference image is generated, and the prediction signal for the target pixel signal is generated using at least the new reference image, a reference image that matches the nature of the dynamic texture that does not exist in the existing reference image can be generated. More specifically, in the present embodiment, using the property that the dynamic texture is represented by an autoregressive moving average model (ARMA), an observation matrix and a state vector used for the model are generated from an existing reference image. ing. Accordingly, it is possible to newly generate a reference image that matches the nature of the dynamic texture that does not exist in the existing reference image.
  • ARMA autoregressive moving average model
  • a prediction signal closer to the dynamic texture in the encoding target image can be generated.
  • the data amount of the moving image compressed by suppressing the difference signal can be effectively reduced.
  • a prediction signal closer to the target pixel signal than before can be determined, and a differential signal Can be further reduced.
  • the moving picture encoding program and moving picture decoding program according to the present invention are provided by being stored in a recording medium.
  • the recording medium include a floppy (registered trademark) disk, a recording medium such as a CD-ROM, a DVD, or a ROM, or a semiconductor memory.
  • FIG. 7 is a diagram showing a hardware configuration of a computer for executing a program recorded on the recording medium
  • FIG. 8 is a perspective view of the computer for executing the program stored in the recording medium.
  • Examples of the computer include a DVD player, a set-top box, a mobile phone, and the like that have a CPU and perform processing and control by software.
  • a computer 30 includes a reading device 12 such as a floppy (registered trademark) disk drive device, a CD-ROM drive device, a DVD drive device, and a working memory (RAM) 14 in which an operating system is resident. , A memory 16 for storing a program stored in the recording medium 10, a display device 18 such as a display, a mouse 20 and a keyboard 22 as input devices, a communication device 24 for transmitting and receiving data and the like, and execution of the program CPU 26 for controlling the above.
  • the computer 30 can access the moving image encoding / decoding program stored in the recording medium 10 from the reading device 12.
  • the moving picture encoding program or moving picture decoding program may be provided via a network as a computer data signal 41 superimposed on a carrier wave.
  • the computer 30 can store the moving image encoding program or the moving image decoding program received by the communication device 24 in the memory 16 and execute the moving image encoding program or the moving image decoding program.
  • the moving image encoding device 1 and the moving image decoding device 40 include both or one of the observation matrix C and the state vector x t + 5 used when generating a new reference image in the compressed data.
  • the transmission apparatus 1 may operate to transmit to the moving picture decoding apparatus 40. In this case, processing for generating an observation matrix or state vector on the decoding side is not necessary, and thus efficient decoding processing is realized.
  • FIG. 6 is a flowchart showing the operation of the video decoding device 40 in this case.
  • the processing (step S31 to step S35) from when the compressed data is input until the reproduced image is stored in the frame memory 406 is the same as the processing from step S21 to step S25 shown in FIG.
  • the state vector included in the compressed data is extracted and variable-length decoded by the data analysis unit 402 to generate a decoded state vector, and at the same time, send it to the reference image generation unit 408 via the line L411.
  • Step S36 it is assumed that the state vector is variable-length encoded.
  • the state vector is decoded by a decoding method corresponding to the encoding method and transmitted to the reference image generation unit 408. It is done.
  • the reference image generation unit 408 refers to the frame memory 406 and obtains the observation matrix C (step S37).
  • the reference image generation unit 408 generates a new reference image using the observation matrix C and the decoded state vector x t + 5 sent from the data analysis unit 402 (step S38). Finally, a reproduced image for one frame is output from the output terminal 409 (step S39).
  • the state vector x t + 5 may be transmitted after being quantized in order to compress the data amount.
  • the state vector x t + 5 may be calculated using equation (7) or may be calculated using equation (8). That is, the frame to be encoded is set to y ′′ t + 5, and by applying the inverse matrix of the observation matrix C to this, the optimal state vector x t + 5 for the target frame y t + 5 can be generated.
  • the prediction signal generation unit 407 may obtain the observation matrix C and the state vector x t + 5 using the existing reference image stored in the frame memory 406, and directly generate the prediction signal based on them. Also in this case, one or both of the observation matrix C and the state vector xt + 5 may be acquired from the encoding side.
  • a signal having a dynamic texture property in a target frame may exist only in some target pixel signals.
  • the generation of the new reference image may be selectively performed only on a part of the region, not the entire frame.
  • a target block having a dynamic texture is specified by a block number or the like in a reproduction signal, and the reference image generation unit 113 is activated (activated) when generating a prediction signal for the target block having the corresponding block number.
  • the video encoding device and video decoding device according to the second embodiment are partially different from the video encoding device and video decoding device according to the first embodiment.
  • different points will be mainly described.
  • FIG. 9 is a block diagram showing a configuration of a moving picture encoding apparatus according to the second embodiment of the present invention.
  • the moving picture encoding apparatus 50 shown in the figure includes an input terminal (input means) 101, a block dividing unit (dividing means) 102, a prediction signal generating unit (predicted signal generating means) 103, and a frame memory (storage means).
  • a subtracter (difference generating unit) 105 a subtracter (difference generating unit) 105, a transforming unit (encoding unit) 106, a quantizing unit (encoding unit) 107, an inverse quantizing unit (decoding unit) 108, and an inverse transforming unit (decoding) Means) 109, an adder (adding means) 110, an entropy encoding unit (entropy encoding unit) 111, an output terminal 112, a reference image generation unit (reference image generation unit) 113, and a position setting unit (position Setting means) 117 and a position selection unit 118.
  • the position setting unit 117 is a part that sets an insertion position of a new reference image in a reference image list that manages a plurality of reference images, and generates position information indicating the set insertion position.
  • This reference image list is a list for managing a plurality of reference images in association with reference image numbers. If the reproduction images (see FIG. 2) of the frames 201 to 205 are used as reference images, for example, the reference image list is shown in FIG. It becomes like Table 901.
  • Such a reference image list is provided in, for example, the prediction signal generation unit 103, and the prediction signal generation unit 103 uses the reference image selected from the reference images included in the reference image list, and uses the target pixel of the target block. Generate a prediction signal for the signal.
  • the reference image used when generating the prediction signal can be identified by the reference image number.
  • the reference image number tends to reduce the amount of code required for encoding as the number value decreases, a reference image number having a smaller value is assigned to a reference image having a high selection frequency. Encoding efficiency is improved.
  • the position setting unit 117 When the position setting unit 117 sets the insertion position of the new reference image in the reference image list, the position setting unit 117 receives the information of the existing reference image from the frame memory 104 via the line L501 and the new reference image from the reference image generation unit 113 via the line L502. Each information is obtained, and the insertion position of the new reference image is set.
  • the method of generating a new reference image by the reference image generation unit 113 is the same as that in the first embodiment, and the description thereof is omitted here.
  • the position setting unit 117 determines the insertion position of the new reference image in the reference image list (for example, the table 901 in FIG. 14).
  • the position setting unit 117 outputs the set or determined position information to the prediction signal generation unit 103 and the entropy encoding unit 111 via the line L503 and the line L504.
  • the prediction signal generation unit 103 updates the reference image list based on the position information. . Specifically, when position information whose insertion position of the new reference image is the reference image number 4 is input to the prediction signal generation unit 103 including the reference image list shown in the table 901 of FIG. The signal generation unit 103 updates the reference image list shown in the table 902 of FIG. With the insertion of a new reference image, from the reference picture list of the updated, the oldest existing reference picture in coding order y t is automatically excluded.
  • Tables 903 to 906 in FIG. 14 are updated reference image lists when position information whose new reference image insertion positions are reference image numbers 3, 2, 1, and 0 is input.
  • a reference image list 911 shown in FIG. 15 is an example of a second reference image list.
  • reference image numbers 0 and 1 that are smaller than the frame to be encoded in display order are assigned to reference image numbers 0 and 1.
  • the table 901 of FIG. 14 may be used as the first reference image list. In this case, as shown in FIGS. (Future) It is necessary to store a total of seven reference images in the frame memory 104. When the number is limited to five, the first five reference frames may be selected as reference images in the encoding order as shown in the reference image list 921 in FIG.
  • the number of reference images is not limited and can be freely set as long as it is one or more.
  • the number of reference images may be determined in advance on the encoding side and the decoding side, or the encoding side determines the number of reference images in frame units or sequence units, encodes them, and sends them to the decoding side. You may do it.
  • the position setting unit 117 sets position information indicating the insertion position of a new reference image for each of two reference image lists (for example, 911 and 921).
  • the position information indicating the insertion position in the two reference image lists is output to the prediction signal generation unit 103 and the entropy encoding unit 111 as described above, and the reference image list is updated and entropy encoded.
  • the position setting unit 117 uses, as reference image list generation information, reference images to be excluded when the reference image list is updated, as well as the position information and the line L503 and the line L504 to the prediction signal generation unit 103 and the entropy encoding unit 111. It may be output and encoded by the entropy encoding unit 111.
  • the prediction signal generation unit 103 updates the reference image list based on the position information and the reference image list generation information. At this time, instead of the new reference image of the encoding target frame, the reference image list generation information may be generated and encoded so that the new reference image of the past frame is included in the reference image list.
  • Both the new reference image of the previous frame and the new reference image of the past frame may be encoded so as to be included in the reference image list.
  • the reference image number in the reference image list can be realized by encoding a combination of a frame number and a reference image type (existing reference image or new reference image). According to this method, it is also possible to construct a reference image list with only new reference images.
  • the position information indicating the insertion position of the new reference image indicates that the new reference image is not included in the reference image list.
  • Information there is a combination of “a flag indicating whether or not a new reference image is included in the reference image list” and “reference image number indicating the insertion position of the new reference image”, and the flag includes the new reference image.
  • the reference image number is not encoded.
  • the other reference image list includes only existing reference images. be able to.
  • the prediction signal generation unit 103 generates a prediction signal of the target block based on the updated reference image list after updating the reference image list. Further, the prediction signal generation unit 103 detects the reference image number and the motion vector used for prediction of the target block, and outputs them to the entropy encoding unit 111 via the line L111. At this time, when the new reference image is used for prediction of the target block, the prediction signal of the target block may be generated as a zero motion vector without outputting the motion vector.
  • the position selection unit 118 is a part used when the insertion position of the new reference image in the reference image list is selected and determined by the rate distortion optimization method.
  • the position selector 118 generates a new reference image by the reference image generation unit 113, and then inputs the input terminal 101, the block division unit 102, the prediction signal generation unit 103, the frame memory 104, the subtractor 105, the conversion unit 106, and the quantization.
  • the inverse quantization unit 108 uses the unit 107, the inverse quantization unit 108, the inverse transform unit 109, the adder 110, the entropy encoding unit 111, and the position setting unit 117, candidates for insertion positions of new reference images (for example, reference image lists 902 to 906)
  • the position setting, encoding, and local decoding processing as described above are performed every time, and the encoded data of each candidate is acquired via the line L110, and the code amount is calculated.
  • the position selection unit 118 obtains the input image of the encoding target frame from the input terminal 101 and the reproduction image of the encoding target frame from the adder 110, and calculates the encoding distortion (mean square error) in each candidate.
  • the position selection unit 118 calculates the sum of the code amount multiplied by the weighting coefficient determined by the quantization accuracy and the encoding distortion for each candidate, and selects the insertion position of the new reference image that minimizes the value.
  • the position selection unit 118 outputs the selected candidate encoded data to the output terminal 112 via the line L505 and controls the frame memory 104 so that only the selected candidate reproduction signal is valid. That is, the position selection unit 118 determines the insertion position of the new reference image.
  • the position setting unit 117 determines the insertion position of the new reference image, such as in the case of determining by the selection rate of the new reference image as described above instead of the rate distortion optimization method, the position selection unit 118 It becomes unnecessary.
  • the processes performed in steps S45 to S50 described later are performed on a plurality of past input images before the target signal of the image to be encoded is input. That is, the following processing is performed on another encoding target signal before the encoding target signal is input.
  • the prediction signal generation unit 103 generates a prediction signal for the target pixel signal using a plurality of reference images stored in the frame memory 104 (similar to step S45 described later).
  • a subtractor 105 generates a difference signal based on the target pixel signal and the prediction signal (similar to step S46 described later).
  • the difference signal is converted into the frequency domain by the conversion unit 106 and the quantization unit 107 and then quantized to generate an encoded difference signal (similar to step S47 described later).
  • the encoded differential signal is inversely quantized and inversely transformed by the inverse quantization unit 108 and the inverse transformation unit 109, and reproduced as a decoded differential signal (similar to step S48 described later).
  • the adder 110 adds the decoded differential signal and the prediction signal to generate a reproduction signal (similar to step S49 described later). Thereafter, this reproduction signal is stored in the frame memory 104 as a reference image (similar to step S50 described later).
  • a target signal of an image to be encoded is input (step S41), and a singular value decomposition process is performed on a part of existing reference images stored in the frame memory 104 by the reference image generation unit 113, An observation matrix C and a state vector xt + 5 are generated. Then, the reference image generating unit 113 generates a new reference image based on the observation matrix C and the state vector xt + 5 , and stores it in the frame memory 104 as a reference image for encoding the next frame (step 43). ). Such a new reference image generation process is repeated for all or some of the frames of the moving image. Note that either one or both of the generated observation matrix C and the state vector xt + 5 may be transmitted to the reception side.
  • step S44 the position setting unit 117 performs a reference image list (for example, table 901 in FIG. 14, table 911 in FIG. 15 and table 921 in FIG. 16) composed of reference images based on existing reproduced images.
  • Position information for setting an insertion position for inserting a new reference image is generated and output to the prediction signal generation unit 103.
  • the reference image list is updated based on the position information, and the updated reference image list (for example, the tables 902 to 906 in FIG. 14 and the tables 911 to 916 in FIG. 15). Tables 921 to 926) in FIG. 16 are obtained.
  • step S45 based on the reference image list updated in step S44, a reference image and a motion vector used for prediction of the target block are detected.
  • a prediction signal having a zero motion vector may be generated without sending a motion vector.
  • step S51 in order to determine a position where a new reference image is inserted in the updated reference image list, the insertion position where the new reference image is inserted is changed in step S44, and the processing from steps S45 to S50 (basic coding) is performed. Step) is repeated.
  • step S52 the code amount and the encoding distortion (input) for each repeated basic encoding step.
  • the mean square error between the image and the reproduced image is calculated, and the sum of the coding amount multiplied by the weighting coefficient determined by the quantization accuracy and the coding distortion is obtained.
  • the setting position of the new reference image that minimizes the value is selected and determined, and the frame memory 104 is configured so that only the result of the selected basic encoding step is valid.
  • step S53 the encoded data including the insertion position of the new reference image selected in step S51 (position information of the new reference image, the reference image number of each target block, the motion vector, and the encoded difference signal are obtained.
  • Output from the output terminal 112.
  • the position information indicating the insertion position of the new reference image is sent in units of frames. May be determined and transmitted.
  • the reference image generation unit 113 generates a new reference image, but the prediction signal generation unit 103 directly generates a prediction signal after obtaining the observation matrix C and the state vector x t + 5. Also good. Further, although the observation matrix C and the state vector x t + 5 are obtained by the singular value decomposition method, other methods may be used. Further, when the updated reference image list does not include a new reference image, the processing in the reference image generation unit 113 may be unnecessary for the frame.
  • the state vector xt + 5 can be encoded and transmitted.
  • the obtained state vector xt + 5 is sent to the entropy encoder 111 via the line L117, entropy-coded, and output to the outside.
  • the predicted signal generation unit 103 obtains the state vector xt + 5 , it is output and transmitted to the outside via the line L111.
  • the state vector x t + 5 may be obtained from equation (7), but may be obtained from equation (8). That is, the state vector x t + 5 optimum for the target frame y “ t + 5 can be generated by setting the frame to be encoded as y“ t + 5 and multiplying it by the inverse matrix of the observation matrix C. In order to reduce the amount of data, the state vector x t + 5 may be quantized and transmitted. In this case, in order to maintain consistency between the transmission side and the reception side, it is necessary to generate a new reference image from the inversely quantized xt + 5 and the observation matrix C.
  • observation matrix C can be sent instead, and both observation matrix C and state vector xt + 5 may be sent.
  • the signal having the property of dynamic texture exists only in a part of the screen. In this case, the above-mentioned new reference image is generated not for the entire frame but for a part of the region. Also good.
  • the information indicating the insertion position of the new reference image is sent in units of frames.
  • the new reference image is inserted in units of large areas obtained by grouping a plurality of blocks (units of divided areas obtained by dividing the screen).
  • Information indicating the position may be sent.
  • the position setting unit 117 and the prediction signal generation unit 103 create an updated reference image list for each large area.
  • the prediction signal generation unit 103 selects a reference image based on the updated reference image list of the large area to which the target block belongs, and sends the reference image number to the entropy encoder 111.
  • the definition of such a large region may be determined in advance on the encoding side and the decoding side (for example, the screen is divided into four to form four large regions), and the configuration of the large region is defined on the encoding side. It may be determined and encoded by the entropy encoder 111. According to this method, it is possible to add a new reference image to the reference image list of the large area including the dynamic texture and to construct the reference image list only with the existing reference image in the large area not including the dynamic texture. It becomes. Further, although the insertion position of the new reference image in the reference image list is encoded, it may be determined from the decoded information. For example, the insertion position of the new reference image in the reference image list may be automatically determined based on the selection rate of the new reference image in the past encoded frame.
  • FIG. 10 is a block diagram illustrating a configuration of a video decoding device according to the second embodiment.
  • the moving picture decoding apparatus 60 shown in the figure includes an input terminal (input unit) 401, an entropy decoding unit (entropy decoding unit) 410, an inverse quantization unit (decoding unit) 403, and an inverse transformation unit (decoding unit) 404.
  • the input terminal 401 receives compressed data including a coded differential signal obtained by predictive coding a moving image.
  • compressed data for example, there is data obtained by processing by the moving picture encoding apparatus 50 of FIG.
  • a motion vector necessary for generating a prediction signal in addition to the encoded differential signal, a motion vector necessary for generating a prediction signal, a reference image number for identifying a reference image, a quantization parameter for performing inverse quantization, Data of the state vector xt + 5 for generating a new reference image, position information indicating the insertion position of the new reference image, and the like are included.
  • the state vector x t + 5 is generated by the video decoding device 60, the state vector x t + 5 may not be included.
  • the entropy decoding unit 410 analyzes the input compressed data, performs entropy decoding, restores the original numerical value and the like, and extracts the above-described encoded differential signal and the like from the compressed data. Then, the entropy decoding unit 410 outputs the extracted encoded difference signal and the quantization parameter to the inverse quantization unit 403 via the line L402, and information on the motion vector via the line L410 407. This encoded differential signal is decoded by the inverse quantization unit 403 and the inverse transform unit 404 and restored to the differential signal. In addition, the entropy decoding unit 410 transmits position information indicating the insertion position of the restored new reference image to the prediction signal generation unit 407 via the line L412.
  • the prediction signal generation unit 407 is a part that generates a prediction signal for the decoded differential signal to be processed.
  • the prediction signal generation unit 407 updates the reference image list in the same manner as the prediction signal generation unit 103 of the video encoding device 50. . If a new reference image is not included, the reference image list is not updated.
  • the compressed data includes reference image list generation information that is information for generating a reference image list
  • the prediction signal generation unit 407 generates a reference image list generated by the entropy decoding unit 410. Information is acquired via line L412 and used to update the reference image list.
  • reference image list generation information includes, for example, information on existing reference images excluded from the reference image list.
  • the reference image list generation information indicates the combination of the frame number and the type of reference image (existing reference image or new reference image) for each reference image number in the reference image list, it is explicitly indicated. It is possible to update the reference image list.
  • the prediction signal generation unit 407 accesses the reference image in the frame memory 406 based on the motion vector and the reference image number, and generates a prediction signal of the target block to be decoded. Note that if a block whose reference image number indicates a new reference image is determined in advance so that motion vector information is not included in the compressed data, a prediction signal of the target block is generated from the new reference image as a zero motion vector. The prediction signal obtained in this way is sent to the adder 405 via the line L407 and added to the decoded differential signal to generate a reproduction signal.
  • the reference image generation unit 408 performs an observation matrix by singular value decomposition processing based on a part of existing reference images stored in the frame memory 406. C and the state vector xt + 5 are obtained. If the state vector x t + 5 is included in the compressed data, the state vector x t + 5 is acquired from the entropy decoding unit 410 via the line L411 and used.
  • State vector x t + 5 included in the compressed data has been entropy-encoded, when it is compressed in a particular coding methods other than the entropy coding, the state vector x t + 5 output from the entropy decoding unit 410 Then, it is decoded by a decoding process corresponding to the specific encoding method, and then sent to the reference image generation unit 408. Further, although the observation matrix C is obtained using the reproduced image, the observation matrix C may be obtained by adding a new reference image generated in the past in addition to the reproduced image.
  • the reference image generation unit 408 generates a new reference image y ′′ t + 5 having a dynamic texture property from the observation matrix C and the state vector x t + 5 based on Expression (8).
  • the new reference image y ′′ t + 5 is stored in the frame memory 406 via the line L408b.
  • the prediction signal generation unit 407 similarly to the prediction signal generation unit 103 of the video encoding device 50, the prediction signal generation unit 407 generates the prediction signal of the target block of the next frame based on at least one of the existing reference image and the new reference image. Generate.
  • the prediction signal generator 407 can be provided with a new reference image generation processing function of the reference image generator 408.
  • the state vector x t + 5 is sent to the prediction signal generator 407 via the line L410, and the generated prediction signal is sent directly to the adder 405.
  • the information indicating the insertion position of the new reference image is received in units of frames.
  • the new reference image in units of large areas (divided areas obtained by dividing the screen) obtained by grouping a plurality of blocks.
  • Information indicating the insertion position may be received.
  • the prediction signal generation unit 407 creates and updates an update reference image list for each large region. Then, the prediction signal generation unit 407 selects a reference image based on the updated reference image list of the large area to which the target block belongs.
  • the large region may be determined in advance on the encoding side and the decoding side (for example, the screen is divided into four to form four large regions), and the configuration of the large region is decoded by the entropy decoding unit 410. Also good.
  • the insertion position of the new reference image in the reference image list may be determined on the decoding side from the decoded information. For example, the insertion position of the new reference image in the reference image list may be automatically determined based on the selection rate of the new reference image in the past decoded frame.
  • steps S65 to S68 which will be described later, are performed before the decoding process of the decoded image is performed, and a plurality of decoded images have already been restored.
  • compressed data including an encoded differential signal is input to the entropy decoding unit 410, an encoded differential signal, a motion vector, a reference image number, and a quantization parameter are extracted from the compressed data.
  • the encoded differential signal is decoded by the inverse quantization unit 403 and the inverse transform unit 404, and a decoded differential signal is generated (step S65 described later).
  • the motion vector and the reference image number necessary for generating the prediction signal of the target block to be decoded are decoded, and a prediction signal is generated based on the reference image stored in the frame memory (step S66 described later).
  • the adder 405 adds the decoded differential signal and the prediction signal to generate a reproduction signal (step S67 described later). This reproduction signal is stored in the frame memory 406 as a reference signal (step S68 described later).
  • step S61 compressed data including an encoded differential signal to be decoded is input (step S61).
  • step S62 the singular value decomposition is performed on the reference image (reproduced image) stored in the frame memory 406 to generate an observation matrix C and a state vector xt + 5 .
  • the above-described equations (1) to (8) are used to generate a new reference image based on the observation matrix C and the state vector xt + 5 .
  • the generated new reference image is stored in the frame memory 406 (step S63).
  • step S64 the position information indicating the position at which the new reference image is inserted is compressed data in the reference image list (see, for example, table 901 in FIG. 14) composed of the reference images based on the existing reproduced images. And the reference image list is updated to obtain the updated reference image list (see, for example, Tables 902 to 906 in FIG. 14). Then, it progresses to step S65 and decodes an encoding difference signal and produces
  • Step S67 and S68 are performed, and Steps S65 to S68 are repeated a predetermined number of times (or until all the compressed data is input and the restoration process is performed), and then the reproduced image is output to the output terminal 409 (Step S69).
  • steps S71 and S74 to S80 are the same as steps S61 and S63 to S69 of FIG.
  • step S72 the state vector xt + 5 is extracted and decoded from the compressed data to generate a decoded state vector.
  • step S73 singular value processing is performed on the reference image (reproduced image) stored in the frame memory 406 to generate an observation matrix C. Thereafter, similarly to step S63 of FIG. 12, a new reference image is generated based on the observation matrix C and the decoded state vector obtained in step S72 (step S74). The new reference image generated in this way is stored in the frame memory 406 as a reference image for decoding the next frame.
  • the observation matrix C used for the model is already generated using the property that the dynamic texture can be expressed by the autoregressive moving average model (ARMA). And a new reference image is generated based on the observation matrix C. For this reason, a reference image suitable for the property of the dynamic texture that does not exist in the existing reference image can be newly generated, and a prediction signal closer to the dynamic texture in the encoding target image can be generated. As a result, it is possible to effectively reduce the data amount of the moving image compressed by suppressing the difference signal to be small. That is, the dynamic texture can be efficiently encoded.
  • a reference image list for managing the new reference image or the existing reference image is used, and a prediction signal is generated using a reference image selected from the reference images included in the reference image list. Is generated. For this reason, it is possible to generate a prediction signal that is closer to the dynamic texture in the encoding target image, and to reduce the difference signal further or to visually resemble the target signal without encoding the difference signal. And can be played back.
  • the position of the new reference image in the reference image list is also encoded, so that it is possible to reduce the amount of code required for the reference image selection information.
  • moving image encoding program and the moving image decoding program that cause the computer to operate as the above-described moving image encoding device 50 and moving image decoding device 60 are the same as those in the first embodiment, and a description thereof will be omitted.
  • the present invention uses a moving image encoding device, a moving image decoding device, a moving image encoding method, a moving image decoding method, a moving image encoding program, and a moving image decoding program, and includes a dynamic texture
  • a prediction signal suitable for the above it is possible to reduce the data amount of the compressed moving image.
  • position setting unit position setting Means
  • 118 ... position selection unit 401 ... input terminal (input means), 402 ... data analysis unit (input means), 403 ... inverse quantization unit (decoding means), 404 ... inverse transformation unit (decoding means), 405 ... Adder (addition Stage), 406 ... frame memory (storing means), 407 ... prediction signal generator (prediction signal generating means), 408 ... reference image generating unit (reference image generation means) 410 ... entropy decoder (entropy decoding means).

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Processing Or Creating Images (AREA)

Abstract

 動的テクスチャが含まれる動画像に対して適した予測信号を生成することにより、圧縮された動画像のデータ量を低減することを目的とする。  この動画像符号化装置1は、対象画素信号を入力するブロック分割部102と、予測信号を生成する予測信号生成部103、差分信号を生成する減算器105と、符号化差分信号を生成する変換部106及び量子化部107と、復号差分信号を生成する逆量子化部108及び逆変換部109と、再生信号を生成する加算器110と、再生信号を参照画像として格納するフレームメモリ104と、既存参照画像を用いて観測行列Cを求め、観測行列C及び状態ベクトルxt+5に基づいて新規参照画像y”t+5を生成してフレームメモリ104に格納する参照画像生成部113とを備え、予測信号生成部103は新規参照画像y”t+5を少なくとも用いて予測信号を生成する。

Description

動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム
 本発明は、動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラムに関し、特に予測符号化及び予測復号における予測信号の生成に関するものである。
 動画像データの伝送や蓄積を効率よく行うために、圧縮符号化技術が用いられる。例えば、動画像を対象とした技術としては、MPEG1、2、4やH.261~H.264の方式が広く用いられている。このような動画像の符号化技術においては、時間軸上で隣接する隣接画像を用いて符号化の対象となる対象画像の予測信号を生成して対象画像と予測信号との差分を符号化することにより、データ量の削減を実現する。この手法をフレーム間符号化という。
 例えば、H.264で規定された符号化方式では、1フレームの画像を16x16画素からなるブロックの領域に分割し、画像をこのブロック単位で符号化処理を行う。フレーム間符号化方式では、符号化対象となる画像の対象ブロックに対し、符号化済で復元された他のフレームを参照して動き補償予測を行うことによって予測信号を生成する。次に、この対象ブロックと該予測信号との差分値を求めて、離散コサイン変換と量子化処理を行ない、符号化データを生成する。
 その他、予測信号に含まれる量子化雑音などを低減したり、新たに現れる画像信号を予測したりするために双方向予測の方式が用いられている。双方向予測では、対象ブロックについて2つの動き量を持たせ、第1動き量によって対象ブロックより時間的に前にある第1参照画像から第1予測信号を求め、第2動き量によって対象ブロックより時間的に後にある第2参照画像から第2予測信号を求め、第1と第2の予測信号を平均化することにより予測信号を生成する。また、時間的に前にある2つの参照画像から夫々第1と第2の予測信号を求めた上でそれらの平均によって予測信号を生成することもある。フレーム間符号化の詳細については、例えば特許文献1や非特許文献1に記載されている。
米国特許公報第6259739号
Iain E. G. Richardson, "H.264 andMPEG-4 Video Compression", JohnWiley & Sons, 2003, pp.170-176, 207-212.
 しかし、上述した予測信号生成方法には、次のような課題がある。すなわち、動画像を構成する画像においては、時間と共に画像を構成するテクスチャ(絵柄)が変化するものが含まれる場合がある。このようなテクスチャ信号では、画素ごとに細かい動きを示し、フレームとフレームの間にある同位置の画素は時間と共に変化する。例として、海の波、煙や、そよ風にあたる花壇などがある。このようなテクスチャを「動的テクスチャ」と呼ぶ。なお、上述した従来の技術では符号化の対象となる対象ブロックは、その前後にあるフレームの画素とほとんど変わらないことを前提としている。そのため、動き補償した予測信号が対象信号に類似するといった前提が成立すれば、差分信号を低く抑えることができる。すなわち、フレーム間の信号の相関が高い性質を利用したデータの圧縮を実現する。
 しかしながら、対象ブロックの信号に動的テクスチャが含まれる場合、前後のフレームから予測しても画素の値が時間と共に変わり対象ブロックの画素が予測信号の同じ位置にある画素に類似しないため、差分信号が大きくなる。その結果、圧縮データ量が大きくなる場合がある。具体的には、動的テクスチャが含まれる動画像のフレーム間の相関が低く、従来の技術では高い圧縮率を実現することが難しくなる。特に、低いビットレートで符号化する場合では、データ量の大きな差分信号の伝送が難しいため、再生画像中にあるテクスチャ信号がほとんど失われてしまう課題がある。
 そこで、本発明は、かかる課題に鑑みて為されたものであり、動的テクスチャが含まれる動画像に対して適した予測信号を生成することにより、圧縮された動画像のデータ量を低減することのできる動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラムを提供することを目的とする。
 上記課題を解決するため、本発明の動画像符号化装置は、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段と、対象信号に対する予測信号を生成する予測信号生成手段と、対象信号と予測信号との差分である差分信号を生成する差分生成手段と、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段と、符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に予測信号を加算して再生信号を生成する加算手段と、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段と、を備え、予測信号生成手段は、新規参照画像を少なくとも用いて予測信号を生成する、ことを特徴とする。
 或いは、本発明の動画像符号化方法は、入力手段が、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力ステップと、予測信号生成手段が、対象信号に対する予測信号を生成する予測信号生成ステップと、差分生成手段が、対象信号と予測信号との差分である差分信号を生成する差分生成ステップと、符号化手段が、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化ステップと、復号手段が、符号化差分信号を復号して復号差分信号を生成する復号ステップと、加算手段が、復号差分信号に予測信号を加算して再生信号を生成する加算ステップと、格納手段が、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、参照画像生成手段が、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成ステップと、を備え、予測信号生成ステップでは、新規参照画像を少なくとも用いて予測信号を生成する、ことを特徴とする。
 或いは、本発明の動画像符号化プログラムは、コンピュータを、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段、対象信号に対する予測信号を生成する予測信号生成手段、対象信号と予測信号との差分である差分信号を生成する差分生成手段、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段、符号化差分信号を復号して復号差分信号を生成する復号手段、復号差分信号に予測信号を加算して再生信号を生成する加算手段、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段、及び格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段として動作させ、予測信号生成手段は、新規参照画像を少なくとも用いて予測信号を生成する、ことを特徴とする。
 このような動画像符号化装置、動画像符号化方法、及び動画像符号化プログラムによれば、動画像のうちの一部の画像である符号化対象画像の対象信号が入力され、その信号と予測信号との差分信号が符号化されるとともに、符号化差分信号が復号されて予測信号が加算されることにより再生信号が生成されて、その再生信号が予測信号生成用の参照画像として格納される。その際、既生成の既存参照画像を用いて観測行列が求められ、その観測行列を元に新規参照画像が生成され、新規参照画像を少なくとも用いて予測信号が生成されるので、既存参照画像に無い動的テクスチャの性質に合った参照画像を新たに生成することができる。これにより、符号化対象画像にある動的テクスチャにより近い予測信号を生成することができる結果、差分信号が小さく抑えられて圧縮された動画像のデータ量を効果的に低減することができる。
 参照画像生成手段は、既存参照画像に基づいて観測行列及び状態ベクトルを求め、観測行列及び状態ベクトルに基づいて新規参照画像を生成する、ことが好ましい。かかる参照画像生成手段を備えれば、符号化対象画像にある動的テクスチャにより一層近い予測信号を生成することができる。
 また、符号化手段は、状態ベクトルを更に符号化する、ことも好ましい。この場合、状態ベクトルを復号側に提供することにより復号側で状態ベクトルを生成する処理が不要になるので、効率的な復号処理が実現される。
 またさらに、参照画像生成手段は、複数の既存参照画像から構成される行列を対象に特異値分解を実行することにより観測行列を求める、ことも好ましい。かかる構成を採れば、符号化対象画像にある動的テクスチャにより一層近い予測信号を生成することができる。
 本発明の動画像復号装置は、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に対する予測信号を生成する予測信号生成手段と、復号差分信号に予測信号を加算して再生信号を生成する加算手段と、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段と、を備え、予測信号生成手段は、新規参照画像を少なくとも用いて予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号装置は、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に対する予測信号を生成する予測信号生成手段と、復号差分信号に予測信号を加算して再生信号を生成する加算手段と、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、を備え、予測信号生成手段は、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列及び状態ベクトルの少なくとも一方を求め、観測行列又は状態ベクトルに基づいて予測信号を生成する、ことを特徴とする。
 或いは、本発明の動画像復号方法は、入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、復号手段が、符号化差分信号を復号して復号差分信号を生成する復号ステップと、予測信号生成手段が、復号差分信号に対する予測信号を生成する予測信号生成ステップと、加算手段が、復号差分信号に予測信号を加算して再生信号を生成する加算ステップと、格納手段が、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、参照画像生成手段が、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成ステップと、を備え、予測信号生成ステップでは、新規参照画像を少なくとも用いて予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号方法は、入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、復号手段が、符号化差分信号を復号して復号差分信号を生成する復号ステップと、予測信号生成手段が、復号差分信号に対する予測信号を生成する予測信号生成ステップと、加算手段が、復号差分信号に予測信号を加算して再生信号を生成する加算ステップと、格納手段が、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、を備え、予測信号生成ステップでは、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列及び状態ベクトルの少なくとも一方を求め、観測行列又は状態ベクトルに基づいて予測信号を生成する、ことを特徴とする。
 或いは、本発明の動画像復号プログラムは、コンピュータを、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段、符号化差分信号を復号して復号差分信号を生成する復号手段、復号差分信号に対する予測信号を生成する予測信号生成手段、復号差分信号に予測信号を加算して再生信号を生成する加算手段、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段、及び格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段として動作させ、予測信号生成手段は、新規参照画像を少なくとも用いて予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号プログラムは、コンピュータを、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段、符号化差分信号を復号して復号差分信号を生成する復号手段、復号差分信号に対する予測信号を生成する予測信号生成手段、復号差分信号に予測信号を加算して再生信号を生成する加算手段、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段として動作させ、予測信号生成手段は、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列及び状態ベクトルの少なくとも一方を求め、観測行列又は状態ベクトルに基づいて予測信号を生成する、ことを特徴とする。
 このような動画像復号装置、動画像復号方法、及び動画像復号プログラムによれば、符号化差分信号を含む圧縮データが入力され、その符号化差分信号が復号されて、復号差分信号に予測信号が加算されることにより再生信号が生成されて、その再生信号が予測信号生成用の参照画像として格納される。その際、既生成の既存参照画像を用いて観測行列又は状態ベクトルが求められ、その観測行列又は状態ベクトルを元に予測信号が生成されるので、既存参照画像のみを用いて予測信号を生成するのに比べて、動的テクスチャの性質により適した予測信号を生成することができる。これにより、差分信号が小さく抑えられて圧縮データのデータ量を効果的に低減することができる。
 参照画像生成手段は、既存参照画像に基づいて観測行列及び状態ベクトルを求め、観測行列及び状態ベクトルに基づいて新規参照画像を生成する、ことが好ましい。かかる参照画像生成手段を備えれば、符号化対象画像にある動的テクスチャにより一層近い予測信号を生成することができる。
 また、圧縮データには状態ベクトルに対応するベクトル圧縮データをさらに含み、復号手段は、ベクトル圧縮データを復元して復号状態ベクトルを生成し、参照画像生成手段は、観測行列及び復号状態ベクトルに基づいて新規参照画像を生成する、ことも好ましい。こうすれば、状態ベクトルが符号化側から提供することにより状態ベクトルを生成する処理が不要になるので、効率的な復号処理が実現される。
 さらに、参照画像生成手段は、複数の既存参照画像から構成される行列を対象に特異値分解を実行することにより観測行列を求める、ことも好ましい。この場合、符号化対象画像にある動的テクスチャにより一層近い予測信号を生成することができる。
 上記課題を解決するため、本発明の動画像符号化装置は、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段と、符号化対象画像を複数の領域に分割する分割手段と、複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成手段と、対象領域の対象信号と予測信号との差分である差分信号を生成する差分生成手段と、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段と、符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算手段と、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段と、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を設定する位置設定手段と、少なくとも符号化差分信号及び新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化手段と、を備え、予測信号生成手段は、新規参照画像の挿入位置を示す位置情報に基づいて参照画像リストを更新し、予測信号生成手段は、参照画像リストに含まれる参照画像から選択される参照画像を用いて対象領域の予測信号を生成し、エントロピー符号化手段は、対象領域の予測信号の生成に用いた参照画像を示す参照画像番号を符号化する、ことを特徴とする。
 また、本発明の動画像符号化装置は、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段と、符号化対象画像を複数の領域に分割する分割手段と、複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成手段と、対象領域の対象信号と予測信号との差分である差分信号を生成する差分生成手段と、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段と、符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算手段と、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段と、少なくとも二つ以上の対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を設定する位置設定手段と、少なくとも符号化差分信号及び大領域についての新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化手段と、を備え、予測信号生成手段は、新規参照画像の挿入位置を示す位置情報に基づいて大領域についての参照画像リストを更新し、予測信号生成手段は、対象領域が属する大領域についての参照画像リストに含まれる参照画像から選択される参照画像を用いて対象領域の予測信号を生成し、エントロピー符号化手段は、対象領域の予測信号の生成に用いた参照画像を示す参照画像番号を符号化する、ことを特徴とする。
 或いは、本発明の動画像符号化方法は、入力手段が、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力ステップと、分割手段が、符号化対象画像を複数の領域に分割する分割ステップと、予測信号生成手段が、複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成ステップと、差分生成手段が、対象領域の対象信号と予測信号との差分である差分信号を生成する差分生成ステップと、符号化手段が、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化ステップと、復号手段が、符号化差分信号を復号して復号差分信号を生成する復号ステップと、加算手段が、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算ステップと、格納手段が、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、参照画像生成手段が、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成ステップと、位置設定手段が、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を設定する位置設定ステップと、エントロピー符号化手段が、少なくとも符号化差分信号及び新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化ステップと、を備え、予測信号生成ステップでは、新規参照画像の挿入位置を示す位置情報に基づいて参照画像リストを更新し、予測信号生成ステップでは、参照画像リストに含まれる参照画像から選択される参照画像を用いて対象領域の予測信号を生成し、エントロピー符号化ステップでは、対象領域の予測信号の生成に用いた参照画像を示す参照画像番号を符号化する、ことを特徴とする。
 また、本発明の動画像符号化方法は、入力手段が、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力ステップと、分割手段が、符号化対象画像を複数の領域に分割する分割ステップと、予測信号生成手段が、複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成ステップと、差分生成手段が、対象領域の対象信号と予測信号との差分である差分信号を生成する差分生成ステップと、符号化手段が、差分信号を所定の方法で符号化して符号化差分信号を生成する符号化ステップと、復号手段が、符号化差分信号を復号して復号差分信号を生成する復号ステップと、加算手段が、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算ステップと、格納手段が、再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、参照画像生成手段が、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成ステップと、位置設置手段が、少なくとも二つ以上の対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を設定する位置設定ステップと、エントロピー符号化手段が、少なくとも符号化差分信号及び大領域についての新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化ステップと、を備え、予測信号生成ステップでは、新規参照画像の挿入位置を示す位置情報に基づいて大領域についての参照画像リストを更新し、予測信号生成ステップでは、対象領域が属する大領域についての参照画像リストに含まれる参照画像から選択される参照画像を用いて対象領域の予測信号を生成し、エントロピー符号化ステップでは、対象領域の予測信号の生成に用いた参照画像を示す参照画像番号を符号化する、ことを特徴とする。
 このような動画像符号化装置、動画像符号化方法、及び当該動画像符号化装置に係る処理をコンピュータに実行させるための動画像符号化プログラムによれば、観測行列を元に新規参照画像を生成しているため、既存参照画像にない動的テクスチャの性質に合った参照画像を新たに生成でき、符号化対象画像にある動的テクスチャに、より近い予測信号を生成できる。その結果、差分信号が小さく抑えられて圧縮された動画像のデータ量を効果的に低減することができる。つまり、動的テクスチャを効率よく符号化することができる。また、上述した動画像符号化装置等では、この新規参照画像や既存参照画像を管理する参照画像リストを用い、この参照画像リストに含まれる参照画像から選択される参照画像を用いて予測信号を生成している。このため、符号化対象画像にある動的テクスチャにより一層近い予測信号を生成でき、差分信号を更に小さく抑えたり、差分信号を符号化しなくても視覚的に対象信号に似ている信号を再生したりするこが可能となる。さらに、上述した動画像符号化装置等では、参照画像リストにおける新規参照画像の挿入位置も符号化しているため、参照画像の選択情報に要する符号量を抑えることが可能となる。
 位置設定手段は、参照画像リストに新規参照画像が含まれない場合には、新規参照画像が参照画像リストに含まれないことを示す位置情報を生成し、エントロピー符号化手段は、新規参照画像が参照画像リストに含まれないことを示す位置情報をエントロピー符号化し、予測信号生成手段は、新規参照画像を含まないように参照画像リストを更新する、ことが好ましい。また、新規参照画像の位置設定ステップでは、参照画像リストに新規参照画像が含まれない場合には、新規参照画像が参照画像リストに含まれないことを示す位置情報を生成し、エントロピー符号化ステップでは、新規参照画像が参照画像リストに含まれないことを示す位置情報をエントロピー符号化し、予測信号生成ステップでは、新規参照画像を含まないように参照画像リストを更新する、ことが好ましい。かかる位置設定手段や位置設定ステップを備えれば、参照画像リストの作成や参照画像の選択が広がり自由度を高めることができる。
 また、参照画像生成手段は、既存参照画像に基づいて観測行列及び状態ベクトルを求め、観測行列及び状態ベクトルに基づいて新規参照画像を生成する、ことが好ましい。かかる参照画像生成手段を備えれば、符号化対象画像にある動的テクスチャに、より一層近い予測信号を生成することができる。
 また、エントロピー符号化手段は、状態ベクトルを更にエントロピー符号化する、ことも好ましい。この場合、状態ベクトルを復号側に提供することにより、復号側で状態ベクトルを生成する処理が不要となるので、効率的な復号処理が実現される。
 また、参照画像生成手段は、複数の既存参照画像から構成される行列を対象に特異値分解を実行することにより観測行列及び状態ベクトルの少なくとも一方を求めて新規参照画像を生成する、ことも好ましい。かかる構成を採れば、符号化対象画像にある動的テクスチャにより一層近い予測信号を生成することができる。
 本発明の動画像復号装置は、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、圧縮データから少なくとも復号対象となる対象領域の符号化差分信号を復元するエントロピー復号手段と、対象領域の符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に対する対象領域の予測信号を生成する予測信号生成手段と、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算手段と、対象領域の再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段と、を備え、エントロピー復号手段は、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を示す位置情報を圧縮データから復号し、予測信号生成手段は、新規参照画像の挿入位置を示す位置情報に基づいて参照画像リストを更新し、エントロピー復号手段は、更新した参照画像リストに基づいて対象領域の予測信号を生成する際に用いる参照画像を示す参照画像番号を圧縮データから復号し、予測信号生成手段は、復号した参照画像番号で示される参照画像を用いて対象領域の予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号装置は、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、圧縮データから少なくとも復号対象となる対象領域の符号化差分信号を復元するエントロピー復号手段と、対象領域の符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に対する対象領域の予測信号を生成する予測信号生成手段と、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算手段と、対象領域の再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成手段と、を備え、エントロピー復号手段は、少なくとも二つ以上の対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を示す位置情報を圧縮データから復号し、予測信号生成手段は、新規参照画像の挿入位置を示す位置情報に基づいて大領域についての参照画像リストを更新し、エントロピー復号手段は、更新した参照画像リストに基づいて対象領域の予測信号を生成する際に用いる参照画像を示す参照画像番号を圧縮データから復号し、予測信号生成手段は、復号した参照画像番号で示される参照画像を用いて対象領域の予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号装置は、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、圧縮データから少なくとも復号対象となる対象領域の符号化差分信号を復元するエントロピー復号手段と、対象領域の符号化差分信号を復号して復号差分信号を生成する復号手段と、復号差分信号に対する対象領域の予測信号を生成する予測信号生成手段と、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算手段と、対象領域の再生信号を、予測信号が生成される際に参照される参照画像として格納する格納手段と、を備え、エントロピー復号手段は、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を示す位置情報を圧縮データから復号し、予測信号生成手段は、新規参照画像の挿入位置を示す位置情報に基づいて参照画像リストを更新すると共に、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納し、エントロピー復号手段は、更新した参照画像リストに基づいて対象領域の予測信号を生成する際に用いる参照画像を示す参照画像番号を圧縮データから復号し、予測信号生成手段は、復号した参照画像番号で示される参照画像を用いて対象領域の予測信号を生成する、ことを特徴とする。
 本発明の動画像復号方法は、入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、エントロピー復号手段が、圧縮データから少なくとも復号対象となる対象領域の符号化差分信号を復元するエントロピー復号ステップと、復号手段が、対象領域の符号化差分信号を復号して復号差分信号を生成する復号ステップと、予測信号生成手段が、復号差分信号に対する対象領域の予測信号を生成する予測信号生成ステップと、加算手段が、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算ステップと、格納手段が、対象領域の再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、参照画像生成手段が、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納する参照画像生成ステップと、を備え、エントロピー復号ステップでは、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を示す位置情報を圧縮データから復号し、予測信号生成ステップでは、新規参照画像の挿入位置を示す位置情報に基づいて参照画像リストを更新し、エントロピー復号ステップでは、更新した参照画像リストに基づいて対象領域の予測信号を生成する際に用いる参照画像を示す参照画像番号を圧縮データから復号し、予測信号生成ステップでは、復号した参照画像番号で示される参照画像を用いて対象領域の予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号方法は、入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、エントロピー復号手段が、圧縮データから少なくとも復号対象となる対象領域の符号化差分信号を復元するエントロピー復号ステップと、復号手段が、対象領域の符号化差分信号を復号して復号差分信号を生成する復号ステップと、予測信号生成手段が、復号差分信号に対する対象領域の予測信号を生成する予測信号生成ステップと、加算手段が、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算ステップと、格納手段が、対象領域の再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、参照画像生成手段が、格納ステップに格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納ステップに格納する参照画像生成ステップと、を備え、エントロピー復号ステップでは、少なくとも二つ以上の対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を示す位置情報を圧縮データから復号し、予測信号生成ステップでは、新規参照画像の挿入位置を示す位置情報に基づいて大領域についての参照画像リストを更新し、エントロピー復号ステップでは、更新した参照画像リストに基づいて対象領域の予測信号を生成する際に用いる参照画像を示す参照画像番号を圧縮データから復号し、予測信号生成ステップでは、復号した参照画像番号で示される参照画像を用いて対象領域の予測信号を生成する、ことを特徴とする。
 また、本発明の動画像復号方法は、入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、エントロピー復号手段が、圧縮データから少なくとも復号対象となる対象領域の符号化差分信号を復元するエントロピー復号ステップと、復号手段が、対象領域の符号化差分信号を復号して復号差分信号を生成する復号ステップと、予測信号生成手段が、復号差分信号に対する対象領域の予測信号を生成する予測信号生成ステップと、加算手段が、復号差分信号に予測信号を加算して対象領域の再生信号を生成する加算ステップと、格納手段が、対象領域の再生信号を、予測信号が生成される際に参照される参照画像として格納する格納ステップと、を備え、エントロピー復号ステップでは、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を示す位置情報を圧縮データから復号し、予測信号生成ステップでは、新規参照画像の挿入位置を示す位置情報に基づいて参照画像リストを更新すると共に、格納手段に格納された既生成の参照画像である既存参照画像を用いて観測行列を求め、観測行列に基づいて新たな参照画像である新規参照画像を生成して格納手段に格納し、エントロピー復号ステップでは、更新した参照画像リストに基づいて対象領域の予測信号を生成する際に用いる参照画像を示す参照画像番号を圧縮データから復号し、予測信号生成ステップでは、復号した参照画像番号で示される参照画像を用いて対象領域の予測信号を生成する、ことを特徴とする。
 このような動画像復号装置、動画像復号方法、及び当該動画像復号装置に係る処理をコンピュータに実行させるための動画像復号プログラムによれば、観測行列を元に新規参照画像を生成しているため、既存参照画像にない動的テクスチャの性質に合った参照画像を新たに生成でき、動的テクスチャにより近い予測信号を生成できる。その結果、差分信号が小さく抑えられて圧縮された動画像のデータ量を効果的に低減することができる。また、上述した動画像復号装置等では、この新規参照画像や既存参照画像を管理する参照画像リストを用い、この参照画像リストに含まれる参照画像から選択される参照画像を用いて予測信号を生成している。このため、動的テクスチャに、より一層近い予測信号を生成でき、差分信号を更に小さく抑えたりできる。さらに、上述した動画像復号装置等では、参照画像リストにおける新規参照画像の挿入位置も圧縮データから復号して取得するようにしているため、参照画像の選択情報に要する符号量を抑えることが可能となる。
 エントロピー復号手段は、新規参照画像が参照画像リストに含まれないことを示す位置情報を復号し、予測信号生成手段は、新規参照画像を含まないように参照画像リストを更新する、ことが好ましい。また、エントロピー復号ステップでは、新規参照画像が参照画像リストに含まれないことを示す位置情報を復号し、予測信号生成ステップでは、新規参照画像を含まないように参照画像リストを更新する、ことが好ましい。かかるエントロピー復号手段やエントロピー復号ステップを備えれば、参照画像リストの作成や参照画像の選択が広がり自由度を高めることができる。
 また、参照画像生成手段は、参照画像に基づいて観測行列及び状態ベクトルを求め、観測行列及び状態ベクトルに基づいて新規参照画像を生成する、ことが好ましい。かかる参照画像生成手段を備えれば、符号化対象画像にある動的テクスチャに、より一層近い予測信号を生成することができる。
 また、圧縮データには状態ベクトルに対応するベクトル圧縮データをさらに含み、復号手段は、符号化差分信号を復号差分信号に復号する際、ベクトル圧縮データを復元して復号状態ベクトルを生成し、参照画像生成手段は、観測行列及び復号状態ベクトルに基づいて新規参照画像を生成する、ことも好ましい。こうすれば、状態ベクトルが符号化側から提供されることにより、状態ベクトルを生成する処理を不要とすることができ、効率的な復号処理を実現できる。
 また、参照画像生成手段は、複数の既存参照画像から構成される行列を対象に特異値分解を実行することにより観測行列及び状態ベクトルの少なくとも一方を求めて新規参照画像を生成する、ことも好ましい。この場合、符号化対象画像にある動的テクスチャに、より一層近い予測信号を生成することができる。
 本発明によれば、動的テクスチャが含まれる動画像に対して適した予測信号を生成することにより、圧縮された動画像のデータ量を低減することができる。
本発明の第1実施形態にかかる動画像符号化装置の構成を示すブロック図である。 図1のフレームメモリに格納されている既存参照画像のイメージを示す図である。 図1の動画像符号化装置の動作を示すフローチャートである。 本発明の第1実施形態にかかる動画像復号装置の構成を示すブロック図である。 図4の動画像復号装置の動作を示すフローチャートである。 本発明の変形例である動画像復号装置の動作を示すフローチャートである。 記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図である。 記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。 本発明の第2実施形態にかかる動画像符号化装置の構成を示すブロック図である。 図9の動画像符号化装置の動作を示すフローチャートである。 本発明の第2実施形態にかかる動画像復号装置の構成を示すブロック図である。 図11の動画像復号装置の動作を示すフローチャートである。 図11の動画像復号装置の別の動作を示すフローチャートである。 参照画像リストの一例を示す図である。 別の参照画像リストの一例を示す図である。 別の参照画像リストの一例を示す図である。
 以下、図面を参照しつつ本発明に係る動画像符号化装置及び動画像復号装置の好適な実施形態について詳細に説明する。なお、説明において、同一要素又は同一機能を有する要素には、同一符号を用いることとし、重複する説明は省略する。
[第1実施形態]
 (動画像符号化装置)
 図1は、本発明の好適な一実施形態にかかる動画像符号化装置の構成を示すブロック図である。同図に示す動画像符号化装置1は、入力端子(入力手段)101と、ブロック分割部102と、予測信号生成部(予測信号生成手段)103と、フレームメモリ(格納手段)104と、減算器(差分生成手段)105と、変換部(符号化手段)106と、量子化部(符号化手段)107と、逆量子化部(復号手段)108と、逆変換部(復号手段)109と、加算器(加算手段)110と、エントロピー符号化部111と、出力端子112と、参照画像生成部(参照画像生成手段)113とを備えて構成されている。以下、動画像符号化装置1の各構成要素について説明する。
 ブロック分割部102は、入力端子101から複数フレーム分の画像から構成される動画像信号が入力され、その動画像信号のうちの符号化の対象である符号化対象画像を複数の領域に分割する。具体的には、ブロック分割部102は、画像を16×16画素からなるブロック(領域)に分割するが、8×8画素からなるブロックに分割してもよいし、それ以外の任意の大きさ及び形状(例えば非正方形)のブロックに分割してもよい。ブロック分割部102は、分割したブロックの画素信号のうち符号化処理の対象となる領域(以下、「対象ブロック」という)の画素信号(以下、「対象画素信号」という)を、ラインL102を経由して減算器105に、ラインL103を経由して予測信号生成部103に出力する。
 予測信号生成部103は、対象ブロックの対象画素信号に対して、その画像を予測する16×16画素からなる予測信号を生成する。すなわち、予測信号生成部103は、従来のMPEG-2,4、H.264等によって規定された方法を用いて、例えば、フレームメモリ104に格納された参照画像をもとに対象ブロックの動き量を検出し、得られた動きベクトル(動き量)及び参照画像をもとに予測信号を算出する。この参照画像は、過去に符号化された後に復元された再生画像である(詳細は、後述する。)。ここでは、予測信号生成部103は、ラインL103経由で入力された対象ブロックの対象画素信号、及びラインL105経由でフレームメモリ104から参照された参照画像に基づいて、動き量の検出を行うことにより予測信号を生成し、その予測信号をラインL104,L106経由で減算器105及び加算器110に送る。
 減算器105は、ブロック分割部102から送られた対象画素信号から、予測信号生成部103から送られたその対象画素信号に対する予測信号を引き算して、2つの信号の差分である差分信号を生成する。そして、この差分信号はラインL107経由で変換部106に出力され、変換部106及び量子化部107によって所定の符号化方式で符号化差分信号に変換される。具体的には、変換部106は、差分信号を離散コサイン変換して変換係数を生成する。この変換係数は、ラインL108経由で量子化部107に出力され、量子化部107が変換係数を量子化して符号化差分信号を生成した後、ラインL109経由でエントロピー符号化部111及び逆量子化部108に出力する。
 エントロピー符号化部111は、符号化差分信号を可変長符号に変換した後、ラインL110経由で出力端子112に出力する。ここで、エントロピー符号化部111は、可変長符号の代わりに算術符号化を適用しても良い。同時に、予測信号生成部103によって求められる対象ブロックの動きベクトルは、ラインL111経由でエントロピー符号化部111に送られ、エントロピー符号化部111がその動きベクトルを可変長符号に変換して、出力端子112に出力する。
 逆量子化部108及び逆変換部109は、変換部106及び量子化部107による符号化方式に対応する復号方式で、符号化差分信号から復号差分信号を再生する。具体的には、逆量子化部108は、量子化された変換係数を逆量子化して変換係数に戻し、ラインL112経由で逆変換部109に出力し、逆変換部109が変換係数を逆離散コサイン変換することにより差分信号を復元する。そして、逆変換部109は、ラインL113経由で復号差分信号を加算器110に送る。
 加算器110は、復号差分信号にラインL106経由で入力された予測信号を加算することにより対象ブロックの対象画素信号を再生信号として再生し、ラインL114経由でフレームメモリ104に格納する。フレームメモリ104は、このようにして過去に対象ブロックとして処理された複数の対象画素信号(以下、「既存参照画像」と言う。)を保持しており、次に処理される対象ブロックの予測信号を生成する際に参照される。
 参照画像生成部113は、既にフレームメモリ104に格納された既存参照画像とは異なる新規参照画像を生成する。すなわち、参照画像生成部113は、ラインL116経由でフレームメモリ104に格納されている既存参照画像を取得する。
 図2には、フレームメモリ104に格納されている既存参照画像のイメージを示している。図2(a)には、動画像信号の表示の順番に沿ってフレームが符号化される場合の既存参照画像を示しており、各フレーム201,202,203,204,205の再生画像は画素ベクトルy,yt+1,yt+2,yt+3,yt+4(添え字は時刻を示す。)として格納されている。ここでは、フレーム201,202,…,205の順番で符号化処理が行われ、フレーム206が対象フレームとして処理されるタイミングでは、フレームメモリ104には、フレーム201~205の再生画像が既存参照画像として格納されている。図2(b)には、動き量の検出の際に双方向予測を行う場合の既存参照画像を示している。ここでは、フレーム207~209、及びフレーム211,212を符号化した後に、フレーム210が符号化されることになり、フレーム210が対象フレームとして処理されるタイミングでは、フレームメモリ104には、フレーム207~209,211,212の再生画像が既存参照画像として格納されている。
 上記のようにフレームメモリ104に格納された既存参照画像の一部を用いて、参照画像生成部113が新規参照画像を生成する。例えば、参照画像生成部113は、フレームメモリ104の5つの既存参照画像の画素ベクトルy,yt+1,yt+2,yt+3,yt+4から、下記式(1)を用いて、画素ベクトルy,yt+1,yt+2,yt+3,yt+4から構成される行列Y t+4を形成する。
Figure JPOXMLDOC01-appb-M000001
 そして、参照画像生成部113は、既存参照画像から構成される行列Y t+4を対象に特異値分解の処理を施す。このような特異値分解処理としては、下記式(2)で示すようなQR分解を採用することができる。
Figure JPOXMLDOC01-appb-M000002
式(2)中の行列X t+4は、下記式(3);
Figure JPOXMLDOC01-appb-M000003
によって表される行列である。このようにして、参照画像生成部113は、観測行列C、及び各ベクトルx,xt+1,xt+2,xt+3,xt+4を求める。
 さらに、参照画像生成部113は、各ベクトルx,xt+1,xt+2,xt+3,xt+4から、下記式(4);
Figure JPOXMLDOC01-appb-M000004
を用いて状態遷移行列Aを求める。ここで、行列Xt+1 t+4、及びX t+3は、それぞれ、下記式(5)及び(6)によって与えられる。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
また、式(4)中、(・)は、擬似逆行列を示している。
 また、参照画像生成部113は、このようにして求めた状態遷移行列Aを用いて、下記式(7);
Figure JPOXMLDOC01-appb-M000007
を用いて、状態ベクトルxt+5を求めた上で、下記式(8);
Figure JPOXMLDOC01-appb-M000008
に示すように、状態ベクトルxt+5と観測行列Cに基づいて、動的テクスチャの性質を持つ新規参照画像y”t+5を生成する。この新規参照画像は、ラインL115を経由してフレームメモリ104に格納される。
 なお、上記のような新規参照画像の生成においては、式(1)に示すとおり、観測行列Cは参照画像x,xt+1,xt+2,xt+3,xt+4から求められており、フレームメモリ104に過去に参照画像生成部113によって追加された新規参照画像は用いられていない。但し、新規参照画像の信頼度が高い場合には観測行列Cなどの算出にそれを用いてもよい。また、新規参照画像の生成においては、特異値分解以外の方法を用いてもよい。例えば、固有値分解、LU分解、コレスキ分解が挙げられる。
 予測信号生成部103は、少なくとも新規参照画像を用いて次フレームの対象ブロックの対象画素信号に対する予測信号を生成する。言い換えれば、予測信号生成部103は、既存参照画像及び新規参照画像の両方を用いて予測信号を生成してもよいし、新規参照画像のみを用いて予測信号を生成してもよい。例えば、予測信号生成部103は、これらの複数の参照画像を対象にして、対象ブロックの画素信号に最も近い参照ブロックを予測信号として決定する。この予測信号が属する参照画像を識別する識別子や、対象ブロックの位置からの変位である動きベクトルは送信側に送られる(詳細については、文献「Iain E. G. Richardson, “H.264 and MPEG-4 Video Compression”, JohnWiley & Sons,2003」に記載されている。)。なお、予測信号生成部103は、フレームメモリ104中の既存参照画像又は新規参照画像を特定する際には、既存参照画像又は新規参照画像に付された識別情報を参照することにより行う。ここで、予測信号生成部103は、対象フレームの直前のフレームの再生信号がフレームメモリ104に格納された後に、該再生画像を含む直近の5フレームの参照画像から新規参照画像を生成するが、これには限定されない。また、予測信号生成部103において観測行列C及び状態ベクトルxt+5を求めた後、それらを用いて対象画素信号の予測信号を直接生成してもよい。
 以下、図3を参照しながら、動画像符号化装置1の動作について詳述するとともに、本実施形態に係る動画像符号化方法について説明する。
 まず、ブロック分割部102により符号化対象の対象ブロックの対象画素信号が入力される(ステップS01)。次に、予測信号生成部103により、フレームメモリ104に格納されている参照画像を用いて、対象画素信号に対する予測信号が生成される(ステップS02)。そして、減算器105により、対象画素信号と予測信号とに基づいて差分信号が生成される(ステップS03)。その後、その差分信号が変換部106および量子化部107によって変換および量子化され、符号化差分信号が生成される(ステップS04)。
 上記の符号化差分信号は、逆量子化部108および逆変換部109により逆量子化および逆変換され、復号差分信号に再生される(ステップS05)。さらに、加算器110によって、この復号差分信号と予測信号とが加算されて再生信号が生成される(ステップS06)。そして、この再生信号は参照画像としてフレームメモリ104に格納される(ステップS07)。このような対象ブロックに対する処理は対象フレームにある全ての対象ブロックに対して繰り返される。
 符号化の対象となる1フレームが符号化された後に、参照画像生成部113により、フレームメモリ104に格納されている一部の既存参照画像を対象に特異値分解処理が施されて、観測行列C及び状態ベクトルxt+5が生成される(ステップS08)。次に、参照画像生成部113により、観測行列C及び状態ベクトルxt+5に基づいて新規参照画像が生成されて、次のフレームを符号化する際の参照画像としてフレームメモリ104に格納される(ステップS09)。このような新規参照画像の生成処理は、動画像の全て又は一部のフレームに対して繰り返される。一方、対象フレームの符号化差分信号はエントロピー符号化部111を経由して圧縮データに含めて出力される(ステップS10)。
 (動画像復号装置)
 以下、本実施形態にかかる動画像復号装置の構成について説明する。図4は、本発明の好適な一実施形態にかかる動画像復号装置40の構成を示すブロック図である。同図に示す動画像復号装置40は、入力端子(入力手段)401と、データ解析部(入力手段)402と、逆量子化部(復号手段)403と、逆変換部(復号手段)404と、加算器(加算手段)405と、予測信号生成部(予測信号生成手段)407と、フレームメモリ(格納手段)406と、参照画像生成部(参照画像生成手段)408と、出力端子409とを備えて構成されている。以下、動画像復号装置40の各構成要素について説明する。
 データ解析部402には、入力端子401から符号化差分信号を含む圧縮符号化された圧縮データが入力される。データ解析部402は、その圧縮データから、符号化差分信号の他、予測信号を生成するために必要となる動きベクトルや逆量子化を行うための量子化パラメータを解析し抽出する。そして、データ解析部402は、抽出した符号化差分信号及び量子化パラメータを、ラインL402を経由して逆量子化部403に出力し、動きベクトルに関する情報をラインL410経由で予測信号生成部407に送出する。この符号化差分信号は、逆量子化部403及び逆変換部404によって復号されて差分信号に復元される。
 逆量子化部403は、対象ブロックの符号化差分信号を量子化パラメータに基づいて逆量子化する。逆量子化部403は、逆量子化した符号化差分信号をラインL403経由で逆変換部404に出力する。
 逆変換部404は、逆量子化部403から入力された符号化差分信号を逆離散コサイン変換して復号差分信号を生成する。逆変換部404は、生成した復号差分信号をラインL404経由で加算器405に出力する。
 予測信号生成部407は、データ解析部402によって抽出された動きベクトル、及びフレームメモリ406から参照した参照画像に基づいて、処理対象の復号差分信号に対する予測信号を生成する。生成した予測信号は、ラインL407を経由して加算器405に送られる。
 加算器405は、逆変換部404によって復元された復号差分信号に予測信号を加算することによって対象ブロックの再生信号を生成する。さらに、加算器405は、その再生信号をフレームメモリ406に参照画像として格納する。また、再生信号は、出力端子409経由で外部の画像表示装置(図示せず)に伝送される。
 参照画像生成部408は、上述した動画像符号化装置1の参照画像生成部113と同様にして、フレームメモリ406に格納された一部の既存参照画像に基づいて、特異値分解処理により観測行列C及び状態ベクトルxt+5を求める。ここでは、フレームメモリ406に格納された既存の再生画像を用いて観測行列Cを生成しているが、過去に生成した新規参照画像を合わせて観測行列Cを生成してもよい。そして、参照画像生成部408は、参照画像生成部113と同様にして動的テクスチャの性質を持つ新規参照画像y”t+5を生成し、ラインL408b経由でフレームメモリ406に格納する。これに対して、予測信号生成部407により、少なくとも新規参照画像y”t+5をもとに、次フレームの対象ブロックに対する予測信号が生成される。
 以下、図5を参照しながら、動画像復号装置40の動作について詳述するとともに、本実施形態に係る動画像復号方法について説明する。
 まず、データ解析部402に符号化差分信号を含む圧縮データが入力されると、その圧縮データの中から符号化差分信号、動きベクトル、及び量子化パラメータが抽出される(ステップS21)。次に、この符号化差分信号が逆量子化部403及び逆変換部404により復号され、復号差分信号が生成される(ステップS22)。そして、予測信号生成部407により、動きベクトル、及びフレームメモリ406から参照された参照画像に基づいて予測信号が生成される(ステップS23)。その後、加算器405により、復号差分信号と予測信号が加算されることにより、再生信号が生成される(ステップS24)。この再生信号は、参照信号としてフレームメモリ406に格納される(ステップS25)。
 同時に、参照画像生成部408により、フレームメモリ406に格納されている参照画像を対象に特異値分解を施すことにより、観測行列C及び状態ベクトルxt+5が求められる(ステップS26)。そして、参照画像生成部408により、観測行列C及び状態ベクトルxt+5を用いて新規参照画像y”t+5が生成されてフレームメモリ406に格納される(ステップS27)。この新規参照画像y”t+5の生成は、次のフレームを復号するための参照画像として用いられる。ここまでの処理は、1フレーム分の符号化差分信号に対して繰り返された後、再生画像が出力端子409から出力される(ステップS28)。
 以上説明した動画像符号化装置1及び動画像復号装置40によれば、メモリに格納された既生成の既存参照画像を用いて観測行列C及び状態ベクトルxt+5が求められ、それらを元に新規参照画像が生成され、新規参照画像を少なくとも用いて対象画素信号に対する予測信号が生成されるので、既存参照画像に無い動的テクスチャの性質に合った参照画像を新たに生成することができる。より詳細には、本実施形態では、動的テクスチャが自己回帰移動平均モデル(ARMA)で表される性質を使用して、当該モデルに用いられる観測行列や状態ベクトルなどを既存参照画像から生成している。従って、既存参照画像にない動的テクスチャの性質に合った参照画像を新たに生成することができる。これにより、符号化対象画像にある動的テクスチャにより近い予測信号を生成することができる結果、差分信号が小さく抑えられて圧縮された動画像のデータ量を効果的に低減することができる。また、既存参照画像に加えて動的テクスチャに合った新規参照画像を含む複数の候補信号から予測信号を生成するため、従来よりも対象画素信号により近い予測信号を決定することができ、差分信号をさらに小さく抑えられる。
 以下、コンピュータを動画像符号化装置1及び動画像復号装置40として動作させる動画像符号化プログラム及び動画像復号プログラムについて説明する。
 本発明による動画像符号化プログラム及び動画像復号プログラムは、記録媒体に格納されて提供される。記録媒体としては、フロッピー(登録商標)ディスク、CD-ROM、DVD、あるいはROM等の記録媒体、あるいは半導体メモリ等が例示される。
 図7は、記録媒体に記録されたプログラムを実行するためのコンピュータのハードウェア構成を示す図であり、図8は、記録媒体に記憶されたプログラムを実行するためのコンピュータの斜視図である。コンピュータとして、CPUを具備しソフトウエアによる処理や制御を行なうDVDプレーヤ、セットトップボックス、携帯電話などを含む。
 図7に示すように、コンピュータ30は、フロッピー(登録商標)ディスクドライブ装置、CD-ROMドライブ装置、DVDドライブ装置等の読取装置12と、オペレーティングシステムを常駐させた作業用メモリ(RAM)14と、記録媒体10に記憶されたプログラムを記憶するメモリ16と、ディスプレイといった表示装置18と、入力装置であるマウス20及びキーボード22と、データ等の送受を行うための通信装置24と、プログラムの実行を制御するCPU26とを備えている。コンピュータ30は、記録媒体10が読取装置12に挿入されると、読取装置12から記録媒体10に格納された動画像符号化・復号プログラムにアクセス可能になり、当該動画像符号化・復号プログラムによって、本発明による動画像符号化装置・動画像復号装置として動作することが可能になる。
 図8に示すように、動画像符号化プログラムもしくは動画像復号プログラムは、搬送波に重畳されたコンピュータデータ信号41としてネットワークを介して提供されるものであってもよい。この場合、コンピュータ30は、通信装置24によって受信した動画像符号化プログラムもしくは動画像復号プログラムをメモリ16に格納し、当該動画像符号化プログラムもしくは動画像復号プログラムを実行することができる。
 なお、本発明は、前述した第1実施形態に限定されるものではない。例えば、動画像符号化装置1及び動画像復号装置40は、新規参照画像を生成する際に用いる観測行列C及び状態ベクトルxt+5の両方、或いはどちらか一方を、圧縮データに含めて動画像符号化装置1から動画像復号装置40に伝送するように動作してもよい。この場合、復号側で観測行列又は状態ベクトルを生成する処理が不要になるので、効率的な復号処理が実現される。
 例えば、状態ベクトルを伝送する場合には、動画像符号化装置1において、参照画像生成部113によって生成された状態ベクトルxt+5がラインL117経由でエントロピー符号化部111に送られ、エントロピー符号化部111によって可変長符号化された後に、圧縮データとして出力端子112から出力される(図1)。また、図6は、この場合の動画像復号装置40の動作を示すフローチャートである。圧縮データが入力されてから再生画像をフレームメモリ406に格納するまでの処理(ステップS31~ステップS35)は、図5に示したステップS21~ステップS25までの処理と同様である。再生画像の格納後、データ解析部402によって圧縮データに含まれる状態ベクトルが抽出および可変長復号されることにより、復号状態ベクトルが生成されると同時に、ラインL411経由で参照画像生成部408に送られる(ステップS36)。この場合、状態ベクトルは可変長符号化された場合を想定したが、特定の符号化方法で圧縮した場合は、その符号化方法に対応する復号方法で復号した上で参照画像生成部408に送られる。次に、参照画像生成部408によって、フレームメモリ406が参照されて観測行列Cが求められる(ステップS37)。その後、参照画像生成部408によって、観測行列Cと、データ解析部402から送られた復号状態ベクトルxt+5を用いて新規参照画像が生成される(ステップS38)。最後に、1フレーム分の再生画像が出力端子409から出力される(ステップS39)。
 また、状態ベクトルxt+5は、データ量を圧縮するために量子化して伝送されてもよい。この場合、符号化側と復号側との整合性を保つためには、逆量子化した状態ベクトルxt+5と観測行列Cとから新規参照画像を生成する必要がある。
 また、新規参照画像の生成に際しては、状態ベクトルxt+5は、式(7)により算出されたものを用いてもよく、式(8)により算出されたものを用いてもよい。すなわち、符号化の対象となるフレームをy”t+5とし、これに観測行列Cの逆行列をかけることによって、対象フレームyt+5に最適な状態ベクトルxt+5を生成することができる。
 また、参照画像生成部408の処理を全て予測信号生成部407によって実行させても良い。具体的には、予測信号生成部407がフレームメモリ406に格納された既存参照画像を用いて観測行列C及び状態ベクトルxt+5を求め、それらに基づいて直接予測信号を生成してもよい。この場合も、観測行列C及び状態ベクトルxt+5の一方或いは両方を、符号化側から取得するようにしてもよい。
 また、対象フレーム中に動的テクスチャの性質を持つ信号は一部の対象画素信号にしか存在しない場合がある。その場合は、新規参照画像の生成はフレーム全体ではなく、一部の領域に対してのみ選択的に行うようにしてもよい。例えば、再生信号の中に動的テクスチャを有する対象ブロックをブロック番号等で特定し、該当ブロック番号を有する対象ブロックに対して予測信号を生成する際には参照画像生成部113をアクティブ(活性化)する等が考えられる。
[第2実施形態]
 続いて、本発明の第2実施形態について、図面を参照しつつ説明する。第2実施形態に係る動画像符号化装置及び動画像復号装置は、第1実施形態に係る動画像符号化装置及び動画像復号装置と一部が異なっている。以下、異なる点を中心に説明する。
 (動画像符号化装置)
 図9は、本発明の第2実施形態にかかる動画像符号化装置の構成を示すブロック図である。同図に示す動画像符号化装置50は、入力端子(入力手段)101と、ブロック分割部(分割手段)102と、予測信号生成部(予測信号生成手段)103と、フレームメモリ(格納手段)104と、減算器(差分生成手段)105と、変換部(符号化手段)106と、量子化部(符号化手段)107と、逆量子化部(復号手段)108と、逆変換部(復号手段)109と、加算器(加算手段)110と、エントロピー符号化部(エントロピー符号化手段)111と、出力端子112と、参照画像生成部(参照画像生成手段)113と、位置設定部(位置設定手段)117と、位置選択部118とを備えて構成されている。
 位置設定部117は、複数の参照画像を管理する参照画像リストにおける新規参照画像の挿入位置を設定して、設定された挿入位置を示す位置情報を生成する部分である。この参照画像リストとは、複数の参照画像を参照画像番号に関連付けて管理するリストであって、フレーム201~205の再生画像(図2参照)を参照画像とすると、例えば、図14に示される表901のようになる。このような参照画像リストは、例えば、予測信号生成部103が備えており、予測信号生成部103は、参照画像リストに含まれる参照画像から選択される参照画像を用いて、対象ブロックの対象画素信号に対する予測信号を生成する。参照画像リストでは、参照画像番号によって、予測信号を生成する際に用いられる参照画像が識別できるようになっている。また、参照画像番号は、番号の値が小さくなるにつれて符号化に要する符号量が小さくなる傾向があるため、選択頻度の高い参照画像に対して、より小さい値の参照画像番号を付与しておくと符号化効率が向上する。
 位置設定部117は、参照画像リストにおける新規参照画像の挿入位置を設定する際、フレームメモリ104からラインL501経由で既存参照画像の情報を、参照画像生成部113からラインL502経由で新規参照画像の情報をそれぞれ入手して、新規参照画像の挿入位置を設定する。新規参照画像を参照画像生成部113で生成する方法は第1実施形態と同様であり、ここでは説明を省略する。位置設定部117は、参照画像リスト(例えば、図14の表901)における新規参照画像の挿入位置を決定する。位置設定部117による挿入位置の決定方法としては、過去のフレームにおける新規参照画像の選択率で決める方法や、画像内に含まれるテクスチャ信号の割合を解析して求める方法が考えられるが、これらに限定されない(後述ではレート歪最適化による手法を説明)。位置設定部117は、設定または決定された位置情報を、ラインL503及びラインL504経由で、予測信号生成部103とエントロピー符号化部111に出力する。
 予測信号生成部103は、ラインL503経由で新規参照画像の挿入位置を示す位置情報(例えば、参照画像リストにおける参照画像番号)が入力されると、この位置情報に基づいて参照画像リストを更新する。具体的には、図14の表901で示される参照画像リストを備えた予測信号生成部103に対して、新規参照画像の挿入位置が参照画像番号4である位置情報が入力されると、予測信号生成部103は、図14の表902で示される参照画像リストへと更新する。新規参照画像の挿入に伴い、更新後の参照画像リストからは、符号化順で最も古い既存参照画像であるyが自動的に除外される。なお、図14の表903~906は、新規参照画像の挿入位置が参照画像番号3,2,1,0である位置情報が入力された場合の更新後の参照画像リストである。
 なお、双方向予測の場合には、対象ブロックの画素信号に対して2つの予測信号を生成するため、2つの参照画像リストが用意される。図15に示される参照画像リスト911は2番目の参照画像リストの例である。この例では、表示順で符号化対象フレームよりも未来のフレームに小さい参照画像番号0,1を付与している。一方、1番目の参照画像リストとしては、図14の表901を用いてもよいが、この場合、図2(a),(b)に示されるように、前(過去)5枚と後(未来)2枚の合計7枚の参照画像をフレームメモリ104に格納しておく必要がある。5枚に限定する場合には、1番目の参照画像リストとして、図16の参照画像リスト921のように符号化順で過去の5フレームを参照画像として選ぶようにしてもよい。参照画像の枚数は制限されず、一枚以上であれば自由に設定できる。参照画像の枚数は、符号化側と復号側とで予め定めておいてもよいし、符号化側にて参照画像の枚数をフレーム単位やシーケンス単位で決定して符号化して復号側に送出するようにしてもよい。双方向予測の場合、位置設定部117は、2つの参照画像リスト(例えば911,921)について、それぞれ新規参照画像の挿入位置を示す位置情報を設定する。2つの参照画像リストにおける挿入位置を示す位置情報は、上記同様、予測信号生成部103やエントロピー符号化部111に出力され、参照画像リストの更新やエントロピー符号化が行われる。
 位置設定部117は、参照画像リストの更新の際に除外される参照画像を参照画像リスト生成情報として、位置情報と共にラインL503及びラインL504経由で、予測信号生成部103とエントロピー符号化部111に出力して、エントロピー符号化部111にて符号化させてもよい。予測信号生成部103は、位置情報と参照画像リスト生成情報に基づいて参照画像リストを更新する。この際、符号化対象のフレームの新規参照画像に代えて、過去のフレームの新規参照画像を参照画像リストに含めるように参照画像リスト生成情報を生成して符号化してもよいし、符号化対象のフレームの新規参照画像と過去のフレームの新規参照画像を共に参照画像リストに含めるように符号化してもよい。例えば、参照画像リストの参照画像番号について、フレーム番号と参照画像の種類(既存参照画像か新規参照画像)の組み合わせを符号化することで実現可能である。この方法によれば、新規参照画像のみで参照画像リストを構成することも可能である。
 また、参照画像リストが既存参照画像のみで構成され、新規参照画像を含まない場合には、新規参照画像の挿入位置を示す位置情報は、新規参照画像が参照画像リストに含まれないことを示す情報となる。位置情報の例としては、「新規参照画像を参照画像リストに含むか否かを示すフラグ」と「新規参照画像の挿入位置を示す参照画像番号」の組み合わせがあり、フラグが新規参照画像を含まないことを示す場合には、参照画像番号は符号化しない。特に、双方向予測の場合、一方の参照画像リストのみが新規参照画像を含み、他方の参照画像リストが既存参照画像のみで構成するといったように、参照画像の選択肢を広げて、自由度を高めることができる。
 予測信号生成部103は、参照画像リストの更新後、更新された参照画像リストに基づいて、対象ブロックの予測信号を生成する。また、予測信号生成部103は、対象ブロックの予測に用いた参照画像番号や動きベクトルの検出を行い、ラインL111経由でエントロピー符号化部111に出力する。この際、新規参照画像を対象ブロックの予測に用いた場合には、動きベクトルを出力せず、ゼロ動きベクトルとして、対象ブロックの予測信号を生成してもよい。
 位置選択部118は、参照画像リストにおける新規参照画像の挿入位置をレート歪最適化方法で選択して決定する際に用いられる部分である。位置選択器118は、参照画像生成部113にて新規参照画像を生成した後、入力端子101、ブロック分割部102、予測信号生成部103、フレームメモリ104、減算器105、変換部106、量子化部107、逆量子化部108、逆変換部109、加算器110、エントロピー符号化部111、位置設定部117を用いて、新規参照画像の挿入位置の候補(例えば、参照画像リスト902~906)毎に上述したような位置設定や符号化や局部復号処理を行い、各候補による符号化データをラインL110経由で取得して、符号量を計算する。位置選択部118は、入力端子101から符号化対象フレームの入力画像を、加算器110から符号化対象フレームの再生画像をそれぞれ入手し、各候補における符号化歪み(平均自乗誤差)を計算する。そして、位置選択部118は、量子化精度によって決まる重み係数を掛けた符号量と符号化歪みとの和を候補毎に算出し、その値が最小となる新規参照画像の挿入位置を選択する。位置選択部118は、選択した候補の符号化データをラインL505経由で出力端子112に出力すると共に、選択した候補の再生信号のみが有効となるようにフレームメモリ104を制御する。すなわち、位置選択部118で新規参照画像の挿入位置を決定する。なお、レート歪最適化法でなく、上述したような新規参照画像の選択率で決める方法の場合等、新規参照画像の挿入位置を位置設定部117で決定する場合には、位置選択部118は不要となる。
 以下、図10を参照しながら、動画像符号化装置50の動作について詳述するとともに、レート歪最適化方法による動画像符号化方法について説明する。
 ここでは、符号化する画像の対象信号が入力される前に、後述するステップS45~S50で行われる処理が、過去の複数の入力画像に対して行われている場合を仮定する。すなわち、符号化の対象信号が入力される以前の別の符号化対象信号について次の処理がなされている。具体的には、予測信号生成部103により、フレームメモリ104に格納されている複数の参照画像を用いて、対象画素信号に対する予測信号が生成される(後述するステップS45と同様)。そして、減算器105により、対象画素信号と予測信号とに基づいて差分信号が生成される(後述するステップS46と同様)。その後、その差分信号が変換部106及び量子化部107によって周波数領域に変換された上で量子化され、符号化差分信号が生成される(後述するステップS47と同様)。上記の符号化差分信号は、逆量子化部108および逆変換部109により逆量子化および逆変換され、復号差分信号に再生される(後述するステップS48と同様)。さらに、加算器110によって、この復号差分信号と予測信号とが加算されて再生信号が生成される(後述するステップS49と同様)。その後、この再生信号は、参照画像としてフレームメモリ104に格納される(後述するステップS50と同様)。
 続いて、符号化する画像の対象信号が入力され(ステップS41)、参照画像生成部113によりフレームメモリ104に格納されている一部の既存参照画像を対象に特異値分解処理が施されて、観測行列Cおよび状態ベクトルxt+5が生成される。そして、参照画像生成部113により、観測行列Cおよび状態ベクトルxt+5に基づいて新規参照画像が生成されて、次のフレームを符号化する際の参照画像としてフレームメモリ104に格納される(ステップ43)。このような新規参照画像の生成処理は、動画像の全て又は一部のフレームに対して繰り返される。なお、生成される観測行列Cおよび状態ベクトルxt+5のいずれか一方または両方を、受信側に伝送してもよい。
 続いて、ステップS44では、既存の再生画像による参照画像で構成される参照画像リスト(例えば、図14の表901,図15の表911,図16の表921)に対し、位置設定部117によって、新規参照画像を挿入する挿入位置を設定するための位置情報が生成され、予測信号生成部103に出力される。位置情報が入力された予測信号生成部103では、参照画像リストが位置情報に基づいて更新され、更新された参照画像リスト(例えば、図14の表902~906,図15の表911~916,図16の表921~926)が取得される。
 続いて、ステップS45では、ステップS44で更新された参照画像リストに基づいて、対象ブロックの予測に用いる参照画像と動きベクトルとが検出される。この際、新規参照画像を選択した場合には、動きベクトルを送らずに、ゼロ動きベクトルとした予測信号が生成されるようにしてもよい。その後、上述したようにステップS46~S50までの処理を行う。その後、ステップS51では、更新した参照画像リストにおける新規参照画像を挿入する位置を決定するため、ステップS44にて新規参照画像を挿入する挿入位置を変えてステップS45~S50までの処理(基本符号化ステップ)を繰り返すように制御される。その後、すべての設定位置(例えば、参照画像番号0~4)での基本符号化ステップによるテストが終了すると、ステップS52に進み、繰り返された基本符号化ステップごとの符号量と符号化歪み(入力画像と再生画像の平均自乗誤差)を計算し、量子化精度によって決まる重み係数を掛けた符号量と符号化歪みとの和を求める。そして、その値が最小となる新規参照画像の設定位置を選択して決定すると共に、選択した基本符号化ステップの結果のみが有効となるようにフレームメモリ104を構成する。
 続いて、ステップS53では、ステップS51にて選択した新規参照画像の挿入位置を含んだ符号化データ(新規参照画像の位置情報と各対象ブロックの参照画像番号と動きベクトルおよび符号化差分信号とを含む)を出力端子112から出力する。なお、この出力の際、新規参照画像の挿入位置を示す位置情報をフレーム単位で送るが、複数のブロックをグループ化した大領域単位(画面を分割した分割領域単位)で新規参照画像の挿入位置を示す位置情報を決定して、伝送してもよい。
 なお、上記実施形態では、参照画像生成部113にて新規参照画像を生成しているが、予測信号生成部103で観測行列Cと状態ベクトルxt+5を求めた上で予測信号を直接生成してもよい。また、特異値分解の方法で観測行列Cと状態ベクトルxt+5を求めたが、それ以外の方法を用いてもよい。また、更新された参照画像リストが新規参照画像を含まない場合には、そのフレームについては、参照画像生成部113での処理を不要としてもよい。
 また、上記実施形態では、観測行列Cと状態ベクトルxt+5を符号化して伝送する必要がないため、後に説明するように受信側(復号側)では同じ方法で観測行列Cと状態ベクトルxt+5を求めて新規参照画像を生成することになるが、受信側における処理量を減らすために、状態ベクトルxt+5を符号化した上で伝送することもできる。この場合、求められた状態ベクトルxt+5はラインL117経由でエントロピー符号化器111に送り、エントロピー符号化した上で外部に出力伝送する。なお、予測信号生成部103にて状態ベクトルxt+5を求めた場合は、ラインL111経由で外部に出力伝送する。
 また、上記実施形態では、状態ベクトルxt+5は、式(7)で求めたものを用いてもいいが、式(8)から求めてもよい。すなわち、符号化の対象となるフレームをy“t+5とし、それに観測行列Cの逆行列をかけることによって、対象フレームy“t+5に最適な状態ベクトルxt+5を生成することができる。データ量を削減するため状態ベクトルxt+5を量子化した上で伝送してもよい。この場合、送信側と受信側の整合性を保てるために、逆量子化したxt+5と観測行列Cから新規参照画像を生成する必要がある。なお、状態ベクトルxt+5を送る形態を説明したが、代わりに観測行列Cを送ることもできるし、観測行列Cと状態ベクトルxt+5の両方を送ってもよい。動的テクスチャの性質をもつ信号は、画面内の一部にしか存在しない場合があるが、その場合、上述の新規参照画像の生成はフレーム全体ではなくて、一部の領域に対して行なってもよい。
 また、上記実施形態では、新規参照画像の挿入位置を示す情報をフレーム単位で送っているが、複数のブロックをグループ化した大領域単位(画面を分割した分割領域単位)で新規参照画像の挿入位置を示す情報を送っても良い。この場合、位置設定部117と予測信号生成部103は、大領域毎に更新参照画像リストを作成する。そして、予測信号生成部103は、対象ブロックが属する大領域の更新参照画像リストに基づいて参照画像を選択し、参照画像番号をエントロピー符号化器111に送る。このような大領域の定義は、符号化側と復号側で予め定めておいても良いし(例えば、画面を4分割して4つの大領域を構成)、大領域の構成を符号化側で決めてエントロピー符号化器111にて符号化しても良い。この方法によれば、動的テクスチャを含む大領域の参照画像リストには新規参照画像を追加し、動的テクスチャを含まない大領域では既存参照画像のみで参照画像リストを構成するという処理が可能となる。また、参照画像リストへの新規参照画像の挿入位置を符号化しているが、復号済みの情報から決定しても良い。例えば、過去の符号化済みフレームにおける新規参照画像の選択率に基づいて参照画像リストへの新規参照画像の挿入位置を自動的に決定しても良い。
 (動画像復号装置)
 以下、第2実施形態にかかる動画像復号装置の構成について説明する。図10は、第2実施形態にかかる動画像復号装置の構成を示すブロック図である。同図に示す動画像復号装置60は、入力端子(入力手段)401と、エントロピー復号部(エントロピー復号手段)410と、逆量子化部(復号手段)403と、逆変換部(復号手段)404と、加算器(加算手段)405と、予測信号生成部(予測信号生成手段)407と、フレームメモリ(格納手段)406と、参照画像生成部(参照画像生成手段)408と、出力端子409とを備えて構成されている。
 入力端子401には、動画像を予測符号化して得られる符号化差分信号を含む圧縮データが入力される。このような圧縮データとしては、例えば、図9の動画像符号化装置50で処理して得られたデータがある。この圧縮データには、上述したように、符号化差分信号の他、予測信号を生成するために必要な動きベクトル、参照画像を識別する参照画像番号、逆量子化を行うための量子化パラメータ、新規参照画像を生成するための状態ベクトルxt+5のデータ、新規参照画像の挿入位置を示す位置情報などが含まれている。なお、状態ベクトルxt+5を動画像復号装置60で生成する場合には、状態ベクトルxt+5は含まれていなくてもよい。
 エントロピー復号部410は、入力された圧縮データを解析してエントロピー復号し、元の数値等に復元し、その圧縮データから、上述した符号化差分信号等を抽出する。そして、エントロピー復号部410は、抽出した符号化差分信号及び量子化パラメータを、ラインL402を経由して逆量子化部403に出力し、また、動きベクトルに関する情報をラインL410経由で予測信号生成部407に送出する。この符号化差分信号は、逆量子化部403及び逆変換部404によって復号されて差分信号に復元される。また、エントロピー復号部410は、復元した新規参照画像の挿入位置を示す位置情報をラインL412経由で予測信号生成部407に送出する。
 予測信号生成部407は、処理対象の復号差分信号に対する予測信号を生成する部分である。予測信号生成部407は、エントロピー復号部410から新規参照画像の挿入位置を示す位置情報が入力されると、動画像符号化装置50の予測信号生成部103と同様に、参照画像リストを更新する。新規参照画像が含まれていない場合には、参照画像リストは更新されない。なお、圧縮データに参照画像リストを生成するための情報である参照画像リスト生成情報が含まれている場合には、予測信号生成部407は、エントロピー復号部410にて復号された参照画像リスト生成情報をラインL412経由で取得して参照画像リストの更新に用いる。このような参照画像リスト生成情報には、上述したように、例えば、参照画像リストから除外された既存参照画像の情報が含まれている。また、参照画像リスト生成情報に、参照画像リストの各参照画像番号について、それぞれのフレーム番号と参照画像の種類(既存参照画像か新規参照画像)の組み合わせが示されている場合には、明示的に参照画像リストを更新することが可能となる。
 また、予測信号生成部407は、動きベクトルと参照画像番号に基づいて、フレームメモリ406にある参照画像にアクセスし、復号対象の対象ブロックの予測信号を生成する。なお、参照画像番号が新規参照画像を示すブロックについて、動きベクトル情報が圧縮データに含まれないように予め決められている場合、ゼロ動きベクトルとして新規参照画像から対象ブロックの予測信号を生成する。このようにして得られた予測信号は、ラインL407経由で加算器405に送られ、復号差分信号に加算され、再生信号が生成される。
 参照画像生成部408は、上述した動画像符号化装置50の参照画像生成部113と同様にして、フレームメモリ406に格納された一部の既存参照画像に基づいて、特異値分解処理によって観測行列Cと状態ベクトルxt+5を求める。なお、状態ベクトルxt+5が圧縮データに含まれている場合には、ラインL411経由でエントロピー復号部410から状態ベクトルxt+5を取得して用いる。圧縮データに含まれる状態ベクトルxt+5は、エントロピー符号化されているが、エントロピー符号化以外の特定の符号化方法で圧縮された場合には、エントロピー復号部410から出力された状態ベクトルxt+5を、その特定の符号化方法に対応する復号処理で復号した上で参照画像生成部408に送出する。また、再生画像を用いて観測行列Cを求めるが、再生画像に加えて過去に生成した新規参照画像を合わせて観測行列Cを求めるようにしてもよい。
 参照画像生成部408は、第1実施形態と同様、観測行列Cと状態ベクトルxt+5とから式(8)に基づいて、動的テクスチャの性質をもつ新規参照画像y”t+5を生成する。生成された新規参照画像y”t+5は、ラインL408b経由でフレームメモリ406に格納される。そして、予測信号生成部407は、動画像符号化装置50の予測信号生成部103と同様に、既存参照画像および新規参照画像の少なくとも1つに基づいて、次のフレームの対象ブロックの予測信号を生成する。
 なお、参照画像生成器408の新規参照画像の生成処理機能を予測信号生成器407に持たせることもできる。この場合、ラインL410経由で状態ベクトルxt+5を予測信号生成器407に送り、生成した予測信号を直接に加算器405に送る。
 また、上記実施形態では、新規参照画像の挿入位置を示す情報をフレーム単位で受信しているが、複数のブロックをグループ化した大領域単位(画面を分割した分割領域単位)で新規参照画像の挿入位置を示す情報を受信するようにしてもよい。この場合、予測信号生成部407は、大領域毎に更新参照画像リストを作成および更新する。そして、予測信号生成部407は、対象ブロックが属する大領域の更新参照画像リストに基づいて参照画像を選択する。大領域は、符号化側と復号側で予め定めておいても良いし(例えば、画面を4分割して4つの大領域を構成)、エントロピー復号部410にて大領域の構成を復号してもよい。また、参照画像リストへの新規参照画像の挿入位置を復号しているが、復号済みの情報から復号側で決定してもよい。例えば、過去の復号済みフレームにおける新規参照画像の選択率に基づいて参照画像リストへの新規参照画像の挿入位置を自動的に決定してもよい。
 以下、図11を参照しながら、動画像復号装置60の動作について詳述するとともに、状態ベクトルxt+5が圧縮データに含まれていない場合の動画像復号方法について説明する。
 ここでは、復号される画像の復号処理が実施される前に、後述するステップS65~S68が実施され、複数の復号画像が既に復元されている場合を仮定する。具体的には、エントロピー復号部410に符号化差分信号を含む圧縮データが入力されると、その圧縮データの中から符号化差分信号、動きベクトル、参照画像番号及び量子化パラメータが抽出される。そして、この符号化差分信号が逆量子化部403及び逆変換部404により復号され、復号差分信号が生成される(後述するステップS65)。また、復号対象の対象ブロックの予測信号の生成に必要となる動きベクトルと参照画像番号とを復号し、フレームメモリに格納されている参照画像に基づいて予測信号を生成する(後述するステップS66)。その後、加算器405により、復号差分信号と予測信号が加算されることにより、再生信号が生成される(後述するステップS67)。この再生信号は、参照信号としてフレームメモリ406に格納される(後述するステップS68)。
 続いて、復号対象となる符号化差分信号を含む圧縮データが入力される(ステップS61)。ステップS62では、フレームメモリ406に格納されている参照画像(再生画像)に対し、特異値分解を実行して観測行列Cと状態ベクトルxt+5を生成する。この一連の処理は、上述の式(1)~(8)を用い、観測行列Cと状態ベクトルxt+5に基づいて、新規参照画像を生成する。生成された新規参照画像は、フレームメモリ406に格納される(ステップS63)。
 続いて、ステップS64に進み、既存の再生画像による参照画像にて構成される参照画像リスト(例えば、図14の表901等参照)について、新規参照画像を挿入する位置を示す位置情報を圧縮データから取得し、参照画像リストを更新して、更新後の参照画像リスト(例えば、図14の表902~906等参照)を取得する。その後、ステップS65に進んで、符号化差分信号を復号して復号差分信号を生成する。そして、ステップS66で、参照画像番号と動きベクトルを復号するとともに、更新した参照画像リストに基づいて、復号された参照画像番号で示される参照画像と動きベクトルとから対象ブロックの予測信号を生成する。その後、ステップS67,S68を行い、所定の回数(あるいは圧縮データがすべて入力され、復元処理が実施されるまで)、ステップS65~S68を繰り返した後、再生画像を出力端子409に出力する(ステップS69)。
 次に、図13を参照しながら、動画像復号方法の変形例について説明する。この変形例は、状態ベクトルxt+5が圧縮データに含まれて符号化側から伝送される場合に対応する実施形態である。この変形例では、ステップS71,S74~S80は、図12のステップS61,S63~S69と同様であり、説明を省略する。
 ステップS72では、圧縮データより、状態ベクトルxt+5を抽出・復号し、復号状態ベクトルを生成する。そして、ステップS73では、フレームメモリ406に格納されている参照画像(再生画像)に対し、特異値処理を実行して観測行列Cを生成する。その後、図12のステップS63と同様に、観測行列CとステップS72で得られた復号状態ベクトルに基づいて新規参照画像を生成する(ステップS74)。このように生成した新規参照画像は、次のフレームを復号するための参照画像として、フレームメモリ406に格納される。
 以上説明した動画像符号化装置50及び動画像復号装置60によれば、動的テクスチャが自己回帰移動平均モデル(ARMA)で表せる性質を利用して、当該モデルに用いられる観測行列Cを既生成の既存参照画像を用いて求め、その観測行列Cを元に新規参照画像を生成している。このため、既存参照画像にない動的テクスチャの性質に合った参照画像を新たに生成でき、符号化対象画像にある動的テクスチャに、より近い予測信号を生成できる。その結果、差分信号が小さく抑えられて圧縮された動画像のデータ量を効果的に低減することができる。つまり、動的テクスチャを効率よく符号化することができる。また、上述した動画像符号化装置等では、この新規参照画像や既存参照画像を管理する参照画像リストを用い、この参照画像リストに含まれる参照画像から選択される参照画像を用いて予測信号を生成している。このため、符号化対象画像にある動的テクスチャに、より一層近い予測信号を生成でき、差分信号を更に小さく抑えたり、差分信号を符号化しなくても視覚的に対象信号に似ている信号を再生したりすることが可能となる。さらに、上述した動画像符号化装置等では、参照画像リストにおける新規参照画像の位置も符号化しているため、参照画像の選択情報に要する符号量を抑えることが可能となる。
 なお、コンピュータを、上述した動画像符号化装置50及び動画像復号装置60として動作させる動画像符号化プログラム及び動画像復号プログラムは、第1実施形態と同様であり、説明を省略する。
 本発明は、動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラムを使用用途とし、動的テクスチャが含まれる動画像に対して適した予測信号を生成することにより、圧縮された動画像のデータ量を低減することのできるものである。
 1,50…動画像符号化装置、40,60…動画像復号装置、101…入力端子(入力手段)、102…ブロック分割部、103…予測信号生成部(予測信号生成手段)、104…フレームメモリ(格納手段)、105…減算器(差分生成手段)、106…変換部(符号化手段)、107…量子化部(符号化手段)、108…逆量子化部(復号手段)、109…逆変換部(復号手段)、110…加算器(加算手段)、111…エントロピー符号化部(符号化手段)、113…参照画像生成部(参照画像生成手段)、117…位置設定部(位置設定手段)、118…位置選択部、401…入力端子(入力手段)、402…データ解析部(入力手段)、403…逆量子化部(復号手段)、404…逆変換部(復号手段)、405…加算器(加算手段)、406…フレームメモリ(格納手段)、407…予測信号生成部(予測信号生成手段)、408…参照画像生成部(参照画像生成手段)410…エントロピー復号部(エントロピー復号手段)。

Claims (37)

  1.  複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段と、
     前記対象信号に対する予測信号を生成する予測信号生成手段と、
     前記対象信号と前記予測信号との差分である差分信号を生成する差分生成手段と、
     前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段と、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に前記予測信号を加算して再生信号を生成する加算手段と、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段と、を備え、
     前記予測信号生成手段は、前記新規参照画像を少なくとも用いて前記予測信号を生成する、
    ことを特徴とする動画像符号化装置。
  2.  前記参照画像生成手段は、前記既存参照画像に基づいて観測行列及び状態ベクトルを求め、前記観測行列及び前記状態ベクトルに基づいて前記新規参照画像を生成する、
    ことを特徴とする請求項1記載の動画像符号化装置。
  3.  前記符号化手段は、前記状態ベクトルを更に符号化する、
    ことを特徴とする請求項1又は2記載の動画像符号化装置。
  4.  前記参照画像生成手段は、複数の前記既存参照画像から構成される行列を対象に特異値分解を実行することにより前記観測行列を求める、
    ことを特徴とする請求項1~3のいずれか一項に記載の動画像符号化装置。
  5.  動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に対する予測信号を生成する予測信号生成手段と、
     前記復号差分信号に前記予測信号を加算して再生信号を生成する加算手段と、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段と、を備え、
     前記予測信号生成手段は、前記新規参照画像を少なくとも用いて前記予測信号を生成する、
    ことを特徴とする動画像復号装置。
  6.  前記参照画像生成手段は、前記既存参照画像に基づいて観測行列及び状態ベクトルを求め、前記観測行列及び前記状態ベクトルに基づいて前記新規参照画像を生成する、
    ことを特徴とする請求項5記載の動画像復号装置。
  7.  前記圧縮データには状態ベクトルに対応するベクトル圧縮データをさらに含み、
     前記復号手段は、前記ベクトル圧縮データを復元して復号状態ベクトルを生成し、
     前記参照画像生成手段は、前記観測行列及び前記復号状態ベクトルに基づいて前記新規参照画像を生成する、
    ことを特徴とする請求項5記載の動画像復号装置。
  8.  前記参照画像生成手段は、複数の前記既存参照画像から構成される行列を対象に特異値分解を実行することにより前記観測行列を求める、
    ことを特徴とする請求項5~7のいずれか一項に記載の動画像復号装置。
  9.  動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に対する予測信号を生成する予測信号生成手段と、
     前記復号差分信号に前記予測信号を加算して再生信号を生成する加算手段と、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、を備え、
     前記予測信号生成手段は、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列及び状態ベクトルの少なくとも一方を求め、前記観測行列又は前記状態ベクトルに基づいて予測信号を生成する、
    ことを特徴とする動画像復号装置。
  10.  入力手段が、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力ステップと、
     予測信号生成手段が、前記対象信号に対する予測信号を生成する予測信号生成ステップと、
     差分生成手段が、前記対象信号と前記予測信号との差分である差分信号を生成する差分生成ステップと、
     符号化手段が、前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化ステップと、
     復号手段が、前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して再生信号を生成する加算ステップと、
     格納手段が、前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、
     参照画像生成手段が、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成ステップと、を備え、
     前記予測信号生成ステップでは、前記新規参照画像を少なくとも用いて前記予測信号を生成する、
    ことを特徴とする動画像符号化方法。
  11.  入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、
     復号手段が、前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     予測信号生成手段が、前記復号差分信号に対する予測信号を生成する予測信号生成ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して再生信号を生成する加算ステップと、
     格納手段が、前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、
     参照画像生成手段が、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成ステップと、を備え、
     前記予測信号生成ステップでは、前記新規参照画像を少なくとも用いて前記予測信号を生成する、
    ことを特徴とする動画像復号方法。
  12.  入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、
     復号手段が、前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     予測信号生成手段が、前記復号差分信号に対する予測信号を生成する予測信号生成ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して再生信号を生成する加算ステップと、
     格納手段が、前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、を備え、
     前記予測信号生成ステップでは、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列及び状態ベクトルの少なくとも一方を求め、前記観測行列又は前記状態ベクトルに基づいて予測信号を生成する、
    ことを特徴とする動画像復号方法。
  13.  コンピュータを、
     複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段、
     前記対象信号に対する予測信号を生成する予測信号生成手段、
     前記対象信号と前記予測信号との差分である差分信号を生成する差分生成手段、
     前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段、
     前記復号差分信号に前記予測信号を加算して再生信号を生成する加算手段、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段、及び
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段として動作させ、
     前記予測信号生成手段は、前記新規参照画像を少なくとも用いて前記予測信号を生成する、
    ことを特徴とする動画像符号化プログラム。
  14.  コンピュータを、
     動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段、
     前記復号差分信号に対する予測信号を生成する予測信号生成手段、
     前記復号差分信号に前記予測信号を加算して再生信号を生成する加算手段、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段、及び
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段として動作させ、
     前記予測信号生成手段は、前記新規参照画像を少なくとも用いて前記予測信号を生成する、
    ことを特徴とする動画像復号プログラム。
  15.  コンピュータを、
     動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段、
     前記復号差分信号に対する予測信号を生成する予測信号生成手段、
     前記復号差分信号に前記予測信号を加算して再生信号を生成する加算手段、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段として動作させ、
     前記予測信号生成手段は、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列及び状態ベクトルの少なくとも一方を求め、前記観測行列又は前記状態ベクトルに基づいて予測信号を生成する、
    ことを特徴とする動画像復号プログラム。
  16.  複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段と、
     前記符号化対象画像を複数の領域に分割する分割手段と、
     前記複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成手段と、
     前記対象領域の対象信号と前記予測信号との差分である差分信号を生成する差分生成手段と、
     前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段と、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算手段と、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段と、
     複数の前記参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を設定する位置設定手段と、
     少なくとも前記符号化差分信号及び前記新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化手段と、を備え、
     前記予測信号生成手段は、前記新規参照画像の挿入位置を示す位置情報に基づいて前記参照画像リストを更新し、
     前記予測信号生成手段は、前記参照画像リストに含まれる参照画像から選択される参照画像を用いて前記対象領域の予測信号を生成し、
     前記エントロピー符号化手段は、前記対象領域の予測信号の生成に用いた前記参照画像を示す参照画像番号を符号化する、
    ことを特徴とする動画像符号化装置。
  17.  複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力手段と、
     前記符号化対象画像を複数の領域に分割する分割手段と、
     前記複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成手段と、
     前記対象領域の対象信号と前記予測信号との差分である差分信号を生成する差分生成手段と、
     前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化手段と、
     前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算手段と、
     前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段と、
     少なくとも二つ以上の前記対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を設定する位置設定手段と、
     少なくとも前記符号化差分信号及び前記大領域についての前記新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化手段と、を備え、
     前記予測信号生成手段は、前記新規参照画像の挿入位置を示す位置情報に基づいて前記大領域についての前記参照画像リストを更新し、
     前記予測信号生成手段は、前記対象領域が属する前記大領域についての前記参照画像リストに含まれる参照画像から選択される参照画像を用いて前記対象領域の予測信号を生成し、
     前記エントロピー符号化手段は、前記対象領域の予測信号の生成に用いた前記参照画像を示す参照画像番号を符号化する、
    ことを特徴とする動画像符号化装置。
  18.  前記位置設定手段は、前記参照画像リストに前記新規参照画像が含まれない場合には、前記新規参照画像が前記参照画像リストに含まれないことを示す前記位置情報を生成し、
     前記エントロピー符号化手段は、前記新規参照画像が前記参照画像リストに含まれないことを示す前記位置情報をエントロピー符号化し、
     前記予測信号生成手段は、前記新規参照画像を含まないように前記参照画像リストを更新する、
    ことを特徴とする請求項16又は17に記載の動画像符号化装置。
  19.  前記参照画像生成手段は、前記既存参照画像に基づいて観測行列及び状態ベクトルを求め、前記観測行列及び前記状態ベクトルに基づいて前記新規参照画像を生成する、
    ことを特徴とする請求項16~18のいずれか一項に記載の動画像符号化装置。
  20.  前記エントロピー符号化手段は、前記状態ベクトルを更にエントロピー符号化する、
    ことを特徴とする請求項19記載の動画像符号化装置。
  21.  前記参照画像生成手段は、複数の前記既存参照画像から構成される行列を対象に特異値分解を実行することにより前記観測行列及び前記状態ベクトルの少なくとも一方を求めて前記新規参照画像を生成する、
    ことを特徴とする請求項19又は20に記載の動画像符号化装置。
  22.  動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、
     前記圧縮データから少なくとも復号対象となる対象領域の前記符号化差分信号を復元するエントロピー復号手段と、
     前記対象領域の前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に対する前記対象領域の予測信号を生成する予測信号生成手段と、
     前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算手段と、
     前記対象領域の再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段と、を備え、
     前記エントロピー復号手段は、複数の前記参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を示す位置情報を前記圧縮データから復号し、
     前記予測信号生成手段は、前記新規参照画像の挿入位置を示す位置情報に基づいて前記参照画像リストを更新し、
     前記エントロピー復号手段は、更新した前記参照画像リストに基づいて前記対象領域の予測信号を生成する際に用いる前記参照画像を示す参照画像番号を前記圧縮データから復号し、
     前記予測信号生成手段は、復号した前記参照画像番号で示される前記参照画像を用いて前記対象領域の予測信号を生成する、
    ことを特徴とする動画像復号装置。
  23.  動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、
     前記圧縮データから少なくとも復号対象となる対象領域の前記符号化差分信号を復元するエントロピー復号手段と、
     前記対象領域の前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に対する前記対象領域の予測信号を生成する予測信号生成手段と、
     前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算手段と、
     前記対象領域の再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、
     前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成手段と、を備え、
     前記エントロピー復号手段は、少なくとも二つ以上の前記対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を示す位置情報を前記圧縮データから復号し、
     前記予測信号生成手段は、前記新規参照画像の挿入位置を示す位置情報に基づいて前記大領域についての前記参照画像リストを更新し、
     前記エントロピー復号手段は、更新した前記参照画像リストに基づいて前記対象領域の予測信号を生成する際に用いる前記参照画像を示す参照画像番号を前記圧縮データから復号し、
     前記予測信号生成手段は、復号した前記参照画像番号で示される前記参照画像を用いて前記対象領域の予測信号を生成する、
    ことを特徴とする動画像復号装置。
  24.  前記エントロピー復号手段は、前記新規参照画像が前記参照画像リストに含まれないことを示す前記位置情報を復号し、
     前記予測信号生成手段は、前記新規参照画像を含まないように前記参照画像リストを更新する、
    ことを特徴とする請求項22又は23に記載の動画像復号装置。
  25.  前記参照画像生成手段は、前記既存参照画像に基づいて観測行列及び状態ベクトルを求め、前記観測行列及び前記状態ベクトルに基づいて前記新規参照画像を生成する、
    ことを特徴とする請求項22~24のいずれか一項に記載の動画像復号装置。
  26.  前記圧縮データには状態ベクトルに対応するベクトル圧縮データをさらに含み、
     前記復号手段は、前記符号化差分信号を前記復号差分信号に復号する際、前記ベクトル圧縮データを復元して復号状態ベクトルを生成し、
     前記参照画像生成手段は、前記観測行列及び前記復号状態ベクトルに基づいて前記新規参照画像を生成する、
    ことを特徴とする請求項22~24のいずれか一項に記載の動画像復号装置。
  27.  前記参照画像生成手段は、複数の前記既存参照画像から構成される行列を対象に特異値分解を実行することにより前記観測行列及び前記状態ベクトルの少なくとも一方を求めて前記新規参照画像を生成する、
    ことを特徴とする請求項25又26に記載の動画像復号装置。
  28.  動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力手段と、
     前記圧縮データから少なくとも復号対象となる対象領域の前記符号化差分信号を復元するエントロピー復号手段と、
     前記対象領域の前記符号化差分信号を復号して復号差分信号を生成する復号手段と、
     前記復号差分信号に対する前記対象領域の予測信号を生成する予測信号生成手段と、
     前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算手段と、
     前記対象領域の再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納手段と、を備え、
     前記エントロピー復号手段は、複数の前記参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を示す位置情報を前記圧縮データから復号し、
     前記予測信号生成手段は、前記新規参照画像の挿入位置を示す位置情報に基づいて前記参照画像リストを更新すると共に、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納し、
     前記エントロピー復号手段は、更新した前記参照画像リストに基づいて前記対象領域の予測信号を生成する際に用いる前記参照画像を示す参照画像番号を前記圧縮データから復号し、
     前記予測信号生成手段は、復号した前記参照画像番号で示される前記参照画像を用いて前記対象領域の予測信号を生成する、
    ことを特徴とする動画像復号装置。
  29.  入力手段が、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力ステップと、
     分割手段が、前記符号化対象画像を複数の領域に分割する分割ステップと、
     予測信号生成手段が、前記複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成ステップと、
     差分生成手段が、前記対象領域の対象信号と前記予測信号との差分である差分信号を生成する差分生成ステップと、
     符号化手段が、前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化ステップと、
     復号手段が、前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算ステップと、
     格納手段が、前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、
     参照画像生成手段が、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成ステップと、
     位置設定手段が、複数の前記参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を設定する位置設定ステップと、
     エントロピー符号化手段が、少なくとも前記符号化差分信号及び前記新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化ステップと、を備え、
     前記予測信号生成ステップでは、前記新規参照画像の挿入位置を示す位置情報に基づいて前記参照画像リストを更新し、
     前記予測信号生成ステップでは、前記参照画像リストに含まれる参照画像から選択される参照画像を用いて前記対象領域の予測信号を生成し、
     前記エントロピー符号化ステップでは、前記対象領域の予測信号の生成に用いた前記参照画像を示す参照画像番号を符号化する、
    ことを特徴とする動画像符号化方法。
  30.  入力手段が、複数の画像から構成される動画像のうちの符号化対象画像に含まれる対象信号を入力する入力ステップと、
     分割手段が、前記符号化対象画像を複数の領域に分割する分割ステップと、
     予測信号生成手段が、前記複数の領域のうちの対象領域の対象信号に対する予測信号を生成する予測信号生成ステップと、
     差分生成手段が、前記対象領域の対象信号と前記予測信号との差分である差分信号を生成する差分生成ステップと、
     符号化手段が、前記差分信号を所定の方法で符号化して符号化差分信号を生成する符号化ステップと、
     復号手段が、前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算ステップと、
     格納手段が、前記再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、
     参照画像生成手段が、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成ステップと、
     位置設置手段が、少なくとも二つ以上の前記対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を設定する位置設定ステップと、
     エントロピー符号化手段が、少なくとも前記符号化差分信号及び前記大領域についての前記新規参照画像の挿入位置を示す位置情報をエントロピー符号化するエントロピー符号化ステップと、を備え、
     前記予測信号生成ステップでは、前記新規参照画像の挿入位置を示す位置情報に基づいて前記大領域についての前記参照画像リストを更新し、
     前記予測信号生成ステップでは、前記対象領域が属する前記大領域についての前記参照画像リストに含まれる参照画像から選択される参照画像を用いて前記対象領域の予測信号を生成し、
     前記エントロピー符号化ステップでは、前記対象領域の予測信号の生成に用いた前記参照画像を示す参照画像番号を符号化する、
    ことを特徴とする動画像符号化方法。
  31.  前記位置設定ステップでは、前記参照画像リストに前記新規参照画像が含まれない場合には、前記新規参照画像が前記参照画像リストに含まれないことを示す前記位置情報を生成し、
     前記エントロピー符号化ステップでは、前記新規参照画像が前記参照画像リストに含まれないことを示す前記位置情報をエントロピー符号化し、
     前記予測信号生成ステップでは、前記新規参照画像を含まないように前記参照画像リストを更新する、
    ことを特徴とする請求項30又は31に記載の動画像符号化方法。
  32.  入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、
     エントロピー復号手段が、前記圧縮データから少なくとも復号対象となる対象領域の前記符号化差分信号を復元するエントロピー復号ステップと、
     復号手段が、前記対象領域の前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     予測信号生成手段が、前記復号差分信号に対する前記対象領域の予測信号を生成する予測信号生成ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算ステップと、
     格納手段が、前記対象領域の再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、
     参照画像生成手段が、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納する参照画像生成ステップと、を備え、
     前記エントロピー復号ステップでは、複数の前記参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を示す位置情報を前記圧縮データから復号し、
     前記予測信号生成ステップでは、前記新規参照画像の挿入位置を示す位置情報に基づいて前記参照画像リストを更新し、
     前記エントロピー復号ステップでは、更新した前記参照画像リストに基づいて前記対象領域の予測信号を生成する際に用いる前記参照画像を示す参照画像番号を前記圧縮データから復号し、
     前記予測信号生成ステップでは、復号した前記参照画像番号で示される前記参照画像を用いて前記対象領域の予測信号を生成する、
    ことを特徴とする動画像復号方法。
  33.  入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、
     エントロピー復号手段が、前記圧縮データから少なくとも復号対象となる対象領域の前記符号化差分信号を復元するエントロピー復号ステップと、
     復号手段が、前記対象領域の前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     予測信号生成手段が、前記復号差分信号に対する前記対象領域の予測信号を生成する予測信号生成ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算ステップと、
     格納手段が、前記対象領域の再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、
     参照画像生成手段が、前記格納ステップに格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納ステップに格納する参照画像生成ステップと、を備え、
     前記エントロピー復号ステップでは、少なくとも二つ以上の前記対象領域にて構成される大領域について、複数の参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を示す位置情報を前記圧縮データから復号し、
     前記予測信号生成ステップでは、前記新規参照画像の挿入位置を示す位置情報に基づいて前記大領域についての前記参照画像リストを更新し、
     前記エントロピー復号ステップでは、更新した前記参照画像リストに基づいて前記対象領域の予測信号を生成する際に用いる前記参照画像を示す参照画像番号を前記圧縮データから復号し、
     前記予測信号生成ステップでは、復号した前記参照画像番号で示される前記参照画像を用いて前記対象領域の予測信号を生成する、
    ことを特徴とする動画像復号方法。
  34.  前記エントロピー復号ステップでは、前記新規参照画像が前記参照画像リストに含まれないことを示す前記位置情報を復号し、
     前記予測信号生成ステップでは、前記新規参照画像を含まないように前記参照画像リストを更新する、
    ことを特徴とする請求項32又は33に記載の動画像復号方法。
  35.  入力手段が、動画像を予測符号化して得られる符号化差分信号を含む圧縮データを入力する入力ステップと、
     エントロピー復号手段が、前記圧縮データから少なくとも復号対象となる対象領域の前記符号化差分信号を復元するエントロピー復号ステップと、
     復号手段が、前記対象領域の前記符号化差分信号を復号して復号差分信号を生成する復号ステップと、
     予測信号生成手段が、前記復号差分信号に対する前記対象領域の予測信号を生成する予測信号生成ステップと、
     加算手段が、前記復号差分信号に前記予測信号を加算して前記対象領域の再生信号を生成する加算ステップと、
     格納手段が、前記対象領域の再生信号を、前記予測信号が生成される際に参照される参照画像として格納する格納ステップと、を備え、
     前記エントロピー復号ステップでは、複数の前記参照画像を管理する参照画像リストにおける前記新規参照画像の挿入位置を示す位置情報を前記圧縮データから復号し、
     前記予測信号生成ステップでは、前記新規参照画像の挿入位置を示す位置情報に基づいて前記参照画像リストを更新すると共に、前記格納手段に格納された既生成の前記参照画像である既存参照画像を用いて観測行列を求め、前記観測行列に基づいて新たな前記参照画像である新規参照画像を生成して前記格納手段に格納し、
     前記エントロピー復号ステップでは、更新した前記参照画像リストに基づいて前記対象領域の予測信号を生成する際に用いる前記参照画像を示す参照画像番号を前記圧縮データから復号し、
     前記予測信号生成ステップでは、復号した前記参照画像番号で示される前記参照画像を用いて前記対象領域の予測信号を生成する、
    ことを特徴とする動画像復号方法。
  36.  請求項16~21のいずれか一項に記載された動画像符号化装置に係る処理をコンピュータに実行させるための動画像符号化プログラム。
  37.  請求項22~28のいずれか一項に記載された動画像復号装置に係る処理をコンピュータに実行させるための動画像復号プログラム。
PCT/JP2009/065945 2008-09-19 2009-09-11 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム WO2010032693A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP09814538.6A EP2352295B1 (en) 2008-09-19 2009-09-11 Video coding using artificial reference frames
CN200980116976.2A CN102027746B (zh) 2008-09-19 2009-09-11 动态图像编码装置、动态图像解码装置、动态图像编码方法、动态图像解码方法
US13/051,768 US9277238B2 (en) 2008-09-19 2011-03-18 Moving image encoding and decoding system

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008241128 2008-09-19
JP2008-241128 2008-09-19
JP2009-104084 2009-04-22
JP2009104084A JP5680283B2 (ja) 2008-09-19 2009-04-22 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/051,768 Continuation US9277238B2 (en) 2008-09-19 2011-03-18 Moving image encoding and decoding system

Publications (1)

Publication Number Publication Date
WO2010032693A1 true WO2010032693A1 (ja) 2010-03-25

Family

ID=42039517

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065945 WO2010032693A1 (ja) 2008-09-19 2009-09-11 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム

Country Status (6)

Country Link
US (1) US9277238B2 (ja)
EP (2) EP2838269A1 (ja)
JP (1) JP5680283B2 (ja)
CN (1) CN102027746B (ja)
TW (1) TWI548265B (ja)
WO (1) WO2010032693A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102970542A (zh) * 2012-11-30 2013-03-13 上海晨思电子科技有限公司 一种视频数据转换的方法、装置和智能电视
US9277238B2 (en) 2008-09-19 2016-03-01 Ntt Docomo, Inc. Moving image encoding and decoding system

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102823248B (zh) 2010-04-08 2015-06-24 株式会社东芝 图像编码方法以及图像编码装置
JP5982734B2 (ja) 2011-03-11 2016-08-31 ソニー株式会社 画像処理装置および方法
JP2012253722A (ja) * 2011-06-07 2012-12-20 Sony Corp 画像符号化装置と画像復号装置およびその方法とプログラム
KR101442127B1 (ko) 2011-06-21 2014-09-25 인텔렉추얼디스커버리 주식회사 쿼드트리 구조 기반의 적응적 양자화 파라미터 부호화 및 복호화 방법 및 장치
JP5698644B2 (ja) * 2011-10-18 2015-04-08 株式会社Nttドコモ 動画像予測符号化方法、動画像予測符号化装置、動画像予測符号化プログラム、動画像予測復号方法、動画像予測復号装置及び動画像予測復号プログラム
US20130101014A1 (en) * 2011-10-25 2013-04-25 Microsoft Corporation Layered Screen Video Encoding
JP6120490B2 (ja) 2011-11-07 2017-04-26 キヤノン株式会社 画像符号化装置、画像符号化方法及びプログラム、画像復号装置、画像復号方法及びプログラム
TWI600315B (zh) * 2011-12-28 2017-09-21 Jvc Kenwood Corp 動態影像解碼裝置、動態影像解碼方法及記錄有動態影像解碼程式的記錄媒體
SI3767952T1 (sl) * 2012-01-19 2022-01-31 Electronics And Telecommunications Research Institute Naprava za kodiranje/dekodiranje slike
US9729870B2 (en) * 2012-01-31 2017-08-08 Apple Inc. Video coding efficiency with camera metadata
JP5798539B2 (ja) * 2012-09-24 2015-10-21 株式会社Nttドコモ 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
KR101410837B1 (ko) * 2013-09-10 2014-06-24 이에스이 주식회사 비디오 메모리의 모니터링을 이용한 영상 처리 장치
CN104967453B (zh) * 2015-06-24 2018-01-05 西北工业大学 基于fpga的多路循环数据压缩器和解压缩器以及方法
CN104933670B (zh) * 2015-07-02 2018-06-15 北京电子工程总体研究所 一种图像像素数据的存储方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60235528A (ja) * 1984-05-08 1985-11-22 Canon Inc デ−タ圧縮方式
WO2004039083A1 (ja) * 2002-04-26 2004-05-06 Ntt Docomo, Inc. 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
JP2005328457A (ja) * 2004-05-17 2005-11-24 Casio Comput Co Ltd 動画像符号化装置、動画像復号化装置、コーデック装置、および、プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1271957B1 (en) * 1994-12-20 2006-05-24 Matsushita Electric Industrial Co., Ltd. Object-based digital image predictive coding and transfer method and apparatus, and decoding apparatus
CN1155259C (zh) 1996-11-26 2004-06-23 松下电器产业株式会社 运动图象可变比特率编码装置和编码方法
US20040135788A1 (en) * 2000-12-22 2004-07-15 Davidson Colin Bruce Image processing system
US6909807B2 (en) * 2001-06-28 2005-06-21 Intel Corporation Compression and synthesis of two dimensional images
US6977659B2 (en) * 2001-10-11 2005-12-20 At & T Corp. Texture replacement in video sequences and images
CN100566420C (zh) * 2002-07-15 2009-12-02 株式会社日立制作所 动态图像的编码方法
US7336803B2 (en) * 2002-10-17 2008-02-26 Siemens Corporate Research, Inc. Method for scene modeling and change detection
FR2852773A1 (fr) * 2003-03-20 2004-09-24 France Telecom Procedes et dispositifs de codage et de decodage d'une sequence d'images par decomposition mouvement/texture et codage par ondelettes
US7671894B2 (en) * 2004-12-17 2010-03-02 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
CN101189641B (zh) * 2005-05-12 2012-05-02 布雷克成像有限公司 编码数字图像的像素或体素的方法及处理数字图像的方法
BRPI0621340A2 (pt) * 2006-02-13 2011-12-06 Toshiba Kk Toshiba Corp método e aparelho e programa de codificação/decodificação de vìdeo
EP2041982A2 (en) * 2006-07-11 2009-04-01 Thomson Licensing Methods and apparatus using virtual reference pictures
JP5680283B2 (ja) 2008-09-19 2015-03-04 株式会社Nttドコモ 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60235528A (ja) * 1984-05-08 1985-11-22 Canon Inc デ−タ圧縮方式
WO2004039083A1 (ja) * 2002-04-26 2004-05-06 Ntt Docomo, Inc. 画像符号化装置、画像復号装置、画像符号化方法、画像復号方法、画像符号化プログラム及び画像復号プログラム
JP2005328457A (ja) * 2004-05-17 2005-11-24 Casio Comput Co Ltd 動画像符号化装置、動画像復号化装置、コーデック装置、および、プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2352295A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9277238B2 (en) 2008-09-19 2016-03-01 Ntt Docomo, Inc. Moving image encoding and decoding system
CN102970542A (zh) * 2012-11-30 2013-03-13 上海晨思电子科技有限公司 一种视频数据转换的方法、装置和智能电视

Also Published As

Publication number Publication date
JP5680283B2 (ja) 2015-03-04
EP2352295A1 (en) 2011-08-03
CN102027746B (zh) 2014-03-26
TW201016021A (en) 2010-04-16
CN102027746A (zh) 2011-04-20
EP2352295B1 (en) 2014-11-12
EP2352295A4 (en) 2012-03-28
EP2838269A1 (en) 2015-02-18
US9277238B2 (en) 2016-03-01
JP2010098710A (ja) 2010-04-30
US20110222601A1 (en) 2011-09-15
TWI548265B (zh) 2016-09-01

Similar Documents

Publication Publication Date Title
JP5680283B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、動画像復号方法、動画像符号化プログラム、及び動画像復号プログラム
JP2007300380A (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP4993676B2 (ja) 画像符号化装置及び画像符号化方法
KR100720851B1 (ko) 동화상 부호화 장치, 동화상 부호화 방법, 동화상 부호화 프로그램을 기록한 기록 매체, 동화상 복호 장치, 동화상 복호 방법, 및 동화상 복호 프로그램을 기록한 기록 매체
JP6426648B2 (ja) 動画像予測復号方法及び動画像予測復号装置
JP2007067526A (ja) 画像処理装置
KR101664202B1 (ko) 동화상 예측 부호화 방법, 동화상 예측 부호화 장치, 동화상 예측 부호화 프로그램, 동화상 예측 복호 방법, 동화상 예측 복호 장치 및 동화상 예측 복호 프로그램
JP6875566B2 (ja) 動画像予測符号化装置、動画像予測復号装置、動画像予測符号化方法、動画像予測復号方法及び動画像予測復号プログラム
JP2014011714A (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP5922281B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測復号装置及び動画像予測復号方法
JP5375697B2 (ja) 動画像符号化装置、動画像復号装置、動画像符号化方法、及びプログラム
JP5415495B2 (ja) 画像予測符号化装置、画像予測符号化方法、画像予測符号化プログラム、画像予測復号装置、画像予測復号方法及び画像予測復号プログラム
JP6646125B2 (ja) 動画像予測復号方法及び動画像予測復号装置
JP6134418B2 (ja) 動画像予測復号装置及び動画像予測復号方法
JP4458408B2 (ja) 画像処理装置、画像処理方法、プログラム及び情報記録媒体
JP5736083B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP6071618B2 (ja) 画像処理装置及びプログラム
JP5668169B2 (ja) 動画像予測符号化装置、動画像予測符号化方法、動画像予測符号化プログラム、動画像予測復号装置、動画像予測復号方法及び動画像予測復号プログラム
JP2010063118A (ja) 動画像符号化装置、動画像符号化方法、動画像符号化プログラム、動画像復号装置、動画像復号方法、及び動画像復号プログラム
JP2006309652A (ja) 信号処理方法及び信号処理装置
JP2004343710A (ja) 動画像復号装置及び方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980116976.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09814538

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2009814538

Country of ref document: EP