JP2007116460A - Encoding device and method, decoding device and method, program, and recording medium - Google Patents

Encoding device and method, decoding device and method, program, and recording medium Download PDF

Info

Publication number
JP2007116460A
JP2007116460A JP2005306094A JP2005306094A JP2007116460A JP 2007116460 A JP2007116460 A JP 2007116460A JP 2005306094 A JP2005306094 A JP 2005306094A JP 2005306094 A JP2005306094 A JP 2005306094A JP 2007116460 A JP2007116460 A JP 2007116460A
Authority
JP
Japan
Prior art keywords
data
region
encoding
decoding
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005306094A
Other languages
Japanese (ja)
Inventor
Shinsuke Shintani
眞介 新谷
Hiroshi Hiraizumi
啓 平泉
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005306094A priority Critical patent/JP2007116460A/en
Publication of JP2007116460A publication Critical patent/JP2007116460A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an encoding device etc. capable of performing efficient encoding. <P>SOLUTION: A determination table derivation portion 52 classifies an image according to an inputted frame into a stationary region having no movement over several frames and a motion region having movement other than the stationary region, and creates a determination table based on the classification. A stationary region processing portion 54 encods an image in a region determined to be the stationary region, paying attention to the degree of correlation in time direction. A motion region processing portion 55 encods an image in a region determined to be the motion region, paying attention to the degree of correlation in space direction. The present invention is applicable to an encoding device for encoding moving images. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は符号化装置および方法、復号化装置および方法、プログラム、並びに記録媒体に関し、特に、画質を低下させることなく、圧縮率を高めるような符号化を行えるようにし、また、そのような符号化が行われたデータを復号化できるようにした符号化装置および方法、復号化装置および方法、プログラム、並びに記録媒体に関する。   The present invention relates to an encoding apparatus and method, a decoding apparatus and method, a program, and a recording medium, and in particular, enables encoding to increase the compression rate without degrading image quality. The present invention relates to an encoding device and method, a decoding device and method, a program, and a recording medium that enable decoding of the processed data.

従来の可逆符号化として、ウェーブレット変換を用いたJPEG(Joint Photographic Experts Group )2000 やDPCM(Differential PCM)を基本としたJPEGLSがある。これらの符号化は、サイズ変更を可能とすることを目的とした符号化方法(JPEG2000) であったり、隣接画素間の強い相関を利用したもの(JPEGLS) であったりした。   Conventional lossless encoding includes JPEG (Joint Photographic Experts Group) 2000 using wavelet transform and JPEGLS based on DPCM (Differential PCM). These encodings were an encoding method (JPEG2000) for the purpose of changing the size, or a method using a strong correlation between adjacent pixels (JPEGLS).

符号化された画像は用途により、例えば、医療分野などで利用される画像は、劣化の少ない画像が要求される。そのような要求に応えるために、画像を伝送する際の伝送損失による劣化や、画像を圧縮して保存する際の符号化圧縮による劣化を軽減させることが求められている。このような劣化の少ない画像が必要とされるときには、可逆符号化が用いられる。(例えば、特許文献1参照)
特開平09−233478号公報
The encoded image is required to be an image used in the medical field or the like, for example, an image with little deterioration depending on the application. In order to meet such a demand, it is required to reduce deterioration due to transmission loss when transmitting an image and deterioration due to encoding compression when compressing and storing an image. When such an image with little deterioration is required, lossless encoding is used. (For example, see Patent Document 1)
JP 09-233478 A

上記したように、劣化の少ない画像が要求されるときには、符号化方式としては、可逆符号化が用いられていた。可逆符号化は、圧縮による画質の劣化を抑えることができるが、圧縮後のデータ量が、不可逆符号化などの符号化方式と比べて大きくなってしまう。   As described above, when an image with little deterioration is required, lossless encoding has been used as the encoding method. Lossless encoding can suppress degradation in image quality due to compression, but the amount of data after compression becomes larger than encoding methods such as lossy encoding.

また、一般的な画像では数フレームにわたり、撮影対象が動いている部分と静止している部分がある。画像内で動きがある部分は、時間方向に相関が高いか、または空間方向に相関が高い。画像内で静止している部分は、時間方向に相関が高い。すなわち一般的な画像では、各画素によって周辺との相関の強さが異なる。このような性質を有する画像に、上述したような符号化方式で一律に処理を施すと、圧縮率を高めることができない(効率的な圧縮が行えない)ことがあった。   Further, in a general image, there are a moving part and a stationary part over a few frames. A portion having motion in the image has a high correlation in the time direction or a high correlation in the spatial direction. A portion that is stationary in the image has a high correlation in the time direction. That is, in a general image, the intensity of correlation with the surroundings differs depending on each pixel. When an image having such properties is uniformly processed by the encoding method as described above, the compression rate may not be increased (efficient compression cannot be performed).

すなわち、既存の可逆符号化方式は、画像自体の特徴を利用した方式が少なく、圧縮率を高めづらかった。   In other words, existing lossless encoding methods have few methods using the characteristics of the image itself, and it is difficult to increase the compression rate.

本発明は、このような状況に鑑みてなされたものであり、数フレームの画像データを動いている領域と静止している領域に分離し、それぞれに対して適切な処理を施すことにより効率良く符号化や、符号化された画像の復号化を行えるようにするものである。   The present invention has been made in view of such a situation, and separates several frames of image data into a moving area and a stationary area, and performs an appropriate process on each of them, thereby efficiently. It enables encoding and decoding of an encoded image.

本発明の一側面の符号化装置は、入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類手段と、前記第1の領域を第1の符号化方式で符号化する第1の符号化手段と、前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化手段とを備える。   An encoding apparatus according to an aspect of the present invention uses a plurality of input frames, and a predetermined frame of the plurality of frames is divided into a first region where a moving object is photographed and a first region Classification means for classifying the second area other than the first area, first encoding means for encoding the first area with a first encoding system, and the second area as a first encoding system. Comprises second encoding means for encoding with different encoding schemes.

前記分類手段は、複数のフレームにおける同一の座標の画素値から積分データを算出する第1の算出手段と、前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記第1の算出手段により算出された前記積分データを減算することにより残差データを算出する第2の算出手段とを備え、前記第2の算出手段により算出された前記残差データを所定の演算式に代入した演算結果が、所定の閾値より大きいか否かを判断することにより、前記座標における画素が、前記第1の領域に属するか、または前記第2の領域に属するかを分類するようにすることができる。   The classification means includes first calculation means for calculating integration data from pixel values at the same coordinates in a plurality of frames, and first pixel values at the same coordinates in one frame in the plurality of frames. Second calculating means for calculating residual data by subtracting the integral data calculated by the calculating means, and converting the residual data calculated by the second calculating means into a predetermined arithmetic expression. By determining whether or not the calculated calculation result is greater than a predetermined threshold, it is classified whether the pixel at the coordinate belongs to the first area or the second area. be able to.

前記第1の符号化手段は、前記フレームを構成するラインを構成する画素のうち、ラスタースキャン順で最初にスキャンされる画素であり、前記分類手段により前記第1の領域であると判断された画素を基準に設定し、その基準に設定された画素値を基準データとする第1の導出手段と、前記分類手段により前記第1の領域であると判断された画素のうち、隣接する画素の画素値の差分を演算し、差分値データとする第2の導出手段とを備え、前記基準値データと前記差分値データを符号化するようにすることができる。   The first encoding means is a pixel that is scanned first in the raster scan order among the pixels constituting the line constituting the frame, and is determined to be the first area by the classification means. A first derivation unit that sets a pixel as a reference and uses the pixel value set as the reference as reference data, and of the pixels determined to be the first region by the classification unit, Second reference means for calculating a difference between pixel values to obtain difference value data may be provided, and the reference value data and the difference value data may be encoded.

前記第2の符号化手段は、複数のフレームにおける同一の座標の画素値から積分データを算出する第1の算出手段と、前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記第1の算出手段により算出された前記積分データを減算することにより残差データを算出する第2の算出手段とを備え、前記積分データと前記残差データを符号化するようにすることができる。   The second encoding means includes first calculation means for calculating integration data from pixel values at the same coordinates in a plurality of frames, and pixel values at the same coordinates in one frame in the plurality of frames. A second calculation unit that calculates residual data by subtracting the integral data calculated by the first calculation unit, and encodes the integral data and the residual data. Can do.

前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の算出手段は、1枚目のフレームにおける積分データを算出し、2乃至N枚の各フレームにおける積分データは、前のフレームの積分データを用いて算出するようにすることができる。   When the plurality of frames are composed of 1 to N frames, the second calculation means calculates the integration data in the first frame, and the integration data in each of the 2 to N frames is: It can be calculated using the integration data of the previous frame.

前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の算出手段は、1乃至N−1までの各フレームにおける残差データを算出するようにすることができる。   When the plurality of frames are composed of 1 to N frames, the second calculation means can calculate residual data in each frame from 1 to N-1.

本発明の一側面の符号化方法は、入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類ステップと、前記第1の領域を第1の符号化方式で符号化する第1の符号化ステップと、前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化ステップとを含む。   According to an encoding method of one aspect of the present invention, a plurality of input frames are used, and a predetermined frame of the plurality of frames is divided into a first region where a moving object is photographed, and a first region A classification step for classifying the second region other than the first region, a first encoding step for encoding the first region with a first encoding method, and a first encoding method for the second region. Includes a second encoding step of encoding with a different encoding scheme.

本発明の一側面におけるプログラムは、入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類ステップと、前記第1の領域を第1の符号化方式で符号化する第1の符号化ステップと、前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化ステップとを含む処理をコンピュータに実行させる。   A program according to an aspect of the present invention uses a plurality of input frames, and a predetermined frame of the plurality of frames is divided into a first area where a moving object is photographed and a region other than the first area. The classification step for classifying into the second region, the first encoding step for encoding the first region with the first encoding method, and the second region different from the first encoding method are different. And causing a computer to execute a process including a second encoding step of encoding using an encoding method.

本発明の一側面の復号化装置は、複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データを入力する入力手段と、前記入力手段により入力された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化手段と、前記入力手段により入力された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化手段とを備える。   The decoding device according to one aspect of the present invention relates to a predetermined frame of a plurality of frames, and is classified into a first region where a moving object is captured and a second region other than the first region As a result of the classification, the encoded first encoded data related to the pixel value of the pixel in the first region, and the encoded second code related to the pixel value of the pixel in the second region Decoding the first encoded data inputted by the input means and the first encoded data inputted by the input means by the first decoding method while judging the first area using the classification result The first decoding unit and the second decoding data input by the input unit are used to determine the second region by using the classification result, and the first decoding method. Second decoding means for decoding with a different second decoding method

前記分類結果は、前記複数のフレームにおける同一の座標の画素値から積分データが算出され、前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記積分データが減算されることにより残差データが算出され、前記残差データが所定の演算式に代入された演算結果が、所定の閾値より大きいか否かが判断されることにより、前記座標における画素が、前記第1の領域に属するか、または前記第2の領域に属するかが分類された結果であるようにすることができる。   As the classification result, integration data is calculated from pixel values of the same coordinates in the plurality of frames, and the integration data is subtracted from the pixel values of the same coordinates in one frame in the plurality of frames. The residual data is calculated by the above, and it is determined whether or not the calculation result obtained by substituting the residual data into a predetermined arithmetic expression is greater than a predetermined threshold value. It may be the result of classification whether it belongs to a region or belongs to the second region.

前記第1の符号化データは、前記フレームを構成するラインを構成する画素のうち、ラスタースキャン順で最初にスキャンされる画素であり、前記第1の領域に分類された画素の画素値と、前記第1の領域に分類された画素のうち、隣接する画素の画素値の差分値が含まれ、前記第1の復号化方式に対応する符号化方式で符号化されたデータであるようにすることができる。   The first encoded data is a pixel that is scanned first in the raster scan order among the pixels that constitute the line that constitutes the frame, and the pixel values of the pixels classified in the first region; Among the pixels classified in the first region, a difference value of pixel values of adjacent pixels is included, and the data is encoded by an encoding method corresponding to the first decoding method. be able to.

前記第1の符号化データは、前記複数のフレームにおける同一の座標の画素値から積分データと、前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記積分データが減算されることにより残差データが含まれ、前記第2の復号化方式に対応する符号化方式で符号化されたデータであるようにすることができる。   The first encoded data is obtained by subtracting the integral data from the pixel value of the same coordinate in the plurality of frames and the pixel value of the same coordinate in one frame of the plurality of frames. Thus, residual data is included, and data encoded by an encoding method corresponding to the second decoding method can be obtained.

前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の符号化データには、1枚目のフレームにおける積分データが含まれるようにすることができる。   When the plurality of frames are composed of 1 to N frames, the second encoded data can include integration data in the first frame.

前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の符号化データには、1乃至N−1までの各フレームにおける残差データが含まれるようにすることができる。   When the plurality of frames are composed of 1 to N frames, the second encoded data can include residual data in each frame from 1 to N-1. .

本発明の一側面の復号化方法は、複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データの入力を制御する入力制御ステップと、前記入力制御ステップの処理で入力が制御された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化ステップと、前記入力制御ステップの処理で入力が制御された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化ステップとを含む。   The decoding method according to one aspect of the present invention is classified into a first area where a moving object is photographed and a second area other than the first area with respect to a predetermined frame of the plurality of frames. As a result of the classification, the encoded first encoded data related to the pixel value of the pixel in the first region, and the encoded second code related to the pixel value of the pixel in the second region An input control step for controlling the input of the encoded data, and the first encoded data whose input is controlled in the process of the input control step, using the classification result, while determining the first region, A first decoding step for decoding by one decoding method, and the second encoded data whose input is controlled by the processing of the input control step, using the classification result, While judging, a second different from the first decoding method And a second decoding step of decoding by the decoding scheme.

本発明の一側面のプログラムは、複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データの入力を制御する入力制御ステップと、前記入力制御ステップの処理で入力が制御された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化ステップと、前記入力制御ステップの処理で入力が制御された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化ステップとを含む処理をコンピュータに実行させる。   A program according to one aspect of the present invention relates to a predetermined result of a plurality of frames, and a classification result classified into a first region where a moving object is photographed and a second region other than the first region , Encoded first encoded data related to pixel values of pixels in the first region, and encoded second encoded data related to pixel values of pixels in the second region An input control step for controlling the input of the first encoded data whose input has been controlled in the processing of the input control step, using the classification result to determine the first region, A first decoding step for decoding by a decoding method and the second encoded data whose input is controlled by the processing of the input control step are used to determine a second region using the classification result. However, the second decoding method is different from the first decoding method. To execute processing including a second decoding step of decoding by the decoding method in the computer.

本発明の一側面の記録媒体は、上記したプログラムを記録している。   A recording medium according to one aspect of the present invention records the above-described program.

本発明の一側面における符号化装置および方法、並びにプログラムにおいては、フレーム内で、物体が動いている動き領域と静止している静止領域とが判断され、その判断に基づき、動き領域と静止領域が、それぞれ異なる符号化方式で符号化される。   In the encoding apparatus, method, and program according to one aspect of the present invention, a motion region where an object is moving and a stationary region where an object is moving are determined in a frame, and the motion region and the stationary region are determined based on the determination. Are encoded by different encoding methods.

本発明の一側面における復号化装置および方法、並びにプログラムにおいては、フレーム内で、物体が動いている動き領域と静止している静止領域とが判断された結果が用いられて、動き領域が判断され、動き領域に関して符号化されたデータが復号化されるとともに、静止領域が判断され、静止領域に関して符号化されたデータが復号化される。   In the decoding apparatus and method and the program according to one aspect of the present invention, the motion region is determined by using the result of determining the motion region where the object is moving and the still region where the object is moving in the frame. Then, the data encoded with respect to the motion region is decoded, the still region is determined, and the data encoded with respect to the still region is decoded.

本発明の一側面によれば、効率良い符号化を行うことができる。   According to one aspect of the present invention, efficient encoding can be performed.

本発明の一側面によれば、画像の特徴に応じた符号化を行うことができる。また、そのように符号化されたデータを復号化することができる。   According to one aspect of the present invention, encoding according to image characteristics can be performed. In addition, the data encoded as such can be decoded.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の符号化装置(例えば、図2の符号化装置50)は、入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類手段(例えば、図2の判定テーブル導出部52)と、前記第1の領域を第1の符号化方式で符号化する第1の符号化手段(例えば、図2の動き領域処理部55)と、前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化手段(例えば、図2の静止領域処理部54)とを備える。   An encoding apparatus according to an aspect of the present invention (for example, the encoding apparatus 50 in FIG. 2) uses a plurality of input frames, and a moving object is photographed in a predetermined frame among the plurality of frames. Classification means for classifying the first area into a second area other than the first area (for example, the determination table deriving unit 52 in FIG. 2), and encoding the first area with the first encoding method First encoding means for converting (for example, the motion region processing unit 55 in FIG. 2) and second encoding means for encoding the second region by an encoding method different from the first encoding method. (For example, the still area processing unit 54 in FIG. 2).

前記分類手段(例えば、図3の判定テーブル導出部52)は、複数のフレームにおける同一の座標の画素値から積分データを算出する第1の算出手段(例えば、図3の積分データ導出部71)と、前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記第1の算出手段により算出された前記積分データを減算することにより残差データを算出する第2の算出手段(例えば、図3の残差導出部72)とを備え、前記第2の算出手段により算出された前記残差データを所定の演算式に代入した演算結果が、所定の閾値より大きいか否かを判断することにより、前記座標における画素が、前記第1の領域に属するか、または前記第2の領域に属するかを分類する(例えば、図3の静止領域・動き領域判定部73)ようにすることができる。   The classification unit (for example, the determination table derivation unit 52 in FIG. 3) is a first calculation unit (for example, the integration data derivation unit 71 in FIG. 3) that calculates integration data from pixel values at the same coordinates in a plurality of frames. And second calculation means for calculating residual data by subtracting the integral data calculated by the first calculation means from pixel values of the same coordinates in one of the plurality of frames. (For example, a residual deriving unit 72 in FIG. 3), and whether or not a calculation result obtained by substituting the residual data calculated by the second calculation unit into a predetermined arithmetic expression is greater than a predetermined threshold value. To classify whether the pixel at the coordinate belongs to the first region or the second region (for example, the still region / motion region determination unit 73 in FIG. 3). Rukoto can.

前記第1の符号化手段(例えば、図6の動き領域処理部55)は、前記フレームを構成するラインを構成する画素のうち、ラスタースキャン順で最初にスキャンされる画素であり、前記分類手段により前記第1の領域であると判断された画素を基準に設定し、その基準に設定された画素値を基準データとする第1の導出手段(例えば、図6の基準値導出部132)と、前記分類手段により前記第1の領域であると判断された画素のうち、隣接する画素の画素値の差分を演算し、差分値データとする第2の導出手段(例えば、図6の差分値導出部133)とを備え、前記基準値データと前記差分値データを符号化する(例えば、図6のエントロピー符号化処理部134)ようにすることができる。   The first encoding means (for example, the motion region processing unit 55 in FIG. 6) is a pixel that is scanned first in the raster scan order among the pixels constituting the line constituting the frame, and the classification means A first derivation unit (for example, a reference value deriving unit 132 in FIG. 6) that sets the pixel determined to be the first region as a reference and uses the pixel value set as the reference as reference data; The second derivation unit (for example, the difference value in FIG. 6) calculates the difference between the pixel values of adjacent pixels among the pixels determined to be the first region by the classification unit and sets the difference value data. A derivation unit 133), and the reference value data and the difference value data may be encoded (for example, the entropy encoding processing unit 134 in FIG. 6).

前記第2の符号化手段(例えば、図5の静止領域処理部54)は、複数のフレームにおける同一の座標の画素値から積分データを算出する第1の算出手段(例えば、図5の積分データ導出部112)と、前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記第1の算出手段により算出された前記積分データを減算することにより残差データを算出する第2の算出手段(例えば、図5の残差導出部113)とを備え、前記積分データと前記残差データを符号化する(例えば、図5のエントロピー符号化処理部114)ようにすることができる。   The second encoding unit (for example, the still region processing unit 54 in FIG. 5) is a first calculation unit (for example, the integration data in FIG. 5) that calculates integration data from pixel values at the same coordinates in a plurality of frames. A deriving unit 112) for calculating residual data by subtracting the integral data calculated by the first calculating means from a pixel value of the same coordinate in one of the plurality of frames; 2 calculating means (for example, the residual deriving unit 113 in FIG. 5), and encoding the integrated data and the residual data (for example, the entropy encoding processing unit 114 in FIG. 5). it can.

本発明の一側面の復号化装置(例えば、図17の復号化装置210)は、複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果(例えば、符号化判定テーブルデータ)、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ(例えば、符号化動き領域画像データ)、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データ(例えば、符号化静止領域画像データ)を入力する入力手段(例えば、図17の入力部211)と、前記入力手段により入力された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化手段(例えば、図17の動き領域復号化部215)と、前記入力手段により入力された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化手段(例えば、図17の静止領域復号化部214)とを備える。   The decoding device according to one aspect of the present invention (for example, the decoding device 210 in FIG. 17) relates to a first region in which a moving object is captured with respect to a predetermined frame among a plurality of frames, The classification result (for example, encoding determination table data) classified into the second area other than the area and the encoded first encoded data (for example, the code) related to the pixel value of the pixel in the first area And input means (for example, encoded still area image data) that is encoded with respect to pixel values of pixels in the second area (for example, encoded still area image data) The first encoded data input by the input unit 211) and the input unit in FIG. 17 is decoded by the first decoding method while determining the first region using the classification result. First decoding means (for example, FIG. 1) Motion region decoding unit 215), and the second encoded data input by the input means, using the classification result, while determining the second region, Comprises second decoding means (for example, the still area decoding unit 214 in FIG. 17) for decoding using a different second decoding method.

以下に、本発明の実施の形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施の形態は、符号化および復号化に関する。まず先に、本発明における符号化方式の概念について、図1を参照して説明する。   The present embodiment relates to encoding and decoding. First, the concept of the encoding method in the present invention will be described with reference to FIG.

図1Aは、カメラ11において物体12が撮影される様子を示した図である。物体12は、所定の方向(図1Aにおいては、図中左方向(矢印方向))に移動している。そのような所定の方向に移動している物体12をカメラ11により撮影した場合、図1Bに示したような画像が取得(撮影)される。   FIG. 1A is a diagram illustrating a state in which an object 12 is photographed by the camera 11. The object 12 is moving in a predetermined direction (in FIG. 1A, the left direction (arrow direction) in the figure). When the object 12 moving in such a predetermined direction is photographed by the camera 11, an image as shown in FIG. 1B is acquired (captured).

図1Bに示した画像は、カメラ11は固定され、物体12の移動方向に移動されることはない(物体12に追従してカメラ11が移動し、撮影することはない))状態で撮影された画像である。図1Bに示した例では、画像21−1乃至21−10が撮影された状態を示している。物体21は、撮影されたタイミングにより、画像内の異なる位置に位置している。このように連続して撮影された複数の画像の内の1枚を抽出すると、図1Cのようになっている。   The image shown in FIG. 1B is taken in a state in which the camera 11 is fixed and is not moved in the moving direction of the object 12 (the camera 11 moves following the object 12 and does not shoot). It is an image. In the example illustrated in FIG. 1B, the images 21-1 to 21-10 are captured. The object 21 is located at a different position in the image depending on the timing at which the object 21 was captured. When one of a plurality of images photographed continuously in this way is extracted, it is as shown in FIG. 1C.

図1Cにおいては、画像21−1を抽出した例を示している。画像21−1は、動き領域31と静止領域32とから構成されている。動き領域31は、物体12が撮影されている領域であり、静止領域32は、物体12が撮影されている以外の部分(背景部分)である。このように、動き領域31は、複数の画像間を見たときに、動きのある物体(被写体)が写っている領域であり、静止領域32は、動きのある部分以外(複数の画像間で、同一の画像が撮影されている部分)の領域である。   FIG. 1C shows an example in which the image 21-1 is extracted. The image 21-1 is composed of a motion area 31 and a stationary area 32. The motion region 31 is a region where the object 12 is photographed, and the stationary region 32 is a portion (background portion) other than the object 12 being photographed. As described above, the motion region 31 is a region in which a moving object (subject) is captured when viewed between a plurality of images, and the stationary region 32 is a region other than a moving portion (between a plurality of images). , The area where the same image is taken).

図1Bに示したように、動画像は、複数の静止画像から構成されている。そして動画像を構成する静止画像の1枚に注目すると、図1Cに示したように、動き領域31と静止領域32に分解することができる。   As shown in FIG. 1B, the moving image is composed of a plurality of still images. When attention is paid to one of the still images constituting the moving image, the moving region 31 and the still region 32 can be decomposed as shown in FIG. 1C.

以下に説明する符号化方式は、このように、動画像を構成する1枚の静止画像(フレーム)を、動き領域31と静止領域32に分解し、それぞれの領域の画像を、それぞれ符号化することにより、1枚の静止画像を符号化し、このような符号化を静止画像毎に繰り返すことにより、動画像を符号化する。そして復号化は、それぞれ符号化されている動き領域31と静止領域32を、それぞれ復号化し、復号化されたそれぞれの領域の画像を合成することにより1枚の静止画像を復号化し、このような復号化を静止画像毎に繰り返すことにより、動画像を復号化する。   In the encoding method described below, one still image (frame) constituting a moving image is decomposed into a motion region 31 and a still region 32, and images in the respective regions are encoded. Thus, one still image is encoded, and a moving image is encoded by repeating such encoding for each still image. Then, the decoding is performed by decoding the encoded motion region 31 and still region 32, respectively, and decoding one still image by synthesizing the decoded images of each region. A moving image is decoded by repeating the decoding for each still image.

このような符号化を行う符号化装置の構成と動作、復号化を行う復号化装置の構成と動作について以下に説明する。   The configuration and operation of an encoding apparatus that performs such encoding and the configuration and operation of a decoding apparatus that performs decoding will be described below.

[符号化装置の構成と動作について]
図2は、本発明を適用した符号化装置の一実施の形態の構成を示す図である。符号化装置50は、入力部51、判定テーブル導出部52、判定テーブル処理部53、静止領域処理部54、動き領域処理部55、および、出力部56を含む構成とされている。
[Configuration and operation of encoding apparatus]
FIG. 2 is a diagram showing a configuration of an embodiment of an encoding apparatus to which the present invention is applied. The encoding device 50 includes an input unit 51, a determination table derivation unit 52, a determination table processing unit 53, a still region processing unit 54, a motion region processing unit 55, and an output unit 56.

入力部51には、例えば、カメラ11(図1A)により撮影された画像の画像データが入力される。図1Bに示したように、入力部51に入力される画像データは、動画像を構成するフレームであり、フレームのデータが連続的に入力部51に入力されるとして説明を続ける。以下、適宜、フレームと記述するが、フレームとの記載は、そのフレームの画像データであるとの意味も含むとする。   For example, image data of an image captured by the camera 11 (FIG. 1A) is input to the input unit 51. As illustrated in FIG. 1B, the image data input to the input unit 51 is a frame constituting a moving image, and the description will be continued assuming that the frame data is continuously input to the input unit 51. Hereinafter, the term “frame” will be used as appropriate, but the term “frame” includes the meaning of image data of the frame.

入力部51に供給された1フレームを構成する画像データは、判定テーブル導出部52、静止領域処理部54、及び、動き領域処理部55に供給される。判定テーブル導出部52は、供給された画像データに基づくフレームを、動き領域31と静止領域32に分類し、判定テーブルを作成する。作成された判定テーブルは、判定テーブル処理部53、静止領域処理部54、および動き領域処理部55に供給される。   The image data constituting one frame supplied to the input unit 51 is supplied to the determination table deriving unit 52, the still region processing unit 54, and the motion region processing unit 55. The determination table deriving unit 52 classifies the frames based on the supplied image data into the motion area 31 and the still area 32 and creates a determination table. The created determination table is supplied to the determination table processing unit 53, the still region processing unit 54, and the motion region processing unit 55.

判定テーブル処理部53は、供給された判定テーブルを所定の方式で符号化する。符号化された判定テーブルは、出力部56に供給される。以下、判定テーブル処理部53から出力されるデータを、符号化判定テーブルデータと記述する。   The determination table processing unit 53 encodes the supplied determination table using a predetermined method. The encoded determination table is supplied to the output unit 56. Hereinafter, data output from the determination table processing unit 53 is described as encoding determination table data.

静止領域処理部54は、判定テーブル導出部52から供給される判定テーブルを参照し、入力部51から供給される画像内の静止領域32を判定する。そして、静止領域32と判定される領域内の画像を所定の符号化方式で符号化し、出力部56に供給する。以下、静止領域処理部54から出力されるデータを、符号化静止領域画像データと記述する。   The still region processing unit 54 refers to the determination table supplied from the determination table deriving unit 52 and determines the still region 32 in the image supplied from the input unit 51. Then, the image in the area determined to be the still area 32 is encoded by a predetermined encoding method and supplied to the output unit 56. Hereinafter, data output from the still region processing unit 54 is described as encoded still region image data.

動き領域処理部55は、判定テーブル導出部52から供給される判定テーブルを参照し、入力部51から供給される画像内の動き領域31を判定する。そして、動き領域31と判定される領域内の画像を所定の符号化方式で符号化し、出力部56に供給する。以下、動き領域処理部55から出力されるデータを、符号化動き領域画像データと記述する。   The motion region processing unit 55 refers to the determination table supplied from the determination table deriving unit 52 and determines the motion region 31 in the image supplied from the input unit 51. Then, the image in the region determined to be the motion region 31 is encoded by a predetermined encoding method and supplied to the output unit 56. Hereinafter, the data output from the motion region processing unit 55 is described as encoded motion region image data.

出力部56は、判定テーブル処理部53から供給された符号化判定テーブルデータ、静止領域処理部54から供給された符号化静止領域画像データ、および、動き領域処理部55から供給された符号化動き領域画像データを、図示されていない復号化装置に出力(送信)する。   The output unit 56 encodes the encoded determination table data supplied from the determination table processing unit 53, the encoded still region image data supplied from the still region processing unit 54, and the encoded motion supplied from the motion region processing unit 55. The region image data is output (transmitted) to a decoding device (not shown).

次に、符号化装置50を構成する各部の詳細な構成について説明する。図3は、判定テーブル導出部52の内部構成例を示す図である。判定テーブル導出部52は、積分データ導出部71、残差導出部72、静止領域・動き領域判定部73、および判定テーブル導出部74から構成されている。   Next, a detailed configuration of each unit configuring the encoding device 50 will be described. FIG. 3 is a diagram illustrating an internal configuration example of the determination table deriving unit 52. The determination table derivation unit 52 includes an integral data derivation unit 71, a residual derivation unit 72, a still region / motion region determination unit 73, and a determination table derivation unit 74.

入力部51(図2)を介して入力された画像は、判定テーブル導出部52の積分データ導出部71と残差導出部72に供給される。積分データ導出部71は、供給されたフレーム内の所定の画素値における積分データ(式などを参照し、後述する)を算出する。算出された積分データは、残差導出部72に供給される。   The image input via the input unit 51 (FIG. 2) is supplied to the integral data deriving unit 71 and the residual deriving unit 72 of the determination table deriving unit 52. The integral data deriving unit 71 calculates integral data (to be described later with reference to an equation or the like) at a predetermined pixel value in the supplied frame. The calculated integral data is supplied to the residual derivation unit 72.

残差導出部72は、積分データ導出部71から供給された積分データと、入力部51から供給されたフレームとから、残差(式などを参照し、後述する)を算出する。算出された残差は、静止領域・動き領域判定部73に供給される。静止領域・動き領域判定部73は、供給された残差を用いて、動き領域31と静止領域32を判定する。その判定結果は、判定テーブル導出部74に供給される。   The residual derivation unit 72 calculates a residual (to be described later with reference to an equation or the like) from the integration data supplied from the integration data derivation unit 71 and the frame supplied from the input unit 51. The calculated residual is supplied to the still region / motion region determination unit 73. The still region / motion region determination unit 73 determines the motion region 31 and the still region 32 using the supplied residual. The determination result is supplied to the determination table deriving unit 74.

判定テーブル導出部74は、画素毎に、動き領域31であるか、静止領域32であるかを示すフラグを割り当て、1フレームにおける動き領域31と静止領域32の分布に関する判定テーブルを作成し、判定テーブル処理部53、静止領域処理部54、および動き領域処理部55に出力する。   The determination table deriving unit 74 assigns a flag indicating whether the region is the motion region 31 or the still region 32 for each pixel, creates a determination table regarding the distribution of the motion region 31 and the still region 32 in one frame, and determines The data is output to the table processing unit 53, the still region processing unit 54, and the motion region processing unit 55.

図4は、判定テーブル処理部91の内部構成例を示す図である。判定テーブル処理部91は、エントロピー符号化部91を含む構成とされている。判定テーブル導出部52からの判定テーブルは、判定テーブル処理部53のエントロピー符号化部91に供給される。エントロピー符号化部91は、供給された判定テーブルを、所定の符号化方式、例えば、ハフマン符号化方式やランレングス符号化方式などのエントロピー符号化方式により、符号化し、符号化判定テーブルデータを生成する。生成された符号化判定テーブルデータは、出力部56(図2)に供給される。   FIG. 4 is a diagram illustrating an internal configuration example of the determination table processing unit 91. The determination table processing unit 91 is configured to include an entropy encoding unit 91. The determination table from the determination table deriving unit 52 is supplied to the entropy encoding unit 91 of the determination table processing unit 53. The entropy encoding unit 91 encodes the supplied determination table using a predetermined encoding method, for example, an entropy encoding method such as a Huffman encoding method or a run-length encoding method, and generates encoding determination table data. To do. The generated encoding determination table data is supplied to the output unit 56 (FIG. 2).

図5は、静止領域処理部54の内部構成例を示す図である。静止領域処理部54は、静止領域選択部111、積分データ導出部112、残差導出部113、および、エントロピー符号化処理部114から構成されている。   FIG. 5 is a diagram illustrating an internal configuration example of the still area processing unit 54. The still region processing unit 54 includes a still region selecting unit 111, an integral data deriving unit 112, a residual deriving unit 113, and an entropy coding processing unit 114.

判定テーブル導出部52からの判定テーブルは、静止領域処理部54の静止領域選択部111に供給される。静止領域選択部111は、供給された判定テーブルから、静止領域32を判定し、その情報(処理対象とする画素の情報(座標))を、積分データ導出部112と残差導出部113に供給する。   The determination table from the determination table derivation unit 52 is supplied to the still region selection unit 111 of the still region processing unit 54. The still area selection unit 111 determines the still area 32 from the supplied determination table and supplies the information (information (coordinates) of the pixel to be processed) to the integration data deriving unit 112 and the residual deriving unit 113. To do.

積分データ導出部112には、入力部51からフレームも供給される。積分データ導出部112は、処理対象とされた画素の積分データ(式を参照し、後述する)を算出し、残差導出部113とエントロピー符号化処理部114に供給する。残差導出部113には、入力部51からフレームも供給される。残差導出部113は、処理対象とされた画素の残差データ(式を参照し、後述する)を算出し、エントロピー符号化処理部114に供給する。   The integrated data deriving unit 112 is also supplied with a frame from the input unit 51. The integral data deriving unit 112 calculates integral data (to be described later with reference to an equation) of the pixel that is the processing target, and supplies it to the residual deriving unit 113 and the entropy encoding processing unit 114. The residual derivation unit 113 is also supplied with a frame from the input unit 51. The residual deriving unit 113 calculates residual data (described later with reference to an equation) of the pixel that is the processing target, and supplies the residual data to the entropy encoding processing unit 114.

エントロピー符号化処理部114は、積分データ導出部112からの積分データと残差導出部113からの残差データを、それぞれ、所定の符号化方式、例えば、ハフマン符号化方式やランレングス符号化方式などのエントロピー符号化方式により、符号化し、符号化静止領域画像データを生成する。生成された符号化静止領域画像データは、出力部56(図2)に供給される。   The entropy encoding processing unit 114 converts the integration data from the integration data deriving unit 112 and the residual data from the residual deriving unit 113 into predetermined encoding methods such as a Huffman encoding method and a run length encoding method, respectively. The encoded still area image data is generated by encoding using an entropy encoding method. The generated encoded still area image data is supplied to the output unit 56 (FIG. 2).

図6は、動き領域処理部55の内部構成例を示す図である。動き領域処理部55は、動き領域選択部131、基準値導出部132、差分値導出部133、および、エントロピー符号化処理部134から構成されている。   FIG. 6 is a diagram illustrating an internal configuration example of the motion region processing unit 55. The motion region processing unit 55 includes a motion region selection unit 131, a reference value derivation unit 132, a difference value derivation unit 133, and an entropy encoding processing unit 134.

判定テーブル導出部52からの判定テーブルは、動き領域処理部55の動き領域選択部131に供給される。動き領域選択部131は、供給された判定テーブルから、動き領域31を判定し、その情報(処理対象とする画素の情報(座標))を、基準値導出部132と差分値導出部133に供給する。   The determination table from the determination table derivation unit 52 is supplied to the motion region selection unit 131 of the motion region processing unit 55. The motion region selection unit 131 determines the motion region 31 from the supplied determination table and supplies the information (information (coordinates) of the pixel to be processed) to the reference value deriving unit 132 and the difference value deriving unit 133. To do.

基準値導出部132は、処理対象とされた画素の基準値を求める。詳細は後述するが、基準値とは、差分導出部133が差分を開始する画素の画素値である。基準値導出部132により導出された、基準値は、差分値導出部133とエントロピー符号化処理部134に供給される。差分値導出部133には、入力部51からフレームも供給される。差分値導出部133は、処理対象とされた画素の差分値データ(式を参照し、後述する)を算出し、エントロピー符号化処理部134に供給する。   The reference value deriving unit 132 obtains the reference value of the pixel that is the processing target. Although details will be described later, the reference value is a pixel value of a pixel at which the difference deriving unit 133 starts a difference. The reference value derived by the reference value deriving unit 132 is supplied to the difference value deriving unit 133 and the entropy encoding processing unit 134. The difference value deriving unit 133 is also supplied with a frame from the input unit 51. The difference value deriving unit 133 calculates difference value data (to be described later with reference to an equation) of the pixel that is the processing target, and supplies the calculated difference value data to the entropy encoding processing unit 134.

エントロピー符号化処理部134は、基準値データ導出部132からの基準値データと差分値導出部133からの差分値データを、それぞれ、所定の符号化方式、例えば、ハフマン符号化方式やランレングス符号化方式などのエントロピー符号化方式により、符号化し、符号化動き領域画像データを生成する。生成された符号化動き領域画像データは、出力部56(図2)に供給される。   The entropy encoding processing unit 134 converts the reference value data from the reference value data deriving unit 132 and the difference value data from the difference value deriving unit 133 into predetermined encoding methods such as a Huffman encoding method and a run length code, respectively. Encoding is performed by an entropy encoding method such as an encoding method to generate encoded motion region image data. The generated encoded motion region image data is supplied to the output unit 56 (FIG. 2).

出力部56(図2)には、判定テーブル処理部53から符号化判定テーブルデータ、静止領域処理部54から符号化静止領域画像データ、および、動き領域処理部55から符号化動き領域画像データが供給される。すなわち、図7に示すように、入力部51に入力された元データ151は、符号化装置50により、符号化判定テーブルデータ161、符号化静止領域画像データ162、および、符号化動き領域画像データ163に符号化される。   The output unit 56 (FIG. 2) receives the encoded determination table data from the determination table processing unit 53, the encoded still region image data from the still region processing unit 54, and the encoded motion region image data from the motion region processing unit 55. Supplied. That is, as shown in FIG. 7, the original data 151 input to the input unit 51 is encoded by the encoding device 50 with the encoding determination table data 161, the encoded still area image data 162, and the encoded motion area image data. 163 is encoded.

このような符号化を行う符号化装置50(図2)の動作について、図8乃至図11のフローチャートを参照して説明する。   The operation of the encoding device 50 (FIG. 2) that performs such encoding will be described with reference to the flowcharts of FIGS.

ステップS11(図8)において、mフレーム分のデータが蓄積される。例えば、図2の符号化装置50において、入力部51の後段に、蓄積分を設け、その蓄積分にmフレーム分の画像データが蓄積されるようにしても良い。ここでは、10フレーム分(m=10)の画像データが蓄積されるとして説明を続ける。   In step S11 (FIG. 8), data for m frames is accumulated. For example, in the encoding device 50 of FIG. 2, an accumulation amount may be provided at the subsequent stage of the input unit 51, and image data for m frames may be accumulated in the accumulation amount. Here, the description will be continued on the assumption that image data for 10 frames (m = 10) is accumulated.

ステップS11において、10フレーム分の画像データが蓄積されると、ステップS12において、判定テーブル導出部52と判定テーブル処理部53により、判定テーブル作成と、作成された判定テーブルの符号化の処理が実行される。ステップS12において実行される判定テーブル作成、符号化処理について、図9のフローチャートを参照して説明する。   In step S11, when image data for 10 frames is accumulated, in step S12, the determination table derivation unit 52 and the determination table processing unit 53 execute determination table generation and encoding of the generated determination table. Is done. The determination table creation and encoding process executed in step S12 will be described with reference to the flowchart of FIG.

ステップS31において、判定テーブル導出部52の積分データ導出部71(図3)は、積分データを導出する。積分データ導出部71には、10フレーム分の画像データが供給される。積分データは、以下の式(1)に基づき算出される。   In step S31, the integral data deriving unit 71 (FIG. 3) of the determination table deriving unit 52 derives integral data. The integrated data deriving unit 71 is supplied with image data for 10 frames. The integral data is calculated based on the following formula (1).

Figure 2007116460
Figure 2007116460

式(1)において、Itgw(x,y)は、nフレーム目の座標(x,y)における積分データを示し、wの添え字は、何フレーム目の積分データであるかを示す数値である。例えば、Itgw1(x,y)は、1フレーム目の座標(x,y)における積分データであることを示す。また、式(1)において、Lfr(x,y)は、nフレーム目の座標(x,y)における画素値を示し、frの添え字は、何フレーム目の画素値であるかを示す数値である。例えば、Lfr1(x,y)は、1フレーム目の座標(x,y)における画素値であることを示す。 In Expression (1), Itgw (x, y) indicates the integral data at the coordinates (x, y) of the nth frame, and the subscript of w is a numerical value indicating the frame of the integral data. . For example, Itgw 1 (x, y) indicates integration data at the coordinates (x, y) of the first frame. In Expression (1), L fr (x, y) indicates the pixel value at the coordinate (x, y) of the nth frame, and the subscript of fr indicates the frame of the pixel value. It is a numerical value. For example, L fr1 (x, y) indicates a pixel value at the coordinates (x, y) of the first frame.

式(1)において、29,28,27,・・・,20(=1)などは、係数である。係数は、このように、所定の底を複数回累乗した値である。この底は、“2”ではなく、“3”などの他の数値でも良いし、指数は、9,8,7,・・・,0といった減算される数値でなくても良い。 In equation (1), 2 9 , 2 8 , 2 7 ,..., 2 0 (= 1) are coefficients. As described above, the coefficient is a value obtained by multiplying a predetermined base multiple times. This base may be other numerical values such as “3” instead of “2”, and the index may not be a subtracted numerical value such as 9, 8, 7,.

ステップS31において算出される積分データは、式(1)に基づいて算出される。すなわち、1フレーム目の座標(x,y)における積分データItgw1(x,y)は、
1フレーム目の座標(x,y)における画素値に29を乗算した29fr1(x,y)、
2フレーム目の座標(x,y)における画素値に28を乗算した28fr2(x,y)、
3フレーム目の座標(x,y)における画素値に27を乗算した27fr3(x,y)、
4フレーム目の座標(x,y)における画素値に26を乗算した26fr4(x,y)、
5フレーム目の座標(x,y)における画素値に25を乗算した25fr5(x,y)、
6フレーム目の座標(x,y)における画素値に24を乗算した24fr6(x,y)、
7フレーム目の座標(x,y)における画素値に23を乗算した23fr7(x,y)、
8フレーム目の座標(x,y)における画素値に22を乗算した22fr8(x,y)、
9フレーム目の座標(x,y)における画素値に21を乗算した21fr9(x,y)、
および、10フレーム目の座標(x,y)における画素値に20(=1)を乗算したLfr10(x,y)
を加算した値とされる。
The integral data calculated in step S31 is calculated based on Expression (1). That is, the integral data Itgw 1 (x, y) at the coordinates (x, y) of the first frame is
First frame coordinates (x, y) 2 9 multiplied by 2 9 to the pixel values in the L fr1 (x, y),
Second frame coordinates (x, y) 2 8 multiplied by 2 8 to the pixel values in the L fr2 (x, y),
Third frame coordinates (x, y) 2 7 multiplied by 2 7 to the pixel value in the L fr3 (x, y),
Fourth frame coordinates (x, y) 2 6 multiplied by 2 6 in the pixel values in the L fr4 (x, y),
5 th frame coordinates (x, y) multiplied by 2 5 to the pixel value in the 2 5 L fr5 (x, y),
6 th frame coordinates (x, y) 2 4 L multiplied by 2 4 to the pixel value at fr6 (x, y),
7 th frame coordinates (x, y) multiplied by 2 3 to the pixel value in the 2 3 L FR7 (x, y),
8 th frame coordinates (x, y) 2 2 multiplied by 2 2 pixel values in the L fr8 (x, y),
9 th frame coordinates (x, y) 2 1 L multiplied by 2 1 to the pixel value at fr9 (x, y),
L fr10 (x, y) obtained by multiplying the pixel value at the coordinate (x, y) of the 10th frame by 2 0 (= 1)
It is a value obtained by adding.

このように積分データ導出部71は、所定のフレーム(処理対象となっているフレーム(例えば、図12のフレーム21−1))の所定の座標の画素値(処理対象となっている画素の値(例えば、図12のフレーム21−1の座標(x,y)における画素値)における積分データを、mフレーム分の同一の座標の画素値(例えば、図12のフレーム21−1乃至21−10のそれぞれのフレームにおける座標(x,y))から導出する。   As described above, the integral data deriving unit 71 determines the pixel value (the value of the pixel to be processed) of the predetermined coordinate of the predetermined frame (the frame to be processed (for example, the frame 21-1 in FIG. 12)). The integration data in (for example, the pixel values at the coordinates (x, y) of the frame 21-1 in FIG. 12) is used as the pixel values of the same coordinates for the m frames (for example, the frames 21-1 to 21-10 in FIG. 12). Are derived from the coordinates (x, y)) in each frame.

ステップS32において、判定テーブル導出部52の残差導出部72(図3)は、残差データを算出する。残差データは、次式(2)に基づき算出される。   In step S32, the residual deriving unit 72 (FIG. 3) of the determination table deriving unit 52 calculates residual data. Residual data is calculated based on the following equation (2).

Figure 2007116460
Figure 2007116460

式(2)において、Difffr(x,y)は、nフレーム目の座標(x,y)における残差データであり、frの添え字は、何フレーム目の残差であるかを示す。例えば、Difffr1(x,y)は、1フレーム目の座標(x,y)における残差データであることを示す。また、式(2)において“1023”との数値は、以下の数式の演算結果である。
1023=29+28+27+26+25+24+23+22+21+20
すなわち、“1023”は、式(1)における係数を全て加算した値である。勿論、“2”以外の底の係数を式(1)において用いた場合、この“1023”という係数も、式(1)の係数に合った係数に変えられる。
In Expression (2), Diff fr (x, y) is residual data at the coordinates (x, y) of the nth frame, and the subscript of fr indicates the frame of the residual. For example, Diff fr1 (x, y) indicates residual data at the coordinates (x, y) of the first frame. The numerical value “1023” in Expression (2) is the calculation result of the following expression.
1023 = 2 9 +2 8 +2 7 +2 6 +2 5 +2 4 +2 3 +2 2 +2 1 +2 0
That is, “1023” is a value obtained by adding all the coefficients in Expression (1). Of course, when a base coefficient other than “2” is used in the equation (1), the coefficient “1023” is also changed to a coefficient that matches the coefficient of the equation (1).

式(2)を参照するに、1フレーム目の残差データDifffr1(x,y)は、1フレーム目の画素値Lfr1(x,y)から、1フレーム目の積分データItgw1(x,y)を1023で除算した値を減算した値とされる。積分データItgw1(x,y)は、式(1)で算出される値が用いられる。 Referring to equation (2), the residual data Diff fr1 (x, y) of the first frame is calculated from the pixel value L fr1 (x, y) of the first frame as the integral data Itgw 1 (x , Y) is a value obtained by subtracting the value obtained by dividing by 1023. As the integration data Itgw 1 (x, y), the value calculated by the equation (1) is used.

このように、所定のフレームの所定の座標における残差は、その座標における画素値から積分データ(積分データに所定の係数を除算した値)を減算することにより算出される。   Thus, the residual at a predetermined coordinate in a predetermined frame is calculated by subtracting integral data (a value obtained by dividing the integral data by a predetermined coefficient) from the pixel value at that coordinate.

このように、式(1)や式(2)において、係数や係数を加算した値を用いた演算を行うのは、処理対象となっているフレーム(画素値)に依存した結果が得られるようにするためである。例えば、式(1)は、1フレーム目の積分データを求める式であるが、その1フレーム目の画素値Lfr1(x,y)に乗算する係数は、他のフレームの画素値(例えば、2フレーム目の画素値Lfr2(x,y))に乗算する係数よりも大きな係数とされるので、1フレーム目の画素値が、他のフレームの画素値よりも積分データに大きく影響を及ぼすような演算が行われることになる。 As described above, in the expressions (1) and (2), the calculation using the coefficient and the value obtained by adding the coefficients seems to obtain a result depending on the frame (pixel value) to be processed. It is to make it. For example, the expression (1) is an expression for obtaining the integration data of the first frame, and the coefficient to be multiplied by the pixel value L fr1 (x, y) of the first frame is a pixel value (for example, Since the coefficient is larger than the coefficient multiplied by the pixel value L fr2 (x, y)) of the second frame, the pixel value of the first frame has a greater influence on the integrated data than the pixel values of other frames. Such an operation is performed.

このように、処理対象とされているフレームの影響が大きくなるように、積分データや残差データを求めることにより(係数に偏りを持たせることにより)、後段の符号化を効率良く行う(圧縮率を高める)ことが可能となる。   In this way, by calculating the integral data and residual data (by giving bias to the coefficients) so that the influence of the frame to be processed becomes large, subsequent encoding is efficiently performed (compression). Increase the rate).

上記した説明においては、1フレーム目の積分データや残差データが求められる例を挙げて説明した。以下に、2フレーム目の積分データを求める際の式(3)を示す。   In the above description, an example in which integral data and residual data of the first frame are obtained has been described. Equation (3) for obtaining integration data for the second frame is shown below.

Figure 2007116460
Figure 2007116460

式(3)に示すように、2フレーム目の座標(x,y)における積分データは、2フレーム目の座標(x,y)における画素値に28を乗算した28fr2(x,y)から、10フレーム目の座標(x,y)における画素値に20を乗算したLfr10(x,y)までを加算した値である。この式(3)の上式と、式(1)を比較するに、式(3)の上式は、式(1)から1フレーム目の座標(x,y)における画素値に29を乗算した29fr1(x,y)が加算されていない式であることがわかる。 As shown in equation (3), the second frame of the coordinate (x, y) integral data in the second frame of the coordinate (x, y) 2 8 multiplied by 2 8 to the pixel values in the L fr2 (x, This is a value obtained by adding up to L fr10 (x, y) obtained by multiplying the pixel value at the coordinate (x, y) of the 10th frame by 2 0 from y). When comparing the above expression (3) with the expression (1), the above expression (3) indicates that the pixel value at the coordinates (x, y) of the first frame from the expression (1) is 2 9 . It can be seen that the multiplied 2 9 L fr1 (x, y) is not added.

換言すれば、式(3)の下式に示したように、1フレーム目の座標(x,y)における積分データItgw1(x,y)から、1フレーム目に係わる値29fr1(x,y)を減算することにより、2フレーム目の積分データを求めることができる。 In other words, as shown in the following equation (3), from the integration data Itgw 1 (x, y) at the coordinates (x, y) of the first frame, the value 2 9 L fr1 ( By subtracting x, y), the integration data of the second frame can be obtained.

このように、2フレーム目の積分データは、1フレーム目の積分データを用いて算出することができる。   Thus, the integration data of the second frame can be calculated using the integration data of the first frame.

3フレーム目の積分データは、次式(4)により求められる。   The integration data of the third frame is obtained by the following equation (4).

Figure 2007116460
Figure 2007116460

式(4)に示したように3フレーム目の積分データは、2フレーム目の積分データItgw2(x,y)から、2フレーム目に係わる画素値28fr2(x,y)を減算することにより求めることができる。さらに、3フレーム目の積分データは、1フレーム目の積分データItgw1(x,y)から、1フレーム目に係わる画素値29fr1(x,y)と2フレーム目に係わる画素値28fr2(x,y)を減算することによっても求めることができる。 As shown in Expression (4), the integration data of the third frame is obtained by subtracting the pixel value 2 8 L fr2 (x, y) related to the second frame from the integration data Itgw 2 (x, y) of the second frame. Can be obtained. Further, the integration data of the third frame is obtained from the integration data Itgw 1 (x, y) of the first frame and the pixel value 2 9 L fr1 (x, y) of the first frame and the pixel value of 2 of the second frame. It can also be obtained by subtracting 8 L fr2 (x, y).

このように、2フレーム以降の積分データは、それ以前の積分データ(例えば、1フレーム目の積分データ)を用いて算出することが可能である。   As described above, the integration data after the second frame can be calculated using the previous integration data (for example, the integration data of the first frame).

同様に、残差データも、処理対象とされるフレームより以前のフレームの残差データを算出する際に用いられたデータ(積分データ)を用いて算出することができる。例えば、図13を参照して説明するに、2フレーム目の座標(x,y)における残差データは、次式(5)に基づいて算出される。   Similarly, residual data can also be calculated using data (integrated data) used when calculating residual data of a frame prior to the frame to be processed. For example, as will be described with reference to FIG. 13, the residual data at the coordinates (x, y) of the second frame is calculated based on the following equation (5).

Figure 2007116460
Figure 2007116460

式(5)に示すように、2フレーム目の残差データは、2フレーム目の画素値Lfr2(x,y)から、2フレーム目の積分データItgw2(x,y)に(1/511)を乗算した値を除算した値とされる。“511”は、28から20までを加算した値である。 As shown in the equation (5), the residual data of the second frame is changed from the pixel value L fr2 (x, y) of the second frame to the integral data Itgw 2 (x, y) of the second frame (1 / 511) is obtained by dividing the value obtained by multiplication. “511” is a value obtained by adding 2 8 to 2 0 .

9フレーム目の残差データは、図13に示したように、2フレーム目の画素値Lfr2(x,y)から、9フレーム目の積分データItgw9(x,y)に(1/3)を乗算した値を除算した値とされる。“3”は、21と20を加算した値である。 As shown in FIG. 13, the residual data of the ninth frame is (1/3) from the pixel value L fr2 (x, y) of the second frame to the integration data Itgw 9 (x, y) of the ninth frame. ) Is a value obtained by dividing the value multiplied by. “3” is a value obtained by adding 2 1 and 2 0 .

このように、残差データも既に算出されている積分データおよび積分データを算出するのに用いた画素値を用いて算出することができる。   Thus, the residual data can also be calculated using the integration data that has already been calculated and the pixel values used to calculate the integration data.

よって、2フレーム目以降の積分データや残差データは、1フレーム目の積分データや残差データを算出する際に用いた値や、算出された値を用いることにより、効率良く(演算量を増大させることなく)算出することが可能となる。   Therefore, the integration data and residual data for the second and subsequent frames can be efficiently used (the calculation amount can be reduced by using the values used when calculating the integration data and residual data of the first frame. (Without increase).

また、残差データDifffr(x,y)は、式(2)、式(5)、図13に示した式を参照すればわかるように、後に処理される残差データは、更新された積分データに、自己の値を多く含むようになるので、残差として0となる可能性が高くなる。残差データが“0”となることにより、後段の符号化において、圧縮されやすいデータとなる(圧縮率が高いデータとなる)。 Further, the residual data Diff fr (x, y) is updated as the residual data to be processed later is updated, as can be seen by referring to the equations (2), (5), and FIG. Since the integrated data includes many self values, there is a high possibility that the residual becomes zero. When the residual data is “0”, the data is easily compressed in the subsequent encoding (the data has a high compression rate).

図9のフローチャートの説明に戻り、ステップS31において積分データが、ステップS32において残差データが、それぞれ算出されると、ステップS33において、静止領域32(図1)内の画素であるか否かが判定される。換言すれば、動き領域31内の画素であるか否かが判定される。   Returning to the description of the flowchart of FIG. 9, when the integration data is calculated in step S31 and the residual data is calculated in step S32, whether or not the pixel is in the still region 32 (FIG. 1) is determined in step S33. Determined. In other words, it is determined whether or not the pixel is in the motion region 31.

ステップS33における静止領域内の画素であるか否かの判定は、次式(6)に基づく値が算出され、その値が所定の閾値より小さいか否かが判断されることにより行われる。   Whether or not the pixel is in the still region in step S33 is determined by calculating a value based on the following equation (6) and determining whether or not the value is smaller than a predetermined threshold.

Figure 2007116460
Figure 2007116460

式(6)において、Var(x,y)は、座標(x,y)における判定値を示す。式(6)は、分子が1フレーム目の差分データから9フレーム目の差分データをそれぞれ2乗し、加算した値であり、分母がフレーム数から1除算した値(この場合、10−1=9)である。この式(6)に基づき算出される判定値Var(x,y)が、以下の条件1を満たすとき、静止領域32内の画素であると判定される。
条件1
判定値Var(x,y)≦閾値thsm
In Expression (6), Var (x, y) indicates a determination value at coordinates (x, y). Equation (6) is a value obtained by squaring and adding the difference data of the ninth frame to the difference data of the ninth frame, and the denominator dividing the number of frames by 1 (in this case, 10-1 = 9). When the determination value Var (x, y) calculated based on the equation (6) satisfies the following condition 1, it is determined that the pixel is in the still region 32.
Condition 1
Determination value Var (x, y) ≦ threshold th sm

すなわち、判定値Var(x,y)が、閾値thsmよりも小さい値のとき、処理対象とされている座標(x,y)における座標は、静止領域内の画素であると判定される。このことは、以下の条件2を満たすときには、その画素は、動き領域31内の画素であると判定できることと同一の意味である。
条件2
判定値Var(x,y)>閾値thsm
That is, when the determination value Var (x, y) is a value smaller than the threshold th sm , it is determined that the coordinate at the coordinate (x, y) that is the processing target is a pixel in the still region. This means that when the following condition 2 is satisfied, the pixel can be determined to be a pixel in the motion region 31.
Condition 2
Determination value Var (x, y)> threshold value th sm

すなわち、判定値Var(x,y)が、閾値thsmよりも大きい値のとき、処理対象とされている座標(x,y)における画素は、動き領域内の画素であると判定される。 That is, when the determination value Var (x, y) is larger than the threshold th sm , the pixel at the coordinate (x, y) that is the processing target is determined to be a pixel in the motion region.

ステップS33(図9)において判定テーブル導出部52(図2)は、式(6)に基づく判定値を算出し、その判定値が所定の閾値以下であるか否かを判断することにより、処理対象とされている画素が、静止領域内の画素であるか否か(動き領域内の画素であるか否か)を判定する。   In step S33 (FIG. 9), the determination table deriving unit 52 (FIG. 2) calculates a determination value based on the equation (6), and determines whether or not the determination value is equal to or less than a predetermined threshold value. It is determined whether or not the target pixel is a pixel in the still region (whether or not it is a pixel in the motion region).

ステップS34において、ステップS33における判定結果が、判定テーブルに反映される。例えば、処理対象とされている座標(x,y)の画素が、静止領域内の画素であると判定された場合“0”に、動き領域内の画素であると判定された場合“1”に、それぞれ設定されるようにする。   In step S34, the determination result in step S33 is reflected in the determination table. For example, when it is determined that the pixel at the coordinate (x, y) to be processed is a pixel in the still region, it is “0”, and when it is determined that it is a pixel in the motion region, “1”. To be set respectively.

このようにした場合、例えば、図14Bに示したような判定テーブルが作成される。図14Aは、フレーム内の所定の領域を示した図であり、白丸が静止領域内の画素であると判定された(判定される)画素を示し、黒丸が動き領域内の画素であると判定された(判定される)画素を示す。このような判定がなされた(判定がなされる)とき、上記したように、静止領域内の画素に“0”を割り当て、動き領域内の画素に“1”を割り当てるようすると、図14Bに示したような判定テーブルが作成される。   In this case, for example, a determination table as shown in FIG. 14B is created. FIG. 14A is a diagram illustrating a predetermined area in a frame, in which a white circle indicates a pixel determined (determined) as a pixel in a still area, and a black circle is determined as a pixel in a motion area Indicates the determined (determined) pixel. When such a determination is made (determination is made), as described above, “0” is assigned to the pixel in the still region and “1” is assigned to the pixel in the motion region, as shown in FIG. 14B. Such a determination table is created.

ステップS34においては、ステップS33における判定結果を、判定テーブル内の対応する座標(x,y)に書き込むことにより、判定結果を判定テーブルに反映させるための処理が行われる。このような処理が1フレーム分行われたか否かが、ステップS35において判断される。   In step S34, a process for reflecting the determination result in the determination table is performed by writing the determination result in step S33 to the corresponding coordinates (x, y) in the determination table. In step S35, it is determined whether or not such processing has been performed for one frame.

ステップS35において、1フレーム分の処理は終了していないと判断された場合、換言すれば、処理対象とされたフレームの判定テーブルはまだ作成途中であると判断された場合、ステップS31に処理が戻され、次の画素に対してステップS31以降の処理が繰り返される。   If it is determined in step S35 that the processing for one frame has not been completed, in other words, if it is determined that the determination table for the frame to be processed is still being created, the process proceeds to step S31. The processing after step S31 is repeated for the next pixel.

一方、ステップS35において、1フレーム分の処理は終了したと判断された場合、ステップ36に処理が進められる。1フレーム分の処理が終了したと判断された場合、判定テーブル導出部52(図2)から、導出された判定テーブルが、判定テーブル処理部53、静止領域処理部54、動き領域処理部55に対して出力される。   On the other hand, if it is determined in step S35 that the processing for one frame has been completed, the process proceeds to step 36. When it is determined that the processing for one frame has been completed, the determination table derived from the determination table deriving unit 52 (FIG. 2) is transferred to the determination table processing unit 53, the still region processing unit 54, and the motion region processing unit 55. Are output.

判定テーブル処理部53のエントロピー符号化部91(図4)は、ステップS36において、供給された判定テーブルを、所定の符号化方式、例えば、ハフマン符号化方式やランレングス符号化方式などのエントロピー符号化方式により、符号化し、符号化判定テーブルデータを生成する。生成された符号化判定テーブルデータは、出力部56(図2)に供給される。   In step S36, the entropy encoding unit 91 (FIG. 4) of the determination table processing unit 53 converts the supplied determination table into a predetermined encoding method, for example, an entropy code such as a Huffman encoding method or a run-length encoding method. Encoding method is used to generate encoding determination table data. The generated encoding determination table data is supplied to the output unit 56 (FIG. 2).

このようにして、判定テーブル導出部52と判定テーブル処理部53により、ステップS12(図8)における判定テーブルの作成、符号化処理が実行される。ステップS12の処理が行われることにより、判定テーブルが生成されると、ステップS13において、静止領域の符号化処理が実行される。静止領域の符号化処理は、静止領域処理部54により実行される。   In this way, the determination table derivation unit 52 and the determination table processing unit 53 execute the determination table creation and encoding processing in step S12 (FIG. 8). When the determination table is generated by performing the process of step S12, a still area encoding process is executed in step S13. The still region encoding process is executed by the still region processing unit 54.

ステップS13において、静止領域処理部54により実行される静止領域の符号化処理について、図10のフローチャートを参照して説明する。ステップS51において、静止領域処理部54の静止領域選択部111(図5)は、静止領域を判定する。すなわち、静止領域選択部111には、判定テーブル導出部52により導出された判定テーブル(例えば、図14Bに示したような“0”と“1”によるフラグにより構成されている判定テーブル)が供給され、その判定テーブルが参照されることにより、静止領域であるか否かの判定(静止領域の選択)が行われる。   The still area encoding processing executed by the still area processing unit 54 in step S13 will be described with reference to the flowchart of FIG. In step S51, the still region selection unit 111 (FIG. 5) of the still region processing unit 54 determines a still region. That is, a determination table derived by the determination table deriving unit 52 (for example, a determination table configured by flags “0” and “1” as shown in FIG. 14B) is supplied to the still region selection unit 111. Then, by referring to the determination table, it is determined whether or not it is a still area (selection of a still area).

ステップS51の処理で、静止領域であると判定された領域に対して、ステップS52以下の処理が実行される。ステップS52において、積分データ導出部112は、積分データを導出する。積分データ導出部112は、静止領域選択部111から供給される静止領域であると判定された領域に関する情報(積分データを算出する対象とされた画素の座標の情報)と、入力部51を介して入力されたフレーム(この場合、ステップS11(図8)の処理で蓄積された10フレーム)が供給される。   In the process of step S51, the process after step S52 is executed for the area determined to be a still area. In step S52, the integral data deriving unit 112 derives integral data. The integration data deriving unit 112 receives information about the region determined to be a still region supplied from the still region selection unit 111 (information on the coordinates of the pixel for which integration data is calculated) and the input unit 51. Are input (in this case, 10 frames accumulated in the process of step S11 (FIG. 8)).

積分データ導出部112は、供給されたフレーム内で、処理対象とされた座標(x,y)における画素の積分データを導出する。この積分データの導出は、判定テーブル導出部52の積分データ導出部71(図3)と同様の処理により行われる。すなわち、式(1)や式(3)を参照して説明したように、画素値と係数が用いられた演算が行われることにより導出される。積分データの導出に関する処理については、既に説明したので、その説明は省略する。   The integral data deriving unit 112 derives the integral data of the pixel at the coordinate (x, y) to be processed in the supplied frame. The derivation of the integral data is performed by the same processing as the integral data derivation unit 71 (FIG. 3) of the determination table derivation unit 52. That is, as described with reference to the formulas (1) and (3), it is derived by performing an operation using pixel values and coefficients. Since the processing related to the derivation of the integral data has already been described, the description thereof is omitted.

ステップS53において、残差導出部113により残差データが導出される。残差導出部113は、静止領域選択部111から供給される静止領域の情報から処理対象とされている画素の座標(積分データの算出の処理対象とされた画素と同一の画素の座標)を特定し、その特定された座標の画素の画素値を、入力部51を介して供給されるフレームから読み出す。そして、読み出された画素値と、積分データが用いられ、残差データが導出される。   In step S53, residual data is derived by the residual deriving unit 113. The residual derivation unit 113 obtains the coordinates of the pixel to be processed from the information of the still region supplied from the still region selection unit 111 (the coordinates of the same pixel as the pixel to be processed for calculation of integral data). The pixel value of the pixel at the specified coordinate is read out from the frame supplied via the input unit 51. Then, the read pixel value and the integral data are used to derive residual data.

残差データは、式(2)などを参照して説明したように、画素値と積分データが用いられて算出される。残差導出部113は、判定テーブル導出部52の残差導出部72(図3)と同様の処理により残差データを算出する。残差導出部72による残差データの算出の処理に関しては、既に説明したので、ここではその説明を省略する。   The residual data is calculated using the pixel value and the integral data as described with reference to the equation (2) and the like. The residual derivation unit 113 calculates residual data by the same processing as the residual derivation unit 72 (FIG. 3) of the determination table derivation unit 52. Since the residual data calculation processing by the residual derivation unit 72 has already been described, the description thereof is omitted here.

なお、上述したように、判定テーブル導出部52の積分データ導出部71(図3)と静止領域処理部54の積分データ導出部112(図5)、判定テーブル導出部52の残差導出部72(図3)と静止領域処理部54の残差導出部113(図5)は、それぞれ同一の演算により、また、同一のデータを用いて積分データや残差データを導出しているので、1つのブロックとして符号化装置50を構成する(または、データを共用する)ようにしても良い。   As described above, the integral data deriving unit 71 (FIG. 3) of the determination table deriving unit 52, the integral data deriving unit 112 (FIG. 5) of the still region processing unit 54, and the residual deriving unit 72 of the determination table deriving unit 52. (FIG. 3) and the residual derivation unit 113 (FIG. 5) of the still region processing unit 54 derive integral data and residual data by the same calculation and using the same data. The encoding device 50 may be configured as one block (or data is shared).

このように、積分データ導出部112により導出された積分データと、残差導出部113により導出された残差データは、エントロピー符号化処理部114に供給される。エントロピー符号化処理部114は、ステップS54において、供給された積分データと残差データを、所定の符号化方式、例えば、ハフマン符号化方式やランレングス符号化方式などのエントロピー符号化方式により、符号化し、符号化静止領域画像データを生成する。生成された符号化静止領域画像データは、出力部56(図2)に供給される。   As described above, the integral data derived by the integral data deriving unit 112 and the residual data derived by the residual deriving unit 113 are supplied to the entropy encoding processing unit 114. In step S54, the entropy encoding processing unit 114 encodes the supplied integral data and residual data using a predetermined encoding method, for example, an entropy encoding method such as a Huffman encoding method or a run-length encoding method. To generate encoded still area image data. The generated encoded still area image data is supplied to the output unit 56 (FIG. 2).

このようにして、ステップS13(図8)において、静止領域処理部54により、静止領域の符号化処理が行われている一方で、ステップS14において、動き領域処理部55により、動き領域の符号化処理が実行される。図8のフローチャートにおいては、静止領域の符号化処理の後、動き領域の符号化処理が実行されるという処理の流れにしたが、静止領域処理部54による、静止領域の符号化処理と、動き領域処理部55による、動き領域の符号化処理は、並列的に同時に行われるようにすることも可能である。   In this way, while the still region encoding process is performed by the still region processing unit 54 in step S13 (FIG. 8), the motion region encoding unit 55 performs the motion region encoding in step S14. Processing is executed. In the flowchart of FIG. 8, the process flow is such that the motion area encoding process is executed after the still area encoding process. However, the still area encoding process and the motion by the still area processing unit 54 are described. The motion region encoding processing by the region processing unit 55 may be performed simultaneously in parallel.

ステップS14において、動き領域処理部55により実行される動き領域の符号化処理について図11のフローチャートを参照して説明する。ステップS71において、動き領域処理部55の動き領域選択部131(図6)は、動き領域を判定する。すなわち、動き領域選択部131には、判定テーブル導出部52により導出された判定テーブルが供給され、その判定テーブルが参照されることにより、動き領域であるか否かの判定(動き領域の選択)が行われる(処理対象とされる画素の座標が特定される)。   The motion region encoding processing executed by the motion region processing unit 55 in step S14 will be described with reference to the flowchart of FIG. In step S71, the motion region selection unit 131 (FIG. 6) of the motion region processing unit 55 determines a motion region. That is, the motion region selection unit 131 is supplied with the determination table derived by the determination table deriving unit 52, and by referring to the determination table, it is determined whether the region is a motion region (motion region selection). (The coordinates of the pixel to be processed are specified).

ステップS71の処理で、動き領域であると判定された領域に対して、ステップS72以下の処理が実行される。ステップS72において、基準値導出部132は、基準値を導出する。基準値導出部132は、動き領域選択部131から供給される動き領域であると判定された領域に関する情報と、入力部51を介して入力されたフレーム(この場合、ステップS13(図8)の処理で蓄積された10フレーム)が供給される。   The processing in step S72 and subsequent steps is executed for the region determined to be a motion region in the processing in step S71. In step S72, the reference value deriving unit 132 derives a reference value. The reference value deriving unit 132 receives information about the region determined to be the motion region supplied from the motion region selection unit 131 and the frame input via the input unit 51 (in this case, in step S13 (FIG. 8)). 10 frames accumulated by the processing) are supplied.

基準値導出部132は、供給されたフレーム内で、処理対象とされた座標(x,y)における画素を基準値として導出する。基準値の導出について図15を参照して説明する。図15は、所定のフレームの一部分を示している。図中左右方向は、x軸方向であり、図中上下方向は、y軸方向であるとする。   The reference value deriving unit 132 derives, as a reference value, the pixel at the coordinate (x, y) that is the processing target in the supplied frame. Derivation of the reference value will be described with reference to FIG. FIG. 15 shows a part of a predetermined frame. The left-right direction in the figure is the x-axis direction, and the up-down direction in the figure is the y-axis direction.

また、図15において白丸は、静止領域内の画素であることを示し、黒丸は、動き領域内の画素であることを示す。また、黒丸をさらに破線の円で囲った丸は、動き領域内の画素であり、ステップS72において基準値として導出される画素であることを示している。   In FIG. 15, white circles indicate pixels within the still region, and black circles indicate pixels within the motion region. Further, a circle in which a black circle is further surrounded by a broken-line circle indicates a pixel in the motion region and a pixel derived as a reference value in step S72.

フレームは、処理される際(処理対象とされる画素の決定がされる際)、左上から右下にかけてスキャンされるように設定されている。その設定されている処理順序(ラスタースキャン順)を、図15中に、矢印として図示した(ただし、フレームの上部分のみ)。基準値は、処理対象とされているフレームをラスタースキャン順に走査し、静止領域と判定される画素の次に走査される画素であり、動き領域と判定される画素の画素値である。   The frame is set to be scanned from the upper left to the lower right when processed (when a pixel to be processed is determined). The set processing order (raster scan order) is shown as an arrow in FIG. 15 (however, only the upper part of the frame). The reference value is a pixel that is scanned next to a pixel that is determined as a still region by scanning a frame to be processed in raster scan order, and is a pixel value that is determined as a motion region.

換言すれば、基準値は、所定のx軸方向のラインにおいて、ラスタースキャン順(図中、左から右方向)に走査したときに、最初に動き領域内の画素であると判定される画素の画素値である。なお、座標(0,0)の画素(ラスタースキャン順の開始点の座標の画素)が、動き領域と判定された場合、その座標(0,0)の画素の画素値が、基準値として設定される。   In other words, the reference value is a pixel that is first determined to be a pixel in the motion region when scanning in a raster scan order (from left to right in the figure) on a predetermined line in the x-axis direction. It is a pixel value. When the pixel at the coordinate (0, 0) (the pixel at the coordinate of the start point in the raster scan order) is determined as the motion area, the pixel value of the pixel at the coordinate (0, 0) is set as the reference value. Is done.

ステップS72においては、このような位置に存在する画素の画素値が、基準値データとして抽出される。ステップS73において、差分値導出部133(図6)により差分値が導出される。差分値導出部133は、動き領域内で隣り合う画素の差分を算出する。差分値導出部133は、動き領域選択部131から供給される情報から、処理対象とされているフレーム内の動き領域を判定し、処理対象とする画素を設定する。   In step S72, the pixel value of the pixel present at such a position is extracted as reference value data. In step S73, the difference value is derived by the difference value deriving unit 133 (FIG. 6). The difference value deriving unit 133 calculates a difference between adjacent pixels in the motion region. The difference value deriving unit 133 determines the motion region in the frame to be processed from the information supplied from the motion region selection unit 131, and sets the pixel to be processed.

図15を再度参照して差分値の導出の仕方について説明する。図15において、動き領域の範囲Aにおける6個の画素を例に挙げて説明する。動き領域範囲A内にある6個の画素の座標は、それぞれ、(i,j)、(i+1,j)、(i+2,j)、(i+3,j)、(i+4,j)、(i+5,j)である。   With reference to FIG. 15 again, how to derive the difference value will be described. In FIG. 15, description will be made by taking six pixels in the range A of the motion region as an example. The coordinates of the six pixels in the motion region range A are (i, j), (i + 1, j), (i + 2, j), (i + 3, j), (i + 4, j), (i + 5, respectively). j).

隣り合う画素の差分が算出されるので、差分値DMは、以下の式(7)乃至(11)により、動き領域の範囲A内からの差分値データが導出される。式(7)乃至(11)において、例えば、LM(i,j)とは、座標(i,j)における画素の画素値を表す。
DM(i+1,j)=LM(i+1,j)―LM(i,j) ・・・(7)
DM(i+2,j)=LM(i+2,j)―LM(i+1,j) ・・・(8)
DM(i+3,j)=LM(i+3,j)―LM(i+2,j) ・・・(9)
DM(i+4,j)=LM(i+4,j)―LM(i+3,j) ・・・(10)
DM(i+5,j)=LM(i+5,j)―LM(i+4,j) ・・・(11)
Since the difference between adjacent pixels is calculated, difference value data from the range A of the motion region is derived as the difference value DM by the following equations (7) to (11). In Expressions (7) to (11), for example, LM (i, j) represents the pixel value of the pixel at coordinates (i, j).
DM (i + 1, j) = LM (i + 1, j) −LM (i, j) (7)
DM (i + 2, j) = LM (i + 2, j) −LM (i + 1, j) (8)
DM (i + 3, j) = LM (i + 3, j) −LM (i + 2, j) (9)
DM (i + 4, j) = LM (i + 4, j) −LM (i + 3, j) (10)
DM (i + 5, j) = LM (i + 5, j) −LM (i + 4, j) (11)

このように、基準値(この場合、LM(i,j))から順に、隣接する画素との差分が算出される。隣接する画素は、通常、相関度が高い。すなわち、急峻な変化を伴わないことが多い。よって、このような隣接する画素同士の差分値は、小さい値となる。差分値が小さい値となることにより、後述する符号化により、圧縮率を高めた符号化を行うことが可能となる。   In this way, the difference from the adjacent pixel is calculated in order from the reference value (in this case, LM (i, j)). Adjacent pixels usually have a high degree of correlation. That is, there is often no sharp change. Therefore, the difference value between such adjacent pixels is a small value. When the difference value becomes a small value, it is possible to perform encoding with an increased compression rate by encoding described later.

差分値導出部133により導出された差分値データは、エントロピー符号化処理部134に供給される。エントロピー符号化処理部134には、基準値導出部132により導出された基準値データも供給される。エントロピー符号化処理部134は、供給された基準値データと差分値データを、所定の符号化方式、例えば、ハフマン符号化方式やランレングス符号化方式などのエントロピー符号化方式により、符号化し、符号化動き領域画像データを生成する。生成された符号化動き領域画像データは、出力部56(図2)に供給される。   The difference value data derived by the difference value deriving unit 133 is supplied to the entropy encoding processing unit 134. The reference value data derived by the reference value deriving unit 132 is also supplied to the entropy encoding processing unit 134. The entropy encoding processing unit 134 encodes the supplied reference value data and difference value data by a predetermined encoding method, for example, an entropy encoding method such as a Huffman encoding method or a run-length encoding method, Generated motion area image data. The generated encoded motion region image data is supplied to the output unit 56 (FIG. 2).

ステップS14(図8)において、動き領域処理部55(図2)により動き領域の符号化処理が終了されると、ステップS15において、符号化されたデータが、出力部56により、図示されていない他の装置(復号化装置)に対して出力される。出力部56には、上述したような処理により、符号化判定テーブルデータ、符号化静止領域画像データ、および、符号化動き領域画像データが供給される。   In step S14 (FIG. 8), when the motion region encoding process is ended by the motion region processing unit 55 (FIG. 2), the encoded data in step S15 is not shown by the output unit 56. It is output to another device (decoding device). The output unit 56 is supplied with the encoding determination table data, the encoded still area image data, and the encoded motion area image data by the processing as described above.

出力部56は、これらの供給されたデータを、例えば、図16に示したような順で出力する。すなわち、符号化判定テーブル、符号化静止領域画像データ(積分データ、残差データ)、および、符号化動き領域画像データ(基準値データ、差分値データ)順で送信される。このような順で、符号化されたデータを受信する復号化側の装置および動作について次に説明する。   The output unit 56 outputs the supplied data in the order shown in FIG. 16, for example. That is, it is transmitted in the order of the encoding determination table, encoded still area image data (integral data, residual data), and encoded motion area image data (reference value data, difference value data). Next, an apparatus and operation on the decoding side for receiving encoded data in this order will be described.

[復号化装置の構成と動作について]
図17は、本発明を適用した復号化装置の一実施の形態の構成を示す図である。復号化装置210は、入力部211、符号化データ分類部212、判定テーブル復号化部213、静止領域復号化部214、動き領域復号化部215、合成部216、および、出力部217を含む構成とされている。
[Configuration and operation of decoding apparatus]
FIG. 17 is a diagram showing a configuration of an embodiment of a decoding device to which the present invention is applied. The decoding apparatus 210 includes an input unit 211, an encoded data classification unit 212, a determination table decoding unit 213, a still region decoding unit 214, a motion region decoding unit 215, a synthesis unit 216, and an output unit 217. It is said that.

入力部211には、図16に示した符号化されたデータが順次入力される。入力部211に供給されたデータ(符号化データ)は、符号化データ分類部212に供給される。符号化データ分類部212は、図16に示したような符号化データを、符号化判定テーブルデータ、符号化静止領域画像データ、符号化動き領域画像データに分類する。符号化データ分類部212は、分類したデータの内、符号化判定テーブルデータを、判定テーブル復号化部213に、符号化静止領域画像データを、静止領域復号化部214に、符号化動き領域画像データを、動き領域復号化部215に、それぞれ供給する。   The encoded data shown in FIG. 16 is sequentially input to the input unit 211. The data (encoded data) supplied to the input unit 211 is supplied to the encoded data classification unit 212. The encoded data classification unit 212 classifies the encoded data as illustrated in FIG. 16 into encoding determination table data, encoded still area image data, and encoded motion area image data. The encoded data classification unit 212 includes, among the classified data, the encoded determination table data, the determination table decoding unit 213, the encoded still area image data, and the still area decoding unit 214, the encoded motion area image. The data is supplied to the motion region decoding unit 215, respectively.

判定テーブル復号化部213は、供給された符号化判定テーブルデータを、符号化方式に対応した復号化方式で復号化し、判定テーブルを、静止領域復号化部214と動き領域復号化部215に、それぞれ供給する。   The determination table decoding unit 213 decodes the supplied encoding determination table data using a decoding method corresponding to the encoding method, and stores the determination table in the still region decoding unit 214 and the motion region decoding unit 215. Supply each.

静止領域復号化部214は、判定テーブル復号化部213から供給される判定テーブルと、符号化データ分類部212から供給される符号化静止領域画像データ(積分値データと残差データが含まれるデータ)から、静止領域内の画像を復号化する。復号化された静止領域内の画像データは、合成部216に供給される。   The still region decoding unit 214 includes a determination table supplied from the determination table decoding unit 213 and encoded still region image data (data including integral value data and residual data) supplied from the encoded data classification unit 212. ), The image in the still area is decoded. The decoded image data in the still area is supplied to the synthesis unit 216.

動き領域復号化部215は、判定テーブル復号化部213から供給される判定テーブルと、符号化データ分類部212から供給される符号化動き領域画像データ(基準値データと差分値データが含まれるデータ)から、動き領域内の画像を復号化する。復号化された動き領域内の画像データは、合成部216に供給される。   The motion region decoding unit 215 includes a determination table supplied from the determination table decoding unit 213, and encoded motion region image data (data including reference value data and difference value data) supplied from the encoded data classification unit 212. ), The image in the motion region is decoded. The decoded image data in the motion region is supplied to the synthesis unit 216.

合成部216は、静止領域復号化部214から供給される静止領域内の画像データに基づく画像と、動き領域復号化部215から供給される動き領域内の画像データに基づく画像を合成し、その合成された画像の画像データを出力部217に供給する。出力部217は、図示されていない例えばディスプレイなどに、供給された画像データを出力する。   The synthesizing unit 216 synthesizes an image based on the image data in the still region supplied from the still region decoding unit 214 and an image based on the image data in the motion region supplied from the motion region decoding unit 215, The image data of the synthesized image is supplied to the output unit 217. The output unit 217 outputs the supplied image data to, for example, a display (not shown).

次に、復号化装置210を構成する各部の詳細な構成について説明する。図18は、判定テーブル復号化部213の内部構成例を示す図である。判定テーブル復号化部213は、エントロピー復号化部231を含む構成とされている。符号化データ分類部212からの符号化判定テーブルデータは、判定テーブル復号化部213のエントロピー復号化部231に供給される。エントロピー復号化部231は、供給された符号化判定テーブルデータを、所定の復号化方式、例えば、ハフマン復号化方式やランレングス復号化方式などの、符号化装置50側での符号化方式に対応するエントロピー復号化方式により、復号化し、復号化された判定テーブルを生成する。生成された判定テーブルは、出力部217(図17)に供給される。   Next, a detailed configuration of each unit configuring the decoding device 210 will be described. FIG. 18 is a diagram illustrating an internal configuration example of the determination table decoding unit 213. The determination table decoding unit 213 includes an entropy decoding unit 231. The encoding determination table data from the encoded data classification unit 212 is supplied to the entropy decoding unit 231 of the determination table decoding unit 213. The entropy decoding unit 231 corresponds to the encoding method on the encoding device 50 side, such as a predetermined decoding method, such as a Huffman decoding method or a run-length decoding method, for the supplied encoding determination table data. The determination table is decoded by the entropy decoding method. The generated determination table is supplied to the output unit 217 (FIG. 17).

図19は、静止領域復号化部214の内部構成例を示す図である。静止領域復号化部214は、符号化静止領域画像データ分類部251、積分データ復号化部252、残差データ復号化部253、および、静止領域導出部254から構成されている。   FIG. 19 is a diagram illustrating an internal configuration example of the still area decoding unit 214. The still region decoding unit 214 includes an encoded still region image data classification unit 251, an integral data decoding unit 252, a residual data decoding unit 253, and a still region deriving unit 254.

符号化静止領域画像データ分類部251には、符号化データ分類部212から、符号化静止領域画像データが供給される。この供給される符号化静止領域画像データには、図16に示したように、符号化されている積分データと残差データが含まれている。符号化静止領域画像データ分類部251は、供給された符号化静止領域画像データを、積分データと残差データに分類する。分類された積分データは、積分データ復号化部252に供給され、残差データは、残差データ復号化部253に供給される。   The encoded still area image data is supplied to the encoded still area image data classification unit 251 from the encoded data classification unit 212. The supplied encoded still area image data includes encoded integration data and residual data as shown in FIG. The encoded still area image data classification unit 251 classifies the supplied encoded still area image data into integral data and residual data. The classified integration data is supplied to the integration data decoding unit 252, and the residual data is supplied to the residual data decoding unit 253.

積分データ復号化部252は、供給された符号化されている積分データを復号化し、積分データを生成する。生成された積分データは、静止領域導出部254に供給される。残差データ復号化部253は、供給された符号化されている残差データを復号化し、残差データを生成する。生成された残差データは、静止領域導出部254に供給される。   The integration data decoding unit 252 decodes the supplied encoded integration data to generate integration data. The generated integral data is supplied to the still region deriving unit 254. The residual data decoding unit 253 decodes the supplied encoded residual data and generates residual data. The generated residual data is supplied to the still region deriving unit 254.

静止領域導出部254は、供給された積分データと残差データを用いて、静止領域内の画素を生成し、静止領域内の画像を生成する。   The still region deriving unit 254 generates pixels in the still region using the supplied integration data and residual data, and generates an image in the still region.

図20は、動き領域復号化部215の内部構成例を示す図である。動き領域復号化部215は、符号化動き領域画像データ分類部271、基準値復号化部272、差分値復号化部273、および、動き領域導出部274から構成されている。   FIG. 20 is a diagram illustrating an internal configuration example of the motion region decoding unit 215. The motion region decoding unit 215 includes an encoded motion region image data classification unit 271, a reference value decoding unit 272, a difference value decoding unit 273, and a motion region derivation unit 274.

符号化動き領域画像データ分類部271には、符号化データ分類部212から、符号化動き領域画像データが供給される。この供給される符号化動き領域画像データには、図16に示したように、符号化されている基準値データと差分値データが含まれている。符号化動き領域画像データ分類部271は、供給された符号化動き領域画像データを、基準値データと差分値データに分類する。分類された基準値データは、基準値復号化部272に供給され、差分値データは、差分値復号化部273に供給される。   The encoded motion area image data classification unit 271 is supplied with the encoded motion area image data from the encoded data classification unit 212. The supplied encoded motion area image data includes encoded reference value data and difference value data, as shown in FIG. The encoded motion area image data classification unit 271 classifies the supplied encoded motion area image data into reference value data and difference value data. The classified reference value data is supplied to the reference value decoding unit 272, and the difference value data is supplied to the difference value decoding unit 273.

基準値復号化部272は、供給された符号化されている基準値データを復号化し、基準値データを生成する。生成された基準値データは、動き領域導出部274に供給される。差分値データ復号化部273は、供給された符号化されている差分値データを復号化し、差分値データを生成する。生成された差分値データは、動き領域導出部274に供給される。   The reference value decoding unit 272 decodes the supplied encoded reference value data to generate reference value data. The generated reference value data is supplied to the motion region deriving unit 274. The difference value data decoding unit 273 decodes the supplied encoded difference value data to generate difference value data. The generated difference value data is supplied to the motion region deriving unit 274.

動き領域導出部274は、供給された基準値データと差分値データを用いて、動き領域内の画素を生成し、動き領域の画像を生成する。   The motion region deriving unit 274 generates pixels in the motion region using the supplied reference value data and difference value data, and generates a motion region image.

このような復号化を行う復号化装置210(図17)の動作について、図21乃至図23のフローチャートを参照して説明する。   The operation of the decoding apparatus 210 (FIG. 17) that performs such decoding will be described with reference to the flowcharts of FIGS.

ステップS111(図21)において、復号化装置210の入力部211(図17)は、符号化装置50により符号化されたデータを受信(入力)する。入力部211により入力された符号化データは、符号化データ分類部212に供給される。符号化データ分類部212は、ステップS112において、供給された符号化データを分類する。   In step S111 (FIG. 21), the input unit 211 (FIG. 17) of the decoding device 210 receives (inputs) the data encoded by the encoding device 50. The encoded data input by the input unit 211 is supplied to the encoded data classification unit 212. In step S112, the encoded data classification unit 212 classifies the supplied encoded data.

符号化データ分類部212に供給される符号化データは、図16に示すように、符号化判定テーブルデータ、符号化静止領域画像データ、および、符号化動き領域画像データから構成されている。符号化データ分類部212は、供給された符号化データを、これらの3つのデータに分類する。分類されたデータの内、符号化判定テーブルデータは、判定テーブル復号化部213に、符号化静止領域画像データは、静止領域復号化部214に、符号化動き領域画像データは、動き領域復号化部215に、それぞれ供給される。   As shown in FIG. 16, the encoded data supplied to the encoded data classification unit 212 is composed of encoding determination table data, encoded still area image data, and encoded motion area image data. The encoded data classification unit 212 classifies the supplied encoded data into these three data. Of the classified data, the coding determination table data is transferred to the determination table decoding unit 213, the encoded still area image data is transferred to the still area decoding unit 214, and the encoded motion area image data is transferred to the motion area decoding unit. The parts 215 are supplied respectively.

判定テーブル復号化部213のエントロピー復号化部231(図18)は、ステップS112において、供給された符号化判定テーブルデータを、符号化方式に対応した復号化方式(例えば、符号化方式がハフマン符号化方式であった場合、ハフマン復号化方式)で復号化し、判定テーブルを、静止領域復号化部214と動き領域復号化部215に、それぞれ供給する。   In step S112, the entropy decoding unit 231 (FIG. 18) of the determination table decoding unit 213 converts the supplied encoding determination table data into a decoding method corresponding to the encoding method (for example, the encoding method is Huffman code). In the case of the encoding method, it is decoded by the Huffman decoding method), and the determination table is supplied to the still region decoding unit 214 and the motion region decoding unit 215, respectively.

ステップS114において、静止領域復号化部214は、静止領域の復号化処理を実行する。ステップS114において実行される静止領域の復号化処理について、図22のフローチャートを参照して説明する。ステップS131において、静止領域復号化部214の符号化静止領域画像データ分離部251は、供給された符号化静止領域画像データを分類する。   In step S114, the still area decoding unit 214 performs a still area decoding process. The still area decoding process executed in step S114 will be described with reference to the flowchart of FIG. In step S131, the encoded still region image data separation unit 251 of the still region decoding unit 214 classifies the supplied encoded still region image data.

符号化静止領域画像データは、図16に示したように、符号化されている積分データと残差データが含まれている。符号化静止領域画像データ分類部251は、供給された符号化静止領域画像データを、積分データと残差データに分類する。分類された積分データは、積分データ復号化部252に供給され、残差データは、残差データ復号化部253に供給される。   The encoded still area image data includes encoded integral data and residual data, as shown in FIG. The encoded still area image data classification unit 251 classifies the supplied encoded still area image data into integral data and residual data. The classified integration data is supplied to the integration data decoding unit 252, and the residual data is supplied to the residual data decoding unit 253.

積分データ復号化部252は、ステップS132において、供給された符号化されている積分データを復号化し、積分データを生成する。積分データ復号化部252に供給され、復号化された積分データは、次式(8)のようなデータである。   In step S132, the integral data decoding unit 252 decodes the supplied encoded integral data to generate integral data. The integral data decoded and supplied to the integral data decoding unit 252 is data as shown in the following equation (8).

Figure 2007116460
Figure 2007116460

式(8)は、式(1)と同様である。すなわち、符号化装置50の静止領域処理部54の積分データ導出部112(図5)により導出された、1フレーム目の積分データである。この積分データは、符号化装置50側で、エントロピー符号化処理部114(図5)により、符号化されているため、復号化装置210側で、ステップS132(図22)の処理として、積分データ復号化部252により復号化される。   Expression (8) is the same as Expression (1). That is, the integration data of the first frame derived by the integral data deriving unit 112 (FIG. 5) of the still area processing unit 54 of the encoding device 50. Since this integration data is encoded by the entropy encoding processing unit 114 (FIG. 5) on the encoding device 50 side, the integration data is processed as processing in step S132 (FIG. 22) on the decoding device 210 side. Decrypted by the decryption unit 252.

積分データ復号化部252により、積分データが復号化されている一方で、残差データ復号化部253により、残差データが復号化される。残差データ復号化部253は、ステップS133において、符号化静止領域画像データ分離部251からの符号化されている残差データを復号化する。   While the integral data is decoded by the integral data decoding unit 252, the residual data is decoded by the residual data decoding unit 253. In step S133, the residual data decoding unit 253 decodes the encoded residual data from the encoded still region image data separation unit 251.

残差データ復号化部253に供給され、復号化された残差データは、次式(9)のようなデータである。   The residual data supplied to and decoded by the residual data decoding unit 253 is data such as the following equation (9).

Figure 2007116460
Figure 2007116460

残差データ復号化部253による復号化により取得される残差データは、式(9)に示したように、1フレーム目の残差Difffr1、2フレーム目の残差Difffr2、3フレーム目の残差Difffr3、4フレーム目の残差Difffr4、5フレーム目の残差Difffr5、6フレーム目の残差Difffr6、7フレーム目の残差Difffr7、8フレーム目の残差Difffr8、9フレーム目の残差Difffr9、および、10フレーム目の残差Difffr10である。 Residual data obtained by decoding by the residual data decoder 253, as shown in Equation (9), the residual of the first frame Diff fr1, residual second frame Diff fr2, 3-th frame residual Diff fr3, 4 th frame of the residual Diff fr4, 5 residual th frame Diff fr5, residuals sixth frame Diff FR6, residual of the seventh frame Diff FR7, residuals 8 th frame Diff FR8 , 9th frame residual Diff fr9 and 10th frame residual Diff fr10 .

これらの残差データは、符号化装置50の静止領域処理部54の残差データ導出部113(図5)により導出された残差データである。この残差データは、符号化装置50側で、エントロピー符号化処理部114(図5)により、符号化されているため、復号化装置210側で、ステップS133(図22)の処理として、残差データ復号化部253により復号化される。   These residual data are the residual data derived by the residual data deriving unit 113 (FIG. 5) of the still area processing unit 54 of the encoding device 50. Since the residual data is encoded by the entropy encoding processing unit 114 (FIG. 5) on the encoding device 50 side, the residual data is processed as the processing in step S133 (FIG. 22) on the decoding device 210 side. The difference data decoding unit 253 decodes the difference data.

ステップS132における処理とステップS133における処理により、式(8)に示した積分データと、式(9)に示した残差データが、それぞれ生成され、静止領域導出部254に供給される。静止領域導出部254は、ステップS134において、供給された積分データと残差データを用いて、静止領域内の画素を生成し、静止領域内の画像を生成する。   The integration data shown in Equation (8) and the residual data shown in Equation (9) are generated by the processing in Step S132 and the processing in Step S133, respectively, and supplied to the still region deriving unit 254. In step S134, the still region deriving unit 254 generates pixels in the still region using the supplied integration data and residual data, and generates an image in the still region.

すなわち、静止領域導出部254は、積分データと残差データから、静止領域内の画素値を生成し、その生成された画素値を、判定テーブル復号化部213からの判定テーブルを参照し静止領域内に配置することにより、静止領域内の画像を生成する。   That is, the still region deriving unit 254 generates a pixel value in the still region from the integral data and the residual data, and refers to the generated pixel value with reference to the determination table from the determination table decoding unit 213. By arranging in, the image in a still area is generated.

静止領域導出部254は、以下のようにして画素値を生成する。1フレーム目の静止領域内の画素値は、次式(10)に基づいて生成される。   The still area deriving unit 254 generates pixel values as follows. The pixel value in the still area of the first frame is generated based on the following equation (10).

Figure 2007116460
Figure 2007116460

すなわち、1フレーム目の画素値Lfr1(x,y)は、1フレーム目の残差データDifffr1(x,y)に、1フレーム目の積分データItgw1(x,y)に(1/1023)を乗算した値を加算することにより算出される。この式(10)は、式(2)から導き出すことができる。式(2)は、符号化装置50で、残差データDifffr1(x,y)を算出するときの式であった。この式(2)において、積分データItgw1(x,y)に係わる項を、残差データDifffr1(x,y)側に移行することにより、式(10)となる。 That is, the pixel value L fr1 (x, y) of the first frame is set to ( 1/1 / ) the residual data Diff fr1 (x, y) of the first frame and the integration data Itgw 1 (x, y) of the first frame. It is calculated by adding the value multiplied by 1023). This equation (10) can be derived from equation (2). Expression (2) is an expression used when the encoding device 50 calculates the residual data Diff fr1 (x, y). In this equation (2), the term relating to the integral data Itgw 1 (x, y) is shifted to the residual data Diff fr1 (x, y) side to obtain equation (10).

このように、1フレーム目の画素値は、積分データと残差データを加算することにより求めることができる。同様に、2フレーム目の画素値Lfr2(x,y)は、次式(11)により求められる。 Thus, the pixel value of the first frame can be obtained by adding the integral data and the residual data. Similarly, the pixel value Lfr 2 (x, y) of the second frame is obtained by the following equation (11).

Figure 2007116460
Figure 2007116460

式(11)における積分データItgw2(x,y)は、上式(12)により求めることができる。式(12)における積分データItgw1(x,y)は、式(8)により求められている。式(8)は、上述したように、積分データ復号化部252により復号された積分データである。また、式(12)における画素値Lfr1(x,y)は、式(10)により求められている。 The integral data Itgw 2 (x, y) in the equation (11) can be obtained by the above equation (12). The integral data Itgw 1 (x, y) in equation (12) is obtained by equation (8). Expression (8) is the integration data decoded by the integration data decoding unit 252 as described above. Further, the pixel value Lfr 1 (x, y) in Expression (12) is obtained by Expression (10).

このように、2フレーム目の画素値Lfr2(x,y)は、積分データ復号化部252から供給される積分データItgw1(x,y)(式(8))と、その積分データItgw1(x,y)と残差データ復号化部253から供給される残差データ(式(9))を用いて算出される1フレーム目の画素値Lfr1(x,y)(式(10))により、算出することができる。 As described above, the pixel value L fr2 (x, y) of the second frame is obtained by integrating the integration data Itgw 1 (x, y) (formula (8)) supplied from the integration data decoding unit 252 and the integration data Itgw. 1 (x, y) and the residual data (equation (9)) supplied from the residual data decoding unit 253, the first frame pixel value L fr1 (x, y) (equation (10 )).

3フレーム以降の画素値も、2フレーム目の画素値の算出の仕方と同様に算出される。すなわち、その時点で供給されているデータと、その時点までに復号化されているデータが用いられて画素値が復号化される。   The pixel values after the third frame are also calculated in the same manner as the pixel values for the second frame. That is, the pixel value is decoded using the data supplied at that time and the data decoded up to that time.

このように、静止領域導出部部254は、1フレーム目の積分データと、1乃至9フレーム目の残差データが供給されれば、1乃至10フレームの、それぞれのフレームにおける静止領域内の画素値を生成することができる。復号化装置210では、静止領域の画素値(画像)を、このようにして生成(復号化)するため、符号化装置50側では、1フレーム目の積分データと、1乃至9フレーム目の残差データのみを送信すれ良い。   As described above, when the integration data of the first frame and the residual data of the first to ninth frames are supplied, the still region deriving unit 254 includes pixels in the still region of each frame of 1 to 10 frames. A value can be generated. Since the decoding apparatus 210 generates (decodes) the pixel values (images) of the still region in this way, the encoding apparatus 50 side has the integration data of the first frame and the remaining frames of the first to ninth frames. Send only the difference data.

ここで、符号化装置50が、1乃至9フレーム目の残差データのみを送信すればよい理由について(10フレーム目の残差データを送信しない理由について)説明を加える。まず以下に、9フレーム目の画素値を生成する際の式(13)を示す。   Here, the reason why the encoding device 50 only needs to transmit the residual data of the first to ninth frames (the reason why the residual data of the tenth frame is not transmitted) will be described. First, Expression (13) for generating the pixel value of the ninth frame is shown below.

Figure 2007116460
Figure 2007116460

式(13)に基づき9フレーム目の画素値Lfr9(x,y)が算出され、画素値Lfr9(x,y)を算出するために必要となる9フレーム目の積分データItgw9(x,y)は、式(14)に基づいて算出される。 The pixel value L fr9 (x, y) of the ninth frame is calculated based on the equation (13), and the integration data Itgw 9 (x of the ninth frame necessary for calculating the pixel value L fr9 (x, y) is calculated. , Y) is calculated based on the equation (14).

このように、2フレームから9フレームまでの、それぞれのフレームにおける画素値は、同様の式(差分データと積分データを加算する式)により求められる。10フレームも、同様に、差分データと積分データを加算することにより求める場合、以下のような式(15)に基づいて算出されることになる。   In this way, the pixel values in the respective frames from 2 frames to 9 frames are obtained by the same formula (formula for adding difference data and integral data). Similarly, when 10 frames are obtained by adding the difference data and the integral data, they are calculated based on the following equation (15).

Figure 2007116460
Figure 2007116460

式(15)に基づき10フレーム目の画素値Lfr10(x,y)が算出され、画素値Lfr10(x,y)を算出するために必要となる10フレーム目の積分データItgw10(x,y)は、式(16)に基づいて算出される。式(16)は、式(1)を代入することにより、最終的に、画素値Lfr10(x,y)になる。すなわち、この場合、
Itgw10(x,y)=Lfr10(x,y) ・・・(17)
となる。
Based on the equation (15), the pixel value L fr10 (x, y) of the 10th frame is calculated, and the integration data Itgw 10 (x of the 10th frame necessary for calculating the pixel value L fr10 (x, y) is obtained. , Y) is calculated based on equation (16). Equation (16) finally becomes pixel value L fr10 (x, y) by substituting Equation (1). That is, in this case
Itgw 10 (x, y) = L fr10 (x, y) (17)
It becomes.

式(17)を、式(15)に代入すると、
fr10(x,y)=Difffr10(x,y)+Lfr10(x,y)
となる。よって、この式から、
Difffr10(x,y)=0
と導くことができる。すなわち、10フレーム目の残差データDifffr10(x,y)は“0”であるので、復号化装置210で、10フレーム目の画素値を算出する際に必要がなく、符号化装置50側から送信する必要もない。
Substituting equation (17) into equation (15),
L fr10 (x, y) = Diff fr10 (x, y) + L fr10 (x, y)
It becomes. Therefore, from this equation:
Diff fr10 (x, y) = 0
Can lead to. That is, since the residual data Diff fr10 (x, y) of the 10th frame is “0”, it is not necessary when the decoding device 210 calculates the pixel value of the 10th frame, and the encoding device 50 side There is no need to send from.

また、別の説明を加えると、10フレーム目の画素値は、次式(18)により求めることができる。   In addition, when another explanation is added, the pixel value of the 10th frame can be obtained by the following equation (18).

Figure 2007116460
Figure 2007116460

すなわち、10フレーム目の画素値Lfr10(x,y)は、1フレーム目の積分データItgw1(x,y)から、(29・Lfr1(x,y)+28・Lfr2(x,y)+27・Lfr3(x,y)+26・Lfr4(x,y)+25・Lfr5(x,y)+24・Lfr6(x,y)+23・Lfr7(x,y)+22・Lfr8(x,y)+2・Lfr9(x,y))を減算することにより求められる。 That is, the pixel value L fr10 (x, y) of the tenth frame is calculated from (2 9 · L fr1 (x, y) +2 8 · L fr2 (x) from the integration data Itgw 1 (x, y) of the first frame. , Y) +2 7 · L fr3 (x, y) +2 6 · L fr4 (x, y) +2 5 · L fr5 (x, y) +2 4 · L fr6 (x, y) +2 3 · L fr7 (x , Y) +2 2 · L fr8 (x, y) + 2 · L fr9 (x, y)).

fr1(x,y)、Lfr2(x,y)、Lfr3(x,y)、Lfr4(x,y)、Lfr5(x,y)、Lfr6(x,y)、Lfr7(x,y)、Lfr8(x,y)、Lfr9(x,y)は、それぞれ、10フレーム目の画素値が求められる以前に、上記したような処理により求められている。 L fr1 (x, y), L fr2 (x, y), L fr3 (x, y), L fr4 (x, y), L fr5 (x, y), L fr6 (x, y), L fr7 (X, y), L fr8 (x, y), and L fr9 (x, y) are obtained by the above-described processing before the pixel value of the 10th frame is obtained.

式(18)には、10フレーム目の残差データDifffr10(x,y)は含まれていないが、そのような式(18)から10フレーム目の画素値を求めることは可能である。よって、10フレーム目の残差データは必要とされない。よって、符号化装置50からは、1フレーム目から9フレーム目までの残差データが送信され、10フレーム目の残差データは送信されない。 Although the residual data Diff fr10 (x, y) of the 10th frame is not included in Expression (18), the pixel value of the 10th frame can be obtained from such Expression (18). Therefore, the residual data of the 10th frame is not required. Therefore, the encoding device 50 transmits the residual data from the first frame to the ninth frame, and does not transmit the residual data of the tenth frame.

このように、復号化装置210においては、1フレーム目の積分データと、1乃至9フレーム目の残差データから、10フレーム分の画素値(各フレーム内の静止領域内の画素値)を復号化することができる。よって、符号化において効率良い符号化を行うことが可能となり(圧縮率を高めることが可能となり)、そのような符号化されたデータを復号化することが可能となる。   As described above, the decoding apparatus 210 decodes 10-frame pixel values (pixel values in a still area in each frame) from the integrated data of the first frame and the residual data of the first to ninth frames. Can be Therefore, efficient encoding can be performed (enhanced compression rate can be achieved), and such encoded data can be decoded.

図22のフローチャートの説明に戻り、ステップS134において静止領域内の画素値が順次生成されることにより、静止領域内の画像が生成される。   Returning to the description of the flowchart in FIG. 22, in step S <b> 134, pixel values in the still region are sequentially generated, so that an image in the still region is generated.

このような処理が、静止領域復号化部214により実行されている一方で、動き領域復号化部215により、ステップS115(図21)において、動き領域の復号化処理が実行される。図21のフローチャートにおいては、静止領域の復号化処理の後、動き領域の復号化処理が実行されるという処理の流れにしたが、静止領域復号化部214による、静止領域の復号化処理と、動き領域復号化部215による、動き領域の復号化処理は、並列的に同時に行われるようにすることも可能である   While such processing is executed by the still region decoding unit 214, the motion region decoding unit 215 executes motion region decoding processing in step S115 (FIG. 21). In the flowchart of FIG. 21, after the still area decoding process, the motion area decoding process is executed. However, the still area decoding unit 214 performs the still area decoding process, The motion region decoding processing by the motion region decoding unit 215 may be performed simultaneously in parallel.

ステップS115において、動き領域復号化部215より実行される動き領域の復号化処理について図23のフローチャートを参照して説明する。ステップS151において、動き領域復号化部215の符号化動き領域画像データ分離部271(図20)は、供給された符号化動き領域画像データを分類する。   The motion region decoding processing executed by the motion region decoding unit 215 in step S115 will be described with reference to the flowchart of FIG. In step S151, the encoded motion region image data separation unit 271 (FIG. 20) of the motion region decoding unit 215 classifies the supplied encoded motion region image data.

符号化動き領域画像データは、図16に示したように、符号化されている基準値データと差分値データが含まれている。符号化動き領域画像データ分類部271は、供給された符号化動き領域画像データを、基準値データと差分値データに分類する。分類された基準値データは、基準値復号化部272に供給され、差分値データは、差分値復号化部273に供給される。   The encoded motion area image data includes encoded reference value data and difference value data, as shown in FIG. The encoded motion area image data classification unit 271 classifies the supplied encoded motion area image data into reference value data and difference value data. The classified reference value data is supplied to the reference value decoding unit 272, and the difference value data is supplied to the difference value decoding unit 273.

基準値復号化部252は、ステップS152において、供給された符号化されている基準値データを復号化し、基準値データを生成する。基準値復号化部252に供給され、復号化された基準値データは、例えば、LM(i,j)である。このLM(i,j)は、図15を参照して説明したように、符号化装置50の動き領域処理部55の基準値導出部132(図6)で導出される値である。   In step S152, the reference value decoding unit 252 decodes the supplied encoded reference value data to generate reference value data. The reference value data supplied to the reference value decoding unit 252 and decoded is, for example, LM (i, j). This LM (i, j) is a value derived by the reference value deriving unit 132 (FIG. 6) of the motion region processing unit 55 of the encoding device 50 as described with reference to FIG.

このように基準値データは、符号化装置50の動き領域処理部54の基準値導出部132(図6)により導出された基準値データであり、エントロピー符号化処理部134(図6)により、符号化されているため、復号化装置210側で、ステップS152(図23)の処理として、基準値復号化部272により復号化される。   Thus, the reference value data is reference value data derived by the reference value deriving unit 132 (FIG. 6) of the motion region processing unit 54 of the encoding device 50, and the entropy coding processing unit 134 (FIG. 6) Since it is encoded, the reference value decoding unit 272 decodes it as the process of step S152 (FIG. 23) on the decoding device 210 side.

基準値復号化部272により基準値が復号化される一方で、ステップS153(図23)において、差分値復号化部273により、符号化されている差分値データが復号化される。差分値復号化部273に供給され、復号化された差分値データは、例えば、DM(i+1,j)といったデータである(式(7))。このDM(i+1,j)といった差分値データは、図15や式(7)を参照して説明したように、符号化装置50の動き領域処理部55の差分値導出部133(図6)で導出される値である。   While the reference value decoding unit 272 decodes the reference value, in step S153 (FIG. 23), the difference value decoding unit 273 decodes the encoded difference value data. The difference value data supplied to the difference value decoding unit 273 and decoded is, for example, data such as DM (i + 1, j) (formula (7)). The difference value data such as DM (i + 1, j) is obtained by the difference value deriving unit 133 (FIG. 6) of the motion region processing unit 55 of the encoding device 50 as described with reference to FIG. 15 and Expression (7). It is a derived value.

このように差分値データは、符号化装置50の動き領域処理部54の差分値導出部133(図6)により導出された差分値データであり、エントロピー符号化処理部134(図6)により、符号化されているため、復号化装置210側で、ステップS153(図23)の処理として、差分値復号化部273により復号化される。   Thus, the difference value data is difference value data derived by the difference value deriving unit 133 (FIG. 6) of the motion region processing unit 54 of the encoding device 50, and by the entropy coding processing unit 134 (FIG. 6), Since it is encoded, the difference value decoding unit 273 decodes it as the processing in step S153 (FIG. 23) on the decoding device 210 side.

ステップS152における処理とステップS153における処理により、基準値データと、差分値データが、それぞれ復号化され、動き領域導出部274に供給される。動き領域導出部274は、ステップS154において、供給された基準値データと差分値データを用いて、動き領域内の画素を生成し、動き領域内の画像を生成する。   Through the processing in step S152 and the processing in step S153, the reference value data and the difference value data are each decoded and supplied to the motion region deriving unit 274. In step S154, the motion region deriving unit 274 generates pixels in the motion region using the supplied reference value data and difference value data, and generates an image in the motion region.

すなわち、動き領域導出部274は、基準値データと差分値データから、静止領域内の画素値を生成し、その生成された画素値を、判定テーブル復号化部213からの判定テーブルを参照し動き領域内に配置することにより、動き領域内の画像を生成する。   That is, the motion region deriving unit 274 generates a pixel value in the still region from the reference value data and the difference value data, and refers to the generated pixel value with reference to the determination table from the determination table decoding unit 213. An image in the motion area is generated by placing the image in the area.

動き領域導出部274は、以下のようにして画素値を生成する。所定のフレームにおける動き領域内の画素値は、次式(19)乃至(24)に基づいて生成される。以下に示す式は、図15の動き領域の範囲A内の画素値を生成するための式である。
LM(i,j)=LM(i,j) ・・・(19)
LM(i+1,j)=DM(i+1,j)+LM(i,j) ・・・(20)
LM(i+2,j)=DM(i+2,j)+LM(i+1,j) ・・・(21)
LM(i+3,j)=DM(i+3,j)+LM(i+2,j) ・・・(22)
LM(i+4,j)=DM(i+4,j)+LM(i+3,j) ・・・(23)
LM(i+5,j)=DM(i+5,j)+LM(i+4,j) ・・・(24)
The motion region deriving unit 274 generates pixel values as follows. Pixel values in the motion region in a predetermined frame are generated based on the following equations (19) to (24). The following expression is an expression for generating a pixel value within the range A of the motion region in FIG.
LM (i, j) = LM (i, j) (19)
LM (i + 1, j) = DM (i + 1, j) + LM (i, j) (20)
LM (i + 2, j) = DM (i + 2, j) + LM (i + 1, j) (21)
LM (i + 3, j) = DM (i + 3, j) + LM (i + 2, j) (22)
LM (i + 4, j) = DM (i + 4, j) + LM (i + 3, j) (23)
LM (i + 5, j) = DM (i + 5, j) + LM (i + 4, j) (24)

動き領域内の範囲A内のラスタースキャン順で、一番初めにスキャンされる画素は、基準値とされた画素であり、その画素の画素値は、式(19)により算出される。この画素値(基準値)は、基準値復号化部272(図20)により復号化された値である。基準値とされた画素の次の画素(2番目の画素)は、式(20)により算出される。式(20)を参照するに、2番目の画素の画素値は、“1番目の画素値(基準値)と2番目の画素値との差分値である差分値DM(i+1,j)”と、“1番目の画素値(式(19)により算出された値)”が加算された値とされる。   The pixel that is scanned first in the raster scan order within the range A within the motion region is the pixel that is set as the reference value, and the pixel value of the pixel is calculated by Expression (19). This pixel value (reference value) is a value decoded by the reference value decoding unit 272 (FIG. 20). The pixel (second pixel) next to the pixel set as the reference value is calculated by Expression (20). Referring to Equation (20), the pixel value of the second pixel is “difference value DM (i + 1, j) which is a difference value between the first pixel value (reference value) and the second pixel value”. , “First pixel value (value calculated by Expression (19))” is added.

同様に、式(21)を参照するに、3番目の画素の画素値は、“2番目の画素値(基準値)と3番目の画素値との差分値である差分値DM(i+2,j)”と、“2番目の画素値(式(20)により算出された値)”が加算された値とされる。   Similarly, referring to Equation (21), the pixel value of the third pixel is “difference value DM (i + 2, j, which is a difference value between the second pixel value (reference value) and the third pixel value”. ) ”And“ second pixel value (value calculated by Expression (20)) ”are added.

このように、2番目以降の画素値は、差分値と、その前の時点で復号化されている画素の画素値が用いられて算出される。差分値は、順次差分値復号化部273により復号化され、供給される値が用いられる。   Thus, the second and subsequent pixel values are calculated using the difference value and the pixel value of the pixel decoded at the previous time point. Difference values are sequentially decoded by the difference value decoding unit 273, and supplied values are used.

このように、動き領域内で、ラスタースキャン順で連続する画素の画素値は、基準とされた画素から順に復号化される。その復号化は、基準とされた画素の画素値(基準値)と、差分値から用いられ、また、順次復号化された画素値が用いられて行われる。   In this manner, the pixel values of pixels that are consecutive in the raster scan order within the motion region are sequentially decoded from the reference pixel. The decoding is performed using the pixel value (reference value) of the pixel that is set as a reference and the difference value, and sequentially using the decoded pixel value.

このような復号化が行われることにより、ステップS154において、画素値(画像)が生成されると、その生成された動き領域内の画像の画像データが、合成部216(図17)に出力される。   By performing such decoding, when a pixel value (image) is generated in step S154, the image data of the image in the generated motion region is output to the combining unit 216 (FIG. 17). The

合成部216は、ステップS116(図21)において、復号化された静止領域内の画像と動き領域内の画像を合成し、1枚の画像(フレーム)を生成し、出力部217に供給する。   In step S <b> 116 (FIG. 21), the synthesizing unit 216 synthesizes the decoded image in the still region and the image in the motion region, generates one image (frame), and supplies the image to the output unit 217.

このようにして、復号化が行われる。   In this way, decoding is performed.

上述したように、本実施の形態における符号化と復号化は、それぞれ、静止領域と動き領域に分類され、それぞれの領域毎に行われる。   As described above, encoding and decoding in the present embodiment are classified into a static region and a motion region, and are performed for each region.

静止領域に関する符号化は、上述したように、積分データと残差データが生成され、符号化されることにより行われた。静止領域に関する復号化は、積分データと残差データが復号化されることにより行われた。   As described above, the encoding relating to the still region is performed by generating and encoding the integral data and the residual data. Decoding for the still region was performed by decoding the integral data and the residual data.

この積分データは、上記したように、処理対象とされるフレーム分(上記した実施の形態においては、m=10フレーム)からの画素値を積分した値とした。10フレーム分の画素値から積分データを算出するということは、時間方向に注目して積分データを算出しているといえる。   As described above, the integration data is a value obtained by integrating pixel values from a frame to be processed (m = 10 frames in the above-described embodiment). It can be said that calculating the integration data from the pixel values for 10 frames calculates the integration data while paying attention to the time direction.

静止領域内の画像は、数フレーム間で静止している画像であると判断された画像であり、フレーム間同士(時間方向)に関わりが深い。そこで、時間方向(すなわち数フレーム間)での積分データを算出し、符号化するようにした。また、残差データも、積分データを用いているため、時間方向の情報を利用していると言える。   The image in the still region is an image determined to be a still image for several frames, and is deeply related to each other (in the time direction). Therefore, the integral data in the time direction (that is, between several frames) is calculated and encoded. Further, since residual data also uses integral data, it can be said that information in the time direction is used.

このように、本実施の形態においては、静止領域内の画像は、時間方向に注目して(時間方向の相関の高さに注目して)符号化や復号化が行われるようにした。   As described above, in the present embodiment, the image in the still region is encoded or decoded by paying attention to the time direction (noting the height of correlation in the time direction).

動き領域に関する符号化は、上述したように、基準値データと差分値データが符号化されることにより行われた。動き領域に関する復号化は、基準値データと差分値データが復号化されることにより行われた。   As described above, the encoding relating to the motion region is performed by encoding the reference value data and the difference value data. Decoding relating to the motion region was performed by decoding the reference value data and the difference value data.

この差分値データは、上述したように、処理対象とされているフレーム内で、動き領域と判定された領域内の隣り合う画素同士の差分が算出されることにより取得された。同一フレーム内に存在する画素同士から差分を算出するということは、空間方向に注目して算出した値であると言える。   As described above, the difference value data is acquired by calculating a difference between adjacent pixels in a region determined as a motion region in a frame to be processed. It can be said that calculating a difference from pixels existing in the same frame is a value calculated by paying attention to the spatial direction.

動き領域内の画像は、静止領域内の画像と異なり、フレーム間(時間方向)における相関は高くなく、フレーム内(動き領域内)における相関が高い。そこで、空間方向(フレーム内の動き領域内)での差分値データを算出し、符号化するようにした。   Unlike the image in the still region, the image in the motion region does not have a high correlation between frames (in the time direction) and has a high correlation in the frame (in the motion region). Therefore, difference value data in the spatial direction (in the motion region in the frame) is calculated and encoded.

このように、本実施の形態においては、動き領域内の画像は、空間方向に注目して(空間方向の相関の高さに注目して)符号化や復号化が行われるようにした。   As described above, in the present embodiment, the image in the motion region is encoded or decoded by paying attention to the spatial direction (noting the high correlation in the spatial direction).

このように、1フレームを符号化する際、1フレーム分のデータを同一の符号化方式で符号化するのではなく、1フレーム内の画像の特徴に注目し、特徴にあった符号化を行うようにすることで、効率良く符号化できるようになる(圧縮率を高めることができる)。また、符号化により画質が劣化するようなことがないように、符号化が行えるようになる。さらに、そのような符号化に対応する復号化を行うことも可能となる。   In this way, when encoding one frame, instead of encoding the data for one frame with the same encoding method, attention is paid to the characteristics of the image in one frame, and encoding according to the characteristics is performed. By doing so, it becomes possible to encode efficiently (the compression rate can be increased). Also, encoding can be performed so that image quality does not deteriorate due to encoding. Furthermore, it becomes possible to perform decoding corresponding to such encoding.

[記録媒体について]
図24は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。CPU(Central Processing Unit)401は、ROM(Read Only Memory)402、または記憶部408に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)403には、CPU401が実行するプログラムやデータなどが適宜記憶される。これらのCPU401、ROM402、およびRAM403は、バス404により相互に接続されている。
[About recording media]
FIG. 24 is a block diagram showing an example of the configuration of a personal computer that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 401 executes various processes according to a program stored in a ROM (Read Only Memory) 402 or a storage unit 408. A RAM (Random Access Memory) 403 appropriately stores programs executed by the CPU 401 and data. These CPU 401, ROM 402, and RAM 403 are mutually connected by a bus 404.

CPU401にはまた、バス404を介して入出力インターフェース405が接続されている。入出力インターフェース405には、キーボード、マウス、マイクロホンなどよりなる入力部406、ディスプレイ、スピーカなどよりなる出力部407が接続されている。CPU401は、入力部406から入力される指令に対応して各種の処理を実行する。そして、CPU401は、処理の結果を出力部407に出力する。   An input / output interface 405 is also connected to the CPU 401 via the bus 404. The input / output interface 405 is connected to an input unit 406 made up of a keyboard, mouse, microphone, etc., and an output unit 407 made up of a display, a speaker, etc. The CPU 401 executes various processes in response to commands input from the input unit 406. Then, the CPU 401 outputs the processing result to the output unit 407.

入出力インターフェース405に接続されている記憶部408は、例えばハードディスクからなり、CPU401が実行するプログラムや各種のデータを記憶する。通信部409は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The storage unit 408 connected to the input / output interface 405 includes, for example, a hard disk, and stores programs executed by the CPU 401 and various data. A communication unit 409 communicates with an external device via a network such as the Internet or a local area network.

また、通信部409を介してプログラムを取得し、記憶部408に記憶してもよい。   A program may be acquired via the communication unit 409 and stored in the storage unit 408.

入出力インターフェース405に接続されているドライブ410は、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどのリムーバブルメディア411が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部408に転送され、記憶される。   The drive 410 connected to the input / output interface 405 drives a removable medium 411 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the program or data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 408 as necessary.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム格納媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, the program is installed in a general-purpose personal computer from the program storage medium.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム格納媒体は、図24に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア411、またはプログラムが一時的もしくは永続的に格納されるROM402や、記憶部408を構成するハードディスクなどにより構成される。プログラム格納媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインターフェースである通信部409を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 24, a program storage medium for storing a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory), DVD (including Digital Versatile Disc), magneto-optical disc (including MD (Mini-Disc)), or removable media 411, which is a package medium made of semiconductor memory, or a program temporarily or permanently A ROM 402 to be stored, a hard disk constituting the storage unit 408, and the like are included. The program is stored in the program storage medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 409 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム格納媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program storage medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series. Or the process performed separately is also included.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

本発明の符号化について説明する図である。It is a figure explaining the encoding of this invention. 本発明を適用した符号化装置の一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the encoding apparatus to which this invention is applied. 判定テーブル導出部の内部構成例を示す図である。It is a figure which shows the internal structural example of the determination table derivation | leading-out part. 判定テーブル処理部の内部構成例を示す図である。It is a figure which shows the example of an internal structure of the determination table process part. 静止領域処理部の内部構成例を示す図である。It is a figure which shows the internal structural example of a still area process part. 動き領域処理部の内部構成例を示す図である。It is a figure which shows the internal structural example of a motion area process part. 符号化により生成されるデータについて説明する図である。It is a figure explaining the data produced | generated by encoding. 符号化処理について説明するフローチャートである。It is a flowchart explaining an encoding process. 判定テーブルの作成、符号化処理について説明するフローチャートである。It is a flowchart explaining preparation of a determination table, and an encoding process. 静止領域の符号化について説明するフローチャートである。It is a flowchart explaining encoding of a still area. 動き領域の符号化について説明するフローチャートである。It is a flowchart explaining encoding of a motion region. 積分データの算出について説明するための図である。It is a figure for demonstrating calculation of integral data. 残差データの算出について説明するための図である。It is a figure for demonstrating calculation of residual data. 判定テーブルについて説明するための図である。It is a figure for demonstrating the determination table. 基準値の求め方について説明するための図である。It is a figure for demonstrating how to obtain | require a reference value. 符号化されたデータ構成について説明する図である。It is a figure explaining the encoded data structure. 本発明を適用した復号化装置の一実施の形態の構成を示す図である。It is a figure which shows the structure of one Embodiment of the decoding apparatus to which this invention is applied. 判定テーブル復号化部の内部構成例を示す図である。It is a figure which shows the example of an internal structure of the determination table decoding part. 静止領域復号化部の内部構成例を示す図である。It is a figure which shows the example of an internal structure of a still area decoding part. 動き領域復号化部の内部構成例を示す図である。It is a figure which shows the internal structural example of a motion area decoding part. 復号化について説明するフローチャートである。It is a flowchart explaining a decoding. 静止領域の復号化について説明するフローチャートである。It is a flowchart explaining decoding of a still area. 動き領域の復号化について説明するフローチャートである。It is a flowchart explaining decoding of a motion region. 記録媒体について説明する図である。It is a figure explaining a recording medium.

符号の説明Explanation of symbols

50 符号化装置, 51 入力部, 52 判定テーブル導出部, 53 判定テーブル処理部, 54 静止領域処理部, 55 動き領域処理部, 56 出力部, 71 積分データ導出部, 72 残差導出部, 73 静止領域・動き領域判定部, 74 判定テーブル導出部, 91 エントロピー符号化部, 111 静止領域選択部, 112 積分データ導出部, 113 残差導出部, 114 エントロピー符号化処理部, 131 動き領域選択部, 132 基準値導出部, 133 差分値導出部, 134 エントロピー符号化処理部, 210 復号化装置, 211 入力部, 212 符号化データ分類部, 213 判定テーブル復号化部, 214 静止領域復号化部, 215 動き領域復号化部, 216 合成部, 217 出力部, 231 エントロピー復号化部, 251 符号化静止領域画像データ分類部, 252 積分データ復号化部, 253 残差データ復号化部, 254 静止領域導出部, 271 符号化動き領域画像データ分類部, 272 基準値復号化部, 273 差分値復号化部, 274 動き領域導出部   50 Coding Device, 51 Input Unit, 52 Judgment Table Deriving Unit, 53 Judgment Table Processing Unit, 54 Static Region Processing Unit, 55 Motion Region Processing Unit, 56 Output Unit, 71 Integral Data Deriving Unit, 72 Residual Deriving Unit, 73 Still region / motion region determination unit, 74 determination table derivation unit, 91 entropy encoding unit, 111 still region selection unit, 112 integral data derivation unit, 113 residual derivation unit, 114 entropy encoding processing unit, 131 motion region selection unit , 132 reference value derivation unit, 133 difference value derivation unit, 134 entropy encoding processing unit, 210 decoding device, 211 input unit, 212 encoded data classification unit, 213 decision table decoding unit, 214 still region decoding unit, 215 Motion region decoding unit, 216 synthesis unit, 217 , 231 entropy decoding unit, 251 encoded still region image data classification unit, 252 integral data decoding unit, 253 residual data decoding unit, 254 still region derivation unit, 271 encoded motion region image data classification unit, 272 Reference value decoding unit, 273 Difference value decoding unit, 274 Motion region deriving unit

Claims (17)

入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類手段と、
前記第1の領域を第1の符号化方式で符号化する第1の符号化手段と、
前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化手段と
を備える符号化装置。
Classification means for classifying a predetermined frame of the plurality of frames into a first region where a moving object is photographed and a second region other than the first region using the plurality of input frames When,
First encoding means for encoding the first region by a first encoding method;
An encoding apparatus comprising: a second encoding unit that encodes the second region with an encoding method different from the first encoding method.
前記分類手段は、
複数のフレームにおける同一の座標の画素値から積分データを算出する第1の算出手段と、
前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記第1の算出手段により算出された前記積分データを減算することにより残差データを算出する第2の算出手段と
を備え、
前記第2の算出手段により算出された前記残差データを所定の演算式に代入した演算結果が、所定の閾値より大きいか否かを判断することにより、前記座標における画素が、前記第1の領域に属するか、または前記第2の領域に属するかを分類する
請求項1に記載の符号化装置。
The classification means includes
First calculation means for calculating integral data from pixel values of the same coordinates in a plurality of frames;
Second calculation means for calculating residual data by subtracting the integration data calculated by the first calculation means from pixel values of the same coordinates in one frame of the plurality of frames. Prepared,
By determining whether or not a calculation result obtained by substituting the residual data calculated by the second calculation means into a predetermined calculation formula is greater than a predetermined threshold, the pixel at the coordinate is the first The coding apparatus according to claim 1, wherein the coding apparatus classifies whether the data belongs to a region or the second region.
前記第1の符号化手段は、
前記フレームを構成するラインを構成する画素のうち、ラスタースキャン順で最初にスキャンされる画素であり、前記分類手段により前記第1の領域であると判断された画素を基準に設定し、その基準に設定された画素値を基準データとする第1の導出手段と、
前記分類手段により前記第1の領域であると判断された画素のうち、隣接する画素の画素値の差分を演算し、差分値データとする第2の導出手段と
を備え、
前記基準値データと前記差分値データを符号化する
請求項1に記載の符号化装置。
The first encoding means includes:
Among the pixels constituting the line constituting the frame, the pixel that is scanned first in the raster scan order, and the pixel determined to be the first region by the classification unit is set as a reference, and the reference First derivation means using the pixel value set in the reference data as reference data;
A second derivation unit that calculates a difference between pixel values of adjacent pixels among the pixels determined to be the first region by the classification unit, and sets the difference value data;
The encoding device according to claim 1, wherein the reference value data and the difference value data are encoded.
前記第2の符号化手段は、
複数のフレームにおける同一の座標の画素値から積分データを算出する第1の算出手段と、
前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記第1の算出手段により算出された前記積分データを減算することにより残差データを算出する第2の算出手段と
を備え、
前記積分データと前記残差データを符号化する
請求項1に記載の符号化装置。
The second encoding means includes
First calculation means for calculating integral data from pixel values of the same coordinates in a plurality of frames;
Second calculation means for calculating residual data by subtracting the integration data calculated by the first calculation means from pixel values of the same coordinates in one frame of the plurality of frames. Prepared,
The encoding apparatus according to claim 1, wherein the integration data and the residual data are encoded.
前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の算出手段は、1枚目のフレームにおける積分データを算出し、2乃至N枚の各フレームにおける積分データは、前のフレームの積分データを用いて算出する
請求項1に記載の符号化装置。
When the plurality of frames are composed of 1 to N frames, the second calculation means calculates the integration data in the first frame, and the integration data in each of the 2 to N frames is: The encoding apparatus according to claim 1, wherein calculation is performed using integration data of a previous frame.
前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の算出手段は、1乃至N−1までの各フレームにおける残差データを算出する
請求項1に記載の符号化装置。
The encoding according to claim 1, wherein when the plurality of frames are composed of 1 to N frames, the second calculation means calculates residual data in each frame from 1 to N-1. apparatus.
入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類ステップと、
前記第1の領域を第1の符号化方式で符号化する第1の符号化ステップと、
前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化ステップと
を含む符号化方法。
Classification step of classifying a predetermined frame of the plurality of frames into a first region where a moving object is photographed and a second region other than the first region using the plurality of input frames When,
A first encoding step of encoding the first region with a first encoding method;
And a second encoding step for encoding the second region with an encoding method different from the first encoding method.
入力された複数のフレームを用い、前記複数のフレームのうちの所定のフレームを、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類する分類ステップと、
前記第1の領域を第1の符号化方式で符号化する第1の符号化ステップと、
前記第2の領域を第1の符号化方式とは異なる符号化方式で符号化する第2の符号化ステップと
を含む処理をコンピュータに実行させるプログラム。
Classification step of classifying a predetermined frame of the plurality of frames into a first region where a moving object is photographed and a second region other than the first region using the plurality of input frames When,
A first encoding step of encoding the first region with a first encoding method;
A program that causes a computer to execute a process including: a second encoding step that encodes the second area with an encoding scheme different from the first encoding scheme.
複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データを入力する入力手段と、
前記入力手段により入力された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化手段と、
前記入力手段により入力された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化手段と
を備える復号化装置。
Classification results classified into a first area where a moving object is photographed and a second area other than the first area with respect to a predetermined frame of the plurality of frames, and pixels in the first area Input means for inputting the encoded first encoded data related to the pixel value of the first encoded data and the encoded second encoded data related to the pixel value of the pixel in the second area;
First decoding means for decoding the first encoded data input by the input means by using a first decoding method while determining a first region using the classification result;
The second encoded data input by the input unit is decoded by a second decoding scheme different from the first decoding scheme while determining a second region using the classification result. Decoding device comprising: second decoding means for converting to a decoding device.
前記分類結果は、
前記複数のフレームにおける同一の座標の画素値から積分データが算出され、
前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記積分データが減算されることにより残差データが算出され、
前記残差データが所定の演算式に代入された演算結果が、所定の閾値より大きいか否かが判断されることにより、前記座標における画素が、前記第1の領域に属するか、または前記第2の領域に属するかが分類された結果である
請求項9に記載の復号化装置。
The classification result is
Integration data is calculated from pixel values at the same coordinates in the plurality of frames,
Residual data is calculated by subtracting the integral data from the pixel value of the same coordinate in one of the plurality of frames,
By determining whether or not a calculation result obtained by substituting the residual data into a predetermined calculation formula is greater than a predetermined threshold, the pixel at the coordinate belongs to the first region, or the first The decoding apparatus according to claim 9, wherein the decoding apparatus is a result of classification as to whether it belongs to area 2.
前記第1の符号化データは、
前記フレームを構成するラインを構成する画素のうち、ラスタースキャン順で最初にスキャンされる画素であり、前記第1の領域に分類された画素の画素値と、
前記第1の領域に分類された画素のうち、隣接する画素の画素値の差分値が含まれ、前記第1の復号化方式に対応する符号化方式で符号化されたデータである
請求項9に記載の復号化装置。
The first encoded data is:
Among the pixels constituting the line constituting the frame, the pixels scanned first in the raster scan order, and the pixel values of the pixels classified in the first region,
The data classified by the encoding method corresponding to the first decoding method includes a difference value of pixel values of adjacent pixels among the pixels classified in the first region. The decoding device according to 1.
前記第1の符号化データは、
前記複数のフレームにおける同一の座標の画素値から積分データと、
前記複数のフレーム内の1つのフレームにおける前記同一の座標の画素値から、前記積分データが減算されることにより残差データが含まれ、前記第2の復号化方式に対応する符号化方式で符号化されたデータである
請求項9に記載の復号化装置。
The first encoded data is:
Integration data from pixel values of the same coordinates in the plurality of frames,
Residual data is included by subtracting the integral data from the pixel value of the same coordinate in one frame of the plurality of frames, and encoding is performed using an encoding method corresponding to the second decoding method. The decoding device according to claim 9, wherein the data is converted into data.
前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の符号化データには、1枚目のフレームにおける積分データが含まれる
請求項9に記載の復号化装置。
The decoding device according to claim 9, wherein when the plurality of frames are composed of 1 to N frames, the second encoded data includes integration data in the first frame.
前記複数のフレームが1乃至N枚のフレームから構成されている場合、前記第2の符号化データには、1乃至N−1までの各フレームにおける残差データが含まれる
請求項9に記載の復号化装置。
The residual data in each frame from 1 to N-1 is included in the second encoded data when the plurality of frames are composed of 1 to N frames. Decryption device.
複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データの入力を制御する入力制御ステップと、
前記入力制御ステップの処理で入力が制御された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化ステップと、
前記入力制御ステップの処理で入力が制御された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化ステップと
を含む復号化方法。
Classification results classified into a first area where a moving object is photographed and a second area other than the first area with respect to a predetermined frame of the plurality of frames, and pixels in the first area An input control step for controlling input of encoded first encoded data related to a pixel value of the second encoded data and encoded second encoded data related to a pixel value of a pixel in the second region; ,
Decoding the first encoded data whose input is controlled in the process of the input control step by using a first decoding method while determining a first region using the classification result. A decryption step;
The second encoded data, the input of which has been controlled in the process of the input control step, is different from the first decoding method while determining the second region using the classification result. A decoding method comprising: a second decoding step for decoding by a decoding method.
複数のフレームのうちの所定のフレームに関し、動きがある物体が撮影された第1の領域と、第1の領域以外の第2の領域に分類された分類結果、前記第1の領域内の画素の画素値に係わる符号化された第1の符号化データ、および、前記第2の領域内の画素の画素値に係わる符号化された第2の符号化データの入力を制御する入力制御ステップと、
前記入力制御ステップの処理で入力が制御された前記第1の符号化データを、前記分類結果を用いて、第1の領域を判断しながら、第1の復号化方式で復号化する第1の復号化ステップと、
前記入力制御ステップの処理で入力が制御された前記第2の符号化データを、前記分類結果を用いて、第2の領域を判断しながら、前記第1の復号化方式とは異なる第2の復号化方式で復号化する第2の復号化ステップと
を含む処理をコンピュータに実行させるプログラム。
Classification results classified into a first area where a moving object is photographed and a second area other than the first area with respect to a predetermined frame of the plurality of frames, and pixels in the first area An input control step for controlling input of encoded first encoded data related to a pixel value of the second encoded data and encoded second encoded data related to a pixel value of a pixel in the second region; ,
Decoding the first encoded data whose input is controlled in the process of the input control step by using a first decoding method while determining a first region using the classification result. A decryption step;
The second encoded data, the input of which has been controlled in the process of the input control step, is different from the first decoding method while determining the second region using the classification result. A program that causes a computer to execute processing including a second decoding step of decoding by a decoding method.
請求項8または請求項16に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 8 is recorded.
JP2005306094A 2005-10-20 2005-10-20 Encoding device and method, decoding device and method, program, and recording medium Withdrawn JP2007116460A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005306094A JP2007116460A (en) 2005-10-20 2005-10-20 Encoding device and method, decoding device and method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005306094A JP2007116460A (en) 2005-10-20 2005-10-20 Encoding device and method, decoding device and method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2007116460A true JP2007116460A (en) 2007-05-10

Family

ID=38098240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005306094A Withdrawn JP2007116460A (en) 2005-10-20 2005-10-20 Encoding device and method, decoding device and method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2007116460A (en)

Similar Documents

Publication Publication Date Title
US11375208B2 (en) Trisoup node size per slice
EP3861755B1 (en) Techniques and apparatus for weighted-median prediction for point-cloud attribute coding
US11166048B2 (en) Method and apparatus for video coding
JP7266686B2 (en) Method, Apparatus, and Computer Program for Point Cloud Compression
US10979730B2 (en) Techniques and apparatus for interframe point cloud attribute coding
US10986364B2 (en) Method and apparatus for interframe point cloud attribute coding
US11475604B2 (en) Method and apparatus for adaptive point cloud attribute coding
US11943457B2 (en) Information processing apparatus and method
US11328440B2 (en) Point cloud data transmission apparatus, point cloud data transmission method, point cloud data reception apparatus, and point cloud data reception method
US20110200105A1 (en) Predicted pixel value generation procedure automatic producing method, image encoding method, image decoding method, apparatus therefor, programs therefor, and storage media which store the programs
US11671576B2 (en) Method and apparatus for inter-channel prediction and transform for point-cloud attribute coding
US11580670B2 (en) Method and apparatus for inter-channel prediction and transform for point cloud attribute coding
CN113795870A (en) Techniques and apparatus for inter-channel prediction and transformation for point cloud attribute coding
JP6065613B2 (en) Video encoding device
CN107155364B (en) Method and apparatus for processing graph-based signals using geometric primitives
US20220353492A1 (en) Information processing device and method
JP2008125002A (en) Image encoder, image decoder and image processing program
JP2007116460A (en) Encoding device and method, decoding device and method, program, and recording medium
WO2019198520A1 (en) Information processing device and method
JPH08186827A (en) Hierarchical coder for digital image signal
EP4325853A1 (en) Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method
JP2007116246A (en) Motion vector estimating device and method, encoding device and method, decoding device and method, program, and recording medium
JP2002335405A (en) Image data processing unit and method, recording medium, and program
JP2006174213A (en) Prediction image forming method and image coding method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090106