JP6398149B2 - Moving picture coding apparatus and program, and moving picture coding system - Google Patents

Moving picture coding apparatus and program, and moving picture coding system Download PDF

Info

Publication number
JP6398149B2
JP6398149B2 JP2013084130A JP2013084130A JP6398149B2 JP 6398149 B2 JP6398149 B2 JP 6398149B2 JP 2013084130 A JP2013084130 A JP 2013084130A JP 2013084130 A JP2013084130 A JP 2013084130A JP 6398149 B2 JP6398149 B2 JP 6398149B2
Authority
JP
Japan
Prior art keywords
region
image
motion
encoding
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013084130A
Other languages
Japanese (ja)
Other versions
JP2014207565A (en
Inventor
和仁 迫水
和仁 迫水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2013084130A priority Critical patent/JP6398149B2/en
Publication of JP2014207565A publication Critical patent/JP2014207565A/en
Application granted granted Critical
Publication of JP6398149B2 publication Critical patent/JP6398149B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画像符号化装置及びプログラム、並びに、動画像符号化システムに関し、例えば、Distributed Video Coding(分散映像符号化;以下、DVCと呼ぶ)方式に基づいて動画像の符号化、復号を行う場合に適用し得るものである。   The present invention relates to a moving image coding apparatus, a program, and a moving image coding system, and for example, performs coding and decoding of a moving image based on a Distributed Video Coding (hereinafter referred to as DVC) system. Applicable when doing.

DVC方式は、Slepian−Wolf理論又はWyner−Ziv理論に基づき動画像の符号化及び復号を行う動画像符号化方式である(非特許文献1参照)。   The DVC method is a moving image encoding method that performs encoding and decoding of a moving image based on the Slepian-Wolf theory or the Wyner-Ziv theory (see Non-Patent Document 1).

DVC方式は、デコーダで生成される符号化対象画像の予測画像(以下、デコーダ予測画像)から符号化対象画像を再構成する符号(以下、Wyner−Ziv符号とする)を、デコーダ予測画像を直接参照することなく生成することを特徴としている。この特徴より、DVC方式の符号化装置は、複雑な予測画像生成部を備える必要がなく、符号化に係る演算量の削減が可能になる。   In the DVC method, a code (hereinafter referred to as a Wyner-Ziv code) for reconstructing a coding target image from a prediction image (hereinafter referred to as a decoder predicted image) of a coding target image generated by a decoder is directly used as the decoder predicted image. It is characterized by generating without reference. Due to this feature, the DVC encoding apparatus does not need to include a complicated prediction image generation unit, and the amount of calculation related to encoding can be reduced.

DVC方式の課題は、デコーダ予測画像から復号画像を生成するのに必要十分なWyner−Ziv符号のレート(符号量)を求めることが困難であることである。Wyner−Ziv符号が多すぎると圧縮効果が得られず、Wyner−Ziv符号が少なすぎるとデコーダ予測画像から復号画像を生成できない。   The problem of the DVC method is that it is difficult to obtain a Wyner-Ziv code rate (code amount) necessary and sufficient to generate a decoded image from a decoder predicted image. If there are too many Wyner-Ziv codes, the compression effect cannot be obtained, and if there are too few Wyner-Ziv codes, a decoded picture cannot be generated from the predicted decoder picture.

非特許文献1の記載技術は、デコーダ予測画像から復号画像が生成されるまで追加のWyner−Ziv符号を要求し続ける(フィードバックし続ける)ことにより必要十分なレートを探る方式(以下、デコーダレート制御方式と呼ぶ)を採用しており、これにより、レートの課題を解決している。   The technology described in Non-Patent Document 1 is a method of searching for a necessary and sufficient rate by continuing to request (continue feedback) an additional Wyner-Ziv code until a decoded image is generated from a decoder predicted image (hereinafter referred to as decoder rate control). This method is used to solve the rate problem.

しかし、デコーダレート制御方式には、ネットワークを介した復号処理の存在なしに符号化することができないため、用途が限定されるという短所を有する。   However, the decoder rate control method has a disadvantage that the use is limited because it cannot be encoded without the presence of a decoding process via a network.

この短所を解消するため、非特許文献2や非特許文献3では、エンコーダ予測画像(デコーダ予測画像ほど複雑な演算を必要とせずに生成が可能な予測画像)をエンコーダで生成し、符号化対象画像とエンコーダ予測画像を比較することで、レートを制御する方式(以下、エンコーダレート制御方式と呼ぶ)が提案されている。   In order to eliminate this shortcoming, in Non-Patent Document 2 and Non-Patent Document 3, an encoder-predicted image (a predictive image that can be generated without requiring a calculation as complicated as a decoder-predicted image) is generated by an encoder, and is encoded. A method for controlling a rate by comparing an image with an encoder predicted image (hereinafter referred to as an encoder rate control method) has been proposed.

図7は、エンコーダレート制御方式に基づく従来の動画像符号化装置の概略構成を示すブロック図である。   FIG. 7 is a block diagram showing a schematic configuration of a conventional video encoding apparatus based on the encoder rate control method.

図7に示す動画像符号化装置31は、符号化対象画像(非キーフレーム画像)PIC1と参照画像PIC2を入力し、ビットストリームBSを出力する。   The moving image encoding device 31 illustrated in FIG. 7 receives an encoding target image (non-key frame image) PIC1 and a reference image PIC2, and outputs a bit stream BS.

動画像符号化装置31は、符号化対象画像PIC1と参照画像PIC2とから、デコーダが復号するのに必要十分なレートを推定し、レートS302を出力するレート制御部302と、レートS302を用いて符号化対象画像PIC1をWyner−Ziv符号化するWyner−Ziv符号化部103とを有する。   The moving image encoding device 31 estimates a necessary and sufficient rate for the decoder to decode from the encoding target image PIC1 and the reference image PIC2, and uses the rate control unit 302 that outputs the rate S302, and the rate S302. A Wyner-Ziv encoding unit 103 that performs Wyner-Ziv encoding on the encoding target image PIC1.

例えば、レート制御部302は、非特許文献2の記載技術のように、参照画像PIC2からエンコーダ予測画像を生成し、符号化対象画像PIC1とエンコーダ予測画像間で誤差の統計量を計算し、誤差の統計量から、デコーダが復号するのに必要十分なレートS302を推定する。また例えば、レート制御部302は、非特許文献3の記載技術のように、参照画像PIC2からエンコーダ予測画像を生成し、符号化対象画像PIC1とエンコーダ予測画像間でビット反転数を数え、ビット反転数から計算できるビット反転確率に基づき、デコーダが復号するのに必要十分なレートS302を推定する。   For example, as in the technique described in Non-Patent Document 2, the rate control unit 302 generates an encoder predicted image from the reference image PIC2, calculates an error statistic between the encoding target image PIC1 and the encoder predicted image, From this statistic, a rate S302 necessary and sufficient for the decoder to decode is estimated. Further, for example, the rate control unit 302 generates an encoder predicted image from the reference image PIC2 as in the technique described in Non-Patent Document 3, counts the number of bit inversions between the encoding target image PIC1 and the encoder predicted image, and performs bit inversion. Based on the bit inversion probability that can be calculated from the number, a rate S302 necessary and sufficient for the decoder to decode is estimated.

図7では省略しているが、動画像符号化装置31から、図示しない対向する動画像復号装置へは、符号化対象画像PIC1を符号化したビットストリームだけではなく、符号化対象画像PIC1とは時刻が異なるキーフレーム画像を、符号化対象画像PIC1の符号化方式とは異なる符号化方式で符号化した圧縮データも転送される。   Although omitted in FIG. 7, not only the bit stream obtained by encoding the encoding target image PIC1 but also the encoding target image PIC1 from the moving image encoding device 31 to the opposing moving image decoding device (not shown). Compressed data obtained by encoding a key frame image having a different time with an encoding method different from the encoding method of the encoding target image PIC1 is also transferred.

参照画像PIC2は、例えば、直前時刻や直後時刻に撮像されたキーフレーム画像の原画像や復号画像、それらを画像処理した画像などである。キーフレーム画像は、多くの場合、H.264/AVCなど既存の符号化技術で圧縮される(但し、キーフレーム画像の符号化方式は問われない)。   The reference image PIC2 is, for example, an original image or a decoded image of a key frame image captured at the immediately preceding time or immediately following time, an image obtained by performing image processing on these images, and the like. Key frame images are often H.264 images. It is compressed by an existing encoding technique such as H.264 / AVC (however, the key frame image encoding method is not limited).

B.Girod, A.Aaron, S.Rane, and D.Rebollo−Monedero,“Distributed video coding,”Proceedings of the IEEE,Vol.93,pp.71−83,Jan.,2005B. Girod, A.M. Aaron, S.A. Rane, and D.D. Rebolo-Monedero, “Distributed video coding,” Proceedings of the IEEE, Vol. 93, pp. 71-83, Jan. , 2005 C.Brites, F.Pereira,“Encoder rate control for transform domain Wyner−Ziv video coding,”ICIP2007,USA,September, 2007C. Brites, F.M. Pereira, “Encoder rate control for domain domain Wyner-Ziv video coding,” ICIP 2007, USA, September, 2007 K.Sakomizu, T.Yamasaki, S.Nakagawa and T.Nishi,“A real−time system of distributed video coding,”Proc. of Picture Coding Symposium (PCS’10),pp.538−541,Nagoya Japan,Nov.,2010K. Sakomizu, T .; Yamazaki, S .; Nakagawa and T.A. Nishi, “A real-time system of distributed video coding,” Proc. of Picture Coding Symposium (PCS'10), pp. 538-541, Nagaya Japan, Nov. , 2010 M.Tagliasacchi A.Majumdar and K.Ramchandran,“A distributed−source−coding based robust spatio−temporal scalable video codec,”Proc.Picture Coding Symposium,Citeseer,2004M.M. Tagliasacchi A. Majmardar and K.M. Ramchandran, “A distributed-source-coding based robust-spatial-temporal scalable video codec,” Proc. Picture Coding Symposium, Citeseeer, 2004 K Sakomizu, T.Nishi and T.Onoye,“A hierarchical motion smoothing for distributed scalable video coding,”Proc. of Picture Coding Symposium(PCS’12),pp.209−212,Krakow,Poland,May.,2012.K Sakomizu, T .; Nishi and T. Onee, “A hierarchical motion smoothing for distributed scalable video coding,” Proc. of Picture Coding Symposium (PCS'12), pp. 209-212, Krakow, Poland, May. 2012.

レート制御部を備えるDVC方式に基づく動画像符号化装置において、デコーダ予測画像を用いずに、デコーダが復号するのに必要十分なレートを推定することは困難である。   In a moving picture coding apparatus based on the DVC system including a rate control unit, it is difficult to estimate a rate necessary and sufficient for decoding by a decoder without using a predicted decoder picture.

上述したように、従来、符号化対象画像とエンコーダ予測画像間の差に関する情報を計算し、差に関する情報からレートを推定している。   As described above, conventionally, information on the difference between the encoding target image and the encoder predicted image is calculated, and the rate is estimated from the information on the difference.

しかし、符号化対象画像とエンコーダ予測画像間の差に関する情報と、符号化対象画像とデコーダ予測画像間の差に関する情報は、等しくない。この誤差は、レートの推定精度に悪影響を与え、結果として、符号化効率の悪化を招いてしまう。   However, the information regarding the difference between the encoding target image and the encoder predicted image is not equal to the information regarding the difference between the encoding target image and the decoder predicted image. This error adversely affects the rate estimation accuracy, and as a result, the coding efficiency is deteriorated.

符号化効率の悪化は、例えば、エンコーダ予測画像の予測精度を上げるなど、エンコーダの負荷を高めることで解決することができる。しかし、この解決方法では、エンコーダが軽量であるというDVC方式の特徴が活きない。   The deterioration of the encoding efficiency can be solved by increasing the load on the encoder, for example, by increasing the prediction accuracy of the encoder predicted image. However, in this solution, the feature of the DVC method that the encoder is lightweight cannot be used.

そのため、エンコーダ側の処理の軽さを維持しつつ、レートの推定精度を高めて符号化効率を改善することができる動画像符号化装置及びプログラム、並びに、動画像符号化システムが望まれている。   Therefore, there is a demand for a moving picture coding apparatus and program, and a moving picture coding system that can improve the coding efficiency by improving the accuracy of rate estimation while maintaining the lightness of processing on the encoder side. .

第1の本発明は、分散映像符号化方式に基づき動画像を圧縮する動画像符号化装置において、(1)非キーフレームである符号化対象画像とキーフレームである参照画像から、上記符号化対象画像内における並進運動領域を識別する並進運動領域識別手段と、(2)動画像復号装置が復号画像を生成するのに必要十分な符号量を規定するレートを、上記並進運動領域の情報上記並進運動領域以外の領域である非並進運動領域の情報に対して、異なる重み付けを行うものであり、少なくとも、上記並進運動領域の情報量が小さくなるような重み付けを行い、重みづけを行った上記並進運動領域の情報と上記非並進運動領域の情報を用いて、決定するレート制御手段と、(3)決定されたレートを適用して、上記符号化対象画像を符号化する符号化手段とを備えることを特徴とする。 According to a first aspect of the present invention, there is provided a moving image encoding apparatus for compressing a moving image based on a distributed video encoding method, wherein (1) an encoding target image that is a non- key frame and a reference image that is a key frame are encoded as described above. Translational motion region identification means for identifying a translational motion region in the target image; and (2) a rate that defines a code amount necessary for the moving image decoding device to generate a decoded image, and information on the translational motion region . Different weights are applied to the information in the non-translational motion region , which is a region other than the translational motion region , and at least weighting is performed so that the information amount of the translational motion region is small . using information of the information and the non-translational movement region of the translation region, and determining the rate control means, (3) applying the determined rate, marks for encoding the encoding target image Characterized in that it comprises a means.

第2の本発明の動画像符号化プログラムは、分散映像符号化方式に基づき動画像を圧縮する動画像符号化装置に搭載されるコンピュータを、(1)非キーフレームである符号化対象画像とキーフレームである参照画像から、上記符号化対象画像内における並進運動領域を識別する並進運動領域識別手段と、(2)動画像復号装置が復号画像を生成するのに必要十分な符号量を規定するレートを、上記並進運動領域の情報上記並進運動領域以外の領域である非並進運動領域の情報に対して、異なる重み付けを行うものであり、少なくとも、上記並進運動領域の情報量が小さくなるような重み付けを行い、重みづけを行った上記並進運動領域の情報と上記非並進運動領域の情報を用いて、決定するレート制御手段と、(3)決定されたレートを適用して、上記符号化対象画像を符号化する符号化手段として機能させることを特徴とする。 The moving image encoding program of the second aspect of the present invention provides a computer mounted on a moving image encoding apparatus that compresses a moving image based on a distributed video encoding method, and (1) an encoding target image that is a non-key frame and A translational motion region identifying means for identifying a translational motion region in the encoding target image from a reference image that is a key frame ; and (2) a code amount necessary and sufficient for the video decoding device to generate a decoded image. Different rates are applied to the information of the translational motion region and the information of the non- translational motion region other than the translational motion region , and at least the information amount of the translational motion region is reduced. performs weighting such as by using the information of the information and the non-translational movement region of the translation region was weighted, and rate control means for determining a rate determined (3) And use, characterized in that to function as an encoding means for encoding the encoding target image.

第3の本発明は、分散映像符号化方式に基づき動画像を圧縮する動画像符号化装置と、当該動画像符号化装置からの符号化データを復号する動画像復号装置とを備える動画像符号化システムにおいて、上記動画像符号化装置として、第1の本発明の動画像符号化装置を適用したことを特徴とする。   According to a third aspect of the present invention, there is provided a moving image code comprising: a moving image encoding device that compresses a moving image based on a distributed video encoding method; and a moving image decoding device that decodes encoded data from the moving image encoding device. In the encoding system, the moving image encoding device according to the first aspect of the present invention is applied as the moving image encoding device.

本発明によれば、エンコーダ側の処理の軽さを維持しつつ、レートの推定精度を高めて符号化効率を改善できる動画像符号化装置及びプログラム、並びに、動画像符号化システムを提供できる。   According to the present invention, it is possible to provide a moving picture coding apparatus and program, and a moving picture coding system capable of improving rate estimation accuracy and improving coding efficiency while maintaining lightness of processing on the encoder side.

第1の実施形態の動画像符号化システムの構成を示すブロック図であり、第1の実施形態の動画像符号化装置については、その内部の機能的な詳細構成も示している。It is a block diagram which shows the structure of the moving image encoding system of 1st Embodiment, and about the moving image encoding apparatus of 1st Embodiment, the functional detailed structure inside is also shown. 第1の実施形態の動画像符号化装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the moving image encoder of 1st Embodiment. 第1の実施形態の動画像符号化装置における並進領域識別部の動作の説明図(その1)である。It is explanatory drawing (the 1) of operation | movement of the translation area | region identification part in the moving image encoder of 1st Embodiment. 第1の実施形態の動画像符号化装置における並進領域識別部の動作の説明図(その2)である。It is explanatory drawing (the 2) of operation | movement of the translation area | region identification part in the moving image encoder of 1st Embodiment. 第2の実施形態の動画像符号化装置における統合部の詳細構成を示す説明図である。It is explanatory drawing which shows the detailed structure of the integration part in the moving image encoder of 2nd Embodiment. 第2の実施形態の動画像符号化装置における統合部の詳細動作を示すフローチャートである。It is a flowchart which shows the detailed operation | movement of the integration part in the moving image encoder of 2nd Embodiment. エンコーダレート制御方式に基づく従来の動画像符号化装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the conventional moving image encoder based on an encoder rate control system.

(A)第1の実施形態
以下、本発明による動画像符号化装置及びプログラム、並びに、動画像符号化システムの第1の実施形態を、図面を参照しながら説明する。
(A) First Embodiment Hereinafter, a first embodiment of a moving image encoding apparatus and program and a moving image encoding system according to the present invention will be described with reference to the drawings.

(A−1)第1の実施形態の構成
図1は、第1の実施形態の動画像符号化システムの構成を示すブロック図であり、第1の実施形態の動画像符号化装置については、その内部の詳細構成をも示している。
(A-1) Configuration of the First Embodiment FIG. 1 is a block diagram showing the configuration of the video encoding system of the first embodiment. Regarding the video encoding device of the first embodiment, The internal detailed structure is also shown.

図1において、第1の実施形態の動画像符号化システム1は、符号化対象画像(非キーフレーム画像)PIC1の符号化を行う第1の実施形態の動画像符号化装置(以下でエンコーダと表現していることもある)11と、キーフレーム画像PIC3の符号化を行うキーフレーム符号化装置12と、動画像符号化装置11からの符号化データ(ビットストリーム)BSを復号する動画像復号装置(以下でデコーダと表現していることもある)21と、キーフレーム符号化装置12からの符号化データを復号するキーフレーム復号装置22とを有している。   In FIG. 1, a moving image encoding system 1 according to the first embodiment includes a moving image encoding device (hereinafter referred to as an encoder) according to the first embodiment that encodes an encoding target image (non-key frame image) PIC1. 11, a key frame encoding device 12 that encodes the key frame image PIC 3, and a moving image decoding that decodes the encoded data (bit stream) BS from the moving image encoding device 11 A device 21 (hereinafter also referred to as a decoder) 21 and a key frame decoding device 22 for decoding encoded data from the key frame encoding device 12 are included.

キーフレーム符号化装置12、動画像復号装置21及びキーフレーム復号装置22は、DVC方式に従う従来の動画像符号化システムにおけるものと同様であるので、その詳細説明は省略する。   Since the key frame encoding device 12, the moving image decoding device 21, and the key frame decoding device 22 are the same as those in the conventional moving image encoding system according to the DVC method, detailed description thereof is omitted.

第1の実施形態の動画像符号化装置11は、図1に示すような詳細構成を有する。動画像符号化装置11は、ハードウェア的に各種回路を接続して構築されても良く、また、CPU、ROM、RAMなどを有する汎用的な装置が動画像符号化プログラムを実行することで動画像符号化装置としての機能を実現するように構築されても良い。いずれの構築方法を適用した場合であっても、動画像符号化装置100の機能的な詳細構成は、図1で表す構成となっている。   The moving image encoding device 11 of the first embodiment has a detailed configuration as shown in FIG. The video encoding device 11 may be constructed by connecting various circuits in hardware, and a general-purpose device having a CPU, a ROM, a RAM, and the like executes a video encoding program to execute a moving image. It may be constructed so as to realize a function as an image encoding device. Regardless of which construction method is applied, the detailed functional configuration of the moving image encoding apparatus 100 is the configuration shown in FIG.

動画像符号化装置11は、並進運動領域識別部101と、レート制御部102と、Wyner−Ziv符号化部103とを有する。   The moving image encoding device 11 includes a translational motion region identification unit 101, a rate control unit 102, and a Wyner-Ziv encoding unit 103.

並進運動領域識別部101は、入力された符号化対象画像PIC1と参照画像PIC2とから、符号化対象画像PIC1内で、同じ方向に同じ速度で移動している領域(適宜、並進領域と呼ぶ)であって、かつ、その移動が移動体の動きに伴う領域(適宜、運動領域と呼ぶ)である並進運動領域を求め、領域ごとに、並進運動領域か非並進運動領域かを表す並進運動領域識別信号S101をレート制御部102に出力する。   The translational motion region identification unit 101 is a region that is moving at the same speed in the same direction in the encoding target image PIC1 from the input encoding target image PIC1 and the reference image PIC2 (referred to as a translation region as appropriate). In addition, a translational motion region in which the movement is a region associated with the movement of the moving body (referred to as a motion region as appropriate) is obtained, and a translational motion region indicating whether the motion is a translational motion region or a non-translational motion region The identification signal S101 is output to the rate control unit 102.

レート制御部102は、入力された符号化対象画像PIC1と参照画像PIC2と並進運動領域識別信号S101とに基づいて、動画像復号装置21が復号するのに必要十分なレート(符号量)を推定し、推定によって得られたレートS102をWyner−Ziv符号化部103に出力するものである。   The rate control unit 102 estimates a rate (code amount) necessary and sufficient for the video decoding device 21 to decode based on the input encoding target image PIC1, the reference image PIC2, and the translational motion region identification signal S101. Then, the rate S102 obtained by the estimation is output to the Wyner-Ziv encoding unit 103.

Wyner−Ziv符号化部103は、入力された符号化対象画像PIC1を、入力されたレートS102が規定する符号量に満たすようにWyner−Ziv符号化するものであり、得られた符号化データのビットストリームBSを動画像復号装置21に送信するものである。Wyner−Ziv符号化部103は、符号化対象画像PIC1を符号化する際には、キーフレーム画像の符号化データやキーフレーム画像等のキーフレーム画像に関する情報を利用する。   The Wyner-Ziv encoding unit 103 performs Wyner-Ziv encoding so that the input encoding target image PIC1 satisfies the code amount defined by the input rate S102, and the obtained encoded data The bit stream BS is transmitted to the video decoding device 21. The Wyner-Ziv encoding unit 103 uses information related to key frame images such as encoded data of key frame images and key frame images when encoding the encoding target image PIC1.

並進運動領域識別部101は、符号化対象画像縮小部104と、参照画像縮小部105と、動きベクトル推定部106と、運動領域識別部107と、並進領域動きベクトル計算部108と、並進領域識別部109と、統合部110とを有する。   The translational motion region identification unit 101 includes an encoding target image reduction unit 104, a reference image reduction unit 105, a motion vector estimation unit 106, a motion region identification unit 107, a translational region motion vector calculation unit 108, and a translational region identification. Unit 109 and integration unit 110.

符号化対象画像縮小部104は、入力された符号化対象画像PIC1を縮小し、縮小符号化対象画像S104を動きベクトル推定部106及び運動領域識別部107に出力する。   The encoding target image reduction unit 104 reduces the input encoding target image PIC1 and outputs the reduced encoding target image S104 to the motion vector estimation unit 106 and the motion region identification unit 107.

参照画像縮小部105は、入力された参照画像PIC2を縮小し、縮小参照画像S105を動きベクトル推定部106及び運動領域識別部107に出力する。   The reference image reduction unit 105 reduces the input reference image PIC2 and outputs the reduced reference image S105 to the motion vector estimation unit 106 and the motion region identification unit 107.

動きベクトル推定部106は、符号化対象画像縮小部104から与えられた縮小符号化対象画像S104と、参照画像縮小部105から与えられた縮小参照画像S105とから、動きベクトルS106を推定し、得られた動きベクトルS106を、運動領域識別部107、並進領域動きベクトル計算部108及び並進領域識別部109に出力する。   The motion vector estimation unit 106 estimates the motion vector S106 from the reduction encoding target image S104 given from the encoding target image reduction unit 104 and the reduction reference image S105 given from the reference image reduction unit 105, and obtains it. The obtained motion vector S106 is output to the motion region identification unit 107, the translation region motion vector calculation unit 108, and the translation region identification unit 109.

運動領域識別部107は、符号化対象画像縮小部104から与えられた縮小符号化対象画像S104と、参照画像縮小部105から与えられた縮小参照画像S105と、動きベクトル推定部106から与えられた動きベクトルS106とから、運動領域を識別し、運動領域か非運動領域かを規定する運動領域識別信号107を統合部110に出力する。   The motion region identification unit 107 is supplied from the reduction encoding target image S104 provided from the encoding target image reduction unit 104, the reduced reference image S105 provided from the reference image reduction unit 105, and the motion vector estimation unit 106. From the motion vector S106, a motion region is identified, and a motion region identification signal 107 that defines a motion region or a non-motion region is output to the integration unit 110.

並進領域動きベクトル計算部108は、動きベクトル推定部106から与えられた動きベクトルS106から、並進領域の動きベクトルを推定し、得られた並進領域動きベクトルS108を並進領域識別部109に出力する。   The translation region motion vector calculation unit 108 estimates the motion vector of the translation region from the motion vector S106 given from the motion vector estimation unit 106, and outputs the obtained translation region motion vector S108 to the translation region identification unit 109.

並進領域識別部109は、動きベクトル推定部106から与えられた動きベクトルS106と並進領域動きベクトル計算部108から与えられた並進領域動きベクトルS108とから、並進領域か非並進領域かを規定する並進領域識別信号109を生成して統合部110に出力する。並進領域識別部109は、例えば、動きベクトルS106と並進領域動きベクトルS108の差分の大きさを閾値と比較することで、並進領域識別信号S109を生成する。   The translation region identification unit 109 defines a translation region or a non-translation region based on the motion vector S106 given from the motion vector estimation unit 106 and the translation region motion vector S108 given from the translation region motion vector calculation unit 108. A region identification signal 109 is generated and output to the integration unit 110. For example, the translation region identification unit 109 generates the translation region identification signal S109 by comparing the magnitude of the difference between the motion vector S106 and the translation region motion vector S108 with a threshold value.

統合部110は、運動領域識別信号S107と並進領域識別信号S109とから、並進運動領域を特定し、並進運動領域識別信号S101を生成してレート制御部102に出力する。例えば、運動領域識別信号S107が運動領域で論理「1」を非運動領域で論理「0」をとる信号であり、並進領域識別信号S109が並進領域で論理「1」を非並進領域で論理「0」をとる信号であれば、統合部110は、二つの識別信号S107及びS109の論理積を計算することにより、並進運動領域識別信号S101を生成する。   The integration unit 110 identifies a translational motion region from the motion region identification signal S107 and the translational region identification signal S109, generates a translational motion region identification signal S101, and outputs the translational motion region identification signal S101 to the rate control unit 102. For example, the motion region identification signal S107 is a signal that takes logic “1” in the motion region and logic “0” in the non-motion region, and the translation region identification signal S109 has logic “1” in the translation region and logic “1” in the non-translation region. If the signal is “0”, the integration unit 110 generates a translational motion region identification signal S101 by calculating a logical product of the two identification signals S107 and S109.

(A−2)第1の実施形態の動作
次に、第1の実施形態の動画像符号化装置11の動作を、図面を参照しながら説明する。
(A-2) Operation of First Embodiment Next, the operation of the moving image encoding device 11 of the first embodiment will be described with reference to the drawings.

なお、キーフレーム符号化装置12、動画像復号装置21及びキーフレーム復号装置22の動作は従来と同様であるので、その説明は省略する。   Note that the operations of the key frame encoding device 12, the moving image decoding device 21, and the key frame decoding device 22 are the same as those in the prior art, and a description thereof will be omitted.

図2は、第1の実施形態の動画像符号化装置11の動作を示すフローチャートである。   FIG. 2 is a flowchart illustrating the operation of the moving image encoding device 11 according to the first embodiment.

新たな符号化対象画像PIC1が処理対象となったときには、符号化対象画像縮小部104において、符号化対象画像PIC1から縮小符号化対象画像S104が生成されると共に、参照画像縮小部105において、参照画像PIC2から縮小参照画像S105が生成される(ステップST101)。縮小画像の生成アルゴリズムとして、既存のいかなるアルゴリズムを適用しても良い。例えば、Bilinear関数やBicubic関数などによる縮小方法を適用できる。また、縮小符号化対象画像S104や縮小参照画像S105は、画像処理が施されたものであっても良い。例えば、非特許文献4や非特許文献5に記載のようなスケーラブル構造を備えるDVC方式の場合、縮小画像レイヤの情報から、符号化対象画像PIC1の縮小画像や参照画像PIC2の縮小画像を取り出すことにより、縮小画像の生成を行なうようにしても良い。   When a new encoding target image PIC1 becomes a processing target, the encoding target image reduction unit 104 generates a reduction encoding target image S104 from the encoding target image PIC1, and the reference image reduction unit 105 performs reference. A reduced reference image S105 is generated from the image PIC2 (step ST101). Any existing algorithm may be applied as a reduced image generation algorithm. For example, a reduction method using a Bilinear function or a Bicubic function can be applied. Further, the reduction encoding target image S104 and the reduction reference image S105 may be subjected to image processing. For example, in the case of the DVC method having a scalable structure as described in Non-Patent Document 4 and Non-Patent Document 5, the reduced image of the encoding target image PIC1 and the reduced image of the reference image PIC2 are extracted from the information of the reduced image layer. Thus, a reduced image may be generated.

動きベクトル推定部106において、縮小符号化対象画像PIC104と縮小参照画像PIC105とから、ブロックごとの動きベクトルS106が生成される(ステップST1O2)。動きベクトルは、例えば、ブロックマッチング法や勾配法を用いた動きベクトルの探索によって求めることができる。ここで、ブロックのサイズは任意に定めて良いものである。   In the motion vector estimation unit 106, a motion vector S106 for each block is generated from the reduced encoding target image PIC104 and the reduced reference image PIC105 (step ST1O2). The motion vector can be obtained, for example, by searching for a motion vector using a block matching method or a gradient method. Here, the block size may be arbitrarily determined.

運動領域識別部107において、縮小符号化対象画像S104と縮小参照画像S105と動きベクトルS106の少なくとも1以上から、ブロックごとの運動領域識別信号S107が生成される(ステップST1O3)。   The motion region identification unit 107 generates a motion region identification signal S107 for each block from at least one of the reduction encoding target image S104, the reduced reference image S105, and the motion vector S106 (step ST1O3).

運動領域か非運動領域かを識別する方法として、例えば、以下のような方法M1〜M5のいずれかを適用することができる。   As a method for discriminating between the motion region and the non-motion region, for example, any of the following methods M1 to M5 can be applied.

(M1)動きベクトルS106を参照し、動きベクトルS106が予め定められた閾値より大きいブロックでは、運動領域と判定し、それ以外のブロックでは非運動領域と判定する。   (M1) Referring to the motion vector S106, if the motion vector S106 is larger than a predetermined threshold, it is determined to be a motion region, and other blocks are determined to be non-motion regions.

(M2)縮小符号化対象画像S104と縮小参照画像S105とを参照し、縮小符号化対象画像S104と縮小参照画像S105との差の大きさをSum of Absolute Difference(SAD;差分絶対値和)やMean Absolute Difference(MAD;差分絶対値平均)という指標を用いてブロックごとに評価し、このブロックごとの差の大きさが予め定められた閾値よりも大きいブロックに関しては運動領域と判定し、それ以外のブロックに関しては非運動領域と判定する。   (M2) Referring to the reduction encoding target image S104 and the reduction reference image S105, the magnitude of the difference between the reduction encoding target image S104 and the reduction reference image S105 is calculated using Sum of Absolute Difference (SAD) or the difference absolute value sum. A block is evaluated for each block using an index called mean absolute difference (MAD), and a block whose difference is larger than a predetermined threshold is determined to be a motion region. The block is determined as a non-motion area.

(M3)縮小符号化対象画像S104と縮小参照画像S105とを参照し、縮小符号化対象画像S104と縮小参照画像S105との差分の絶対値を画素ごとに求め、この差分の絶対値が予め定められた閾値よりも大きい画素数を、ブロックごとに数え、この画素数が予め定められた閾値よりも大きいブロックに関しては運動領域と判定し、それ以外のブロックに関しては非運動領域と判定する。   (M3) The absolute value of the difference between the reduced encoding target image S104 and the reduced reference image S105 is obtained for each pixel with reference to the reduced encoding target image S104 and the reduced reference image S105, and the absolute value of the difference is determined in advance. The number of pixels larger than the set threshold value is counted for each block, and a block in which the number of pixels is larger than a predetermined threshold value is determined as a motion region, and other blocks are determined as a non-motion region.

(M4)縮小符号化対象画像S104と縮小参照画像S105とを参照する方法である。縮小符号化対象画像S104に対して、平均値算出用のサイズを有するブロック(第1の平均算出用ブロックと呼ぶ)ごとに、第1の平均算出用ブロック内の画素値の平均値を求め、この第1の平均算出用ブロックに含まれる各画素値から得られた平均値を差し引くことで、縮小符号化対象画像の交流成分画像を求める。第1の平均算出用ブロックのサイズは、縮小符号化対象画像のフレームサイズであっても良く(この場合が最も大きいサイズとなる)、フレームサイズを複数に分割したサイズであっても良い。また、同様に、縮小参照画像S105に対して、平均値算出用のサイズを有するブロック(第2の平均算出用ブロックと呼ぶ)ごとに、第2の平均算出用ブロック内の画素値の平均値を求め、この第2の平均算出用ブロックに含まれる各画素値から得られた平均値を差し引くことで、縮小参照画像の交流成分画像を求める。第2の平均算出用ブロックのサイズは、縮小参照画像のフレームサイズであっても良く(この場合が最も大きいサイズとなる)、第1の平均算出用ブロックのサイズと同じサイズであっても良い。そして、縮小符号化対象画像の交流成分画像と縮小参照画像の交流成分画像との差分の絶対値を画素ごとに求め、この画素ごとの差分の絶対値が予め定められた閾値よりも大きい画素数を、領域識別用のサイズを有するブロックごとに数え、この画素数が予め定められた閾値よりも大きいブロックに関しては運動領域と判定し、それ以外のブロックに関しては非運動領域と判定する。   (M4) This is a method for referring to the reduced encoding target image S104 and the reduced reference image S105. For the reduced encoding target image S104, an average value of pixel values in the first average calculation block is obtained for each block having a size for average value calculation (referred to as a first average calculation block), By subtracting the average value obtained from each pixel value included in the first average calculation block, an AC component image of the reduction encoding target image is obtained. The size of the first average calculation block may be the frame size of the reduction encoding target image (this is the largest size in this case), or may be a size obtained by dividing the frame size into a plurality of sizes. Similarly, for the reduced reference image S105, the average value of the pixel values in the second average calculation block for each block (referred to as a second average calculation block) having an average value calculation size. And an AC component image of the reduced reference image is obtained by subtracting the average value obtained from each pixel value included in the second average calculation block. The size of the second average calculation block may be the frame size of the reduced reference image (this is the largest size in this case), or may be the same size as the size of the first average calculation block. . Then, the absolute value of the difference between the AC component image of the reduction encoding target image and the AC component image of the reduced reference image is obtained for each pixel, and the absolute value of the difference for each pixel is greater than a predetermined threshold value. Are counted for each block having a size for region identification, and a block having this number of pixels larger than a predetermined threshold is determined as a motion region, and other blocks are determined as a non-motion region.

(M5)方法M1と、方法M2〜方法M4の1以上とを組み合わせて、運動領域か非運動領域かを識別する。方法M1で運動領域と判定された領域は運動領域と判定し、方法M1で非運動領域と判定された領域に対しては、方法M2〜方法M4の1以上を用いて、最終的に、運動領域か非運動領域かを判定する。方法M5は、方法M2〜方法M4の演算量が多くなることを防止する方法となっている。   (M5) The method M1 and one or more of the methods M2 to M4 are combined to identify the motion region or the non-motion region. The region determined as the motion region by the method M1 is determined as the motion region, and the region determined as the non-motion region by the method M1 is finally used by using one or more of the methods M2 to M4. Determine whether the region or non-motion region. The method M5 is a method for preventing the calculation amount of the methods M2 to M4 from increasing.

ここで、第1の実施形態では、並進運動領域を識別するための全て処理を、縮小画像(縮小符号化対象画像S104及び縮小参照画像S105)を対象に実施することで、演算量の増加を抑えるようにしている。   Here, in the first embodiment, all processes for identifying the translational motion region are performed on the reduced images (reduced encoding target image S104 and reduced reference image S105), thereby increasing the amount of calculation. I try to suppress it.

しかし、縮小画像を対象に動きベクトルを探索していることで、動きベクトルの検出精度も縮小倍率に比例して劣化しており、運動領域の判定も難しくなる。例えば、僅か1画素(ピクセル)のみ動いている領域は、本来であれば、運動領域と判定されるべき領域であるが、縮小画像を対象に動きベクトル探索した場合、推定された動きベクトルの大きさは0となる可能性が高い。方法M2〜方法M5を適用することで、縮小画像を用いた低演算量な並進運動領域の識別という制約のなかで、高精度に運動領域の判定を実施することができる。   However, by searching for a motion vector for a reduced image, the detection accuracy of the motion vector is deteriorated in proportion to the reduction magnification, and it is difficult to determine the motion region. For example, a region where only one pixel (pixel) is moving is a region that should be determined as a motion region, but when a motion vector search is performed on a reduced image, the size of the estimated motion vector There is a high possibility that it will be zero. By applying the method M2 to the method M5, it is possible to carry out the determination of the motion region with high accuracy within the constraint of identifying the low-computation translational motion region using the reduced image.

上述した運動領域識別部107におけるブロックごとの運動領域識別信号S107の生成動作と並行し、若しくは、相前後して、並進領域動きベクトル計算部108において、動きベクトルS106から、並進領域を識別するための並進領域動きベクトルS108が生成される(ステップST104)。   In order to identify the translation region from the motion vector S106 in the translation region motion vector calculation unit 108 in parallel with or before or after the generation of the motion region identification signal S107 for each block in the motion region identification unit 107 described above. The translation region motion vector S108 is generated (step ST104).

ここで、並進領域動きベクトルS108は、例えば、動きベクトルS106のフレーム内の平均動きベクトルであったり、若しくは、フレーム内の最頻出の動きベクトルであったりする。前者の場合、フレーム内の動きベクトルS106の平均を求めたものが並進領域動きベクトルS108となる。また、後者の場合、フレーム内の動きベクトルS106のなかで最も高い頻度で出現している動きベクトルが並進領域動きベクトルS108となる。   Here, the translation region motion vector S108 is, for example, an average motion vector in the frame of the motion vector S106, or a most frequent motion vector in the frame. In the former case, the average of the motion vectors S106 in the frame is the translation region motion vector S108. In the latter case, the motion vector that appears most frequently among the motion vectors S106 in the frame is the translation region motion vector S108.

並進領域動きベクトルS108が得られると、並進領域識別部109において、動きベクトルS106と並進領域動きベクトルS108から並進領域識別信号109が生成される(ステップST1O5)。   When the translation region motion vector S108 is obtained, the translation region identification unit 109 generates a translation region identification signal 109 from the motion vector S106 and the translation region motion vector S108 (step ST1O5).

並進領域識別信号S109は、例えば、各ブロック(各領域)の動きベクトルS106から並進領域動きベクトルS108を差し引き、差分情報の大きさが予め定められた閾値未満ならば、並進領域と判定し、差分情報の大きさが上述の閾値以上ならば、非並進領域と判定することで生成する。この方法は、並進領域動きベクトルS108が、並進領域の動きベクトルに近いという仮定に基づいている。並進領域に含まれる画素は、全てほぼ同じ動きベクトルを持つ。そのため、並進領域の動きベクトルは、並進領域動きベクトルS108に大きな影響を与え易い。つまり、上述の仮説が適合するケースは多い。並進領域動きベクトルS108に近い動きベクトルを持つ領域を探すことで、最も大きな影響力を持つ並進領域を求められる。   The translation area identification signal S109, for example, subtracts the translation area motion vector S108 from the motion vector S106 of each block (each area). If the magnitude of the difference information is less than a predetermined threshold value, the translation area identification signal S109 is determined to be a translation area. If the size of the information is equal to or greater than the above-described threshold, the information is generated by determining the non-translational region. This method is based on the assumption that the translation region motion vector S108 is close to the motion vector of the translation region. All the pixels included in the translation region have substantially the same motion vector. For this reason, the motion vector of the translation region tends to have a large influence on the translation region motion vector S108. In other words, there are many cases where the above hypothesis is met. By searching for a region having a motion vector close to the translation region motion vector S108, the translation region having the greatest influence can be obtained.

その後、統合部110において、運動領域識別信号S107と並進領域識別信号S109とから、並進運動領域識別信号S101が生成される(ステップST1O6)。   Thereafter, in the integration unit 110, a translational motion region identification signal S101 is generated from the motion region identification signal S107 and the translational region identification signal S109 (step ST1O6).

具体的には、運動領域識別信号S107が運動領域と判定し、かつ、並進領域識別信号S109が並進領域と判定している場合に限り、並進運動領域と判定し、それ以外の場合は、非並進運動領域と判定することで、並進運動領域識別信号S101を生成する。   Specifically, it is determined as a translational motion region only when the motion region identification signal S107 is determined as a motion region and the translational region identification signal S109 is determined as a translational region. By determining the translation motion region, a translation motion region identification signal S101 is generated.

以下、並進運動領域識別部101の動作を、図3及び図4を用いて説明する。   Hereinafter, the operation of the translational motion region identification unit 101 will be described with reference to FIGS. 3 and 4.

図3(A)は参照画像PIC2を示し、図3(B)は符号化対象画像PIC1を示している。図3の場合、参照画像PIC2が、符号化対象画像PIC1の直前フレームの画像となっているとする。   3A shows the reference image PIC2, and FIG. 3B shows the encoding target image PIC1. In the case of FIG. 3, it is assumed that the reference image PIC2 is an image of a frame immediately before the encoding target image PIC1.

符号化対象画像PIC1及び参照画像PIC2には、歩行者と家と雲が撮像されている。歩行者は移動物体であり、家は静止物体であり、雲は動きが非常に遅く、静止物体と見なせるものとなっている。画像を撮像している撮像装置(撮像カメラ等)は、歩行者と逆方向に動いている。そのため、静止物体である家や雲、その他の背景は、画像の右から左に向かって動いている。一方、歩行者は、画像の左から右に向かって歩いている。   A pedestrian, a house, and a cloud are imaged in the encoding target image PIC1 and the reference image PIC2. A pedestrian is a moving object, a house is a stationary object, and a cloud moves very slowly and can be regarded as a stationary object. An imaging device (imaging camera or the like) that captures an image moves in a direction opposite to that of a pedestrian. For this reason, houses, clouds, and other backgrounds that are stationary objects are moving from the right to the left of the image. On the other hand, the pedestrian is walking from the left to the right of the image.

このような動画像の場合、家や雲、その他の背景の物体は、右から左に向かって並進している。一方、歩行者は手を振る、足を動かすなど、複雑な運動をしている場合が多い。   In the case of such a moving image, a house, a cloud, and other background objects are translated from right to left. On the other hand, pedestrians often perform complex exercises such as waving their hands and moving their feet.

従って、家や雲、その他の背景の物体領域に対して、並進領域(図3(C)で「A」を付与している)と判定され、これら領域に対する並進領域識別信号S109は並進領域を表す論理値をとる。一方、複雑な運動をする歩行者が含まれる領域に対して、非並進領域(図3(C)で「B」を付与している)と判定され、これら領域に対する並進領域識別信号S109は非並進領域を表す論理値をとる。   Therefore, it is determined that the object region of the house, the cloud, or other background is a translation region ("A" is given in FIG. 3C), and the translation region identification signal S109 for these regions indicates the translation region. Takes a logical value to represent. On the other hand, it is determined that a region including a pedestrian performing complex exercise is a non-translation region ("B" is given in FIG. 3C), and the translation region identification signal S109 for these regions is non-translational. Takes a logical value representing the translation region.

図4(A)は、図3の画像について求めた動きベクトルS106(の概要)を示している。歩行者を含まない領域の大半は、撮像装置のパンニングに伴う左向きの並進運動をしていて、同様な左向きの動きベクトルを有し、歩行者を含む、点線で囲まれた領域は、歩行者の複雑な動きに応じた下向きや右下向きの動きベクトルを有する。   FIG. 4A shows the motion vector S106 (outline) obtained for the image of FIG. Most of the areas that do not include pedestrians have a leftward translational motion that accompanies the panning of the imaging device, have the same leftward motion vector, and the areas that are surrounded by dotted lines that include pedestrians are pedestrians. The motion vector has a downward or rightward motion vector corresponding to the complicated motion of the.

並進領域動きベクトルS108として、動きベクトルS106のフレーム内の平均動きベクトルを適用する場合、大半の領域の動きベクトルが左向きであるため、並進領域動きベクトルS108を求めると、図4(A)の上方に記載のようなほぼ左向きの並進領域動きベクトルS108が得られる。各動きベクトルS106から並進領域動きベクトルS108を差し引き、その差の大きさが閾値未満の並進領域は、図4(B)に「A」を付与したエリア内に含まれ、差の大きさが閾値以上の非並進領域は、図4(B)に「B」を付与したエリア内に含まれる。   When the average motion vector in the frame of the motion vector S106 is applied as the translation region motion vector S108, most of the motion vectors in the region are leftward. Therefore, when the translation region motion vector S108 is obtained, the upper part of FIG. The translation region motion vector S108 substantially leftward as described in (1) is obtained. A translation region in which the translation region motion vector S108 is subtracted from each motion vector S106 and the magnitude of the difference is less than the threshold is included in the area to which “A” is given in FIG. 4B, and the magnitude of the difference is the threshold. The above non-translational regions are included in the area given “B” in FIG.

また、並進領域動きベクトルS108として、動きベクトルS106のフレーム内の最頻出動きベクトルを適用する場合にも、大半の領域の動きベクトルが左向きであるため、並進領域動きベクトルS108として、左向きの動きベクトルが得られ、この場合にも、並進領域は、図4(B)に「A」を付与したエリア内に含まれ、非並進領域は、図4(B)に「B」を付与したエリア内に含まれる。   Also, when the most frequent motion vector in the frame of the motion vector S106 is applied as the translation region motion vector S108, the motion vector in the most part is leftward, so that the leftward motion vector is used as the translation region motion vector S108. In this case as well, the translation region is included in the area given “A” in FIG. 4 (B), and the non-translation region is in the area given “B” in FIG. 4 (B). include.

以上のように、並進運動領域識別部101の動作により、画像を並進領域と非並進領域に分ける並進領域識別信号S109を生成できる。   As described above, the translational region identification signal S109 that divides the image into the translational region and the non-translational region can be generated by the operation of the translational motion region identification unit 101.

ここで、並進領域識別部109は、あくまで並進領域を識別するだけであり、並進領域には静止領域も含まれる。なぜならば、撮像装置がパンニングするような場合など、物体の静止状態も1つの並進であるからである。   Here, the translation area identifying unit 109 only identifies the translation area, and the translation area includes a stationary area. This is because the stationary state of the object is also one translation, such as when the imaging device pans.

静止している領域は、デコーダ予測画像だけに限らずエンコーダ予測画像でも予測精度の高い領域である。本来ならば予測精度が高いのにも関わらず、静止領域に関して、誤差ないしビット反転があるということは、予測ではそもそも補えない誤差ないしビット反転であることを示唆している。このような誤差ないしビット反転は、例えば、照明のちらつきや撮像装置のノイズ等によって発生する。照明のちらつきや撮像装置のノイズ等は、ランダムな変化であり、予測によって補うことは極めて難しい。   The still region is a region with high prediction accuracy not only in the decoder predicted image but also in the encoder predicted image. The fact that there is an error or bit inversion with respect to the static region despite the fact that the prediction accuracy is high originally suggests that this is an error or bit inversion that cannot be compensated in the first place. Such an error or bit inversion occurs due to, for example, flickering of illumination or noise of the imaging device. Illumination flicker, imaging device noise, and the like are random changes that are extremely difficult to compensate by prediction.

この第1の実施形態とは異なり、並進領域の識別だけを適用し、運動領域の識別を適用しない場合には、静止領域で発生している上述のような誤りを、後述するレートの推定時に過小評価する恐れがある。   Unlike the first embodiment, when only the translation region identification is applied and the motion region identification is not applied, the above-described error occurring in the stationary region is detected at the rate estimation described later. There is a risk of underestimation.

このような過小評価を回避するために、運動領域識別部107を設けている。各領域が、運動領域(非静止領域)か非運動領域(静止領域)かを運動領域識別部107で判定し、統合部110で、並進していて、かつ、運動している領域を求めることにより、上述の過小評価を回避できる並進運動領域が求められる。   In order to avoid such an underestimation, the motion region identification unit 107 is provided. The motion region identification unit 107 determines whether each region is a motion region (non-stationary region) or a non-motion region (stationary region), and the integration unit 110 obtains a translational and moving region. Thus, a translational motion region that can avoid the above-described underestimation is obtained.

なお、並進運動領域識別部101は、並進運動領域を認識できれば良く、動きベクトル推定部106と運動領域識別部107と並進領域動きベクトル計算部108と並進領域識別部109と統合部110の組み合わせによる、第1の実施形態の並進運動領域の認識は、低演算量で並進運動領域を認識するための一例である。   The translational motion region identification unit 101 only needs to be able to recognize the translational motion region, and is based on a combination of the motion vector estimation unit 106, the motion region identification unit 107, the translational region motion vector calculation unit 108, the translational region identification unit 109, and the integration unit 110. The recognition of the translational motion region in the first embodiment is an example for recognizing the translational motion region with a low calculation amount.

並進運動領域識別信号S101が生成されると、レート制御部102において、符号化対象画像PIC1と参照画像PIC2と並進運動領域識別信号S101とから、動画像復号装置21に送信するビットストリームBSのレート(符号データ量)S102が推定される(ステップST107)。   When the translational motion region identification signal S101 is generated, the rate control unit 102 uses the rate target bit rate BS to be transmitted to the video decoding device 21 from the encoding target image PIC1, the reference image PIC2, and the translational motion region identification signal S101. (Code data amount) S102 is estimated (step ST107).

並進運動領域と非並進運動領域とで重み付けをしながら、符号化対象画像PIC1と、当該レート制御部102内で生成するエンコーダ予測画像とを比較することで、レート制御部102は、動画像復号装置21が復号画像を生成するのに必要十分なレートS102を推定する。エンコーダ予測画像の生成方法は限定されるものではないが、例えば、参照画像PIC2に対する動き補償を行うことでエンコーダ予測画像を生成する。   The rate control unit 102 compares the encoding target image PIC1 with the encoder predicted image generated in the rate control unit 102 while weighting the translational motion region and the non-translational motion region, so that the rate control unit 102 A rate S102 necessary and sufficient for the device 21 to generate a decoded image is estimated. The method for generating the encoder predicted image is not limited. For example, the encoder predicted image is generated by performing motion compensation on the reference image PIC2.

例えば、非特許文献2に記載のようにレート制御する場合には、符号化対象画像PIC1及びエンコーダ予測画像間で誤差の統計量を計算する際に、画素ごとの誤差を、並進運動領域ではα倍で評価し、非並進運動領域ではβ倍で評価する。このようにして求められた誤差の統計量に基づき、デコーダが復号するのに必要十分なレートS102を推定する。例えば、αには、0.0≦α<1.0の値を用い、βには、β=1.0を用いる。   For example, in the case of rate control as described in Non-Patent Document 2, when calculating the error statistic between the encoding target image PIC1 and the encoder predicted image, the error for each pixel is expressed as α in the translational motion region. Evaluate by double, and evaluate by β times in the non-translational motion region. Based on the error statistic obtained in this way, a rate S102 necessary and sufficient for the decoder to decode is estimated. For example, a value of 0.0 ≦ α <1.0 is used for α, and β = 1.0 is used for β.

また例えば、非特許文献3に記載のようにレート制御する場合には、符号化対象画像PIC1及びエンコーダ予測画像間でビット反転数を数える際に、並進運動領域で発生した1個のビット反転をγ個のビット反転に置き換え、非並進運動領域で発生した1個のビット反転をδ個のビット反転に置き換えて、ビット反転数を数える。このようにして求められたビット反転数から計算できるビット反転確率に基づき、デコーダが復号するのに必要十分なレートS102を推定する。例えば、γには、0.0≦γ<1.0の値を用い、δには、δ=1.0を用いる。   Further, for example, when rate control is performed as described in Non-Patent Document 3, one bit inversion generated in the translational motion region is calculated when counting the number of bit inversions between the encoding target image PIC1 and the encoder predicted image. The number of bit inversions is counted by replacing γ bit inversions and replacing one bit inversion generated in the non-translational motion region with δ bit inversions. Based on the bit inversion probability that can be calculated from the number of bit inversions obtained in this way, the rate S102 necessary and sufficient for the decoder to decode is estimated. For example, a value of 0.0 ≦ γ <1.0 is used for γ, and δ = 1.0 is used for δ.

以上のようなパラメータα及びβ、γ及びδを適用することにより、並進運動領域では、符号化対象画像PIC1及びエンコーダ予測画像間で実際に発生している誤差よりも、誤差が小さく評価されることになる。   By applying the parameters α and β, γ, and δ as described above, in the translational motion region, the error is evaluated to be smaller than the error that actually occurs between the encoding target image PIC1 and the encoder predicted image. It will be.

具体的な算出式の例として、非特許文献3の記載技術をベースにレートS102((2)式においては「R」がレートを表している)を求める場合の算出式を、(2)式に示す。(2)式におけるpは、(1)式に従って算出されるビット反転確率である。(1)式において、全ビット数をE、並進運動領域で発生したビット反転数をC1、非並進運動領域で発生したビット反転数をC2としている。また、Tは、経験的に決定される定数である。   As an example of a specific calculation formula, a calculation formula for obtaining the rate S102 (“R” represents the rate in the formula (2)) based on the technique described in Non-Patent Document 3 is the formula (2). Shown in P in the equation (2) is a bit inversion probability calculated according to the equation (1). In equation (1), the total number of bits is E, the number of bit inversions occurring in the translational motion region is C1, and the number of bit inversions occurring in the non-translational motion region is C2. T is a constant determined empirically.

p=(α×C1+β×C2)/E …(1)
R=−pXlog(p)−(1−p)×log(1−p)+T …(2)
非特許文献3の記載技術と上述した第1の実施形態による一例との差異は、ビット反転確率pを求める際に、ビット反転数C1及びC2を重み付きで加算しているか否かである。ビット反転数C1及びC2を単純に加算して求めたビット反転確率pは、符号化対象画像PIC1とエンコーダ予測画像との間の誤差を反映したビット反転確率となり、本来、推定したい符号化対象画像PIC1とデコーダ予測画像との間の誤差を反映したビット反転確率とは異なっている。並進運動領域と非並進運動領域とで異なる値をとる重み付け係数γ及びδを使って、ビット反転数C1及びC2を重み付きで評価することにより、ビット反転確率pを符号化対象画像PIC1とデコーダ予測画像との間のビット反転確率に近づけることにより、レート制御の高精度化を実現している。
p = (α × C1 + β × C2) / E (1)
R = −pXlog (p) − (1−p) × log (1−p) + T (2)
The difference between the technique described in Non-Patent Document 3 and the example according to the first embodiment described above is whether or not the bit inversion numbers C1 and C2 are added with weights when the bit inversion probability p is obtained. The bit inversion probability p obtained by simply adding the bit inversion numbers C1 and C2 is a bit inversion probability reflecting an error between the encoding target image PIC1 and the encoder predicted image, and is originally intended to be estimated. This is different from the bit inversion probability reflecting the error between PIC1 and the predicted decoder image. By evaluating the bit inversion numbers C1 and C2 with weights using weighting coefficients γ and δ that take different values in the translational motion region and the non-translational motion region, the bit inversion probability p is determined as the encoding target image PIC1 and the decoder. High accuracy of rate control is realized by approaching the bit inversion probability with the predicted image.

非特許文献2に記載のようにレート制御する場合にも、符号化対象画像PIC1及びエンコーダ予測画像間で誤差の統計量を計算する際に、並進運動領域ではα倍で評価し、非並進運動領域ではβ倍で評価するようにして、符号化対象画像PIC1及びエンコーダ予測画像間の誤差の統計量を、符号化対象画像PIC1及びデコーダ予測画像間の誤差の統計量に近づけることにより、レート制御の高精度化を実現する。   Even in the case of rate control as described in Non-Patent Document 2, when calculating the error statistic between the encoding target image PIC1 and the encoder predicted image, the translational motion region is evaluated by α times, and the nontranslational motion is calculated. In the region, rate control is performed by making the error statistic between the encoding target picture PIC1 and the encoder predicted picture close to the error statistic between the encoding target picture PIC1 and the decoder predicted picture so as to evaluate by β times. Realization of high accuracy.

並進運動領域は、符号化対象画像PIC1と参照画像PIC2間で同じ部分が含まれる可能性が極めて高く、かつ、並進運動領域の画素は、ほぼ同じ動きベクトルを有しているため、動きベクトル探索等での予測が当たり易い領域である。   The translational motion region is very likely to include the same part between the encoding target image PIC1 and the reference image PIC2, and the pixels in the translational motion region have substantially the same motion vector. This is an area that is easy to predict.

すなわち、デコーダ予測画像が高品質になる可能性の高い領域であるとも言える。   That is, it can be said that this is an area where the decoder predicted image is likely to be of high quality.

そのため、仮に、符号化対象画像PIC1及びエンコーダ予測画像間で大きな誤差が発生していたとしても、符号化対象画像PIC1及びデコーダ予測画像間では、誤差量が小さくなる可能性が、少なくとも非並進運動領域に比べて高い。このような仮説をレート制御に反映するために、上述のように、符号化対象画像PIC1及びエンコーダ予測画像間で誤差の統計量を計算する際に、あるいは、ビット反転数を数える際に、並進運動領域と非並進運動領域とで重み付けをしながら、符号化対象画像PIC1及びエンコーダ予測画像間の誤差を評価することとした。   For this reason, even if a large error occurs between the encoding target image PIC1 and the predicted encoder image, there is a possibility that the error amount between the encoding target image PIC1 and the predicted decoder image becomes small. High compared to the area. In order to reflect such a hypothesis in rate control, as described above, when calculating the error statistic between the encoding target image PIC1 and the encoder predicted image, or when counting the number of bit inversions, translation is performed. An error between the encoding target image PIC1 and the encoder predicted image is evaluated while weighting the motion region and the non-translational motion region.

第1の実施形態により求められる誤差の統計量やビット反転数は、符号化対象画像PIC1及びデコーダ予測画像間の誤差の統計量やビット反転数の推定値とみなすこともできる。   The error statistic and the bit inversion number obtained by the first embodiment can also be regarded as the error statistic and the bit inversion estimation value between the encoding target image PIC1 and the predicted decoder image.

以上のように、従来では、符号化対象画像PIC1及びエンコーダ予測画像間の誤差の統計量やビット反転数に基づき、デコーダが復号するのに必要十分なレートを推定していたが、この第1の実施形態では、並進運動領域識別信号に基づき、符号化対象画像PIC1及びデコーダ予測画像間の誤差の統計量やビット反転数の推定値を求め、この推定値に基づき、デコーダが復号するのに必要十分なレートS102を推定している。   As described above, conventionally, the decoder has estimated a rate necessary and sufficient for decoding based on the error statistic and the bit inversion number between the encoding target image PIC1 and the encoder predicted image. In this embodiment, based on the translational motion region identification signal, an error statistic between the encoding target image PIC1 and the decoder predicted image and an estimated value of the bit inversion number are obtained, and the decoder decodes based on the estimated value. Necessary and sufficient rate S102 is estimated.

すなわち、符号化対象画像PIC1及びデコーダ予測画像間の誤差の統計量やビット反転数を推定するプロセスを加えることにより、レート制御の高精度化を実現している。   That is, the accuracy of rate control is improved by adding a process for estimating the error statistic and the bit inversion number between the encoding target picture PIC1 and the predicted decoder picture.

Wyner−Ziv符号化部103において、レートS102に従って、符号化対象画像PIC1がWyner−Ziv符号化され、ビットストリームBSが出力される(ステップST1O8)。   In the Wyner-Ziv encoding unit 103, the encoding target image PIC1 is Wyner-Ziv encoded according to the rate S102, and a bit stream BS is output (step ST1O8).

(A−3)第1の実施形態の効果
以上のように、第1の実施形態によれば、並進運動領域及び非並進運動領域を識別し、領域の相違に応じた重み付きで符号化対象画像と予測画像との間を比較することにより、並進運動領域ではデコーダ予測画像の品質が良い確率が高いという仮説に基づき、デコーダ側で必要十分な真値に近いレートを推定することができる。レートの精度向上により、符号化効率を改善することができる。
(A-3) Effect of the First Embodiment As described above, according to the first embodiment, the translational motion region and the non-translational motion region are identified, and the encoding target is weighted according to the difference in the region. By comparing the image with the predicted image, a rate close to a necessary and sufficient true value can be estimated on the decoder side based on the hypothesis that the quality of the decoder predicted image is high in the translational motion region. Encoding efficiency can be improved by improving the accuracy of the rate.

また、並進運動領域を求めるための全ての処理は、縮小画像を用いることで実施されているため、第1の実施形態のレート制御を適用しても、演算量の増加も僅かである。   Moreover, since all the processes for obtaining the translational motion region are performed by using the reduced image, even if the rate control of the first embodiment is applied, the amount of calculation is slight.

(B)第2の実施形態
次に、本発明による動画像符号化装置及びプログラム、並びに、動画像符号化システムの第2の実施形態を、図面を参照しながら説明する。
(B) Second Embodiment Next, a second embodiment of the moving picture coding apparatus and program and the moving picture coding system according to the present invention will be described with reference to the drawings.

(B−1)第2の実施形態の構成
第2の実施形態は、第1の実施形態に比較して、動画像符号化装置内の統合部が異なっている。すなわち、第2の実施形態の動画像符号化装置は、第1の実施形態の動画像符号化装置11における統合部110を、第2の実施形態の統合部210に入れ替えたものに等しい。
(B-1) Configuration of Second Embodiment The second embodiment is different from the first embodiment in the integration unit in the video encoding device. That is, the moving image encoding device of the second embodiment is equivalent to the integration unit 110 in the moving image encoding device 11 of the first embodiment replaced with the integration unit 210 of the second embodiment.

そこで、以下では、第2の実施形態の統合部210の詳細を説明する。図5は、第2の実施形態の統合部210の詳細構成を示す説明図である。   Therefore, in the following, details of the integration unit 210 of the second embodiment will be described. FIG. 5 is an explanatory diagram illustrating a detailed configuration of the integration unit 210 according to the second embodiment.

統合部210は、並進運動領域識別信号候補生成部211、面積計算部212及び並進運動領域決定部213を有する。   The integration unit 210 includes a translational motion region identification signal candidate generation unit 211, an area calculation unit 212, and a translational motion region determination unit 213.

並進運動領域識別信号候補生成部211は、運動領域識別部107(図1参照)から与えられた運動領域識別信号S107と、並進領域識別部109(図1参照から与えられた並進領域識別信号S109に基づいて、並進運動領域識別信号候補S211を生成して面積計算部212及び並進運動領域決定部213に出力する。   The translational motion region identification signal candidate generation unit 211 includes a motional region identification signal S107 given from the motional region identification unit 107 (see FIG. 1) and a translational region identification unit 109 (a translational region identification signal S109 given from FIG. 1). Based on the above, a translation motion region identification signal candidate S211 is generated and output to the area calculation unit 212 and the translation motion region determination unit 213.

面積計算部212は、並進運動領域識別信号候補生成部211からの並進運動領域識別信号候補S211に基づいて、候補S211の面積S212を求める並進運動領域決定部213に出力する。   The area calculation unit 212 outputs the area S212 of the candidate S211 to the translational motion region determination unit 213 based on the translational motion region identification signal candidate S211 from the translational motion region identification signal candidate generation unit 211.

並進運動領域決定部213は、並進運動領域識別信号候補生成部211からの並進運動領域識別信号候補S211と面積計算部212からの面積S212とに基づいて、並進運動領域識別信号S101を得てレート制御部102(図1参照)に出力する。   The translational motion region determination unit 213 obtains the translational motion region identification signal S101 based on the translational motion region identification signal candidate S211 from the translational motion region identification signal candidate generation unit 211 and the area S212 from the area calculation unit 212, and rate. It outputs to the control part 102 (refer FIG. 1).

(B−2)第2の実施形態の動作
次に、第2の実施形態の動画像符号化装置が第1の実施形態の動画像符号化装置11と異なっている統合部21の動作を、図面を参照しながら説明する。
(B-2) Operation of the Second Embodiment Next, the operation of the integration unit 21 in which the video encoding device of the second embodiment is different from the video encoding device 11 of the first embodiment. This will be described with reference to the drawings.

第2の実施形態の動画像符号化装置における識別運動領域識別部も、第1の実施形態の場合と同様に、ステップST101〜ST105の動作を行う(上述した図1及び図2参照)。   The discriminating motion region discriminating unit in the moving picture coding apparatus according to the second embodiment also performs the operations of steps ST101 to ST105 as in the case of the first embodiment (see FIGS. 1 and 2 described above).

すなわち、新たな符号化対象画像PIC1が処理対象となったときには、符号化対象画像縮小部104において、符号化対象画像PIC1から縮小符号化対象画像S104が生成されると共に、参照画像縮小部105において、参照画像PIC2から縮小参照画像S105が生成され(ステップST101)、動きベクトル推定部106において、縮小符号化対象画像PIC104と縮小参照画像PIC105とから、ブロックごとの動きベクトルS106が生成され(ステップST1O2)、運動領域識別部107において、縮小符号化対象画像S104と縮小参照画像S105と動きベクトルS106の少なくとも1以上から、ブロックごとの運動領域識別信号S107が生成され(ステップST1O3)、並進領域動きベクトル計算部108において、動きベクトルS106から、並進領域を識別するための並進領域動きベクトルS108が生成され(ステップST104)、並進領域識別部109において、動きベクトルS106と並進領域動きベクトルS108から並進領域識別信号109が生成される(ステップST1O5)。   That is, when a new encoding target image PIC1 becomes a processing target, the encoding target image reducing unit 104 generates a reduced encoding target image S104 from the encoding target image PIC1, and the reference image reducing unit 105 Then, a reduced reference image S105 is generated from the reference image PIC2 (step ST101), and the motion vector estimation unit 106 generates a motion vector S106 for each block from the reduced encoding target image PIC104 and the reduced reference image PIC105 (step ST1O2). ) The motion region identification unit 107 generates a motion region identification signal S107 for each block from at least one of the reduction encoding target image S104, the reduced reference image S105, and the motion vector S106 (step ST1O3), and a translation region motion vector. Calculation part In 08, a translation region motion vector S108 for identifying a translation region is generated from the motion vector S106 (step ST104). In the translation region identification unit 109, a translation region identification signal 109 is obtained from the motion vector S106 and the translation region motion vector S108. Is generated (step ST1O5).

この後、第2の実施形態における統合部210の動作が実行される(ステップST206)。図6は、第2の実施形態における統合部210の詳細動作を示すフローチャートである。   Thereafter, the operation of the integration unit 210 in the second embodiment is executed (step ST206). FIG. 6 is a flowchart showing a detailed operation of the integration unit 210 in the second embodiment.

並進運動領域候補生成部206において、運動領域識別信号S107と並進領域識別信号S109とから、並進運動領域識別信号候補S211が生成される(ステップST206−1)。並進運動領域識別信号候補S211の生成法は、第1の実施形態における統合部110が並進運動領域識別信号S101を生成する方法と同じである。   The translational motion region candidate generation unit 206 generates a translational motion region identification signal candidate S211 from the motion region identification signal S107 and the translational region identification signal S109 (step ST206-1). The method for generating the translation motion region identification signal candidate S211 is the same as the method for the integration unit 110 in the first embodiment to generate the translation motion region identification signal S101.

面積計算部212において、並進運動領域識別信号候補S211で並進運動領域と判定されている領域の面積S212が求められ、求められた面積S212が出力される(ステップST206−2)。   In area calculation unit 212, area S212 of the region determined as the translational motion region by translational motion region identification signal candidate S211 is obtained, and the obtained area S212 is output (step ST206-2).

なお、ここでは面積としているが、並進運動領域と判定されている面積の割合を求めても良い。割合を求めることで、後述するステップST206−3で閾値判定する際の閾値を、符号化するフレームサイズによらない値とすることができる。   In addition, although it is set as an area here, you may obtain | require the ratio of the area determined to be a translational motion area | region. By obtaining the ratio, it is possible to set the threshold value used for threshold determination in step ST206-3 described later to a value that does not depend on the frame size to be encoded.

並進運動領域決定部212において、面積S212が予め定められた一定値以上ならば、並進運動領域識別信号候補S211が並進運動領域識別信号S101として出力され、一方、面積S212が一定値未満ならば、全ての領域を非並進運動領域とした並進運動領域識別信号S101が出力される(ステップST206−3)。   If the area S212 is equal to or greater than a predetermined value in the translational motion region determination unit 212, the translational motion region identification signal candidate S211 is output as the translational motion region identification signal S101, while if the area S212 is less than a certain value, A translational motion region identification signal S101 in which all regions are non-translational motion regions is output (step ST206-3).

この後に実行されるレート制御部102及びWyner−Ziv符号化部103の動作は、第1の実施形態の場合と同様である(上述した図1及び図2のステップST106、ST107参照)。   The operations of the rate control unit 102 and the Wyner-Ziv encoding unit 103 executed after this are the same as those in the first embodiment (see steps ST106 and ST107 in FIGS. 1 and 2 described above).

すなわち、並進運動領域識別信号S101が生成されると、レート制御部102において、符号化対象画像PIC1と参照画像PIC2と並進運動領域識別信号S101とから、動画像復号装置21に送信するビットストリームBSのレート(符号データ量)S102が推定され(ステップST107)、Wyner−Ziv符号化部103において、レートS102に従って、符号化対象画像PIC1がWyner−Ziv符号化されて、ビットストリームBSが出力される(ステップST1O8)。   That is, when the translational motion region identification signal S101 is generated, the bit stream BS transmitted to the video decoding device 21 from the encoding target image PIC1, the reference image PIC2, and the translational motion region identification signal S101 in the rate control unit 102. Rate (encoded data amount) S102 is estimated (step ST107), and the Wyner-Ziv encoding unit 103 performs Wyner-Ziv encoding on the encoding target image PIC1 according to the rate S102, and outputs a bitstream BS. (Step ST1O8).

(B−3)第2の実施形態の効果
以上のように、第2の実施形態によれば、並進運動領域と認識された面積が、予め定められた面積よりも小さい場合には、全ての領域を非並進運動領域とするようにしたので、ノイズ等により引き起こされる誤検出の悪影響を緩和若しくは防止することができる。
(B-3) Effects of the Second Embodiment As described above, according to the second embodiment, when the area recognized as the translational motion region is smaller than the predetermined area, all Since the region is a non-translational motion region, it is possible to mitigate or prevent the adverse effect of false detection caused by noise or the like.

第1の実施形態の動作の項でも述べたとおり、縮小画像のみを用いて並進運動領域を推定することをポイント(特徴)の一つとし、演算量の増加を抑えている。しかし、その代償として運動領域の判定が難しくなっている。   As described in the operation section of the first embodiment, estimating the translational motion region using only the reduced image is one of the points (features), and an increase in the amount of calculation is suppressed. However, it is difficult to determine the motion area as a price.

第1の実施形態で述べた運動領域識別部107は、この条件化でも高い精度で運動領域を識別する機能を備えているが、それでも本来ならば運動領域ではないのにも関わらず、撮像装置のノイズ等により運動領域と判定されてしまう場合がある。このようなノイズ等により引き起こされる誤検出は、あくまで単発的なものであるので、第2の実施形態のように、統合部で、並進運動領域と認識された面積が、予め指定された面積よりも小さい場合に、全ての領域を非並進運動領域とすることで、上述の問題の影響を緩和若しくは防止することができる。   Although the motion area identification unit 107 described in the first embodiment has a function of identifying a motion area with high accuracy even under this condition, it is still an imaging apparatus even though it is not a motion area originally. In some cases, it may be determined as an exercise region due to noise or the like. Since such false detection caused by noise or the like is only one-off, the area recognized as the translational motion area in the integration unit is less than the area specified in advance as in the second embodiment. In the case where the area is also small, the influence of the above problem can be alleviated or prevented by making all the areas non-translational movement areas.

(C)他の実施形態
上記各実施形態の説明においても、種々変形実施形態に言及したが、さらに、以下に例示するような変形実施形態を挙げることができる。
(C) Other Embodiments In the description of each of the above-described embodiments, various modified embodiments have been referred to. However, modified embodiments as exemplified below can be given.

(C−1)上記各実施形態においては、並進運動領域識別部が符号化対象画像及び参照画像を縮小してから、並進運動領域を識別するものを示したが、本発明はこれに限定されるものではない。例えば、取り扱う符号化対象画像及び参照画像のサイズが小さい動画像符号化装置であれば、符号化対象画像及び参照画像を縮小することなく並進運動領域を識別するようにしても良い。 (C-1) In each of the above embodiments, the translational motion region identifying unit has identified the translational motion region after reducing the encoding target image and the reference image, but the present invention is not limited to this. It is not something. For example, if the encoding target image and the reference image to be handled are small in size, the translational motion region may be identified without reducing the encoding target image and the reference image.

(C−2)上記各実施形態では、並進運動領域か非並進運動領域かの2段階で識別するものを示したが、3段階以上で識別するようにしても良い。すなわち、エンコーダ予測画像とデコーダ予測画像とで誤差が生じ易い並進運動領域を識別し、レートに反映できるならば、並進運動領域を複数の段階に分けて識別するようにしても良い。 (C-2) In each of the above-described embodiments, what is identified in two stages, ie, a translational motion region or a non-translational motion region, is shown. That is, the translational motion region in which an error is likely to occur is identified between the encoder predicted image and the decoder predicted image, and the translational motion region may be identified in a plurality of stages if it can be reflected in the rate.

例えば、第2の実施形態において、面積が所定値以下の並進運動領域を非並進運動領域に変更するのではなく、弱並進運動領域とし、並進運動領域と非並進運動領域との中間の重みでレートに反映させるようにしても良い。   For example, in the second embodiment, instead of changing a translational motion area whose area is a predetermined value or less to a non-translational motion region, it is set as a weak translational motion region, with an intermediate weight between the translational motion region and the non-translational motion region. You may make it reflect in a rate.

また例えば、第1の実施形態の説明で言及した方法M1で運動領域と判定された結果得られた並進運動領域を強並進運動領域とし、方法M2〜方法M4のいずれかの方法で運動領域と判定された結果得られた並進運動領域を弱並進運動領域とし、重みを変えて生成するレートに反映させるようにしても良い。   Further, for example, the translational motion region obtained as a result of the determination as the motion region by the method M1 mentioned in the description of the first embodiment is set as the strong translational motion region, and the motion region is determined by any of the methods M2 to M4. The translational motion region obtained as a result of the determination may be a weak translational motion region and reflected in the rate generated by changing the weight.

(C−3)上記各実施形態では、動きベクトル推定部とレート制御部が独立しているものを示したが、レート制御部において、動きベクトル推定部で生成した動きベクトルを用いて、エンコーダ予測画像を生成するようにしても良い。このようにすると、動きベクトルの検出に係る演算量を集約することができ、演算量を削減できる。 (C-3) In each of the above embodiments, the motion vector estimation unit and the rate control unit are shown to be independent. However, the rate control unit uses the motion vector generated by the motion vector estimation unit to perform encoder prediction. An image may be generated. In this way, it is possible to aggregate the amount of calculation related to motion vector detection and reduce the amount of calculation.

(C−4)上記各実施形態の説明では、Wyner−Ziv符号化部103によるWyner−Ziv符号化の詳細を説明しなかったが、Wyner−Ziv符号化部103によるWyner−Ziv符号化は、定められたレートに従った符号化データ量を得ることができるものであれば、既存のいかなる方法を適用したものであっても良い。 (C-4) Although the details of the Wyner-Ziv encoding by the Wyner-Ziv encoding unit 103 have not been described in the description of each embodiment, the Wyner-Ziv encoding by the Wyner-Ziv encoding unit 103 is Any existing method may be applied as long as an encoded data amount according to a predetermined rate can be obtained.

例えば、量子化後に、Discrete Cosine Transform(DCT;離散コサイン変換)等の直交変換を行うものであっても良く、また、直交変換を実行しないものであっても良い。すなわち、画素領域(pixel−domain)のデータを処理する動画像符号化装置であっても良く、直交変換後の変換係数領域(transform−domain)のデータを処理する動画像符号化装置であっても良い。   For example, orthogonal quantization such as Discrete Cosine Transform (DCT; Discrete Cosine Transform) may be performed after quantization, or may not be performed. In other words, it may be a moving picture coding apparatus that processes data in a pixel area (pixel-domain), or a moving picture coding apparatus that processes data in a transform coefficient area (transform-domain) after orthogonal transformation. Also good.

(C−5)上記各実施形態の説明では、符号化がWyner−Ziv符号化であるものを示したが、Slepian−Wolf符号化を行うものであっても良い。すなわち、Wyner−Ziv符号化部103に代えて、Slepian−Wolf符号化部を適用するようにしても良い。 (C-5) In the description of each of the above embodiments, the encoding is Wyner-Ziv encoding. However, it is also possible to perform Slepian-Wolf encoding. That is, instead of the Wyner-Ziv encoding unit 103, a Slepian-Wolf encoding unit may be applied.

(C−6)上記各実施形態では、運動領域と並進領域とを独立して求め、その論理積などをとることによって、並進運動領域を特定(判定)するものを示したが、第1に、並進領域を識別し、識別された並進領域だけを対象として運動領域を識別して、並進運動領域を特定(判定)するようにしても良く、第2に、運動領域を識別し、識別された運動領域だけを対象として並進領域を識別して、並進運動領域を特定(判定)するようにしても良い。 (C-6) In each of the above embodiments, the motion region and the translation region are obtained independently, and the translational motion region is specified (determined) by taking the logical product or the like. First, The translation region may be identified, the motion region may be identified only for the identified translation region, and the translation motion region may be specified (determined). Second, the motion region is identified and identified. Alternatively, the translation region may be identified for only the motion region, and the translation motion region may be specified (determined).

(C−7)上記各実施形態では、エンコーダレート制御方式に基づく動画像符号化装置について説明したが、エンコーダにレート制御部を備えるデコーダレート制御方式に基づく動画像符号化装置に対しても、本発明の技術思想を適用することができ、特有な効果を奏することができる。 (C-7) In each of the above embodiments, the moving image encoding device based on the encoder rate control method has been described. However, for a moving image encoding device based on the decoder rate control method in which the encoder includes a rate control unit, The technical idea of the present invention can be applied and specific effects can be obtained.

デコーダレート制御方式に基づく動画像符号化装置にレート制御部を追加する目的には、例えば、フィードバック回数を少なくすることにある。レート制御部を追加することで、初回に送られるWyner−Ziv符号のレートを、上記各実施形態で求めたレートにすることにより、必要十分なレートに近付け、フィードバック回数を少なくできる。フィードバック回数が少なくなることで、遅延やデコーダ演算量が削減されるという効果を奏する。   The purpose of adding the rate control unit to the moving picture coding apparatus based on the decoder rate control method is to reduce the number of feedbacks, for example. By adding the rate control unit, the rate of the Wyner-Ziv code sent for the first time is set to the rate obtained in each of the above embodiments, so that the necessary and sufficient rate can be approached and the number of feedback can be reduced. By reducing the number of feedbacks, the delay and the amount of decoder calculation are reduced.

(C−8)上記各実施形態では、符号化画像における情報の種類に拘らず、並進運動領域か非並進運動領域かに応じた重み付けを施したレート制御を行うものを示したが、符号化画像における情報の種類によっては、並進運動領域か非並進運動領域かの識別結果に拘らず、従来と同様なレート制御を行うようにしても良い。 (C-8) In each of the above embodiments, although the rate control is performed with weighting according to the translational motion region or the non-translational motion region regardless of the type of information in the coded image, Depending on the type of information in the image, rate control similar to the conventional rate control may be performed regardless of the identification result of the translational motion region or the non-translational motion region.

例えば、従来の動画像符号化装置の中には、量子化後、若しくは、直交変換後の画像データを、各桁のビット毎のビットプレーンに分けて誤り訂正処理して符号化するものがある。このような動画像符号化装置において、最上位ビットプレーン(それより下位の上位ビットプレーンを含んでも良い)のように、誤り訂正処理の失敗が品質に著しく大きな悪影響を与える誤り訂正符号のレートを推定する際には、並進運動領域か非並進運動領域かに応じた重み付けをせずに符号化対象画像とエンコーダ予測画像間を比較することでレートを推定することも有効である。   For example, some conventional moving image coding apparatuses encode image data that has been quantized or orthogonally transformed by performing error correction processing on each bit plane of each digit. . In such a moving image encoding apparatus, the error correction code rate at which the error correction processing failure significantly affects the quality, such as the most significant bit plane (may include lower bit planes lower than the upper bit plane). When estimating, it is also effective to estimate the rate by comparing between the encoding target image and the encoder predicted image without weighting depending on whether the region is a translational motion region or a non-translational motion region.

本発明の技術的思想は、あくまで並進運動領域のデコーダ予測画像は、エンコーダ予測画像よりも品質が高いという仮定に基づきレート制御しており、映像によっては稀に誤ることもある。従って、誤りが主観品質に著しく悪影響を与える誤り訂正符号のレートを推定する場合には、重み付けせずに、レート制御することで、上述のリスクを軽減することができる。   The technical idea of the present invention is that rate control is performed based on the assumption that the decoder predicted image in the translational motion area is higher in quality than the encoder predicted image, and there are rare cases where errors occur depending on the video. Therefore, when estimating the rate of an error correction code in which errors significantly affect subjective quality, the above-mentioned risk can be reduced by controlling the rate without weighting.

(C−9)上記各実施形態の動画像符号化装置から、対向する動画像復号装置への通信路は、狭義の通信路に限定されるものではなく、広義の通信路であって良い。すなわち、リアルタイムの通信だけでなく、動画像符号化装置が符号化したデータを記録媒体に記録し、動画像復号装置が記録媒体から読み出したデータを処理するものであっても良い。 (C-9) The communication path from the moving picture encoding apparatus of each of the above embodiments to the opposing moving picture decoding apparatus is not limited to a narrowly defined communication path, and may be a broadly defined communication path. That is, not only real-time communication but also data encoded by the moving image encoding apparatus may be recorded on a recording medium, and data read out from the recording medium by the moving image decoding apparatus may be processed.

1…動画像符号化システム、11…動画像符号化装置(非キーフレーム符号化装置)、12…キーフレーム符号化装置、21…動画像復号装置、22…キーフレーム復号装置、101…並進運動領域識別部、102…レート制御部、103…Wyner−Ziv符号化部、104…符号化対象画像縮小部、105…参照画像縮小部、106…動きベクトル推定部、107…運動領域識別部、108…並進領域動きベクトル計算部、109…並進領域識別部、110、210…統合部、211…並進運動領域識別信号候補生成部、212…面積計算部、213…並進運動領域決定部。   DESCRIPTION OF SYMBOLS 1 ... Moving image encoding system, 11 ... Moving image encoding device (non-key frame encoding device), 12 ... Key frame encoding device, 21 ... Moving image decoding device, 22 ... Key frame decoding device, 101 ... Translation motion Area identifying unit 102 ... Rate control unit 103 103 Wyner-Ziv encoding unit 104 ... Coding target image reducing unit 105 ... Reference image reducing unit 106 106 Motion vector estimating unit 107 107 Motion region identifying unit 108 ... translational region motion vector calculation unit, 109 ... translational region identification unit, 110, 210 ... integration unit, 211 ... translational motion region identification signal candidate generation unit, 212 ... area calculation unit, 213 ... translational motion region determination unit.

Claims (17)

分散映像符号化方式に基づき動画像を圧縮する動画像符号化装置において、
非キーフレームである符号化対象画像とキーフレームである参照画像から、上記符号化対象画像内における並進運動領域を識別する並進運動領域識別手段と、
動画像復号装置が復号画像を生成するのに必要十分な符号量を規定するレートを、上記並進運動領域の情報と上記並進運動領域以外の領域である非並進運動領域の情報に対して、異なる重み付けを行うものであり、少なくとも、上記並進運動領域の情報量が小さくなるような重み付けを行い、重みづけを行った上記並進運動領域の情報と上記非並進運動領域の情報を用いて、決定するレート制御手段と、
決定されたレートを適用して、上記符号化対象画像を符号化する符号化手段とを備える
ことを特徴とする動画像符号化装置。
In a moving image encoding apparatus that compresses a moving image based on a distributed video encoding method,
A translational motion region identifying means for identifying a translational motion region in the coding target image from a coding target image that is a non-key frame and a reference image that is a key frame;
The rate that defines the code amount necessary and sufficient for the moving image decoding apparatus to generate a decoded image is different from the information of the translational motion region and the information of the non-translational motion region that is a region other than the translational motion region. Weighting is performed, and at least weighting is performed so that the information amount of the translational motion region is small, and the weighting is performed using the information on the translational motion region and the information on the non-translational motion region that are weighted. Rate control means;
A moving picture encoding apparatus comprising: an encoding unit that applies the determined rate to encode the encoding target picture.
上記レート制御手段は、並進運動領域の情報と非並進運動領域の情報とで異なる重み付けを行い、重み付けを行った上記並進運動領域の情報と上記非並進運動領域の情報を用いて、上記符号化対象画像と、内部で生成したエンコーダ予測画像との間で誤差の統計量を計算し、得られた誤差の統計量から、レートを決定することを特徴とする請求項1に記載の動画像符号化装置。   The rate control means performs different weighting on the information on the translational motion region and the information on the non-translational motion region, and uses the information on the translational motion region and the information on the non-translational motion region to which the weighting is performed. The moving picture code according to claim 1, wherein a statistic of error is calculated between the target picture and an internally generated encoder prediction picture, and a rate is determined from the obtained statistic of error. Device. 上記レート制御手段は、上記符号化対象画像及び内部で生成したエンコーダ予測画像間でビット反転数を数え、上記符号化対象画像と、動画像復号装置が形成するであろうデコーダ予測画像との間に存在するビット反転確率を推定し、推定したビット反転確率からレートを決定するものであり、
上記レート制御手段は、上記ビット反転数を数える際に、上記並進運動領域内における1個のビット反転については、0以上1未満の値に置き換えた上で、上記ビット反転数を求める
ことを特徴とする請求項1に記載の動画像符号化装置。
The rate control means counts the number of bit inversions between the encoding target image and the internally generated encoder predicted image, and between the encoding target image and a predicted decoder image that the video decoding device will form. The bit inversion probability existing in the is estimated, and the rate is determined from the estimated bit inversion probability,
The rate control means obtains the bit inversion number after replacing one bit inversion in the translational motion region with a value of 0 or more and less than 1 when counting the number of bit inversions. The moving picture encoding apparatus according to claim 1.
上記並進運動領域識別手段は、
上記符号化対象画像を縮小し、縮小符号化対象画像を生成する符号化対象画像縮小部と、
上記参照画像を縮小し、縮小参照画像を生成する参照画像縮小部と、
上記縮小符号化対象画像及び上記縮小参照画像を用いて動きベクトルを求める動きベクトル推定部と、
上記動きベクトルのみを用いて、又は上記縮小符号化対象画像及び上記縮小参照画像を用いて、上記符号化対象画像内における運動領域を識別する運動領域識別部と、
上記動きベクトルから、並進領域に共通する動きベクトルである並進領域動きベクトルを求める並進領域動きベクトル計算部と、
上記動きベクトルと上記並進領域動きベクトルとから並進領域を識別する並進領域識別部と、
上記運動領域の識別結果と上記並進領域の識別結果を統合し、並進運動領域を判定する統合部とを有する
ことを特徴とする請求項1〜3のいずれかに記載の動画像符号化装置。
The translational motion region identification means is
An encoding target image reduction unit that reduces the encoding target image and generates a reduced encoding target image;
A reference image reduction unit that reduces the reference image and generates a reduced reference image;
A motion vector estimation unit that obtains a motion vector using the reduced encoding target image and the reduced reference image;
Using only the motion vector, or using the reduced encoding target image and the reduced reference image, a motion region identification unit that identifies a motion region in the encoding target image;
A translation region motion vector calculation unit for obtaining a translation region motion vector that is a motion vector common to the translation region from the motion vector;
A translation region identifying unit for identifying a translation region from the motion vector and the translation region motion vector;
The moving image encoding apparatus according to claim 1, further comprising an integration unit that integrates the identification result of the motion region and the identification result of the translation region and determines the translation motion region.
上記運動領域識別部は、上記動きベクトルの大きさが予め定められた閾値よりも大きいブロックを運動領域と判定し、それ以外のブロックを非運動領域と判定することを特徴とする請求項4に記載の動画像符号化装置。   5. The motion region identifying unit determines a block having a motion vector size larger than a predetermined threshold as a motion region, and determines other blocks as non-motion regions. The moving image encoding apparatus described. 上記運動領域識別部は、上記縮小符号化対象画像と上記縮小参照画像との差の大きさを、差分絶対値和若しくは差分絶対値平均という指標を用いて所定サイズのブロックごとに評価し、評価された差の大きさが予め定められた閾値よりも大きいブロックを運動領域と判定し、それ以外のブロックを非運動領域と判定することを特徴とする請求項4に記載の動画像符号化装置。   The motion region identification unit evaluates the size of the difference between the reduced encoding target image and the reduced reference image for each block of a predetermined size using an index called a difference absolute value sum or a difference absolute value average. 5. The moving picture encoding apparatus according to claim 4, wherein a block in which the magnitude of the difference is larger than a predetermined threshold is determined as a motion area, and other blocks are determined as non-motion areas. . 上記運動領域識別部は、上記縮小符号化対象画像と上記縮小参照画像との差分の絶対値を画素ごとに求め、得られた差分の絶対値が予め定められた閾値よりも大きい画素数を、所定サイズのブロックごとに数え、得られた画素数が予め定められた閾値よりも大きいブロックを運動領域と判定し、それ以外のブロックを非運動領域と判定することを特徴とする請求項4に記載の動画像符号化装置。   The motion region identification unit obtains the absolute value of the difference between the reduced encoding target image and the reduced reference image for each pixel, and determines the number of pixels in which the absolute value of the obtained difference is greater than a predetermined threshold value. 5. The block according to claim 4, wherein each block having a predetermined size is counted, and a block in which the obtained number of pixels is larger than a predetermined threshold is determined as a motion region, and other blocks are determined as non-motion regions. The moving image encoding apparatus described. 上記運動領域識別部は、上記縮小符号化対象画像の交流成分画像を求めると共に、上記縮小参照画像の交流成分画像を求め、上記縮小符号化対象画像の交流成分画像と上記縮小参照画像の交流成分画像との差分の絶対値を画素ごとに求め、得られた差分の絶対値が予め定められた閾値よりも大きい画素数を、所定サイズのブロックごとに数え、得られた画素数が予め定められた閾値よりも大きいブロックを運動領域と判定し、それ以外のブロックを非運動領域と判定することを特徴とする請求項4に記載の動画像符号化装置。   The motion region identification unit obtains an AC component image of the reduced encoding target image and an AC component image of the reduced reference image, and determines an AC component image of the reduced encoding target image and an AC component of the reduced reference image. The absolute value of the difference from the image is obtained for each pixel, the number of pixels for which the absolute value of the obtained difference is greater than a predetermined threshold is counted for each block of a predetermined size, and the obtained number of pixels is predetermined. 5. The moving picture encoding apparatus according to claim 4, wherein a block larger than the threshold value is determined as a motion area, and other blocks are determined as non-motion areas. 上記運動領域識別部は、
上記動きベクトルの大きさが予め定められた閾値よりも大きいブロックを運動領域と判定する第1の識別部と、
上記第1の識別部で運動領域でないと判定された領域に対し、上記縮小符号化対象画像と上記縮小参照画像とを用いて、運動領域か否かを判定する第2の識別部とを有する
ことを特徴とする請求項4に記載の動画像符号化装置。
The motion region identification unit is
A first identification unit that determines a block having a motion vector size larger than a predetermined threshold as a motion area;
A second identification unit that determines whether or not the region is not a motion region by the first identification unit, using the reduced encoding target image and the reduced reference image; The moving picture coding apparatus according to claim 4, wherein:
上記並進領域動きベクトル計算部は、フレーム内の動きベクトルの平均動きベクトルを計算し、得られた平均動きベクトルを上記並進領域動きベクトルとすることを特徴とする請求項4〜9のいずれかに記載の動画像符号化装置。 The translation region motion vector calculation unit calculates an average motion vector of motion vectors in a frame, and uses the obtained average motion vector as the translation region motion vector. The moving image encoding apparatus described. 上記並進領域動きベクトル計算部は、フレーム内の上記動きベクトルのうち最頻出の動きベクトルを求め、得られた最頻出動きベクトルを上記並進領域動きベクトルとすることを特徴とする請求項4〜9のいずれかに記載の動画像符号化装置。 The translation region motion vector calculation unit obtains the most frequent motion vector among the motion vectors in a frame, and uses the obtained most frequent motion vector as the translation region motion vector. The moving image encoding device according to any one of the above. 上記並進領域識別部は、所定サイズのブロックごとに上記動きベクトルと上記並進領域動きベクトルとを比較し、両ベクトルの差の大きさが予め定められた閾値未満であれば、並進領域と判定し、それ以外の場合には非並進領域として判定することを特徴とする請求項4〜11のいずれかに記載の動画像符号化装置。   The translation region identification unit compares the motion vector with the translation region motion vector for each block of a predetermined size, and determines that the vector is a translation region if the difference between the two vectors is less than a predetermined threshold. In other cases, the moving image coding apparatus according to claim 4, wherein the moving image coding device is determined as a non-translational region. 上記統合部は、運動領域、かつ、並進領域と判定されている領域を並進運動領域と判定し、それ以外の全ての領域を非並進運動領域と判定することを特徴とする請求項4〜12のいずれかに記載の動画像符号化装置。   The integration unit determines a motion region and a region determined to be a translation region as a translational motion region, and determines all other regions as non-translational motion regions. The moving image encoding device according to any one of the above. 上記統合部は、運動領域、かつ、並進領域と判定されている領域の面積が所定面積以上のときに並進運動領域と判定し、それ以外の全ての領域を非並進運動領域と判定することを特徴とする請求項4〜12のいずれかに記載の動画像符号化装置。   The integration unit determines that the area of the motion area and the area determined as the translation area is a translation area when the area is equal to or larger than a predetermined area, and determines all other areas as non-translation areas. The moving picture coding apparatus according to claim 4, wherein the moving picture coding apparatus is a moving picture coding apparatus. 上記レート制御手段は、1画素あたり複数ビットからなる上記符号化対象画像から、同一ビット順位のビットデータを画素毎に取り出してなるビットプレーンに分けて、上記各ビットプレーンの符号量を規定するレートを決定するものであり、少なくとも、最上位のビットプレーンについては、重み付けを行わずに、そのままの上記最上位のビットプレーンの情報に基づいてレートを決定し、
上記符号化手段は、決定された上記各ビットプレーンのレートを適用して、上記符号化対象画像に係る上記各ビットプレーンを符号化する
ことを特徴とする請求項1〜14のいずれかに記載の動画像符号化装置。
The rate control means divides the bit data of the same bit order into bit planes obtained for each pixel from the encoding target image consisting of a plurality of bits per pixel, and defines a code amount of each bit plane. The rate is determined based on the information of the uppermost bit plane as it is without weighting at least for the uppermost bitplane,
The encoding means encodes each bit plane related to the encoding target image by applying the determined rate of each bit plane. Video encoding device.
分散映像符号化方式に基づき動画像を圧縮する動画像符号化装置に搭載されるコンピュータを、
非キーフレームである符号化対象画像とキーフレームである参照画像から、上記符号化対象画像内における並進運動領域を識別する並進運動領域識別手段と、
動画像復号装置が復号画像を生成するのに必要十分な符号量を規定するレートを、上記並進運動領域の情報と上記並進運動領域以外の領域である非並進運動領域の情報に対して、異なる重み付けを行うものであり、少なくとも、上記並進運動領域の情報量が小さくなるような重み付けを行い、重みづけを行った上記並進運動領域の情報と上記非並進運動領域の情報を用いて、決定するレート制御手段と、
決定されたレートを適用して、上記符号化対象画像を符号化する符号化手段と
して機能させることを特徴とする動画像符号化プログラム。
A computer installed in a video encoding device that compresses video based on a distributed video encoding system,
A translational motion region identifying means for identifying a translational motion region in the coding target image from a coding target image that is a non-key frame and a reference image that is a key frame;
The rate that defines the amount of code necessary for the moving image decoding apparatus to generate a decoded image is different from the information of the translational motion region and the information of the non-translational motion region that is a region other than the translational motion region. Weighting is performed, and at least weighting is performed so that the information amount of the translational motion region is small, and the weighting is performed using the information on the translational motion region and the information on the non-translational motion region that are weighted. Rate control means;
A moving picture coding program that functions as coding means for coding the picture to be coded by applying the determined rate.
分散映像符号化方式に基づき動画像を圧縮する動画像符号化装置と、当該動画像符号化装置からの符号化データを復号する動画像復号装置とを備える動画像符号化システムにおいて、
上記動画像符号化装置として、請求項1〜15のいずれかに記載の動画像符号化装置を適用したことを特徴とする動画像符号化システム。
In a moving image encoding system comprising a moving image encoding device that compresses a moving image based on a distributed video encoding method and a moving image decoding device that decodes encoded data from the moving image encoding device,
A moving picture coding system, wherein the moving picture coding apparatus according to claim 1 is applied as the moving picture coding apparatus.
JP2013084130A 2013-04-12 2013-04-12 Moving picture coding apparatus and program, and moving picture coding system Active JP6398149B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013084130A JP6398149B2 (en) 2013-04-12 2013-04-12 Moving picture coding apparatus and program, and moving picture coding system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013084130A JP6398149B2 (en) 2013-04-12 2013-04-12 Moving picture coding apparatus and program, and moving picture coding system

Publications (2)

Publication Number Publication Date
JP2014207565A JP2014207565A (en) 2014-10-30
JP6398149B2 true JP6398149B2 (en) 2018-10-03

Family

ID=52120805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013084130A Active JP6398149B2 (en) 2013-04-12 2013-04-12 Moving picture coding apparatus and program, and moving picture coding system

Country Status (1)

Country Link
JP (1) JP6398149B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05122590A (en) * 1991-10-24 1993-05-18 Sanyo Electric Co Ltd Motion vector specifying circuit for video camera with blurring correcting function
JPH06217294A (en) * 1993-01-19 1994-08-05 Sony Corp Image data compressing device and image data transmitting method
JP4819024B2 (en) * 2007-12-06 2011-11-16 日本電信電話株式会社 Image encoding / decoding method and system
JP5131224B2 (en) * 2009-02-19 2013-01-30 沖電気工業株式会社 Moving picture decoding apparatus, method and program, moving picture encoding apparatus, method and program, and moving picture encoding system
JP5071416B2 (en) * 2009-03-09 2012-11-14 沖電気工業株式会社 Moving picture encoding apparatus, moving picture decoding apparatus, and moving picture transmission system
JP5233939B2 (en) * 2009-09-30 2013-07-10 沖電気工業株式会社 Moving picture encoding apparatus and program, and moving picture distribution system
JP5484378B2 (en) * 2011-02-23 2014-05-07 日本電信電話株式会社 Encoding apparatus, encoding and decoding system, encoding method, and encoding and decoding method

Also Published As

Publication number Publication date
JP2014207565A (en) 2014-10-30

Similar Documents

Publication Publication Date Title
JP5406222B2 (en) Video coding and decoding method and apparatus using continuous motion estimation
CN103647972B (en) Moving picture decoding method and moving picture encoding method
US8964829B2 (en) Techniques to perform fast motion estimation
KR100803611B1 (en) Method and apparatus for encoding video, method and apparatus for decoding video
TWI523501B (en) A method and an apparatus for encoding or decoding a video signal
JP5367097B2 (en) Motion vector predictive coding method, motion vector predictive decoding method, moving picture coding apparatus, moving picture decoding apparatus, and programs thereof
JP2011511541A (en) Method, apparatus, and system for interframe predictive coding
JP4195057B2 (en) A method for determining an adaptive motion vector search region, and an image compression apparatus for determining an adaptive motion vector search region.
JP2006511113A (en) Video encoding with skipping motion estimation in selected macroblocks
CA2788876A1 (en) Motion vector predictive encoding method, motion vector predictive decoding method, moving picture encoding apparatus, moving picture decoding apparatus, and programs thereof
JP5613319B2 (en) Video encoding apparatus, video encoding method, and video encoding program
KR100694050B1 (en) Motion prediction method and apparatus thereof
JP2004215275A (en) Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same
JP4197695B2 (en) Video encoding method, apparatus, and program
JP6398149B2 (en) Moving picture coding apparatus and program, and moving picture coding system
JP2015111774A (en) Video coding device and video coding program
KR100987581B1 (en) Method of Partial Block Matching for Fast Motion Estimation
KR100859073B1 (en) Motion estimation method
JP5171658B2 (en) Image encoding device
JP6127487B2 (en) Moving picture coding apparatus and program
US9521417B2 (en) Video encoding device using predicted motion vector for blocks of different size
JP2009296443A (en) Vector search range limiting apparatus, and moving image encoding device
JP2007228400A (en) Moving image converter
Vidyavathi et al. Motion-compensated video compression using variable length Huffman coding
CN114760467A (en) Method and device for determining coding mode

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170620

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R150 Certificate of patent or registration of utility model

Ref document number: 6398149

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150