JP2008172546A - Image encoding/decoding device - Google Patents

Image encoding/decoding device Download PDF

Info

Publication number
JP2008172546A
JP2008172546A JP2007003986A JP2007003986A JP2008172546A JP 2008172546 A JP2008172546 A JP 2008172546A JP 2007003986 A JP2007003986 A JP 2007003986A JP 2007003986 A JP2007003986 A JP 2007003986A JP 2008172546 A JP2008172546 A JP 2008172546A
Authority
JP
Japan
Prior art keywords
motion search
unit
image
image data
encoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007003986A
Other languages
Japanese (ja)
Other versions
JP4797999B2 (en
Inventor
Hiroki Mizozoe
溝添博樹
Susumu Takahashi
高橋将
Hironori Komi
小味弘典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007003986A priority Critical patent/JP4797999B2/en
Publication of JP2008172546A publication Critical patent/JP2008172546A/en
Application granted granted Critical
Publication of JP4797999B2 publication Critical patent/JP4797999B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that, while it can be considered to perform a search by 4-pixel accuracy (3-pixel thinning) horizontally since a wider region should be searched in a motion search because an image size is considerably bigger and an aspect ratio is higher in an HDTV compared with a conventional SDTV though there is a method of searching motions after thinning every other pixel horizontally in the SDTV, image quality substantially is deteriorated since a pixel pitch is coarse originally in the SDTV when encoding is performed keeping the thinning rate during the encoding of the SDTV. <P>SOLUTION: A motion search range and a pixel thinning rate are adaptively switched according to the image size. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像符号化・復号化装置に関する。   The present invention relates to an image encoding / decoding device.

この分野の背景技術として、例えば、特開2004-349756号公報がある。該公報には、「[課題]入力映像に対して,動き探索精度が高く,動き補償単位が小さな探索を行う動画像符号化を低コストで実現する。[解決手段]画像拡大部10によって入力映像を水平方向にM倍,垂直方向にN倍に拡大する。その結果得られる拡大画像を,前処理符号化部11によって符号化する。メインエンコーダ13は,前処理符号化部11において得られる動きベクトル情報を受けて,動きベクトルの大きさを水平方向に1/M,垂直方向に1/Nに縮小し,入力映像に対して得られたベクトルを用いて動き補償を行ないながら入力映像の符号化を行う。」と記載されている(要約参照)。   As background art in this field, for example, there is JP-A-2004-349756. According to the publication, “[Problem] Realizing moving image coding that performs a search with high motion search accuracy and a small motion compensation unit for input video at low cost. [Solution] Input by image enlargement unit 10 The video is expanded M times in the horizontal direction and N times in the vertical direction, and the resulting enlarged image is encoded by the preprocessing encoding unit 11. The main encoder 13 is obtained by the preprocessing encoding unit 11. Receiving the motion vector information, the size of the motion vector is reduced to 1 / M in the horizontal direction and 1 / N in the vertical direction, and motion compensation is performed using the vector obtained for the input video, Encoding "(see summary).

また、この分野の背景技術として、例えば、特開2002-135784号公報がある。該公報には、「[課題]適応的動き探索範囲をともなう動き推定および補償を用いたビデオ符号化方法を提供する。[解決手段]固定された動き探索範囲は、非常に高速な動きに対して真の合致領域を見出せないことがときどきある。また、固定された動き探索範囲は、非常に低速な動きに対して膨大な処理時間を浪費する。動き探索範囲を基準値から適応的に拡大・縮小する方法を利用することにより動き推定の効率が上がり、その結果符号化効率が向上する。」と記載されている(要約参照)。   As background art in this field, for example, there is JP-A-2002-135784. In this publication, “[Problem] To provide a video coding method using motion estimation and compensation with an adaptive motion search range. [Solution] A fixed motion search range is used for very fast motion. Sometimes a true match area cannot be found, and a fixed motion search range wastes a lot of processing time for very slow motions. “The use of the reduction method increases the efficiency of motion estimation, and as a result, improves the encoding efficiency.” (See summary).

特開2004-349756号公報JP 2004-349756 A 特開2002-135784号公報Japanese Patent Laid-Open No. 2002-135784

画像の符号化において動き探索は非常に重い処理であり、ハードウエアでは通常、探索範囲を絞った探索をおこなう。その1つに、階層探索という技術がある。階層探索では、まず粗く探索を行い、その結果に対して、その周りをさらに細かく探索するということが行われている。   In image coding, motion search is a very heavy process, and hardware usually performs a search with a narrow search range. One of them is a technique called hierarchical search. In the hierarchical search, a rough search is first performed, and the surroundings are further finely searched for the result.

ここで、階層探索においてまず行なわれる粗い探索は、画質に大きな影響を与える重要な処理である。動き探索範囲をできるだけ大きくとることができれば、それだけより広範囲に、類似の画像を発見できる可能性が高くなり、画質が向上する。しかしながら、動き探索範囲をむやみに大きく取ると、探索に要する時間がそれに比例して増加し、処理時間の増大を招いてしまう。そこで、一例として、SDTVでは、水平に1画素おきに間引いてから探索をおこなう方法がある。   Here, the rough search first performed in the hierarchical search is an important process that greatly affects the image quality. If the motion search range can be made as large as possible, the possibility that similar images can be found in a wider range is increased, and the image quality is improved. However, if the motion search range is unnecessarily large, the time required for the search increases in proportion to it, and the processing time increases. Thus, as an example, in SDTV, there is a method of performing a search after thinning out every other pixel horizontally.

しかし、HDTVは従来のSDTVに比べ画像サイズがかなり大きくなっており、また、アスペクト比も広い為、動き探索でより広い領域を探索しなければならない。そこで、一例として、HDTVでは、水平に4画素精度(3画素間引き)で探索を行うことが考えられる。   However, the HDTV has a considerably larger image size than the conventional SDTV, and has a wide aspect ratio, so a wider area must be searched for by motion search. Therefore, as an example, in HDTV, it is conceivable to search horizontally with 4-pixel accuracy (3 pixel thinning).

ただし、SDTVの符号化の際も、この間引き率のままで行うと、SDTVはもともと画素ピッチが粗いため画質の大幅な低下をまねく。   However, when SDTV encoding is performed with this thinning rate, SDTV has a rough pixel pitch, resulting in a significant decrease in image quality.

そこで、本発明では、一例として、画像サイズに応じて、動き探索範囲と画素間引き率とを適応的に切り替えるようにする。   Therefore, in the present invention, as an example, the motion search range and the pixel thinning rate are adaptively switched according to the image size.

本発明によれば、一例として、画質が向上するという効果が得られる。   According to the present invention, as an example, an effect of improving the image quality can be obtained.

上記した以外の課題、構成、効果は、以下の実施形態の中で説明される。   Problems, configurations, and effects other than those described above will be described in the following embodiments.

以下、図面を用いて、実施形態を説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1に本発明の実施例である画像符号化・復号化装置1のブロック図を示す。まず符号化時の動作について説明する。画像入力端子より動画像が入力され、Video I/F部12にて受信する。受信した動画像はSDRAMI/F部17を介して一旦SDRAM2内の設けたバッファ領域に格納される。所定の遅延時間後にSDRAM2内のバッファ領域から動画像データが読み出され、Encoder部13に送られる。Encoder部13にて符号化処理が行われる。符号化処理が終わった符号化データ(エレメンタリーストリーム)は、Mux/Demux部15に送られる。System Mux/Demux部15では、ヘッダコードやタイムスタンプ付加、パケット化などのシステムストリーム化処理を行う。システムストリーム化の終わった符号化データは、Device I/F部16を介して、外部の機器に符号化画像として出力される。   FIG. 1 shows a block diagram of an image encoding / decoding device 1 which is an embodiment of the present invention. First, the operation during encoding will be described. A moving image is input from the image input terminal and received by the video I / F unit 12. The received moving image is temporarily stored in a buffer area provided in the SDRAM 2 via the SDRAM I / F unit 17. After a predetermined delay time, the moving image data is read from the buffer area in the SDRAM 2 and sent to the encoder unit 13. Encoder unit 13 performs an encoding process. The encoded data (elementary stream) after the encoding process is sent to the Mux / Demux unit 15. The System Mux / Demux unit 15 performs system stream processing such as header code, time stamp addition, and packetization. The encoded data that has been converted into the system stream is output as an encoded image to an external device via the Device I / F unit 16.

次に、復号化時の動作について説明する。まず符号化画像データが外部の機器からDevice I/F部16に入力される。Device I/F部16で受信した符号化画像データは、System Mux/Demux部15に入力される。System Mux/Demux部15では、入力された符号化画像データに対し、ヘッダコードの除去などを行い、エレメンタリーストリームを取り出す。取り出されたエレメンタリーストリームは、Decoder部14に送られる。Decoder部14においてエレメンタリーストリームの復号化処理が行われる。復号化処理が終わった動画像データは、Video I/F部12に送られる。Video I/F部12に送られた動画像データは復号化処理介してSDRAM2内に設けたバッファ領域に格納される。所定の遅延時間後にSDRAM2内のバッファ領域から動画像データが読み出され、Video I/F部12から画像出力として装置1外部に出力される。   Next, the operation at the time of decoding will be described. First, encoded image data is input to the Device I / F unit 16 from an external device. The encoded image data received by the Device I / F unit 16 is input to the System Mux / Demux unit 15. The System Mux / Demux unit 15 removes a header code from the input encoded image data and extracts an elementary stream. The extracted elementary stream is sent to the decoder unit 14. In the decoder unit 14, the elementary stream is decoded. The moving image data that has been decrypted is sent to the Video I / F unit 12. The moving image data sent to the Video I / F unit 12 is stored in a buffer area provided in the SDRAM 2 through a decoding process. After a predetermined delay time, the moving image data is read from the buffer area in the SDRAM 2 and output from the Video I / F unit 12 to the outside of the apparatus 1 as an image output.

また、図4のように、Decoder部14とEncoder部13を用いることでトランスコードすることもできるようになっている。この場合、符号化画像データがDecoder部14に入力され、上述のように復号化され、動画像データが出力される。また、この動画像データはEncoder部13に入力され、上述のように符号化され、符号化画像データが出力される。この際、図4に示すように、Decoder部14のプロセッサとEncoder部13のプロセッサとの間で符号化に関する情報を交換することにより、Encoder部13ではより効率的な符号化が可能となる。   Further, as shown in FIG. 4, transcoding can be performed by using the Decoder unit 14 and the Encoder unit 13. In this case, encoded image data is input to the Decoder unit 14, decoded as described above, and moving image data is output. The moving image data is input to the Encoder unit 13, encoded as described above, and encoded image data is output. At this time, as shown in FIG. 4, by exchanging information regarding encoding between the processor of the decoder unit 14 and the processor of the encoder unit 13, the encoder unit 13 can perform more efficient encoding.

図2にEncoder部13のブロック図を示す。メインプロセッサ131およびサブプロセッサ132と、これらのプロセッサにより制御される処理ブロック133〜1310とから成る。入力された画像は画面内予測部133および動き探索部134に入力される。画面内予測部133においては、当該画面内においてすでに符号化済みの部分から、現在処理中の部分画像の予測画像を作成する。また動き探索部134においては、過去に符号化済みの他の画像から、現在処理中の部分画像により近い画像を探し出し、予測画像を作成する。画面内予測部133または動き探索部134の出力である予測画像のうちより有利なほうが選択される。この選択決定は、メインプロセッサ131が関与して行う。最終的に選択された一方のブロックは、予測画像と現画像との差を求める。その結果である予測誤差は、DCT/量子化処理部135に出力される。また、最終的に選択された当該ブロックは、予測画像を動き補償部137に出力する。   FIG. 2 shows a block diagram of the encoder unit 13. It consists of a main processor 131 and a sub processor 132, and processing blocks 133 to 1310 controlled by these processors. The input image is input to the in-screen prediction unit 133 and the motion search unit 134. The intra-screen prediction unit 133 creates a predicted image of the partial image currently being processed from the already encoded portion in the screen. In addition, the motion search unit 134 searches for an image closer to the partial image currently being processed from other previously encoded images, and creates a predicted image. The more advantageous one of the predicted images output from the in-screen prediction unit 133 or the motion search unit 134 is selected. This selection decision is made with the main processor 131 involved. One block finally selected obtains the difference between the predicted image and the current image. The prediction error as a result is output to the DCT / quantization processing unit 135. The finally selected block outputs a prediction image to the motion compensation unit 137.

DCT/量子化処理部135において、入力された予測誤差に対して、離散コサイン変換またはそれと同等の所定の周波数変換処理が行われる。さらに引き続き、量子化係数による量子化処理が行われる。処理された結果はエントロピー符号化部139に出力される。   The DCT / quantization processing unit 135 performs discrete cosine transform or a predetermined frequency transform process equivalent to the input prediction error. Subsequently, a quantization process using a quantization coefficient is performed. The processed result is output to the entropy encoding unit 139.

エントロピー符号化部139では、サブプロセッサ132からの指示に基づき、所定のエントロピー符号化処理を行う。その処理結果は、バッファ部1310を介して出力される。   The entropy encoding unit 139 performs a predetermined entropy encoding process based on an instruction from the sub processor 132. The processing result is output via the buffer unit 1310.

DCT/量子化処理部135の出力は、逆量子化/IDCT処理部136に入力される。逆量子化/IDCT処理部136では、逆量子化処理および逆離散コサイン変換(または所定の同等処理)を行い、予測誤差を求め、その結果を補償部137に出力する。   The output of the DCT / quantization processing unit 135 is input to the inverse quantization / IDCT processing unit 136. The inverse quantization / IDCT processing unit 136 performs inverse quantization processing and inverse discrete cosine transform (or predetermined equivalent processing), obtains a prediction error, and outputs the result to the compensation unit 137.

動き補償部137では、入力された予測誤差および予測画像を加算し、復元画像を作成する。復元画像はデブロッキング部138に出力される。   The motion compensation unit 137 adds the input prediction error and the predicted image to create a restored image. The restored image is output to the deblocking unit 138.

デブロッキング部138に入力された復元画像は、ブロック境界のフィルタ処理を施される。その結果であるローカル復号画像は、動き探索画像として、動き探索部134において将来用いられる。   The restored image input to the deblocking unit 138 is subjected to block boundary filtering. The local decoded image as a result is used in the motion search unit 134 in the future as a motion search image.

動き探索部134の処理について図5を用いて説明する。画像3は過去に符号化済みの画像、画像4は現在符号化中の画像である。マクロブロック41は現在符号化処理中の部分画像であり、マクロブロック31は、画像3において、マクロブロック41と同じ位置に相当するマクロブロックである。このマクロブロック31を中心に、幅H、高さVの領域32をとり、動き探索範囲とする。   The processing of the motion search unit 134 will be described with reference to FIG. Image 3 is an image that has been encoded in the past, and image 4 is an image that is currently being encoded. The macro block 41 is a partial image currently being encoded, and the macro block 31 is a macro block corresponding to the same position as the macro block 41 in the image 3. A region 32 having a width H and a height V around the macroblock 31 is taken as a motion search range.

図6は動き探索範囲32を示したものである。動き探索部134は、この動き探索範囲32の範囲内で、マクロブロック41に最も近い部分を見つけ出す処理を行う。ここで、範囲HおよびVをできるだけ大きくとることができれば、それだけより広範囲に、類似の画像を発見できる可能性が高くなる。しかしながら、HおよびVをむやみに大きく取ると、探索に要する時間がそれに比例して増加し、処理時間の増大を招く。そこで、以下の工夫を行っている。   FIG. 6 shows the motion search range 32. The motion search unit 134 performs processing for finding a portion closest to the macroblock 41 within the motion search range 32. Here, if the ranges H and V can be made as large as possible, the possibility that similar images can be found in a wider range becomes higher. However, if H and V are unnecessarily large, the time required for the search increases in proportion thereto, and the processing time increases. Therefore, the following measures are taken.

すなわち、探索範囲32および、マクロブロック41の画素をそれぞれ水平方向に対して2画素単位で間引いた画像を用意する。こうすると、水平方向に対してはH/2の処理画素数で済むことになり、処理時間が半減可能となる。あるいは、探索範囲32および、マクロブロック41の画素をそれぞれ水平方向に対して4画素単位で間引いた画像を用意すると、同じく処理時間は4分の1で済む。
または、同じ処理時間であれば、それぞれ2倍または4倍の探索範囲を探索することが可能となり、画質が向上する。特に、画素数の多い高品位テレビジョン信号の符号化を行う場合には、広い探索範囲を確保することが必要である。そこで、4画素単位を選択することにより、広い探索範囲を確保することが可能である。また、従来のテレビジョン信号の場合には、広い探索範囲よりも、細かい探索を行うことを優先し、2画素単位の間引きを使用することが可能である。
That is, an image is prepared by thinning out pixels of the search range 32 and the macroblock 41 in units of 2 pixels in the horizontal direction. In this way, the number of pixels to be processed is H / 2 in the horizontal direction, and the processing time can be halved. Alternatively, if an image obtained by thinning out the pixels of the search range 32 and the macroblock 41 in units of 4 pixels in the horizontal direction is prepared, the processing time is similarly reduced to a quarter.
Alternatively, if the processing time is the same, it is possible to search a search range of 2 times or 4 times, respectively, and the image quality is improved. In particular, when encoding a high-definition television signal having a large number of pixels, it is necessary to ensure a wide search range. Therefore, a wide search range can be secured by selecting a unit of four pixels. In the case of a conventional television signal, it is possible to use thinning-out in units of two pixels by prioritizing a fine search over a wide search range.

以上のように、本発明によれば、画像サイズに応じて、探索範囲の間引き率および探索範囲の大きさを適応的に選択することが可能である。
このように、動き探索部134では、動き探索範囲32のなかで最も現画像マクロブロック41に近いものを探索する。
As described above, according to the present invention, it is possible to adaptively select the search range decimation rate and the size of the search range in accordance with the image size.
In this manner, the motion search unit 134 searches for the closest search to the current image macroblock 41 in the motion search range 32.

図7は動き探索部134の引き続きの動作を説明する図面である。上記で発見した画素位置に対して、さらに水平±2画素、垂直±2画素の範囲で、より詳しく探索を行う。中心画素を含め、計25画素分の探索を同時に行うことの可能なPE(プロセッサエレメント)群Aを用い、図7の8x8画素の領域Aを探索する。同様に隣接する8x8画素の領域B、C、Dに対しても、PE−B、C,Dにより、同時並行で探索を実行する。   FIG. 7 is a diagram for explaining the continued operation of the motion search unit 134. The pixel position found above is further searched in a range of horizontal ± 2 pixels and vertical ± 2 pixels. A region A of 8 × 8 pixels in FIG. 7 is searched using a PE (processor element) group A capable of simultaneously performing a search for a total of 25 pixels including the central pixel. Similarly, the search is executed in parallel on PE-B, C, and D for adjacent B × 8 and D × 8 pixel regions B, C, and D.

このようにして、PE−A〜Dの各領域に対して、それぞれ最も近い画像の探索が行われ、その結果それぞれの位置オフセットすなわち動きベクトルが求められる。   In this way, the nearest image is searched for each of the areas PE-A to D, and as a result, the respective position offsets, that is, motion vectors are obtained.

動き探索部134ではさらに、上記動きベクトルに対し、その近傍で水平・垂直各±0.5の領域を0.25画素刻みで探索する。この探索には上述のPE―A〜Dを再び用いる。   Further, the motion search unit 134 searches the horizontal and vertical regions of ± 0.5 in the vicinity of the motion vector in increments of 0.25 pixels. The above-described PE-A to D are used again for this search.

次にDecoder部14について図3を用いて説明する。メインプロセッサ141およびサブプロセッサ142と、これらのプロセッサにより制御される処理ブロック143、146〜1410とから成る。   Next, the decoder unit 14 will be described with reference to FIG. It comprises a main processor 141 and sub-processor 142, and processing blocks 143 and 146 to 1410 controlled by these processors.

入力されたエレメンタリーストリームはバッファ部1410でバッファリングされた後、エントロピー復号化部149に入力される。図8に示すように、エントロピー復号化部149では、サブプロセッサ142からの指示に基づき、所定のエントロピー復号化処理を行う。その処理結果であるマクロブロックレイヤのパラメータおよびデータは、逆量子化/IDCT部146に入力される。また、シーケンスやピクチャヘッダなどの上位レイヤはサブプロセッサ142が解析を行い、上位レイヤ情報として出力する。   The input elementary stream is buffered by the buffer unit 1410 and then input to the entropy decoding unit 149. As shown in FIG. 8, the entropy decoding unit 149 performs a predetermined entropy decoding process based on an instruction from the sub processor 142. The macroblock layer parameters and data, which are the processing results, are input to the inverse quantization / IDCT unit 146. Further, the upper layer such as a sequence or a picture header is analyzed by the sub processor 142 and output as upper layer information.

逆量子化/IDCT処理部146では、逆量子化処理および逆離散コサイン変換(または所定の同等処理)を行い、予測誤差を復元し、その結果を補償部147に出力する。
動き補償部147では、入力された予測誤差および予測画像を加算し、復元画像を作成する。なお、ここにおける予測画像は、符号の内容により動き補償または画面内予測画像のいずれかが用いられる。画面内予測画像の場合には、画面内予測部143が作成した予測画像を用いる。動き補償部147において作成した復元画像はデブロッキング部148に出力される。
The inverse quantization / IDCT processing unit 146 performs inverse quantization processing and inverse discrete cosine transform (or predetermined equivalent processing), restores a prediction error, and outputs the result to the compensation unit 147.
The motion compensation unit 147 adds the input prediction error and the prediction image to create a restored image. Note that, as the predicted image here, either motion compensation or an intra-screen predicted image is used depending on the content of the code. In the case of the intra prediction image, the prediction image created by the intra prediction unit 143 is used. The restored image created by the motion compensation unit 147 is output to the deblocking unit 148.

デブロッキング部148に入力された復元画像は、ブロック境界のフィルタ処理を施され、出力画像として出力される。   The restored image input to the deblocking unit 148 is subjected to block boundary filtering and output as an output image.

エントロピー復号化部149において取り扱うことのできるエントロピー符号のうち、算術符号の復号化処理について図9を用いて説明する。図において1491は算術復号化処理を行って、1ビットの値「Bin」を求めるBinデコーダ部、1492は複数のBinの列から、1組の数値を求める数値復元部、1493は、Binデコーダ部での復号化処理に使用するパラメータ「Context値」を計算するContext計算部である。   Among the entropy codes that can be handled by the entropy decoding unit 149, arithmetic code decoding processing will be described with reference to FIG. In the figure, 1491 is a Bin decoder unit that performs arithmetic decoding processing to obtain a 1-bit value “Bin”, 1492 is a numerical value restoration unit that obtains a set of numerical values from a plurality of Bin columns, and 1493 is a Bin decoder unit It is a Context calculation part which calculates the parameter "Context value" used for the decoding process in.

図10に本発明のContext計算部1494についてさらに詳しく説明する。内部にContext#0計算部14941およびContext#1計算部14942を内蔵する。Context#0計算部14941は、直前の復号化結果であるBinの値Bn-1が確定する前に、その結果が仮に0であったと仮定して、Context計算を開始する。同様に、Context#1計算部14942は、直前の復号化結果Binの値Bn-1が確定する前に、その結果が仮に1であったと仮定して、Context計算を開始する。これらの結果は、Context[0]および[1]として、Binデコーダ部1491に共に入力される。Binデコーダ部1491は、直前の復号化結果Bn-1が確定次第、その値に基づき、上記入力されたContext[0]または[1]のうち適切なほうを選択して、次回の復号化に利用する。   FIG. 10 illustrates the Context calculation unit 1494 of the present invention in more detail. A Context # 0 calculation unit 14941 and a Context # 1 calculation unit 14942 are incorporated therein. The Context # 0 calculation unit 14941 starts the Context calculation assuming that the result Bn-1 as the previous decoding result is 0 before the Bin value Bn-1 is finalized. Similarly, the Context # 1 calculation unit 14942 starts the Context calculation assuming that the result Bn-1 of the immediately preceding decoding result Bin is 1 before the value Bn-1 is determined. These results are input to the Bin decoder unit 1491 together as Context [0] and [1]. As soon as the previous decoding result Bn-1 is determined, the Bin decoder unit 1491 selects an appropriate one of the input Context [0] or [1] based on the value, and performs the next decoding. Use.

以上、本発明の算術復号化処理によれば、直前のBinデコード値が確定する前にContext演算を開始できるため、算術復号化処理内部のフィードバックループの処理時間を短くすることができ、したがって、算術復号化処理の処理速度を大幅に高めることが可能である。   As described above, according to the arithmetic decoding process of the present invention, since the Context operation can be started before the immediately preceding Bin decode value is determined, the processing time of the feedback loop inside the arithmetic decoding process can be shortened. It is possible to significantly increase the processing speed of the arithmetic decoding process.

本発明の実施例である画像符号化・復号化装置1のブロック図を示す。1 is a block diagram of an image encoding / decoding device 1 according to an embodiment of the present invention. Encoder部13のブロック図を示す。The block diagram of the Encoder part 13 is shown. Decoder部14のブロック図を示す。The block diagram of the Decoder part 14 is shown. トランスコードする場合の実施例を示す図である。It is a figure which shows the Example in the case of transcoding. 動き探索部134の処理について説明する図である。It is a figure explaining the process of the motion search part. 動き探索範囲32を示す。A motion search range 32 is shown. 動き探索部134の動作を説明する図である。FIG. 6 is a diagram for explaining the operation of a motion search unit 134. エントロピー復号化部149を説明する図である。It is a figure explaining the entropy decoding part 149. FIG. 算術符号の復号化処理について説明する図である。It is a figure explaining the decoding process of an arithmetic code. Context計算部1494について説明する図である。It is a figure explaining the Context calculation part 1494. FIG.

符号の説明Explanation of symbols

1・・・画像符号化・復号化装置
2・・・SDRAM
12・・Video I/F
13・・Encoder部
14・・Decoder部
15・・System Mux/Demux部
16・・Device I/F
17・・SDRAM I/F
DESCRIPTION OF SYMBOLS 1 ... Image encoding / decoding apparatus 2 ... SDRAM
12. ・ Video I / F
13 · Encoder unit 14 · Decoder unit 15 · System Mux / Demux unit 16 · Device I / F
17. · SDRAM I / F

Claims (4)

動き探索を行う画像符号化・復号化装置であって、
画像データが入力される入力手段と、
入力された画像データに対して、粗く動き探索を行う第1の動き探索手段と、
上記第1の動き探索手段から出力される動き探索結果を用いて、上記第1の動き探索手段よりも細かく動き探索を行う第2の動き探索手段と、
を備え、
上記第1の動き探索手段で行われる動き探索の精度は、入力された画像データの画像サイズに応じて決まること、
を特徴とする画像符号化・復号化装置。
An image encoding / decoding device that performs motion search,
An input means for inputting image data;
First motion search means for performing a rough motion search on input image data;
Second motion search means for performing a motion search more finely than the first motion search means using the motion search result output from the first motion search means;
With
The accuracy of the motion search performed by the first motion search means is determined according to the image size of the input image data;
An image encoding / decoding device characterized by the above.
請求項1において、
上記第1の動き探索手段は、入力された画像データを水平方向に間引いて動き探索を行い、間引き率は入力された画像データの画像サイズに応じて決まること、
を特徴とする画像符号化・復号化装置。
In claim 1,
The first motion search means performs a motion search by thinning the input image data in the horizontal direction, and the thinning rate is determined according to the image size of the input image data.
An image encoding / decoding device characterized by the above.
請求項1または2において、
上記第1の動き探索手段は、入力された画像データを水平方向に間引いて動き探索を行い、入力された画像データの画像サイズが大きいほど間引き率が大きいこと、
を特徴とする画像符号化・復号化装置。
In claim 1 or 2,
The first motion search means performs a motion search by thinning input image data in the horizontal direction, and the larger the image size of the input image data, the larger the thinning rate,
An image encoding / decoding device characterized by the above.
請求項1ないし3のいずれかにおいて、
上記第1の動き探索手段は、入力された画像データが標準テレビジョン信号の場合は水平方向に1画素おきに間引いて動き探索を行い、入力された画像データが高品位テレビジョン信号の場合は水平方向に3画素おきに間引いて動き探索を行うこと、
を特徴とする画像符号化・復号化装置。
In any one of Claims 1 thru | or 3,
When the input image data is a standard television signal, the first motion search means performs a motion search by thinning out every other pixel in the horizontal direction, and when the input image data is a high-definition television signal. Performing motion search by thinning out every 3 pixels in the horizontal direction;
An image encoding / decoding device characterized by the above.
JP2007003986A 2007-01-12 2007-01-12 Image encoding / decoding device Active JP4797999B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007003986A JP4797999B2 (en) 2007-01-12 2007-01-12 Image encoding / decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003986A JP4797999B2 (en) 2007-01-12 2007-01-12 Image encoding / decoding device

Publications (2)

Publication Number Publication Date
JP2008172546A true JP2008172546A (en) 2008-07-24
JP4797999B2 JP4797999B2 (en) 2011-10-19

Family

ID=39700216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003986A Active JP4797999B2 (en) 2007-01-12 2007-01-12 Image encoding / decoding device

Country Status (1)

Country Link
JP (1) JP4797999B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161712A (en) * 2009-01-09 2010-07-22 Sharp Corp Frame rate converting device and frame rate converting method
JP2015073192A (en) * 2013-10-02 2015-04-16 日本電信電話株式会社 Video encoder and video encoding program
JP2015520581A (en) * 2012-05-14 2015-07-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated Programmable and scalable search of candidate blocks for inter-coding or intra-coding

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169288A (en) * 1999-12-07 2001-06-22 Nec Corp Device and method for searching motion vector
JP2006080925A (en) * 2004-09-09 2006-03-23 Toshiba Corp Moving picture encoding device, moving picture encoding method, and moving picture encoding program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169288A (en) * 1999-12-07 2001-06-22 Nec Corp Device and method for searching motion vector
JP2006080925A (en) * 2004-09-09 2006-03-23 Toshiba Corp Moving picture encoding device, moving picture encoding method, and moving picture encoding program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161712A (en) * 2009-01-09 2010-07-22 Sharp Corp Frame rate converting device and frame rate converting method
JP2015520581A (en) * 2012-05-14 2015-07-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated Programmable and scalable search of candidate blocks for inter-coding or intra-coding
JP2015073192A (en) * 2013-10-02 2015-04-16 日本電信電話株式会社 Video encoder and video encoding program

Also Published As

Publication number Publication date
JP4797999B2 (en) 2011-10-19

Similar Documents

Publication Publication Date Title
US9189869B2 (en) Apparatus and method for encoding/decoding images for intra-prediction
US9058659B2 (en) Methods and apparatuses for encoding/decoding high resolution images
JP4047879B2 (en) Motion vector detection apparatus and motion vector detection method
US6438168B2 (en) Bandwidth scaling of a compressed video stream
US20130089265A1 (en) Method for encoding/decoding high-resolution image and device for performing same
JP2015156721A (en) bit stream
KR20110008653A (en) Method and apparatus for predicting motion vector and method and apparatus of encoding/decoding a picture using the same
JP5426655B2 (en) Compressed video encoding device, compressed video decoding device, compressed video encoding method, and compressed video decoding method
JP2010016453A (en) Image encoding apparatus and method, image decoding apparatus and method, and program
US9596467B2 (en) Motion estimation device for predicting a vector by referring to motion vectors of adjacent blocks, motion estimation method and storage medium of motion estimation program
JP2007124408A (en) Motion vector detector and motion vector detecting method
JP2007013298A (en) Image coding apparatus
JP2013115583A (en) Moving image encoder, control method of the same, and program
JP2008219141A (en) Motion vector detector, image encoder and imaging apparatus employing the same
JP4797999B2 (en) Image encoding / decoding device
JP2008544598A (en) Alternate up and down motion vectors
JP4779977B2 (en) Image encoding / decoding device
JP2006295503A (en) Reencoding apparatus and method, and program for reencoding
JP2008141407A (en) Device and method for converting coding system
US20130170565A1 (en) Motion Estimation Complexity Reduction
JP2006254347A (en) Image encoding device
JP2006295502A (en) Reencoding apparatus, re-encoding method and program for re-encoding
JP5718438B2 (en) Compressed video encoding device, compressed video decoding device, compressed video encoding method, and compressed video decoding method
JP2011035677A (en) Animation encoding device, animation encoding method, computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110718

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4797999

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140812

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250