JP2006345186A - Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device - Google Patents

Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device Download PDF

Info

Publication number
JP2006345186A
JP2006345186A JP2005168405A JP2005168405A JP2006345186A JP 2006345186 A JP2006345186 A JP 2006345186A JP 2005168405 A JP2005168405 A JP 2005168405A JP 2005168405 A JP2005168405 A JP 2005168405A JP 2006345186 A JP2006345186 A JP 2006345186A
Authority
JP
Japan
Prior art keywords
motion vector
processing time
vector detection
region
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005168405A
Other languages
Japanese (ja)
Inventor
Hideaki Hattori
秀昭 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005168405A priority Critical patent/JP2006345186A/en
Publication of JP2006345186A publication Critical patent/JP2006345186A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently and precisely detect moving vectors. <P>SOLUTION: Difficulty levels in movement compensation of respective areas in a picture are calculated from an input frame and a reference frame. Then processing times are adaptively allocated to the respective areas according to the calculated difficulty levels in movement compensation and the processing performance of a moving vector detection processing section. In each area, a search range or the like of a moving vector is adaptively varied in accordance with the given processing time. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は動きベクトルの検出技術に関し、特に動き補償を用いたフレーム間予測を用いた画像符号化技術に好適に適用可能な動きベクトルの検出技術に関する。   The present invention relates to a motion vector detection technique, and more particularly to a motion vector detection technique that can be suitably applied to an image coding technique using inter-frame prediction using motion compensation.

デジタルデータ化された画像(画像データ)を有効に利用するためには、効率的に記憶、伝送する必要があり、結果として画像データの圧縮符号化は必須である。画像データの圧縮符号化方式として広く用いられているJPEG(Joint Photographic Experts Group)符号化方式の概要は以下の通りである。   In order to effectively use digitalized images (image data), it is necessary to efficiently store and transmit images, and as a result, compression encoding of image data is essential. An outline of a JPEG (Joint Photographic Experts Group) encoding method widely used as a compression encoding method for image data is as follows.

まず圧縮対象となる画像データを複数のブロック(符号化ブロック)に分割し、直交変換を用いて各マクロブロックの画像データを直流成分と交流成分とで構成される直交変換係数に変換する。この直交変換係数に対して符号量を減らすために量子化を行い、量子化された直交変換係数をエントロピー符号することにより、最終的な符号化結果を得る。   First, image data to be compressed is divided into a plurality of blocks (encoded blocks), and image data of each macroblock is converted into orthogonal transform coefficients composed of a DC component and an AC component using orthogonal transform. The orthogonal transform coefficient is quantized to reduce the code amount, and the quantized orthogonal transform coefficient is entropy-coded to obtain a final encoded result.

量子化を行う際、人間の視覚特性が敏感な低周波成分については小さい量子化値を、鈍感な高周波成分については大きな量子化値を用いることにより、視覚的な劣化を抑制しながら効率的に符号量を減少させることができる。また他の画像圧縮符号化方式として、MPEG−2(Motion Picture Experts Group Phase 2)のようなフレーム間予測動画像符号化方式が知られている。これは、画像間の動きを検出し、動きを補償した後に直交変換、量子化、エントロピー符号化を施す方式であり、動画像のフレーム間の相関性を利用して符号量を効果的に削減することができる。   When quantization is performed, low quantization components are used for sensitive low-frequency components, and large quantization values are used for insensitive high-frequency components, effectively suppressing visual degradation. The amount of codes can be reduced. As another image compression coding method, an inter-frame prediction moving image coding method such as MPEG-2 (Motion Picture Experts Group Phase 2) is known. This method detects motion between images, compensates for motion, and then performs orthogonal transform, quantization, and entropy coding. It effectively reduces the amount of code using the correlation between frames of moving images. can do.

図8にMPEG−2方式におけるフレーム間予測の概念図を示す。現フレームは例えば、16画素×16ラインのブロック(予測ブロック又は動き補償単位と呼ぶ)に分割され、例えば予測ブロックを処理対象単位として動きベクトルを探索する。動きベクトルは例えば過去に符号化した動画像データを復号して得られる動画像データである参照フレームに関して検出する。具体的には、参照フレーム中の、現フレームの処理対象ブロックに対応する位置の領域を基準に、その領域を含む周囲の画素群を動き探索範囲として、最も相関度の大きい領域の相対位置を求める。この相関度は、現フレームの処理対象ブロックと、動き探索範囲の中の現処理対象ブロックと同サイズの領域(以下、参照領域)とをずらしながら比較することによって求める。また、相関度の測定には、領域内における互いに対応する位置の画素の差分絶対値和等がよく用いられ、該差分絶対値和の値が小さいほど相関が高いと評価される。   FIG. 8 shows a conceptual diagram of inter-frame prediction in the MPEG-2 system. The current frame is divided into, for example, blocks of 16 pixels × 16 lines (referred to as a prediction block or a motion compensation unit). The motion vector is detected with respect to a reference frame which is moving image data obtained by decoding moving image data encoded in the past, for example. Specifically, based on the region at the position corresponding to the processing target block of the current frame in the reference frame, the surrounding pixel group including the region is used as a motion search range, and the relative position of the region with the highest degree of correlation is determined. Ask. This degree of correlation is obtained by comparing the processing target block of the current frame and a region (hereinafter referred to as a reference region) having the same size as the current processing target block in the motion search range while shifting. For the measurement of the degree of correlation, the sum of absolute differences of pixels at positions corresponding to each other in the region is often used, and it is evaluated that the correlation is higher as the value of the sum of absolute differences is smaller.

このようなフレーム間予測を用いた動画像符号化装置の構成例を図7に示す。
図7に示す動画像符号化装置は、減算器701、直交変換器702、量子化器703、スキャン処理器704、エントロピー符号化器705、逆量子化器706、逆直交変換器707、加算器708、記憶装置709、動きベクトル検出器710、参照領域生成器711を含む。なお、符号化ブロックの大きさと動き補償を行う予測ブロックの大きさは必ずしも一致しないが、説明及び理解を容易にするため、ここでは符号化ブロックと予測ブロックとが同じブロックであるものとして説明する。
FIG. 7 shows a configuration example of a moving picture encoding apparatus using such inter-frame prediction.
7 includes a subtractor 701, an orthogonal transformer 702, a quantizer 703, a scan processor 704, an entropy encoder 705, an inverse quantizer 706, an inverse orthogonal transformer 707, and an adder. 708, a storage device 709, a motion vector detector 710, and a reference region generator 711. Note that the size of the encoded block and the size of the prediction block that performs motion compensation do not necessarily match. However, in order to facilitate explanation and understanding, the description will be made assuming that the encoded block and the predicted block are the same block. .

符号化対象フレーム内の情報のみで符号化を行うフレーム内符号化を行う場合、減算器701での減算処理は行わず、原画像データがそのまま直交変換器702へ入力される。一方、時間的に異なる参照フレームを用いたフレーム間予測符号化を行う場合には、減算器701により、参照領域生成器711からの参照画像データを原画像データから減算して、減算結果(予測誤差)を直交変換器702へ出力する。   In the case of performing intraframe encoding in which encoding is performed using only information in the encoding target frame, the subtraction processing in the subtractor 701 is not performed, and the original image data is input to the orthogonal transformer 702 as it is. On the other hand, when performing inter-frame predictive coding using temporally different reference frames, the subtracter 701 subtracts the reference image data from the reference region generator 711 from the original image data, and the subtraction result (prediction) Error) to the orthogonal transformer 702.

直交変換器702は、減算器701からの入力データに対し、ブロック単位で直交変換を施し、得られた直交変換係数を量子化器703へ出力する。量子化器703は、ブロック内の位置に対応する量子化テーブル値と当該ブロックの量子化スケール値を用いて直交変換係数を量子化し、全ての量子化直交変換係数をスキャン処理器704及び逆量子化器706に出力する。スキャン処理器704は符号化モードに応じてジグザグスキャン等のスキャン処理を行う。エントロピー符号化器705はスキャン処理器704の出力をエントロピー符号化し、圧縮符号化結果としての符号を出力する。   The orthogonal transformer 702 performs orthogonal transformation on the input data from the subtractor 701 in units of blocks, and outputs the obtained orthogonal transformation coefficient to the quantizer 703. The quantizer 703 quantizes the orthogonal transform coefficient using the quantization table value corresponding to the position in the block and the quantization scale value of the block, and converts all the quantized orthogonal transform coefficients into the scan processor 704 and the inverse quantum. Output to the generator 706. The scan processor 704 performs scan processing such as zigzag scanning according to the encoding mode. The entropy encoder 705 entropy encodes the output of the scan processor 704, and outputs a code as a compression encoding result.

図7の動画像符号化装置においては、動きベクトル検出及び動き補償を行うために、逆量子化器706、逆直交変換器707を用いて局所復号化処理が行われる。   In the moving picture coding apparatus in FIG. 7, local decoding processing is performed using an inverse quantizer 706 and an inverse orthogonal transformer 707 in order to perform motion vector detection and motion compensation.

逆量子化器706においては対象ブロックの量子化スケール値を用いて対象ブロックの量子化直交変換係数の逆量子化を行い、逆量子化係数を逆直交変換器707へ出力する。逆直交変換器707は逆量子化された直交変換係数に対して逆直交変換を施し、復号した予測誤差を加算器708へ出力する。加算器708は参照ブロック生成器711から出力された予測値と逆直交変換器707からの復号された予測誤差を加算し、加算結果を復号化された参照画像として記憶装置709に記憶する。動きベクトル検出器710は図8で示したように処理対象ブロックと記憶装置709に記憶された参照フレームとから、次の処理対象ブロックのための動きベクトル検出を行う。参照ブロック生成器711は、動きベクトル検出器710によって検出された動きベクトルと、記憶装置709に記憶された参照フレームとから、動き補償を行うための参照ブロックデータを生成し、減算器701へ出力する。   The inverse quantizer 706 performs inverse quantization on the quantized orthogonal transform coefficient of the target block using the quantization scale value of the target block, and outputs the inverse quantized coefficient to the inverse orthogonal transformer 707. The inverse orthogonal transformer 707 performs inverse orthogonal transformation on the inversely quantized orthogonal transformation coefficient, and outputs the decoded prediction error to the adder 708. The adder 708 adds the prediction value output from the reference block generator 711 and the decoded prediction error from the inverse orthogonal transformer 707, and stores the addition result in the storage device 709 as a decoded reference image. The motion vector detector 710 performs motion vector detection for the next processing target block from the processing target block and the reference frame stored in the storage device 709 as shown in FIG. The reference block generator 711 generates reference block data for performing motion compensation from the motion vector detected by the motion vector detector 710 and the reference frame stored in the storage device 709, and outputs the reference block data to the subtractor 701. To do.

図9は、このようなフレーム間予測を用いた動画像符号化装置が1フレームの画像データを処理する際に各部が行う処理を時系列で示した図である。ここでは処理対象フレームをN個のブロックに分割して処理を行うものとしており、図中の数字1,,,N−1,Nは何番目のブロックを処理しているかを示している。   FIG. 9 is a diagram showing, in time series, processing performed by each unit when the moving picture encoding apparatus using such inter-frame prediction processes one frame of image data. Here, the processing target frame is divided into N blocks for processing, and numerals 1,, N-1, and N in the figure indicate the number of blocks being processed.

図9から明らかなように、動きベクトル検出器と、直交変換器、量子化器等の動きベクトル検出器以外の処理部とは、同時刻に異なるブロックを処理し、並列に動作している。動きベクトル検出器において検出が終わった動きベクトルを用いて直交変換やエントロピー符号化等の処理が行われ、その間に動きベクトル検出器はその次のブロックの処理を行っている。このようなシステムにおいては、動きベクトル検出器の処理速度が符号化装置全体の処理速度を決定する。よって動きベクトル検出器を効率的に動作させることにより、符号化装置全体の処理速度を向上させることが可能である。   As is clear from FIG. 9, the motion vector detector and the processing units other than the motion vector detector such as the orthogonal transformer and the quantizer process different blocks at the same time and operate in parallel. A motion vector detected by the motion vector detector is used to perform processing such as orthogonal transformation and entropy coding, and during that time, the motion vector detector performs processing of the next block. In such a system, the processing speed of the motion vector detector determines the processing speed of the entire encoding device. Therefore, it is possible to improve the processing speed of the entire coding apparatus by operating the motion vector detector efficiently.

動きベクトル検出回路の処理時間は、動きベクトルの検出方法と動きベクトル検出回路の処理性能とから決定することができる。たとえば動きベクトル検出回路をプロセッサ型回路で実現する場合には、動きベクトル検出を行うための命令数と1命令あたりのサイクル数及びプロセッサの動作周波数から動きベクトル検出に必要とされる処理時間を得ることができる。また動きベクトル検出を専用の処理回路で実現する場合には処理回路のスループット及び動作周波数から処理時間を得ることができる。   The processing time of the motion vector detection circuit can be determined from the detection method of the motion vector and the processing performance of the motion vector detection circuit. For example, when the motion vector detection circuit is realized by a processor type circuit, the processing time required for motion vector detection is obtained from the number of instructions for performing motion vector detection, the number of cycles per instruction, and the operating frequency of the processor. be able to. When motion vector detection is realized by a dedicated processing circuit, the processing time can be obtained from the throughput and operating frequency of the processing circuit.

また、動きベクトルの探索範囲を広くして探索回数を多くすればするほど符号化効率は向上する反面、処理時間は長くなるため、動きベクトル検出の処理時間と符号化効率と相関がある。現在の一般的なフレーム間予測動画像符号化装置はフレーム内の動き補償を行う単位である各ブロックに同じ動きベクトル検出・動き補償方式を適用するのが一般的である。従って、各ブロックについての動きベクトル検出処理時間はほぼ一定と考えられ、動画像のフレームレート及びフレームサイズから動きベクトル検出のための処理時間を決定している。   Also, the wider the search range of motion vectors and the greater the number of searches, the better the coding efficiency, but the longer the processing time, there is a correlation between the processing time of motion vector detection and the coding efficiency. The current general inter-frame prediction video encoding apparatus generally applies the same motion vector detection / motion compensation method to each block, which is a unit for performing motion compensation in a frame. Accordingly, the motion vector detection processing time for each block is considered to be substantially constant, and the processing time for motion vector detection is determined from the frame rate and frame size of the moving image.

動きベクトルの検出方法を変化させることも提案されており、特許文献1には、1フレームの符号化終了後に、符号化目標時間と実際の符号化時間を求め、そのずれから次フレームの処理時間と動きベクトル検出方法を決定して、実時間での符号化を実現する動き補償予測方式が提案されている。また特許文献2には、動きベクトル探索の過程において動きベクトル候補に対する閾値を設けることにより演算量を最適化し、余剰となった演算量を次の動きベクトルを得るのに必要な演算量に加え次の動きベクトルの探索範囲を広くする動画像符号化方法が提案されている。   It has also been proposed to change the motion vector detection method. Patent Document 1 obtains an encoding target time and an actual encoding time after the end of encoding of one frame, and calculates the processing time of the next frame from the deviation. A motion compensation prediction method that determines a motion vector detection method and realizes encoding in real time has been proposed. In Patent Document 2, the calculation amount is optimized by providing a threshold for motion vector candidates in the motion vector search process, and the excess calculation amount is added to the calculation amount necessary to obtain the next motion vector. There has been proposed a video encoding method that widens the search range of motion vectors.

また近年新しく定められたH.264ビデオ動画像標準符号化方式においては符号化効率を更に向上させるために、動き補償を行う単位領域(予測ブロック又は動き補償単位)の大きさを適応的に変化させる方式が定められている。図10にH.264符号化方式におけるフレーム間予測の概念図を示す。図6に示したMPEG−2方式では動き補償単位の大きさが16画素×16ライン固定と定められていたのに対し、H.264符号化方式では図のように符号化単位である16画素×16ラインのマクロブロックを様々な分割方法により分割し、分割した領域を動き補償単位とする動き補償方式が定められており、動き補償の自由度が高まっている。   In addition, recently established H.264 In the H.264 video standard encoding system, in order to further improve the encoding efficiency, a system for adaptively changing the size of a unit region (predicted block or motion compensation unit) for performing motion compensation is defined. FIG. The conceptual diagram of the prediction between frames in a H.264 encoding system is shown. In the MPEG-2 system shown in FIG. 6, the size of the motion compensation unit is determined to be fixed at 16 pixels × 16 lines. In the H.264 encoding method, as shown in the figure, a 16 pixel × 16 line macroblock, which is an encoding unit, is divided by various division methods, and a motion compensation method using the divided area as a motion compensation unit is defined. The degree of freedom of compensation is increasing.

この動き補償単位の大きさと符号量には相関がある。動画符号化方式における符号量の構成要素は以下の3つに分類される。
1)直交変換係数の符号量
2)動きベクトルの符号量
3)動きベクトル以外のヘッダ情報の符号量
There is a correlation between the size of the motion compensation unit and the code amount. The constituent elements of the code amount in the moving image encoding method are classified into the following three.
1) Code amount of orthogonal transform coefficient 2) Code amount of motion vector 3) Code amount of header information other than motion vector

直交変換係数の符号量は量子化スケール値を大きくすることにより削減可能である反面、画質が劣化してしまうという問題がある。動きベクトルの符号量は動きベクトルの数と動きベクトル検出の結果及び周辺マクロブロックにおける動きベクトルから一意に決定される。また、ヘッダ情報については直交変換係数、動きベクトルに比べると符号量は小さく、またヘッダ情報を削減することは一般に難しい。よって画質を劣化させずに符号化効率を向上させるかは直交変換係数と動きベクトルの符号量をいかに効率良く減らすかに左右される。   Although the code amount of the orthogonal transform coefficient can be reduced by increasing the quantization scale value, there is a problem that the image quality deteriorates. The code amount of the motion vector is uniquely determined from the number of motion vectors, the result of motion vector detection, and the motion vectors in the surrounding macroblocks. Also, the header information has a smaller code amount than the orthogonal transform coefficient and motion vector, and it is generally difficult to reduce the header information. Therefore, whether to improve the coding efficiency without degrading the image quality depends on how efficiently the code amounts of the orthogonal transform coefficient and the motion vector are reduced.

特開2002−112274号公報JP 2002-112274 A 特開2004−048512号公報JP 2004-048512 A

特許文献1記載の手法においては動画像フレーム内のブロック毎の動き情報を考慮に入れずに各ブロックの動きベクトル検出のための処理時間を決定している。そのため、あるブロックにおいては処理時間が無駄に消費され、別のブロックにおいては処理時間が足りないために符号量を十分に削減できないという問題が生じていた。たとえばほとんど動きの無いブロックにおいては一般に動きベクトル検出の早い段階で最適な動きベクトルが検出できるので、処理時間を多くしても少なくしても(動きベクトルの探索回数が少なくても多くても)符号化効率はあまり変化しない。一方、動きの激しいブロックにおいては処理時間を多くすればする程、すなわち動きベクトルの探索範囲を広くして探索回数を多くすればするほど最適な動きベクトルを検出できる可能性が高くなり、符号化効率が向上する。   In the method described in Patent Document 1, the processing time for detecting the motion vector of each block is determined without taking into account the motion information for each block in the moving image frame. For this reason, there is a problem that the processing time is wasted in a certain block, and the processing time is insufficient in another block, so that the code amount cannot be reduced sufficiently. For example, an optimum motion vector can be detected at an early stage of motion vector detection in a block having almost no motion, so that the processing time can be increased or decreased (the number of motion vector searches is small or large). The coding efficiency does not change much. On the other hand, in blocks with intense motion, the longer the processing time, that is, the wider the motion vector search range and the greater the number of searches, the more likely it is that an optimal motion vector can be detected. Efficiency is improved.

また特許文献2記載の手法においては画面全体の情報を考慮していない。よって画面全体に動きがない場合にフレーム全体の処理時間が短くなり、処理時間が無駄になってしまう可能性がある。例えば「他のブロックに動きの激しい箇所がある場合にのみ動きの少ない領域の処理時間を少なくする」というような適応的な処理を実現することは困難である。   In the method described in Patent Document 2, information on the entire screen is not taken into consideration. Therefore, when there is no movement on the entire screen, the processing time of the entire frame is shortened, and the processing time may be wasted. For example, it is difficult to realize an adaptive process such as “reducing the processing time of a region with little motion only when another block has a portion with high motion”.

また、H.264符号化方式に関し、直交変換係数と動きベクトルの両方を効率的に削減するような動き補償単位の決定に関する手法は確立されていないのが現状である。一つの手法としてH.264符号化方式において規定されているすべての動き補償単位について符号化を行い、最終的に最も符号量の少ない動き補償単位を最適な動き補償単位として決定する手法が考えられる。しかしこのような全探索的手法では、処理が増大するため、リアルタイム符号化を実現するには回路規模が莫大になり、また限られた回路規模においてはリアルタイム符号化を実現することができなくなってしまう。   H. With respect to the H.264 encoding method, a method for determining a motion compensation unit that efficiently reduces both the orthogonal transform coefficient and the motion vector has not been established. One technique is H.264. A method may be considered in which coding is performed for all motion compensation units defined in the H.264 coding scheme, and the motion compensation unit with the smallest code amount is finally determined as the optimum motion compensation unit. However, in such a full-search method, the processing increases, so the circuit scale becomes enormous to realize real-time encoding, and real-time encoding cannot be realized in a limited circuit scale. End up.

本発明はこのような従来技術の問題点に鑑みなされたものであり、その目的は、符号化効率のさらなる向上に寄与する動きベクトルの検出を可能とすることにある。   The present invention has been made in view of such problems of the prior art, and an object thereof is to enable detection of a motion vector that contributes to further improvement in coding efficiency.

本発明によれば、上述の目的は、参照フレーム画像に対する入力フレーム画像の動きベクトルを、入力フレーム画像を構成する領域毎に検出する動きベクトル検出処理のための時間を領域毎に決定する動きベクトル検出処理時間算出装置であって、入力フレーム画像の領域と、対応する参照フレーム画像の領域とから、当領域に対する動き補償難易度を求める動き補償難易度算出手段と、入力フレーム画像全体に対して与えられる動きベクトル検出処理時間を、動き補償難易度の大きい領域には動き補償難易度の小さい領域よりも長い時間となるように割り当てることにより領域の各々に対する動きベクトル検出処理時間を決定する処理時間決定手段を有することを特徴とする動きベクトル検出処理時間算出装置によって達成される。   According to the present invention, the above-described object is to provide a motion vector that determines, for each region, a time for motion vector detection processing for detecting the motion vector of the input frame image with respect to the reference frame image for each region constituting the input frame image. A detection processing time calculation device, comprising: a motion compensation difficulty level calculating means for determining a motion compensation difficulty level for an area of an input frame image and a corresponding reference frame image area; and the entire input frame image A processing time for determining a motion vector detection processing time for each of the regions by assigning a given motion vector detection processing time to a region having a large motion compensation difficulty so as to be longer than a region having a small motion compensation difficulty This is achieved by a motion vector detection processing time calculation device characterized by having a determining means.

また、上述の目的は、本発明の動きベクトル検出処理時間算出装置と、領域に対して決定された処理時間を領域内に均等に適用して領域内の動きベクトルを検出する検出手段を有する動きベクトル検出装置によっても達成される。   In addition, the object described above is a motion having the motion vector detection processing time calculation apparatus according to the present invention and a detecting means for detecting a motion vector in the region by equally applying the processing time determined for the region in the region. It is also achieved by a vector detection device.

また、上述の目的は、本発明の動きベクトル検出装置を用いて検出した動きベクトルを用い、入力フレーム画像の動き補償フレーム間予測符号化を行う符号化装置によっても達成される。   The above-described object is also achieved by an encoding apparatus that performs motion compensation interframe predictive encoding of an input frame image using a motion vector detected by using the motion vector detection apparatus of the present invention.

以上の構成により、本発明によれば、入力フレーム画像の領域毎に動き補償難易度を求め、動き補償難易度に応じて動きベクトルの検出方法や検出範囲を決定することにより、効率の良いフレーム間予測動画像符号化に寄与することができる。   With the above configuration, according to the present invention, an efficient frame is obtained by obtaining a motion compensation difficulty level for each area of an input frame image and determining a motion vector detection method and detection range according to the motion compensation difficulty level. It can contribute to inter prediction video coding.

<<第1の実施形態>>
以下、図面を参照して本発明の好ましい実施形態について説明する。
図1は本発明の一実施形態にかかるフレーム間予測動画像符号化装置に含まれる、動きベクトル検出器の処理時間算出器210の構成例を示すブロック図である。また、図15は、本実施形態にかかるフレーム予測動画像符号化装置における動きベクトル検出方法決定処理を説明するフローチャートである。
<< First Embodiment >>
Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of a processing time calculator 210 of a motion vector detector included in an inter-frame prediction video encoding apparatus according to an embodiment of the present invention. FIG. 15 is a flowchart for explaining motion vector detection method determination processing in the frame predictive video encoding apparatus according to this embodiment.

処理時間算出器210は、減算器101、空間微分器102、領域内最大動き補償難易度算出器103、記憶装置104及び処理時間算出器105を含む。減算器101は記憶装置209から出力される参照フレーム(再構成フレーム)と入力フレームとの差分値を計算し、差分値を空間微分器102へ出力する(S101)。なお、本実施形態において動き補償難易度算出及び動きベクトル検出は動画像データの輝度値成分のみを用いて行われるとする。空間微分器102は差分の変化を抽出するため差分値に空間微分演算を施し、画素位置における差分の空間微分値を、画素毎の動き補償難易度として出力する(S103)。ここで空間微分器102においては水平方向、垂直方向独立に空間微分演算を行う方式を採用しているが、差分の変化を抽出可能な任意の方式により空間微分を行うことができる。   The processing time calculator 210 includes a subtractor 101, a spatial differentiator 102, an intra-region maximum motion compensation difficulty level calculator 103, a storage device 104, and a processing time calculator 105. The subtractor 101 calculates a difference value between the reference frame (reconstructed frame) output from the storage device 209 and the input frame, and outputs the difference value to the spatial differentiator 102 (S101). In the present embodiment, it is assumed that the motion compensation difficulty level calculation and the motion vector detection are performed using only the luminance value component of the moving image data. The spatial differentiator 102 performs a spatial differential operation on the difference value in order to extract a change in the difference, and outputs the spatial differential value of the difference at the pixel position as a motion compensation difficulty level for each pixel (S103). Here, the spatial differentiator 102 employs a method of performing spatial differentiation operation in the horizontal direction and the vertical direction independently, but spatial differentiation can be performed by any method capable of extracting a change in difference.

領域内最大動き補償難易度算出器103は、入力された画素毎の動き補償難易度のうち、予め定めた領域内での最大値を、領域の動き補償難易度として記憶装置104に記憶する(S105)。この「領域」はフレーム内に複数存在する、処理時間を与える単位であり、「4マクロブロック(MPEG−2方式では符号化単位かつ動き補償単位)を一つの「領域」にする」等、ユーザーが符号化方式等に応じて任意に設定できるものである。この「領域」が小さくなれば細かい処理時間の割り当てが可能である反面、処理時間算出のための計算が煩雑となる。逆にマクロブロックより大きな「領域」を単位に動き補償難易度を求めることで、より高速に領域毎の処理時間を計算し、各領域に最適な処理時間を割り振ることが可能となる。   The intra-region maximum motion compensation difficulty calculator 103 stores, in the storage device 104, the maximum value in a predetermined region among the input motion compensation difficulty for each pixel as the motion compensation difficulty of the region ( S105). This "area" is a unit that gives a processing time, and there are a plurality of "areas" in the frame. For example, "4 macroblocks (encoding unit and motion compensation unit in MPEG-2 system) are set as one" area "". Can be arbitrarily set according to the encoding method or the like. If this “region” becomes small, it is possible to assign a fine processing time, but the calculation for calculating the processing time becomes complicated. Conversely, by obtaining the motion compensation difficulty level in units of “areas” that are larger than the macroblock, it is possible to calculate the processing time for each area at a higher speed and allocate the optimum processing time to each area.

フレーム内における全ての「領域」についての動き補償難易度を算出し(S107)、記憶装置104に記憶されると、処理時間算出器105は記憶装置104から読み出した各「領域」の動き補償難易度DMCijを用いて次式(1)のように各「領域」における動きベクトル検出のための処理時間TMCijを算出する(S109、S111)。ここで添え字i,jは各領域のフレーム内における位置(例えば垂直、水平方向の番号)を示している。
TMCij=(DMCij*LMCtotal)/ΣDMCij (1)
When the motion compensation difficulty level for all “regions” in the frame is calculated (S107) and stored in the storage device 104, the processing time calculator 105 reads the motion compensation difficulty for each “region” read from the storage device 104. Using the degree DMC ij , the processing time TMC ij for detecting the motion vector in each “region” is calculated as in the following equation (1) (S109, S111). Here, the subscripts i and j indicate positions (for example, numbers in the vertical and horizontal directions) in the frame of each region.
TMC ij = (DMC ij * LMC total ) / ΣDMC ij (1)

ここで、LMCtotalは動画のフレームレート(例えば30フレーム/秒)を保証するために許容されるフレームあたりのサイクル数であり、前述した動きベクトル検出処理部の処理性能によって決定される変数である。分母のΣDMCijはフレーム内における各「領域」の動き補償難易度の総和(フレーム全体に対する動き補償難易度)を示している。このように動きベクトル検出部の処理性能から決定される1フレーム当たりのサイクル数を、動き補償難易度に応じて各領域に比例配分することにより、各領域における動きベクトル検出のための処理時間を決定している。 Here, LMC total is the number of cycles per frame allowed to guarantee the frame rate (for example, 30 frames / second) of a moving image, and is a variable determined by the processing performance of the motion vector detection processing unit described above. . The denominator ΣDMC ij represents the sum of the motion compensation difficulty levels of each “region” in the frame (motion compensation difficulty level for the entire frame). In this way, the number of cycles per frame determined from the processing performance of the motion vector detection unit is proportionally distributed to each region according to the degree of motion compensation difficulty, thereby reducing the processing time for motion vector detection in each region. Has been decided.

一般に画面内に動きがあるか否かは動きベクトルから判断が行われるが、動きベクトル情報を利用することはリアルタイム符号化においては困難である。本実施形態では、動きベクトル情報を利用する代わりに、処理対象フレームと再構成動画像のフレームとを用いた単純な演算からフレーム全体及び各領域の動き補償難易度を求めているため、リアルタイム符号化においても利用可能である。   Generally, whether or not there is motion in the screen is determined from a motion vector, but it is difficult to use motion vector information in real-time encoding. In this embodiment, instead of using the motion vector information, the motion compensation difficulty level of the entire frame and each region is obtained from a simple calculation using the processing target frame and the frame of the reconstructed moving image. It can also be used in

本実施形態では、具体的には差分の算出と、差分値に対する空間微分という単純な簡単な計算により、フレーム全体及び各領域の動き補償難易度を求めている。一般に動きが無いか非常に少ない領域ではこの差分の空間微分値は零に近くなり、逆に動きがある箇所程この値は大きくなる。よって、この差分の空間微分値が小さい画素からなる領域は動きが少ない領域であり、短時間の動きベクトル検出処理により最適な動きベクトルを検出しやすい領域と考えられる(以下、このような領域を動き補償難易度が低い領域と言う)。   In the present embodiment, specifically, the motion compensation difficulty level of the entire frame and each region is obtained by simple calculation of difference calculation and spatial differentiation with respect to the difference value. In general, in a region where there is no motion or very little, the spatial differential value of this difference is close to zero, and conversely, this value increases as there is motion. Therefore, an area composed of pixels having a small spatial differential value of the difference is an area where there is little motion, and it is considered that an optimal motion vector can be easily detected by a short-time motion vector detection process (hereinafter, such an area is referred to as an area). It is said to be an area where motion compensation difficulty is low).

逆に、差分の空間微分値が大きい画素を含む領域では動きが大きく生じているので、処理時間をかけて動きベクトルを検出し、符号化効率を向上させるべき領域であると考えられる(以下、このような領域を動き補償難易度が高い領域と言う)。このように、本実施形態において動き補償難易度は、動きの大きさを表す情報であると考えることができる。もちろん、動き補償難易度、すなわち動きベクトルの検出の困難度と相関があれば、動きの大きさ以外の要因を用いて動き保証難易度を求めても良い。   On the other hand, since a large amount of motion is generated in a region including a pixel having a large spatial differential value of the difference, it is considered that the region should be improved in coding efficiency by detecting a motion vector over a processing time (hereinafter, referred to as “encoding efficiency”) Such a region is called a region having a high degree of motion compensation difficulty). Thus, in the present embodiment, the motion compensation difficulty level can be considered as information representing the magnitude of motion. Of course, if there is a correlation with the motion compensation difficulty level, that is, the motion vector detection difficulty level, the motion guarantee difficulty level may be obtained using a factor other than the motion magnitude.

この動き補償難易度はフレーム全体において計算されるべき値であるが、動画像のフレームサイズが大きい場合に動き補償難易度の計算が複雑であると、符号化処理装置全体の処理速度低下を招いてしまう。しかし、本実施形態のように、動き補償難易度の計算を差分の算出と空間微分の適用といった簡易な計算で実現することで、高速にフレーム全体の動き補償難易度を計算することが可能となる。   This motion compensation difficulty level is a value that should be calculated for the entire frame. However, if the motion compensation difficulty level is complicated when the frame size of the moving image is large, the processing speed of the entire coding processing apparatus will be reduced. I will. However, it is possible to calculate the motion compensation difficulty level of the entire frame at high speed by realizing the calculation of the motion compensation difficulty level with a simple calculation such as calculating the difference and applying spatial differentiation as in this embodiment. Become.

そして、各領域及びフレーム全体に対して求められた動き補償難易度と動きベクトル検出部の処理性能とから、各領域の動きベクトル検出処理に許容する処理時間を決定する。動き補償難易度が大きい領域ほど、処理時間をかけて動きベクトルを探索することにより、従来よりも精度の良い動きベクトル検出が可能となる可能性が高くなり、結果として符号化効率の向上が期待される。また、フレーム当たりの処理時間を増加させる必要がないため、リアルタイム符号化のように処理速度が要求される用途には特に好適に適用可能である。   Then, the processing time allowed for the motion vector detection processing of each region is determined from the motion compensation difficulty level obtained for each region and the entire frame and the processing performance of the motion vector detection unit. In areas where the degree of motion compensation difficulty is high, searching for motion vectors over the processing time increases the possibility of more accurate motion vector detection than before, and as a result, improved coding efficiency is expected. Is done. In addition, since it is not necessary to increase the processing time per frame, the present invention is particularly suitable for applications that require a processing speed such as real-time encoding.

図2は図1で示した動きベクトル検出器の処理時間算出器をフレーム内予測動画像符号化装置に適用した場合の構成図であり、図示されるように減算器201、直交変換器202、量子化器203、スキャン処理器204、エントロピー符号化器205、逆量子化器206、逆直交変換器207、加算器208、記憶装置209、動きベクトル検出の処理時間算出器210、動きベクトル検出器211、参照領域生成器212を含む。   FIG. 2 is a block diagram when the processing time calculator of the motion vector detector shown in FIG. 1 is applied to an intra-frame predictive video encoding device. As shown in the figure, a subtracter 201, an orthogonal transformer 202, Quantizer 203, scan processor 204, entropy encoder 205, inverse quantizer 206, inverse orthogonal transformer 207, adder 208, storage device 209, motion vector detection processing time calculator 210, motion vector detector 211 and a reference region generator 212.

なお、201〜209及び212の各構成は、図7における701〜709及び711の各構成と同一でよいため、ここでの説明は省略する。   In addition, since each structure of 201-209 and 212 may be the same as each structure of 701-709 and 711 in FIG. 7, description here is abbreviate | omitted.

図2において動きベクトル検出の処理時間算出器210は、上述のように、記憶装置209から読み出された再構成フレーム及び入力フレームから、入力フレームの各「領域」についての動き補償難易度及びその合計であるフレーム全体の動き補償難易度を計算する。そして、これらの値と予め求めておいた動きベクトル検出器の処理性能値を用い、式(1)に基づいて各領域における動きベクトル検出の処理時間を決定し、動きベクトル検出器211へ出力する(S101〜S111)。   In FIG. 2, the motion vector detection processing time calculator 210 calculates the motion compensation difficulty level for each “region” of the input frame from the reconstructed frame and the input frame read from the storage device 209 and Calculate the motion compensation difficulty for the entire frame, which is the sum. Then, using these values and the processing performance value of the motion vector detector determined in advance, the processing time of motion vector detection in each region is determined based on the equation (1), and output to the motion vector detector 211. (S101 to S111).

動きベクトル検出器211は、与えられた処理時間から閾値T1、T2(T1<T2)を用いて動きベクトル検出方式を決定する(S113)。   The motion vector detector 211 determines a motion vector detection method using the threshold values T1 and T2 (T1 <T2) from the given processing time (S113).

図3は、動きベクトル検出器211における動きベクトル検出方式の決定方法の例を模式的に示す図である。図3の例においては、与えられた各領域の処理時間と閾値との大小関係に応じて、動きベクトル探索範囲の異なる3種類のベクトル検出方式の中から1つを決定する。図3に示すように、与えられる処理時間TMCijが大きいほど広い動きベクトル探索範囲について動きベクトル検出を行う。 FIG. 3 is a diagram schematically illustrating an example of a motion vector detection method determination method in the motion vector detector 211. In the example of FIG. 3, one of three types of vector detection schemes having different motion vector search ranges is determined according to the magnitude relationship between the processing time of each given area and the threshold value. As shown in FIG. 3, motion vector detection is performed for a wider motion vector search range as the given processing time TMC ij is longer.

このように、動きベクトル探索範囲のみが異なる動きベクトル検出方式から1つを決定する場合、動きベクトル探索範囲と探索処理に必要な時間を求め、その時間に基づいて閾値T1、T2を定めることができる。   In this way, when one is determined from motion vector detection methods that differ only in the motion vector search range, the motion vector search range and the time required for the search process are obtained, and thresholds T1 and T2 can be determined based on the time. it can.

図4は、図2に示す動画像符号化装置が1フレームの画像データを処理する際に各部が行う処理を時系列で示した図である。
図4に示すように、本実施形態の動画像符号化装置では、処理対象フレームの処理を行う前に、動きベクトル検出器の処理時間算出器210において処理対象フレームの動き補償難易度を決定する。そして、この決定結果に基づいて、符号化効率が向上するようにフレームの各「領域」における動きベクトル検出の処理時間を割り振る。なお、図4では、動き補償難易度を与える「領域」が、マクロブロックと等しい場合を示している。
FIG. 4 is a diagram showing, in time series, processing performed by each unit when the moving picture encoding apparatus shown in FIG. 2 processes one frame of image data.
As shown in FIG. 4, in the moving picture encoding apparatus of the present embodiment, the processing time calculator 210 of the motion vector detector determines the motion compensation difficulty level of the processing target frame before processing the processing target frame. . Based on the determination result, the motion vector detection processing time in each “region” of the frame is allocated so as to improve the encoding efficiency. FIG. 4 shows a case where the “region” giving the motion compensation difficulty level is equal to the macroblock.

従来の動画像符号化装置について説明した同様の図9においては、各「領域」に対する動きベクトル検出器の処理時間が一定であったのに対し、図4においては各領域の動きベクトル検出器の処理時間が異なっていることが示されている。またこの動きベクトル検出の処理時間算出器210は動きベクトル検出器211及び直交変換器202等の他の処理部と並行して動作することが可能であり、符号化装置の処理速度を低下させることなく各領域に最適な処理時間を決定できている様子がわかる。   In the same FIG. 9 explaining the conventional moving image coding apparatus, the processing time of the motion vector detector for each “region” is constant, whereas in FIG. It is shown that the processing times are different. In addition, the motion vector detection processing time calculator 210 can operate in parallel with other processing units such as the motion vector detector 211 and the orthogonal transformer 202, thereby reducing the processing speed of the encoding device. It can be seen that the optimum processing time can be determined for each region.

また本実施形態においては、異なる動きベクトル検出方式の決定を、与えられた処理時間に応じた動きベクトル探索範囲を適応的な変化により実現している。しかし、処理時間に応じた選択対象となる動きベクトル検出方式は動きベクトル探索範囲のみが異なる方式に限定されない。例えば、MPEG−4方式で用いられているような、単位領域あたりで定義する動きベクトルの数を、処理時間に応じて異ならせるようにしても良い。   In this embodiment, the determination of a different motion vector detection method is realized by adaptively changing the motion vector search range corresponding to a given processing time. However, the motion vector detection method to be selected according to the processing time is not limited to a method in which only the motion vector search range is different. For example, the number of motion vectors defined per unit area as used in the MPEG-4 system may be varied depending on the processing time.

いずれの場合であっても、動きベクトル検出方式の各候補を適用した際に必要となる処理時間に基づいて閾値T1、T2を決定すればよい。また、4種類以上の方式から1つを選択することも可能であり、この場合には閾値の数を増やせばよい。   In any case, the threshold values T1 and T2 may be determined based on the processing time required when applying each candidate of the motion vector detection method. It is also possible to select one from four or more types. In this case, the number of thresholds may be increased.

フレーム内の各領域に対する処理時間と発生する符号量を示す図6を用いて、本実施形態における効果について更に説明する。図6(a)に示すように、従来技術においては各領域の処理時間が一定であったため動きの小さい領域では処理時間内に精度の良い動きベクトルが検出でき、符号量が小さくなるが、一定の処理時間内に精度の良い動きベクトルが検出できないような動きの激しい領域ではあまり符号量が削減できなかった。   The effects of this embodiment will be further described with reference to FIG. 6 showing the processing time for each region in the frame and the amount of code generated. As shown in FIG. 6A, since the processing time of each region is constant in the prior art, a highly accurate motion vector can be detected within the processing time in a region with small motion, and the code amount is small, but it is constant. However, the code amount could not be reduced so much in a region where the motion was intense so that a highly accurate motion vector could not be detected within this processing time.

これに対し、本実施形態によれば、動きの激しい領域には動きの少ない領域よりも長い処理時間を割り振ることで、フレーム全体に与えられた処理時間を効率よく利用することが可能である。そのため、もともと少ない処理時間で精度の良い動きベクトルが検出できる動きの少ない領域の符号化量に対する影響を抑えながら、動きの大きな領域で検出する動きベクトルの精度を向上させることが可能で、フレーム全体での符号化効率を向上させることができる。さらに、動きベクトルの検出精度のばらつきが抑制されるため、フレーム内の各領域における符号量のばらつきを抑えることが可能となる。   On the other hand, according to the present embodiment, it is possible to efficiently use the processing time given to the entire frame by allocating a longer processing time to an area where the movement is intense than an area where there is little movement. Therefore, it is possible to improve the accuracy of motion vectors detected in areas with large motion while suppressing the influence on the coding amount of areas with low motion, which can detect highly accurate motion vectors with less processing time. Encoding efficiency can be improved. Furthermore, since variation in motion vector detection accuracy is suppressed, it is possible to suppress variation in code amount in each region in the frame.

結果として、図6(b)に示すように、各領域の符号量が一定になるように近づき、画面内における符号量制御を行う場合に制御しやすく、結果として更なる高画質化を実現することが可能となる。また、各領域の動きベクトル検出の処理時間を高速に決定することが可能となり、よりリアルタイム符号化に適した構成とすることができる。   As a result, as shown in FIG. 6B, the code amount of each region approaches so that the code amount is constant, and it is easy to control when performing the code amount control in the screen, and as a result, further higher image quality is realized. It becomes possible. In addition, it is possible to determine the processing time of motion vector detection in each region at high speed, and a configuration suitable for real-time encoding can be achieved.

また、本実施形態の更なる特徴として、拡張性を挙げることができる。本実施形態における各領域の処理時間の決定手法は動きベクトル検出器の実装形態に非依存であり、動きベクトル検出器がプロセッサにより実現される場合でも、専用回路により実現される場合でも適用可能である。さらに動きベクトル検出処理部の処理性能は実装形態に応じて変えることが可能である。よってフレーム間予測動画像符号化装置において動きベクトル検出器をより高性能なものに取り替え、動きベクトル検出処理部の処理性能の値を変えることにより同一の構成で更なる高画質化が可能となる。   Further, expandability can be given as a further feature of the present embodiment. The method for determining the processing time of each region in this embodiment is independent of the motion vector detector implementation, and can be applied when the motion vector detector is implemented by a processor or a dedicated circuit. is there. Furthermore, the processing performance of the motion vector detection processing unit can be changed according to the implementation form. Therefore, by replacing the motion vector detector with a higher-performance one in the inter-frame prediction video encoding apparatus and changing the processing performance value of the motion vector detection processing unit, it is possible to further improve the image quality with the same configuration. .

<<第2の実施形態>>
本実施形態は、第1の実施形態で用いた動きベクトル検出の処理時間算出器210を用いて、動きベクトルの検出を行う動き補償単位の大きさを決定することにより、H.264符号化方式などの動き補償単位の大きさが可変な符号化方式において、動き補償単位の適切な設定を可能とするものである。
<< Second Embodiment >>
In the present embodiment, the motion vector detection processing time calculator 210 used in the first embodiment is used to determine the size of a motion compensation unit for detecting a motion vector. In an encoding scheme in which the size of a motion compensation unit is variable, such as the H.264 encoding scheme, it is possible to appropriately set a motion compensation unit.

図11は本発明の第2の実施形態にかかるフレーム間予測動画像符号化装置の構成図であり、図2に示した第1の実施形態の符号化装置と同じ構成要素には同じ参照数字を付し、説明を省略する。図2と図11との比較から明らかなように、本実施形態に係る符号化装置では、動きベクトル検出の処理時間算出器210が出力する処理時間から動き補償単位の大きさを決定する動き補償単位算出器112を有することを特徴とする。   FIG. 11 is a block diagram of an inter-frame predictive video coding apparatus according to the second embodiment of the present invention, and the same reference numerals are used for the same components as those of the first embodiment shown in FIG. The description is omitted. As is clear from the comparison between FIG. 2 and FIG. 11, in the encoding apparatus according to the present embodiment, motion compensation for determining the size of the motion compensation unit from the processing time output from the processing time calculator 210 for motion vector detection. A unit calculator 112 is provided.

本実施形態に係るフレーム間予測動画像符号化装置において、動きベクトル検出の処理時間算出器210は、4マクロブロック(32画素×32ライン)を動き補償難易度(動きの程度を与える情報)を与える「領域」としている他は第1の実施形態と同様に式(1)から各「領域」に対する処理時間TMCijを算出する。 In the inter-frame prediction video encoding apparatus according to the present embodiment, the motion vector detection processing time calculator 210 determines the motion compensation difficulty (information that gives the degree of motion) for 4 macroblocks (32 pixels × 32 lines). The processing time TMC ij for each “region” is calculated from the equation (1) in the same manner as in the first embodiment except that the “region” is given.

一般に動きが無いか非常に少ない領域ではこの差分の空間微分値は零に近くなり、逆に動きがある箇所程この値は大きくなる。よって、この差分の空間微分値が小さい画素からなる領域は動きが少ない領域であり、大きな動き補償単位であっても動き補償により直交変換係数の符号量を十分削減することが可能であり、かつ定義される動きベクトルの数も少ないために動きベクトルの符号量も少なくなる。逆に動き補償の単位を小さくすると直交変換係数の符号量は十分削減できるが、動きベクトルの符号量が多くなってしまう可能性がある。従って、動きが少ない領域においては動き補償単位は大きい方が良いといえる。   In general, in a region where there is no motion or very little, the spatial differential value of this difference is close to zero, and conversely, this value increases as there is motion. Therefore, an area composed of pixels with a small spatial differential value of the difference is an area with little motion, and even with a large motion compensation unit, the code amount of the orthogonal transform coefficient can be sufficiently reduced by motion compensation, and Since the number of motion vectors defined is small, the code amount of the motion vector is also small. Conversely, if the unit of motion compensation is reduced, the code amount of the orthogonal transform coefficient can be sufficiently reduced, but the code amount of the motion vector may be increased. Therefore, it can be said that a larger motion compensation unit is better in a region where there is little motion.

逆に、差分の空間微分値が大きい画素を含む領域では動きが大きく生じている。動きが大きい場合に動き補償単位が大きいと動きベクトルの符号量はそれほど増加しないが、細かい動き補償ができないために動き補償後の残差が大きく、直交変換係数の符号量が膨大になってしまう。ここで動き補償単位を小さくすることにより動きベクトルの符号量は増加してしまうが、動きベクトル符号量の増加分以上に直交変換係数の符号量を削減することができる。従って、動きが大きい領域においては動き補償単位は小さい方が良いといえる。   On the other hand, a large amount of motion occurs in a region including pixels with a large spatial differential value of the difference. If the motion compensation unit is large and the motion compensation unit is large, the code amount of the motion vector does not increase so much. However, since fine motion compensation cannot be performed, the residual after motion compensation is large and the code amount of the orthogonal transform coefficient becomes enormous. . Here, by reducing the motion compensation unit, the code amount of the motion vector increases, but the code amount of the orthogonal transform coefficient can be reduced more than the increase in the motion vector code amount. Therefore, it can be said that the smaller the motion compensation unit is better in the region where the motion is large.

また動き補償単位と処理時間の関係という観点から見ると、動き補償単位を小さくすればするほど1フレームあたりの動きベクトルの数が多くなり、多くなった動きベクトルの回数だけ動きベクトル検出を行うため処理時間は長くなる。リアルタイム符号化を行うためには、動き補償単位を小さくするのには限界があり、動きベクトル検出器の処理性能を考慮しながら動き補償単位を決定しなければいけない。   Also, from the viewpoint of the relationship between the motion compensation unit and the processing time, the smaller the motion compensation unit, the more motion vectors per frame, and motion vector detection is performed by the number of motion vectors that have increased. Processing time becomes longer. In order to perform real-time encoding, there is a limit to reducing the motion compensation unit, and the motion compensation unit must be determined in consideration of the processing performance of the motion vector detector.

このような状況を鑑み、本実施形態においては、図12のように、抽出された動き情報が大きいところには処理時間を多く割り当てて動き補償の単位を小さくし、直交変換係数の符号量を削減する。   In view of such a situation, in the present embodiment, as shown in FIG. 12, a large amount of processing time is allocated to a portion where the extracted motion information is large to reduce the unit of motion compensation, and the code amount of the orthogonal transform coefficient is set. Reduce.

一方、抽出された動き情報が小さいところは処理時間を少なく割り当てて動き補償の単位を大きくし、直交変換係数の符号量及び動きベクトル双方の符号量を削減する。
このように抽出された動き情報に応じて動き補償単位を変化させることにより、符号化効率の高い、フレーム間予測動画像符号化装置をリアルタイムで実現することが可能となる。
On the other hand, when the extracted motion information is small, the processing time is allocated to be small to increase the unit of motion compensation, and the code amount of both the orthogonal transform coefficient and the motion vector is reduced.
By changing the motion compensation unit according to the motion information extracted in this way, it is possible to realize an inter-frame prediction video encoding device with high encoding efficiency in real time.

動き補償単位算出器112は、動きベクトル検出の処理時間算出器210から与えられた処理時間TMCijと、予め定めた閾値T1、T2、T3(T1<T2<T3)を用いて以下のように「領域」内の動き補償単位を決定する(図13)。
TMCij<T1の場合 :32画素×32ラインを動き補償単位とする
T1≦TMCij<T2の場合:16画素×16ラインを動き補償単位とする
T2≦TMCij<T3の場合:8画素×8ラインを動き補償単位とする
T3≦TMCijの場合 :4画素×4ラインを動き補償単位とする
このように、与えられた処理時間が多いほど動き補償単位が小さくなるように、各「領域」内の動き補償単位の大きさを決定する。
The motion compensation unit calculator 112 uses the processing time TMC ij given from the motion vector detection processing time calculator 210 and predetermined threshold values T1, T2, and T3 (T1 <T2 <T3) as follows. The motion compensation unit in the “region” is determined (FIG. 13).
When TMC ij <T1: T1 ≦ TMC ij <T2 with 32 pixels × 32 lines as a motion compensation unit: When T2 ≦ TMC ij <T3 with 16 pixels × 16 lines as a motion compensation unit: 8 pixels × When T3 ≦ TMC ij with 8 lines as motion compensation unit: 4 pixels × 4 lines with motion compensation unit As described above, each “region” is set so that the motion compensation unit becomes smaller as the given processing time increases. ”Is determined.

動き補償単位算出器112において決定された動き補償単位の大きさは動きベクトル検出器113及び参照領域生成器212へ出力される。動きベクトル検出器113においては与えられた動き補償単位で動きベクトル検索を行い、最も相関度が高いと判断された動きベクトルが参照領域生成器212へ出力される。   The magnitude of the motion compensation unit determined by the motion compensation unit calculator 112 is output to the motion vector detector 113 and the reference region generator 212. The motion vector detector 113 performs a motion vector search in a given motion compensation unit, and outputs a motion vector determined to have the highest degree of correlation to the reference region generator 212.

なおH.264符号化方式において最大の動き補償単位はマクロブロック(16画素×16ライン)であるが、本実施形態において動き補償単位が32画素×32ライン(内部に4つのマクロブロックを含む)と定められた場合は、32画素×32ラインで動きベクトル検出を行う。そして、32画素×32ラインの単位で決定された動きベクトルを内部の4つのマクロブロックに適用することで各マクロブロックの動きベクトルを決定する。このように標準符号化方式で定められていない動き補償単位についても定義し、動きベクトルの数を減らして処理を高速化する。結果として動きの激しいブロックほど処理時間を多く割り振ることになり、第1の実施形態と同様に符号化効率を向上させることが可能となる。   H. In the H.264 encoding method, the maximum motion compensation unit is a macroblock (16 pixels × 16 lines), but in this embodiment, the motion compensation unit is defined as 32 pixels × 32 lines (including four macroblocks inside). In such a case, motion vector detection is performed with 32 pixels × 32 lines. Then, the motion vector determined in units of 32 pixels × 32 lines is applied to the four internal macroblocks to determine the motion vector of each macroblock. In this way, motion compensation units not defined in the standard encoding method are also defined, and the number of motion vectors is reduced to speed up the processing. As a result, the processing time is allocated to the block with more intense motion, and the encoding efficiency can be improved as in the first embodiment.

参照領域生成器212においては決定された動きベクトルと動き補償単位を用いて動き補償を行うための参照動画像を生成し、減算器201へ出力する。   The reference region generator 212 generates a reference moving image for performing motion compensation using the determined motion vector and motion compensation unit, and outputs it to the subtractor 201.

第2の実施形態における動き補償領域の大きさ決定処理のフローチャートを図15に示す。この処理は、第1の実施形態におけるステップS113の代わりに、動き補償領域の大きさを算出するステップS201を実行する処理に相当する。
図14は、図11に示す動画像符号化装置が1フレームの画像データを処理する際に各部が行う処理を時系列で示した図である。
FIG. 15 is a flowchart of the motion compensation region size determination process in the second embodiment. This process corresponds to a process of executing step S201 for calculating the size of the motion compensation region instead of step S113 in the first embodiment.
FIG. 14 is a diagram showing, in time series, processing performed by each unit when the moving image encoding apparatus illustrated in FIG. 11 processes one frame of image data.

図14に示すように、本実施形態の動画像符号化装置では、処理対象フレームの処理を行う前に、動きベクトル検出器の処理時間算出器210において処理対象フレームの動き補償難易度を決定する。そして、この決定結果に基づいて、符号化効率が向上するようにフレームの各「領域」における動きベクトル検出の処理時間を割り振る。そして、この処理時間に基づいて動き補償単位算出器112が各「領域」内の動き補償単位の大きさを決定する。この一連の動き補償単位の決定処理は動きベクトル検出器113及び直交変換器202等、他の処理部と並行して動作することが可能であり、符号化装置の処理速度を低下させることなく各領域に最適な動き補償単位を決定することができる。
なお、図14では、動き補償難易度を与える「領域」が、マクロブロックと等しい場合を示している。
As shown in FIG. 14, in the moving picture encoding apparatus of the present embodiment, the processing time calculator 210 of the motion vector detector determines the motion compensation difficulty level of the processing target frame before processing the processing target frame. . Based on the determination result, the motion vector detection processing time in each “region” of the frame is allocated so as to improve the encoding efficiency. Based on this processing time, the motion compensation unit calculator 112 determines the size of the motion compensation unit in each “region”. This series of motion compensation unit determination processing can be operated in parallel with other processing units such as the motion vector detector 113 and the orthogonal transformer 202, and without reducing the processing speed of the encoding device. The optimal motion compensation unit for the region can be determined.
FIG. 14 shows a case where the “region” giving the motion compensation difficulty level is equal to the macroblock.

以上説明したように、本実施形態によれば、動画像データの動き情報に応じて各領域の動きベクトル検出処理部の処理時間を決定し、決定した処理時間を用いて動き補償単位の大きさを適応的に変化させることにより符号化効率を向上することができ、第1の実施形態と同様の効果を実現することが可能である。特に、動き補償単位の大きさが可変な符号化方式においては、本実施形態を適用することにより、効率的な符号化を実現することが可能である。   As described above, according to the present embodiment, the processing time of the motion vector detection processing unit of each region is determined according to the motion information of the moving image data, and the size of the motion compensation unit is determined using the determined processing time. By adaptively changing the coding efficiency, the coding efficiency can be improved, and the same effect as in the first embodiment can be realized. In particular, in an encoding method in which the size of a motion compensation unit is variable, it is possible to realize efficient encoding by applying this embodiment.

<<他の実施形態>>
図5は、本発明の第1又は第2の実施形態に係るフレーム間予測動画像符号化装置を適用したビデオカメラの構成例を示すブロック図である。
ビデオカメラ500は、図示するようにレンズ501、撮像素子502、信号処理回路503、記憶装置504、動画像符号化装置505、記録媒体506を含む。撮影対象から入力された映像はレンズ501を通して撮像素子502に入力され、映像信号に変換される。変換された映像信号は信号処理回路503において色空間変換やノイズ除去等が行われる。
<< Other Embodiments >>
FIG. 5 is a block diagram illustrating a configuration example of a video camera to which the inter-frame predictive video encoding device according to the first or second embodiment of the present invention is applied.
The video camera 500 includes a lens 501, an image sensor 502, a signal processing circuit 503, a storage device 504, a moving image encoding device 505, and a recording medium 506 as illustrated. An image input from an imaging target is input to the image sensor 502 through the lens 501 and converted into an image signal. The converted video signal is subjected to color space conversion, noise removal, and the like in the signal processing circuit 503.

信号処理回路503から出力された映像信号は処理速度を調整するために一時記憶装置504へ記憶される。記憶装置504から読み出された映像信号は動画像符号化装置505へ入力され、符号化データとして出力される。出力された符号化データは半導体メモリや光/磁気ディスク、磁気テープ等の記録媒体506に記録される。   The video signal output from the signal processing circuit 503 is stored in the temporary storage device 504 in order to adjust the processing speed. The video signal read from the storage device 504 is input to the moving image encoding device 505 and output as encoded data. The output encoded data is recorded on a recording medium 506 such as a semiconductor memory, an optical / magnetic disk, or a magnetic tape.

本実施形態におけるフレーム間予測動画像符号化装置を動画像符号化装置505として適用することにより符号化効率が向上するので、限られた容量の記録媒体506に対して同じ記録時間ならばより高画質の動画像を、また同一画質ならばより長時間記録することが可能となる。また高速なリアルタイム符号化が可能な構成となっているので一時記憶の記憶装置504の容量も小さくすることが可能となり、より安価にビデオカメラを構成することが可能となる。   Since the encoding efficiency is improved by applying the inter-frame prediction moving image encoding apparatus according to the present embodiment as the moving image encoding apparatus 505, the same recording time is required for a recording medium 506 having a limited capacity. A moving image with high image quality can be recorded for a longer time if the image quality is the same. In addition, since the configuration enables high-speed real-time encoding, the capacity of the temporary storage device 504 can be reduced, and a video camera can be configured at a lower cost.

また、前述した実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いて当該プログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムを実行することによって同等の機能が達成される場合も本発明に含む。   In addition, a software program that realizes the functions of the above-described embodiments is supplied from a recording medium directly or to a system or apparatus having a computer that can execute the program using wired / wireless communication. The present invention includes a case where an equivalent function is achieved by a computer executing the supplied program.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。   Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。   In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.

プログラムを供給するための記録媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記録媒体、MO、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−R、DVD−RW等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   As a recording medium for supplying the program, for example, a magnetic recording medium such as a flexible disk, a hard disk, a magnetic tape, MO, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-R, DVD- There are optical / magneto-optical storage media such as RW, and non-volatile semiconductor memory.

有線/無線通信を用いたプログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイル等、クライアントコンピュータ上で本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムデータファイル)を記憶し、接続のあったクライアントコンピュータにプログラムデータファイルをダウンロードする方法などが挙げられる。この場合、プログラムデータファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに配置することも可能である。   As a program supply method using wired / wireless communication, a computer program forming the present invention on a server on a computer network, or a computer forming the present invention on a client computer such as a compressed file including an automatic installation function A method of storing a data file (program data file) that can be a program and downloading the program data file to a connected client computer can be used. In this case, the program data file can be divided into a plurality of segment files, and the segment files can be arranged on different servers.

つまり、本発明の機能処理をコンピュータで実現するためのプログラムデータファイルを複数のユーザに対してダウンロードさせるサーバ装置も本発明に含む。   That is, the present invention includes a server device that allows a plurality of users to download a program data file for realizing the functional processing of the present invention on a computer.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件を満たしたユーザに対して暗号化を解く鍵情報を、例えばインターネットを介してホームページからダウンロードさせることによって供給し、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to the user, and key information for decrypting the encryption for a user who satisfies a predetermined condition is provided via a homepage via the Internet, for example. It is also possible to realize the program by downloading it from the computer and executing the encrypted program using the key information and installing it on the computer.

また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU of the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.

本発明の実施形態に係る動きベクトル検出の処理時間算出回路の構成例を示すブロック図である。It is a block diagram which shows the structural example of the processing time calculation circuit of the motion vector detection which concerns on embodiment of this invention. 本発明の第1の実施形態に係るフレーム間予測動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-frame prediction moving image encoder which concerns on the 1st Embodiment of this invention. 第1の実施形態に係るフレーム関与側道が符号化装置の動きベクトル検出方法の決定方法の例を示す図である。It is a figure which shows the example of the determination method of the motion vector detection method of the frame participation side road which concerns on 1st Embodiment of an encoding apparatus. 第1の実施形態に係る動画像符号化装置が1フレームの画像データを処理する際に各部が行う処理を時系列で示した図である。It is the figure which showed the process which each part performs in time series, when the moving image encoder which concerns on 1st Embodiment processes the image data of 1 frame. 本発明の実施形態に係るフレーム間予測動画像符号化装置を適用したビデオカメラの構成例を示すブロック図である。It is a block diagram which shows the structural example of the video camera to which the inter-frame prediction moving image encoder which concerns on embodiment of this invention is applied. 実施形態に係る動画像符号化装置と従来の動画像符号化装置における、フレーム内の各領域に対する処理時間と発生する符号量の関係を示す図である。It is a figure which shows the relationship between the processing time with respect to each area | region in a flame | frame, and the code amount to generate | occur | produce in the moving image encoder which concerns on embodiment, and the conventional moving image encoder. 従来のフレーム間予測動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the conventional inter-frame prediction moving image encoder. MPEG−2方式におけるフレーム間予測方法を模式的に示す図である。It is a figure which shows typically the inter-frame prediction method in MPEG-2 system. 従来の動画像符号化装置が1フレームの画像データを処理する際に各部が行う処理を時系列で示した図である。It is the figure which showed the process which each part performs when the conventional moving image encoding apparatus processes the image data of 1 frame in time series. H.264符号化方式におけるフレーム間予測方法を模式的に示す図である。H. It is a figure which shows typically the inter-frame prediction method in a H.264 encoding system. 本発明の第2の実施形態に係るフレーム間予測動画像符号化装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the inter-frame prediction moving image encoder which concerns on the 2nd Embodiment of this invention. 第2の実施形態に係るフレーム間予測動画像符号化装置における、動き補償単位の大きさの設定方法を模式的に示す図である。It is a figure which shows typically the setting method of the magnitude | size of a motion compensation unit in the inter-frame prediction moving image encoder which concerns on 2nd Embodiment. 第2の実施形態に係るフレーム間予測動画像符号化装置における、動き補償単位の大きさの設定方法の具体例を示す図である。It is a figure which shows the specific example of the setting method of the magnitude | size of a motion compensation unit in the inter-frame prediction moving image encoder which concerns on 2nd Embodiment. 第2の実施形態に係る動画像符号化装置が1フレームの画像データを処理する際に各部が行う処理を時系列で示した図である。It is the figure which showed the process which each part performs in time series, when the moving image encoder which concerns on 2nd Embodiment processes the image data of 1 frame. 本発明の実施形態に係るフレーム間予測動画像符号化装置の要部動作を説明するフローチャートである。It is a flowchart explaining the principal part operation | movement of the inter-frame prediction moving image encoder which concerns on embodiment of this invention.

Claims (10)

参照フレーム画像に対する入力フレーム画像の動きベクトルを、前記入力フレーム画像を構成する領域毎に検出する動きベクトル検出処理のための時間を前記領域毎に決定する動きベクトル検出処理時間算出装置であって、
前記入力フレーム画像の領域と、対応する前記参照フレーム画像の領域とから、当該領域に対する動き補償難易度を求める動き補償難易度算出手段と、
前記入力フレーム画像全体に対して与えられる動きベクトル検出処理時間を、前記動き補償難易度の大きい領域には前記動き補償難易度の小さい領域よりも長い時間となるように割り当てることにより前記領域の各々に対する動きベクトル検出処理時間を決定する処理時間決定手段を有することを特徴とする動きベクトル検出処理時間算出装置。
A motion vector detection processing time calculation device for determining a time for a motion vector detection process for detecting a motion vector of an input frame image with respect to a reference frame image for each region constituting the input frame image,
Motion compensation difficulty level calculating means for determining a motion compensation difficulty level for the area from the input frame image area and the corresponding reference frame image area;
Each of the regions is assigned by assigning a motion vector detection processing time given to the entire input frame image to a region having a large motion compensation difficulty so as to have a longer time than a region having a small motion compensation difficulty. A motion vector detection processing time calculation device comprising: processing time determination means for determining a motion vector detection processing time for.
前記動き補償難易度が、前記入力フレーム画像の前記領域の動きの大きさを表す情報であり、
前記処理時間決定手段が、前記入力フレーム画像全体に対して与えられる動きベクトル検出処理時間を、動きの大きい領域には動きの小さい領域よりも長い時間となるように割り当てることにより前記領域の各々に対する動きベクトル検出処理時間を決定することを特徴とする請求項1記載の動きベクトル検出処理時間算出装置。
The motion compensation difficulty is information indicating the magnitude of motion of the region of the input frame image,
The processing time determination means assigns the motion vector detection processing time given to the entire input frame image to each of the regions by assigning a region with a large amount of motion to be longer than a region with a small amount of motion. The motion vector detection processing time calculation apparatus according to claim 1, wherein the motion vector detection processing time is determined.
前記動き補償難易度算出手段が、前記入力フレーム画像の領域と、対応する前記参照フレーム画像の領域との差分値の空間微分値に基づいて前記動き補償難易度を算出することを特徴とする請求項1又は請求項2記載の動きベクトル検出処理時間算出装置。   The motion compensation difficulty level calculation unit calculates the motion compensation difficulty level based on a spatial differential value of a difference value between a region of the input frame image and a corresponding region of the reference frame image. The motion vector detection processing time calculation device according to claim 1 or 2. 請求項1乃至請求項3のいずれか1項に記載の動きベクトル検出処理時間算出装置と、
前記領域に対して決定された処理時間を、前記領域内に均等に適用して前記領域内の動きベクトルを検出する検出手段を有する動きベクトル検出装置。
The motion vector detection processing time calculation device according to any one of claims 1 to 3,
A motion vector detection apparatus comprising detection means for detecting a motion vector in the region by equally applying the processing time determined for the region to the region.
請求項1乃至請求項3のいずれか1項に記載の動きベクトル検出処理時間算出装置と、
前記決定された処理時間が長い領域ほど、当該領域内でのベクトル検出を小さな領域単位で行う検出手段を有する動きベクトル検出装置。
The motion vector detection processing time calculation device according to any one of claims 1 to 3,
A motion vector detection apparatus having detection means for performing vector detection in a smaller region unit in a region where the determined processing time is longer.
請求項4又は請求項5に記載の動きベクトル検出装置を用いて検出した動きベクトルを用い、前記入力フレーム画像の動き補償フレーム間予測符号化を行う画像符号化装置。   An image encoding device that performs motion compensation interframe predictive encoding of the input frame image using a motion vector detected by using the motion vector detection device according to claim 4 or 5. 前記参照フレーム画像が、前記入力フレーム画像より過去のフレーム画像の符号化結果を復号して得られた画像であることを特徴とする請求項6記載の画像符号化装置。   The image coding apparatus according to claim 6, wherein the reference frame image is an image obtained by decoding a coding result of a past frame image from the input frame image. 参照フレーム画像に対する入力フレーム画像の動きベクトルを、前記入力フレーム画像を構成する領域毎に検出する動きベクトル検出処理のための時間を前記領域毎に決定する動きベクトル検出処理時間算出方法であって、
前記入力フレーム画像の領域と、対応する前記参照フレーム画像の領域とから、当該領域に対する動き補償難易度を求める動き補償難易度算出工程と、
前記入力フレーム画像全体に対して与えられる動きベクトル検出処理時間を、前記動き補償難易度の大きい領域には前記動き補償難易度の小さい領域よりも長い時間となるように割り当てることにより前記領域の各々に対する動きベクトル検出処理時間を決定する処理時間決定工程を有することを特徴とする動きベクトル検出処理時間算出方法。
A motion vector detection processing time calculation method for determining, for each region, a time for motion vector detection processing for detecting a motion vector of an input frame image with respect to a reference frame image for each region constituting the input frame image,
A motion compensation difficulty level calculating step for determining a motion compensation difficulty level for the area from the input frame image area and the corresponding reference frame image area;
Each of the regions is assigned by assigning a motion vector detection processing time given to the entire input frame image to a region having a large motion compensation difficulty so as to have a longer time than a region having a small motion compensation difficulty. A motion vector detection processing time calculation method comprising: a processing time determination step for determining a motion vector detection processing time for.
請求項8に記載の動きベクトル検出処理時間算出方法の各工程をコンピュータに実行させる制御プログラム。   A control program for causing a computer to execute each step of the motion vector detection processing time calculation method according to claim 8. 請求項9記載の制御プログラムを格納したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the control program according to claim 9.
JP2005168405A 2005-06-08 2005-06-08 Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device Withdrawn JP2006345186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005168405A JP2006345186A (en) 2005-06-08 2005-06-08 Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005168405A JP2006345186A (en) 2005-06-08 2005-06-08 Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device

Publications (1)

Publication Number Publication Date
JP2006345186A true JP2006345186A (en) 2006-12-21

Family

ID=37641816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005168405A Withdrawn JP2006345186A (en) 2005-06-08 2005-06-08 Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device

Country Status (1)

Country Link
JP (1) JP2006345186A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142233A (en) * 2014-01-28 2015-08-03 富士通株式会社 Moving picture encoder

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015142233A (en) * 2014-01-28 2015-08-03 富士通株式会社 Moving picture encoder

Similar Documents

Publication Publication Date Title
JP5277257B2 (en) Video decoding method and video encoding method
JP5406222B2 (en) Video coding and decoding method and apparatus using continuous motion estimation
JP5669278B2 (en) Method for coding a block of an image sequence and method for reconstructing this block
JP5111127B2 (en) Moving picture coding apparatus, control method therefor, and computer program
US8761254B2 (en) Image prediction encoding device, image prediction decoding device, image prediction encoding method, image prediction decoding method, image prediction encoding program, and image prediction decoding program
JP4993676B2 (en) Image coding apparatus and image coding method
US8229233B2 (en) Method and apparatus for estimating and compensating spatiotemporal motion of image
US20120121020A1 (en) Motion image encoding apparatus, motion image decoding apparatus, motion image encoding method, motion image decoding method, motion image encoding program, and motion image decoding program
JP2010081465A (en) Moving image encoding method and moving image decoding method
JP2006270435A (en) Dynamic image encoder
JP4762938B2 (en) Data embedding device, data extracting device, data embedding method, and data extracting method
JP6607040B2 (en) Motion vector search apparatus, motion vector search method, and recording medium for storing motion vector search program
TWI511531B (en) Video coding apparatus, video coding method, and video coding program
JP4445463B2 (en) Video re-encoding method and apparatus
JP2006180298A (en) Image encoding control method and its device
JP2004215275A (en) Motion compensation based improved noise prediction method and apparatus, and moving image encoding method and apparatus using the same
JP4898415B2 (en) Moving picture coding apparatus and moving picture coding method
JP4257789B2 (en) Video encoding device
JP2006005659A (en) Device and method for image encoding
JP2005086249A (en) Dynamic image coding method and dynamic image coding apparatus
JP2006345186A (en) Moving vector detection processing time calculating device and method, moving vector detecting device, and image encoding device
JP5281597B2 (en) Motion vector prediction method, motion vector prediction apparatus, and motion vector prediction program
JP2008301270A (en) Moving image encoding device and moving image encoding method
JP2009017107A (en) Video encoder and video encoding method
JP5349904B2 (en) Moving picture coding apparatus and moving picture coding method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080902