JP2008072608A - Apparatus and method for encoding image - Google Patents

Apparatus and method for encoding image Download PDF

Info

Publication number
JP2008072608A
JP2008072608A JP2006251231A JP2006251231A JP2008072608A JP 2008072608 A JP2008072608 A JP 2008072608A JP 2006251231 A JP2006251231 A JP 2006251231A JP 2006251231 A JP2006251231 A JP 2006251231A JP 2008072608 A JP2008072608 A JP 2008072608A
Authority
JP
Japan
Prior art keywords
image
target
motion vector
unit
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006251231A
Other languages
Japanese (ja)
Inventor
Tetsuhiro Nin
哲弘 任
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2006251231A priority Critical patent/JP2008072608A/en
Publication of JP2008072608A publication Critical patent/JP2008072608A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To sharply project a designated object in an image while taking an entire processing load into account. <P>SOLUTION: An image encoding apparatus includes: an object region management means for managing an object region indicating a position of a designated object in a designated image; a peripheral region determining means for determining a peripheral region including the object region of the designated object in the image; a search range control means for controlling to widen a search area of a motion search for the peripheral region determined by the peripheral region determining means and to narrow the search area of the motion search for regions other than the peripheral region; a motion vector detecting means for detecting a motion vector within the search area controlled by the search range control means; an object region updating means for updating the object region of the designated object in the image based on the motion vector detected by the motion vector detecting means and the peripheral region; and an encoding control means for encoding the object region of the designated object in the image managed by the object region management means while setting a small quantization step size thereto. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像符号化装置及び画像符号化方法に関し、例えば、動画像を圧縮するために、動画像データに対して符号化処理を行ない、符号化画像データを出力する画像符号化装置及び画像符号化方法に適用し得る。   The present invention relates to an image encoding device and an image encoding method, for example, an image encoding device that performs encoding processing on moving image data and outputs encoded image data in order to compress a moving image, and an image It can be applied to an encoding method.

動画像を圧縮するために動画像データに対する符号化方式として、一般にMPEGで規格化された標準化技術が用いられている。MPEG規格の画像符号化方法は、動画像の各フレームを小ブロックに分割し、マクロブロックと呼ばれるブロック単位で符号化処理を行なうものであり、その符号化処理は大別してイントラ符号化とインター符号化との2種類に分類される。   In order to compress moving images, a standardization technique standardized by MPEG is generally used as an encoding method for moving image data. The MPEG standard image encoding method divides each frame of a moving image into small blocks and performs encoding processing in units of blocks called macroblocks. The encoding processing is roughly divided into intra encoding and inter encoding. It is classified into two types.

イントラ符号化とは、動画像の各フレーム内で隣接する画素間の相関関係を利用した圧縮処理である。イントラ符号化方法は、入力画像の1フレームを各ブロックに分割し、ブロック毎に離散コサイン変換(DCT)を施してから量子化し、量子化したDCT係数に対して可変長符号化をする。   Intra coding is a compression process that uses the correlation between adjacent pixels in each frame of a moving image. In the intra coding method, one frame of an input image is divided into blocks, subjected to discrete cosine transform (DCT) for each block, quantized, and variable length coding is performed on the quantized DCT coefficients.

インター符号化とは、動画像のフレーム間の差分信号を符号化する処理である。インター符号化方法は、これから符号化処理をする符号化対象画像と参照画像から求めた動きベクトルに基づき、動き補償して最適な予測マクロブロックを取得し、この予測マクロブロックと符号化対象のマクロブロックとの差分信号を求める。そして、その差分信号に対してDCTを施してから量子化し、量子化したDCT係数を動きベクトルや量子化ステップサイズと共に可変長符号化する。   Inter coding is a process of coding a difference signal between frames of a moving image. The inter coding method obtains an optimal prediction macroblock by performing motion compensation on the basis of a motion vector obtained from an encoding target image to be encoded and a reference image, and the prediction macroblock and a macro to be encoded. Find the difference signal from the block. The differential signal is quantized after being subjected to DCT, and the quantized DCT coefficient is variable-length encoded together with the motion vector and the quantization step size.

ここで、符号化対象画像と参照画像のそれぞれのブロック間で最も似ているブロックを探索することを動き探索といい、この動き探索により求められたブロックの位置の時間方向のずれを動きベクトルという。   Here, searching for the most similar block between the respective blocks of the encoding target image and the reference image is referred to as motion search, and the shift in the time direction of the position of the block obtained by the motion search is referred to as a motion vector. .

従来、画像符号化装置における動き探索方式は、例えば特許文献1及び2に示すように、例えば、それぞれの画像の位置において一定の探索範囲を設けたり、又例えば、周辺の動きベクトルの大きさに応じて探索範囲を決定したりし、このようにして決定した探索範囲の中で最も似ているブロックを検索して動きを検出している。   Conventionally, as shown in Patent Documents 1 and 2, for example, as shown in Patent Documents 1 and 2, a motion search method in an image encoding device provides a fixed search range at each image position, or, for example, determines the size of a surrounding motion vector. The search range is determined accordingly, and the motion is detected by searching for the most similar block in the search range thus determined.

また、画像符号化装置のおけるDCT係数の量子化の際、量子化の幅を示す量子化ステップサイズは、動画像の各フレームに対して分割した全てのブロックについて一定のものとしたり、また動画像に割り当てられた符号量と各係数値に応じて決定したりしている。   In addition, when the DCT coefficient is quantized in the image coding apparatus, the quantization step size indicating the quantization width is constant for all blocks divided for each frame of the moving image, It is determined according to the code amount allocated to the image and each coefficient value.

特開2004−140794号公報JP 2004-140794 A 特開2003−274410号公報JP 2003-274410 A

ところで、画像を符号化する際、ある特定の指定領域のみを鮮明に映し出すことが強く望まれることがある。例えば、監視映像などの動画像の符号化処理においては、映像中の監視対象の画質を向上させ、監視対象の特定の容易化を図ることができる。   By the way, when an image is encoded, it may be strongly desired that only a specific designated area is clearly displayed. For example, in the process of encoding a moving image such as a monitoring video, it is possible to improve the image quality of the monitoring target in the video and facilitate the identification of the monitoring target.

しかしながら、上述した従来の符号化装置において、探索範囲が広くなると、それにつれて計算量、符号量が増大するため、ハードウェアの処理負荷が異なる。そのため、ハードウェアの性能に応じて探索範囲が限定されてしまい、例えば広い探索範囲を必要とする場合などは結果的に動きの検索がうまくいかず、注目したい対象が不鮮明になる場合がある。   However, in the above-described conventional encoding device, when the search range is widened, the calculation amount and the code amount increase accordingly, so that the hardware processing load differs. For this reason, the search range is limited according to the performance of the hardware. For example, when a wide search range is required, the motion search may not be successful, and the target to be noticed may be unclear.

また、DCT係数の量子化処理では、符号量の軽減のためにDCT係数を量子化ステップサイズで割り算して余りを丸め込んでいるが、復号の際には、量子化値に量子化ステップサイズを掛けることで復元しているから、正確な値を復元できず歪みが生じてしまう。なお、この歪みは、量子化ステップサイズが小さくなればなるほど小さくなる。   Also, in the DCT coefficient quantization process, the DCT coefficient is divided by the quantization step size to round down the remainder in order to reduce the code amount, but at the time of decoding, the quantization step size is added to the quantization value. Since it is restored by multiplying, an accurate value cannot be restored and distortion occurs. This distortion becomes smaller as the quantization step size becomes smaller.

しかしながら、量子化ステップサイズは、上述したように、使用できる符号量に規定されているから、必ずしも注目したい対象が鮮明に映るとは限らない。   However, since the quantization step size is defined by the code amount that can be used as described above, the target to be noticed does not always appear clearly.

そのため、画像中において指定された対象の動き探索が他の部分よりうまくいく必要があり、他の部分に比べより符号量を多く割り当てることができる画像符号化装置及び画像符号化方法が求められている。   Therefore, there is a need for an image encoding device and an image encoding method that can perform motion search of a target specified in an image more successfully than other portions, and can allocate a larger amount of code than other portions. Yes.

かかる課題を解決するために、第1の本発明の画像符号化装置は、動画像を符号化する画像符号化装置において、(1)指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理手段と、(2)画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定手段と、(3)周辺領域決定手段により決定された周辺領域に対しては動き探索の探索範囲を広げるようにし、周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御手段と、(4)探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出手段と、(5)動きベクトル検出手段により検出された動きベクトルと周辺領域とに基づいて画像中の指定対象の対象領域を更新する対象領域更新手段と、(6)対象領域管理手段が管理する画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御手段とを備えることを特徴とする。   In order to solve such a problem, an image encoding device according to a first aspect of the present invention is an image encoding device that encodes a moving image. (1) A target region indicating a position of a specified target in a specified image is displayed. A target area management means for managing; (2) a peripheral area determining means for determining a peripheral area including a target area to be specified in an image; and (3) a peripheral area determined by the peripheral area determining means. Search range control means for controlling the search range for motion search so that the search range for motion search is expanded and the search range for motion search is narrowed for areas other than the surrounding area; and (4) within the search range controlled by the search range control means. Motion vector detection means for detecting a motion vector in (5), and (5) target area update means for updating the target area to be designated in the image based on the motion vector detected by the motion vector detection means and the peripheral area; (6) to the target area of the specified object in the image managed by the target area management means, characterized in that it comprises a coding control means for coding is set smaller quantization step size.

第2の本発明の画像符号化方法は、動画像を符号化する画像符号化方法において、(1)対象領域管理手段が、指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理工程と、(2)周辺領域決定手段が、画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定工程と、(3)探索範囲制御手段が、周辺領域決定手段により決定された周辺領域に対しては動き探索の探索範囲を広げるようにし、周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御工程と、(4)動きベクトル検出手段が、探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出工程と、(5)対象領域更新手段が、動きベクトル検出手段により検出された動きベクトルと周辺領域とに基づいて画像中の指定対象の対象領域を更新する対象領域更新工程と、(6)符号化制御手段が、対象領域管理手段が管理する画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御工程とを備えることを特徴とする。   The image encoding method according to the second aspect of the present invention is the image encoding method for encoding a moving image, wherein (1) the target area management means manages a target area indicating the position of the specified target in the specified image. A target region management step, (2) a peripheral region determination step in which the peripheral region determination unit determines a peripheral region including the target region to be specified in the image, and (3) a search range control unit includes a peripheral region determination unit. (4) a search range control step for performing control so that the search range for motion search is expanded for the peripheral region determined by the above, and the search range for motion search is narrowed for regions other than the peripheral region; A motion vector detection step in which the motion vector detection means detects a motion vector within the search range controlled by the search range control means; and (5) a motion vector detected by the motion vector detection means by the target region update means. A target area update step of updating the target area to be specified in the image based on the peripheral area, and (6) the encoding control means for the target area to be specified in the image managed by the target area management means And an encoding control step for encoding with a small quantization step size.

本発明によれば、画像中の指定領域に対する符号化に必要な計算量及び符号量を多く配分することができるため、全体としての計算量及び符号量を抑えながら、指定領域をより鮮明な符号化をすることができ、かつ指定領域の動き情報を提供することができる。   According to the present invention, it is possible to allocate a large amount of calculation and code necessary for encoding a specified area in an image, so that the specified area can be coded more clearly while suppressing the calculation amount and code amount as a whole. And motion information of a designated area can be provided.

(A)第1の実施形態
以下、本発明の画像符号化装置の第1の実施形態を図面を参照しながら説明する。
(A) First Embodiment Hereinafter, a first embodiment of an image encoding device of the present invention will be described with reference to the drawings.

第1の実施形態は、入力画像を圧縮するために画像データに対して符号化処理を行なう画像符号化装置に、本発明の画像符号化装置を適用した場合を説明する。   In the first embodiment, a case where the image coding apparatus of the present invention is applied to an image coding apparatus that performs coding processing on image data to compress an input image will be described.

(A−1)第1の実施形態の構成
図1は、第1の実施形態の画像符号化装置100の主な構成を示すブロック図である。図1に示すように、第1の実施形態の画像符号化装置100は、オブジェクト管理部1、探索範囲制御部2、符号化制御部3、mv検出部4、インター予測部、イントラ予測部6、ブロック分割部7、直交変換部8、量子化部9、エントロピー符号化部10、逆量子化部11、直交逆変換部12、モード選択部13、フレームバッファ14、バッファ管理部15、フレームバッファ16、を有して構成される。
(A-1) Configuration of the First Embodiment FIG. 1 is a block diagram showing the main configuration of the image encoding device 100 of the first embodiment. As illustrated in FIG. 1, an image encoding device 100 according to the first embodiment includes an object management unit 1, a search range control unit 2, an encoding control unit 3, an mv detection unit 4, an inter prediction unit, and an intra prediction unit 6. , Block division unit 7, orthogonal transform unit 8, quantization unit 9, entropy encoding unit 10, inverse quantization unit 11, orthogonal inverse transform unit 12, mode selection unit 13, frame buffer 14, buffer management unit 15, frame buffer 16.

第1の実施形態では、オブジェクト管理部1、探索範囲制御部2、符号化制御部3、mv検出部4、及び、インター予測部5の機能が従来の画像符号化装置と異なるものであり、これら以外の構成は従来の画像符号化装置の構成に対応する。   In the first embodiment, the functions of the object management unit 1, the search range control unit 2, the encoding control unit 3, the mv detection unit 4, and the inter prediction unit 5 are different from those of the conventional image encoding device. The configuration other than these corresponds to the configuration of the conventional image encoding device.

ブロック分割部7は、入力画像を取り込み、その入力画像をブロック(第1の実施形態では、縦横16画素の矩形の画素集合のブロック)に分割するものである。また、ブロック分割部7は、ブロック化した入力画像を直交変換部8及びmv検出部4に与えるものである。   The block dividing unit 7 takes in an input image and divides the input image into blocks (in the first embodiment, a block of a rectangular pixel set of 16 pixels vertically and horizontally). The block dividing unit 7 gives the input image that has been made into a block to the orthogonal transform unit 8 and the mv detection unit 4.

直交変換部8は、予測画像(インター予測の場合入力画像のブロックに最も似ている参照画像のブロック、イントラ予測の場合ブロックの左と上の周辺画素を使って計算した画素値)との差分を直交変換するものである。また、直交変換部は、周波数変換した変換係数を量子化部9に与えるものである。   The orthogonal transform unit 8 calculates a difference between a predicted image (a block of a reference image that is most similar to an input image block in the case of inter prediction, and a pixel value calculated using peripheral pixels on the left and upper sides of the block in the case of intra prediction). Are orthogonally transformed. The orthogonal transform unit gives the transform coefficient obtained by frequency transform to the quantization unit 9.

量子化部9は、直交変換部8により周波数変換された変換係数を量子化し、量子化した量子化値を逆量子化部11及びエントロピー符号化部10に与えるものである。   The quantization unit 9 quantizes the transform coefficient frequency-transformed by the orthogonal transform unit 8 and gives the quantized quantized value to the inverse quantization unit 11 and the entropy coding unit 10.

エントロピー符号化部10は、量子化部9から量子化された変換係数、動きベクトル等をエントロピー符号化するものである。   The entropy encoding unit 10 performs entropy encoding on the transform coefficient, motion vector, and the like quantized by the quantization unit 9.

逆量子化部11は、インター予測部5で参照画像として使用するためのローカルデコード画像を作成するため、量子化部9により量子化されたものに対して逆量子化を行なうものである。また、逆量子化部11は、逆量子化した信号を直交逆変換部12に与えるものである。   The inverse quantization unit 11 performs inverse quantization on the image quantized by the quantization unit 9 in order to create a local decoded image to be used as a reference image by the inter prediction unit 5. The inverse quantization unit 11 gives the inversely quantized signal to the orthogonal inverse transform unit 12.

直交逆変換部12は、ローカルデコード画像を求めるために、逆量子化部11により逆量子化された信号に対して直交逆変換を行なうものである。また、直交逆変換部12は、直交逆変換したデータと参照画像とを合成したローカルデコード画像をフレームバッファ14に与えるものである。   The orthogonal inverse transform unit 12 performs orthogonal inverse transform on the signal inversely quantized by the inverse quantization unit 11 in order to obtain a local decoded image. Further, the orthogonal inverse transform unit 12 provides the frame buffer 14 with a local decoded image obtained by combining the orthogonal inversely transformed data and the reference image.

フレームバッファ14は、ローカルデコード画像のフレームを保持するものである。また、フレームバッファ14は、保持している画像フレームを参照画像フレームとしてイントラ予測部6及びバッファ管理部15に与えるものである。   The frame buffer 14 holds a frame of a locally decoded image. The frame buffer 14 gives the held image frame to the intra prediction unit 6 and the buffer management unit 15 as a reference image frame.

イントラ予測部6は、フレームバッファ14から参照画像フレームを受け取り、現画像フレームと参照画像フレーム間のイントラ予測を行ない、その予測画像をモード選択部13を介して直交変換部8及びエントロピー符号化部10に与えるものである。   The intra prediction unit 6 receives the reference image frame from the frame buffer 14, performs intra prediction between the current image frame and the reference image frame, and transmits the predicted image to the orthogonal transform unit 8 and the entropy encoding unit via the mode selection unit 13. 10 is given.

バッファ管理部15は、フレームバッファ14に保持される参照画像フレームを管理するものである。   The buffer management unit 15 manages reference image frames held in the frame buffer 14.

フレームバッファ16は、バッファ管理部15から与えられた参照画像フレームを保持するものであり、保持している参照画像フレームをインター予測部5及びmv検出部4に与えるものである。   The frame buffer 16 holds the reference image frame given from the buffer management unit 15, and gives the held reference image frame to the inter prediction unit 5 and the mv detection unit 4.

インター予測部5は、フレームバッファ16からの参照画像フレームと、mv検出部4からの動きベクトルとに基づいて、インター予測を行なうものである。また、インター予測部5は、モード選択部13を介して予測画像を直交変換部8に与えるものである。   The inter prediction unit 5 performs inter prediction based on the reference image frame from the frame buffer 16 and the motion vector from the mv detection unit 4. In addition, the inter prediction unit 5 gives the predicted image to the orthogonal transform unit 8 via the mode selection unit 13.

モード選択部13は、インター予測部5とイントラ予測部6が求めた予測画像のうち、最適なものを選択するものであり、選択した予測画像を直交変換部8に与えるものである。また、モード選択部13は、選択した予測モードを符号化制御部3及びバッファ管理部15に通知するものである。   The mode selection unit 13 selects an optimal one of the prediction images obtained by the inter prediction unit 5 and the intra prediction unit 6, and gives the selected prediction image to the orthogonal transform unit 8. The mode selection unit 13 notifies the selected prediction mode to the encoding control unit 3 and the buffer management unit 15.

オブジェクト管理部1は、画像中において指定された指定対象が占める対象領域を管理するものである。オブジェクト管理部1は、入力した対象領域集合を受け取ると、参照画像の対象領域集合に含まれるブロックと最もよくマッチングする(最もよく似ている)ブロックを、入力画像の周辺ブロック集合から探し出し、追跡するものである。また、オブジェクト管理部1は、記録する対象領域集合を探索範囲制御部2に与えるものである。さらに、オブジェクト管理部1は、mv検出部4から動きベクトルを受け取り、受け取った動きベクトルに基づいて対象領域のブロック集合を更新し、その更新した対象領域のブロック集合を記録すると共に、その更新した対象領域のブロック集合を符号化制御部3に与えるものである。   The object management unit 1 manages a target area occupied by a specified target specified in an image. When the object management unit 1 receives the input target area set, the object management unit 1 searches for and tracks a block that most closely matches (most closely resembles) a block included in the target area set of the reference image from the peripheral block set of the input image. To do. The object management unit 1 gives the search area control unit 2 a set of target areas to be recorded. Further, the object management unit 1 receives the motion vector from the mv detection unit 4, updates the block set of the target region based on the received motion vector, records the updated block set of the target region, and updates the block set. A block set of the target area is given to the encoding control unit 3.

ここで、対象領域集合とは、注目の対象となる領域の集合であり、オブジェクト管理部1は、対象領域を、例えばブロックのブロック番号やピクセル位置や画像の各行の指定範囲として管理する。また、この対象領域集合の指定方法は、種々の方法を適用することができる。   Here, the target area set is a set of areas to be noticed, and the object management unit 1 manages the target area as, for example, a block number of a block, a pixel position, or a designated range of each row of an image. Various methods can be applied to the method of specifying the target area set.

また、周辺ブロック集合とは、入力画像の対象領域集合から所定距離以内の周辺に位置するブロックのブロック番号の集合である。また、周辺ブロック集合を決定するための対象領域集合からの距離は通常の探索範囲より大きくとるものとする。   The peripheral block set is a set of block numbers of blocks located in the periphery within a predetermined distance from the target area set of the input image. Further, the distance from the target area set for determining the peripheral block set is assumed to be larger than the normal search range.

図2は、オブジェクト管理部1の機能構成を示すブロック図であり、図2に示すように、オブジェクト管理部1は、対象領域集合記録部101、周辺ブロック集合算出部102、対象領域集合更新部103を有する。   FIG. 2 is a block diagram illustrating a functional configuration of the object management unit 1. As illustrated in FIG. 2, the object management unit 1 includes a target area set recording unit 101, a peripheral block set calculation unit 102, and a target area set update unit. 103.

対象領域集合記録部101は、対象領域集合と対象ブロック集合を記録するメモリと入出力制御機能を有するものであり、対象領域集合を受け取ると、対象領域集合を記録すると共に、その対象領域集合を周辺ブロック集合算出部102に与えるものである。また、対象領域集合記録部101は、対象領域集合更新部103により動きベクトルに応じて更新された対象領域集合を記録する。   The target area set recording unit 101 has a memory for recording the target area set and the target block set and an input / output control function. When the target area set is received, the target area set is recorded, and the target area set is recorded. This is given to the peripheral block set calculation unit 102. In addition, the target area set recording unit 101 records the target area set updated by the target area set update unit 103 according to the motion vector.

周辺ブロック集合算出部102は、対象領域集合記録部101から対象領域集合を受け取ると、その対象領域集合から所定距離以内に位置する周辺のブロックのブロック番号を求めて周辺ブロック集合を生成するものである。また、周辺ブロック集合算出部12は、求めた周辺ブロック集合を探索範囲制御部2に与える。   When the peripheral block set calculation unit 102 receives the target region set from the target region set recording unit 101, the peripheral block set calculation unit 102 calculates a block number of a peripheral block located within a predetermined distance from the target region set and generates a peripheral block set. is there. The peripheral block set calculation unit 12 gives the obtained peripheral block set to the search range control unit 2.

対象領域集合更新部103は、mv検出部4から動きベクトルを受け取ると、その動きベクトルに基づいて対象ブロック集合を生成し、生成した対象ブロック集合を新たな対象領域集合として対象領域集合記録部11に与えて記録させるものである。   Upon receiving the motion vector from the mv detection unit 4, the target area set update unit 103 generates a target block set based on the motion vector, and uses the generated target block set as a new target area set. To be recorded.

探索範囲制御部2は、mv検出部4による動きを検出する範囲を制御するものであり、オブジェクト管理部1から周辺ブロック集合を受け取ると、周辺ブロック集合に属するブロックに対して、通常の探索範囲に加えて、周辺ブロック集合算出部102で算出した対象領域ブロックの一部(周辺ブロック集合算出部102で使用した探索範囲内にある)を探索し、それ以外のブロックの探索範囲は狭めるものである。   The search range control unit 2 controls the range in which the mv detection unit 4 detects a motion. When the search range control unit 2 receives a peripheral block set from the object management unit 1, the search range control unit 2 performs normal search range for blocks belonging to the peripheral block set. In addition, a part of the target area block calculated by the peripheral block set calculation unit 102 (within the search range used by the peripheral block set calculation unit 102) is searched, and the search range of other blocks is narrowed. is there.

mv検出部4は、フレームバッファ16からの参照画像フレームと、ブロック分割部7からの入力画像フレームとを比較して、動きベクトルを検出するものである。また、mv検出部4は、検出した動きベクトルをオブジェクト管理部1、インター予測部5及びエントロピー符号化部10に与えるものである。   The mv detection unit 4 detects a motion vector by comparing the reference image frame from the frame buffer 16 with the input image frame from the block division unit 7. Further, the mv detection unit 4 gives the detected motion vector to the object management unit 1, the inter prediction unit 5, and the entropy encoding unit 10.

符号化制御部3は、オブジェクト管理部1から対象ブロック集合を受け取ると、その対象ブロック集合に対しては量子化ステップサイズを小さくするように制御し、また対象ブロック集合以外に対してはブロックの量子化ステップサイズを高くするように制御するものである。このように、対象ブロック集合について量子化ステップサイズを小さくすることで、復号側で復号処理をする際、DCT係数の値の歪みを小さくすることができるので、画像中の指定対象を鮮明に映し出すことができる。   When the encoding control unit 3 receives the target block set from the object management unit 1, the encoding control unit 3 controls the target block set to reduce the quantization step size. Control is performed to increase the quantization step size. In this way, by reducing the quantization step size for the target block set, it is possible to reduce the distortion of the DCT coefficient value when performing decoding processing on the decoding side, so that the designated target in the image is clearly displayed. be able to.

(A−2)第1の実施形態の動作
次に、第1の実施形態の画像符号化装置100の動画像の符号化処理の動作を説明する。
(A-2) Operation of the First Embodiment Next, the operation of the moving image encoding process of the image encoding device 100 of the first embodiment will be described.

図1において、まず、注目したい対象の領域指定を受けると、その領域指定に対応する対象領域集合がオブジェクト管理部1に与えられる。   In FIG. 1, first, when a target area designation to be noticed is received, a target area set corresponding to the area designation is given to the object management unit 1.

対象領域集合がオブジェクト管理部1に与えられると、オブジェクト管理部1の対象領域集合記録部101に対象領域集合が記録されると共に、対象領域集合は周辺ブロック集合算出部102に与えられ、周辺ブロック集合算出部102により周辺ブロック集合が算出される。   When the target area set is given to the object management unit 1, the target area set is recorded in the target area set recording unit 101 of the object management unit 1, and the target area set is given to the peripheral block set calculation unit 102, and the peripheral block The set calculation unit 102 calculates a neighboring block set.

ここで、図3は、周辺ブロック集合算出部102における周辺ブロック算出処理を示すフローチャートであり、また図4は、対象領域ブロックと周辺ブロック集合との関係を説明する説明図である。   Here, FIG. 3 is a flowchart showing the peripheral block calculation processing in the peripheral block set calculation unit 102, and FIG. 4 is an explanatory diagram for explaining the relationship between the target area block and the peripheral block set.

図3において、まず、入力した画像についてブロックに分割する(S11)。このとき、図1に示すブロック分割部7により分割されたブロックを用いるようにしてもよい。   In FIG. 3, first, the inputted image is divided into blocks (S11). At this time, you may make it use the block divided | segmented by the block division part 7 shown in FIG.

次に、対象領域集合記録部101から対象領域集合を受け取ると、その対象領域集合が参照画像の各ブロックに該当するものを含むか否かを判断し、対象領域集合が参照画像の各ブロックに含まれるときに、当該対象領域に対応するブロックを特定し(S12)、これらブロックを対象領域ブロックとする。   Next, when the target area set is received from the target area set recording unit 101, it is determined whether or not the target area set includes one corresponding to each block of the reference image, and the target area set is included in each block of the reference image. When included, blocks corresponding to the target area are identified (S12), and these blocks are set as target area blocks.

そして、対象領域ブロックを構成する各ブロックから所定範囲以内に位置するブロックを周辺ブロックとして特定し(S13)、対象領域ブロック及び周辺ブロックを含むブロック番号を周辺ブロック集合として算出する。   Then, a block located within a predetermined range from each block constituting the target area block is specified as a peripheral block (S13), and block numbers including the target area block and the peripheral block are calculated as a peripheral block set.

図4では、対象領域ブロックを構成する各ブロックから2ブロック以内に位置するブロックを周辺ブロックとした場合の例を示す。また、図4にも示すように、周辺ブロック集合算出部102が求めた周辺ブロック集合には対象領域ブロックが含まれるものとする。   FIG. 4 shows an example in which a block located within two blocks from each block constituting the target area block is a peripheral block. Also, as shown in FIG. 4, it is assumed that the peripheral block set obtained by the peripheral block set calculation unit 102 includes the target area block.

このようにして、周辺ブロック集合算出部102により周辺ブロック集合が算出されると、周辺ブロック集合は探索範囲制御部2に与えられ、探索範囲制御部2により探索範囲が制御される。   Thus, when the peripheral block set is calculated by the peripheral block set calculating unit 102, the peripheral block set is given to the search range control unit 2, and the search range control unit 2 controls the search range.

すなわち、探索範囲制御部2では、周辺ブロック集合を構成するブロックについては、通常の探索範囲に対象領域ブロックの一部を加えて探索範囲を広げるように制御し、周辺ブロック集合のブロック以外については探索範囲を狭めるように制御する。   That is, the search range control unit 2 controls the blocks constituting the peripheral block set to expand the search range by adding a part of the target area block to the normal search range, and blocks other than the blocks of the peripheral block set Control to narrow the search range.

これにより、対象領域の探索範囲を広げることができるため注目したい対象が広い領域を持つものであっても対応することができる。また、その一方で、対象領域に係る動き探索の計算量は増大するが、当該対象領域以外の部分の動き探索の計算量を軽減することができるので、全体としては過大な処理負荷はかからず、注目したい対象に対して集中的に計算させて鮮明にすることができる。   Thus, since the search range of the target area can be expanded, it is possible to deal with even if the target to be noticed has a wide area. On the other hand, although the calculation amount of motion search related to the target region increases, the calculation amount of motion search of the portion other than the target region can be reduced, so that the overall processing load is large. Instead, it can be intensively calculated for an object to be noticed to make it clear.

探索範囲制御部2より制御された探索範囲はmv検出部4に与えられると、mv検索部4では、探索範囲を用いて、参照画像フレーム及び入力画像フレームに基づいて動きベクトルを検出し、その検出した動きベクトルをオブジェクト管理部1に与える。   When the search range controlled by the search range control unit 2 is given to the mv detection unit 4, the mv search unit 4 detects a motion vector based on the reference image frame and the input image frame using the search range, The detected motion vector is given to the object management unit 1.

mv検出部4からの動きベクトルがオブジェクト管理部1に与えられると、オブジェクト管理部1の対象領域集合更新部103により、新たな対象領域に更新されて、その新たな対象領域が対象領域集合記録部101に記録される。   When the motion vector from the mv detection unit 4 is given to the object management unit 1, the target region set update unit 103 of the object management unit 1 updates the target vector to a new target region, and the new target region is recorded in the target region set record. Recorded in the unit 101.

図5及び図6における処理の内容は、次のステップS21〜ステップS38に基づき処理される。   The contents of the processing in FIGS. 5 and 6 are processed based on the following steps S21 to S38.

<ステップS21・図5>
まず、周辺ブロック集合を構成する全てのブロックの中で、ブロックの動きベクトルが指す位置が対象領域集合に属する場合、この周辺ブロック集合に属するブロックを対象ブロック集合に入れる。
<Step S21, FIG. 5>
First, when the position indicated by the motion vector of a block belongs to the target area set among all the blocks constituting the peripheral block set, the block belonging to the peripheral block set is put into the target block set.

<ステップS22:図5>
次に、対象ブロック集合における連結成分を求める。ここで、連結成分とは、隣接する一塊のブロックの集合であり、あるブロックが連結成分に属するとは、隣接する連結成分に属するブロックを通って連結成分内の任意のブロックにたどり着けるということである。連結成分として求めたブロックには、おのおの1から2,3,…,Nと順々にブロック番号を割り当てることにより、各連結成分は、連結成分に属するブロックのブロック番号の集合で表すことが出来るようにする。図7には、連結成分が9つ存在するものを一例として示す。また、連結成分L(1)はブロック番号:1〜6からなる集合、連結成分L(2)はブロック番号:1〜25からなる集合、連結成分L(3)はブロック番号:1〜5からなる集合、連結成分L(4)はブロック番号:1〜5からなる集合、連結成分L(5)はブロック番号:1〜25からなる集合、連結成分L(6)はブロック番号:1〜24からなる集合、連結成分L(7)はブロック番号:1〜5からなる集合、連結成分L(8)はブロック番号:1〜5からなる集合、連結成分L(g)はブロック番号1〜24からなる集合である。
<Step S22: FIG. 5>
Next, a connected component in the target block set is obtained. Here, a connected component is a set of blocks of adjacent blocks, and a block belongs to a connected component means that it can reach an arbitrary block in the connected component through a block belonging to the adjacent connected component. is there. Each block obtained as a connected component is assigned a block number in order of 1 to 2, 3,..., N, so that each connected component can be represented by a set of block numbers of blocks belonging to the connected component. Like that. FIG. 7 shows an example in which nine connected components exist. The connected component L (1) is a set composed of block numbers: 1 to 6, the connected component L (2) is a set composed of block numbers: 1 to 25, and the connected component L (3) is composed of block numbers: 1 to 5. The connected component L (4) is a set consisting of block numbers: 1 to 5, the connected component L (5) is a set consisting of block numbers: 1 to 25, and the connected component L (6) is a block number: 1-24. The connected component L (7) is a set consisting of block numbers: 1 to 5, the connected component L (8) is a set consisting of block numbers: 1 to 5, and the connected component L (g) is a block number 1-24. Is a set of

<ステップS23:図5>
次に、変数nに、求めた連結成分の数(図7の例では9)を代入する。
<Step S23: FIG. 5>
Next, the obtained number of connected components (9 in the example of FIG. 7) is substituted into the variable n.

<ステップS24:図5>
そして、連結部分L(n)の大きさ(例えば、連結部分L(n)を構成するブロック数)が、ある大きさ以下ならばステップS25に進み、ある大きさより大きいならばステップS26に進む。
<Step S24: FIG. 5>
If the size of the connection portion L (n) (for example, the number of blocks constituting the connection portion L (n)) is less than a certain size, the process proceeds to step S25, and if greater than a certain size, the process proceeds to step S26.

<ステップS25:図5>
対象ブロック集合から、連結成分L(n)を除外する。
<Step S25: FIG. 5>
The connected component L (n) is excluded from the target block set.

<ステップS26:図5>
変数nから1を引く。
<Step S26: FIG. 5>
Subtract 1 from variable n.

<ステップS27:図5>
変数nが0となるまで、ステップS24〜ステップS26の処理を繰り返す。変数nが0となると、求めた連結成分の全てにおいて、各々の連結成分の大きさ(各々の連結部分を構成するブロック数)がある閾値以下となるものは、対象ブロック集合から除外される。例えば、対象ブロック集合は、図7のように求めた連結成分L(1)から求めた連結成分L(9)とする。ステップS21〜ステップS27において、連結成分の大きさ(連結部分を構成するブロック数)が6以下なら、対象ブロック集合から連結成分L(n)を除外するとしたとき、連結成分L(1)、連結成分L(3)、連結成分L(4)、連結成分L(7)、連結成分L(8)が除外され、連結成分L(2)、連結成分L(5)、連結成分L(6)、連結成分L(9)が残る。この図7に対してステップS23〜ステップS27の処理をした結果の一例を図8に表す。図8における連結成分の数は、9から4となる。
<Step S27: FIG. 5>
The process from step S24 to step S26 is repeated until the variable n becomes 0. When the variable n becomes 0, in all of the obtained connected components, the size of each connected component (the number of blocks constituting each connected portion) is less than a certain threshold value is excluded from the target block set. For example, the target block set is a connected component L (9) obtained from the connected component L (1) obtained as shown in FIG. In step S21 to step S27, if the size of the connected component (the number of blocks constituting the connected portion) is 6 or less, when the connected component L (n) is excluded from the target block set, the connected component L (1), connected Component L (3), connected component L (4), connected component L (7), connected component L (8) are excluded, connected component L (2), connected component L (5), connected component L (6) The connected component L (9) remains. FIG. 8 shows an example of a result obtained by performing the processing from step S23 to step S27 on FIG. The number of connected components in FIG.

<ステップ528〜ステップ536>
各連結成分において、動きベクトルの大きさが他の動きベクトルの大きさと大きく異なっているブロックを連結成分から除外する(ステップS28〜ステップS36)。
<Step 528 to Step 536>
In each connected component, blocks whose motion vectors are significantly different from other motion vectors are excluded from the connected components (steps S28 to S36).

<ステップS28:図5>
まず、対象ブロック集合における各連結成分の動きベクトルの代表値(例えば、対象ブロック集合における各連結成分の動きベクトルの平均値等)を求める。図8に対してステップS28の処理をした結果の一例を図9に表す。
<Step S28: FIG. 5>
First, a representative value of motion vectors of each connected component in the target block set (for example, an average value of motion vectors of each connected component in the target block set) is obtained. FIG. 9 shows an example of the result obtained by performing the process of step S28 on FIG.

<ステップS29:図5>
次に、変数nに、ステップS22で求めた連結成分の数(図9の例では9)を代入する。
<Step S29: FIG. 5>
Next, the number of connected components obtained in step S22 (9 in the example of FIG. 9) is substituted for variable n.

<ステップS30:図6>
変数nと、ステップS25で連結成分L(n)を除外したときの値:nとを比較する。比較した結果、変数nが、ステップS25で連結成分L(n)を除外したときの値:n(図9では、n=1,3,4,7,8)と同じであれば、ステップS31に進む。比較した結果、変数nがステップS25で連結成分L(n)を除外したときの値:n(図9では、n=1,3,4,7,8)と異なれば、ステップS32(図9)に進む。
<Step S30: FIG. 6>
The variable n is compared with the value n when the connected component L (n) is excluded in step S25. As a result of the comparison, if the variable n is the same as the value obtained when the connected component L (n) is excluded in step S25: n (n = 1, 3, 4, 7, 8 in FIG. 9), step S31 is performed. Proceed to As a result of the comparison, if the variable n is different from the value obtained when the connected component L (n) is excluded in step S25: n (n = 1, 3, 4, 7, 8 in FIG. 9), step S32 (FIG. 9 )

<ステップS31:図6>
変数nから1を引き、ステップS30に戻る。
<Step S31: FIG. 6>
1 is subtracted from the variable n, and the process returns to step S30.

<ステップ532:図6>
変数mに、連結成分L(n)の大きさ(ここでは、例えば、連結成分L(n)を構成するブロック数M(n))を代入する。図9では、M(2)=25,M(5)=25,M(6)=24,M(9)=24となる。
<Step 532: FIG. 6>
The variable m is assigned the size of the connected component L (n) (here, for example, the number of blocks M (n) constituting the connected component L (n)). In FIG. 9, M (2) = 25, M (5) = 25, M (6) = 24, and M (9) = 24.

<ステップ533:図6>
連結成分L(n)、ブロック番号mにおける動きベクトルの大きさから、連結成分L(n)における動きベクトルの代表値の大きさを引いた値の絶対値(ABS)が、所定の閾値と比較する。求めた絶対値(ABS)が所定の閾値より大きいならばステップS34に進み、求めた絶対値(ABS)が所定の閾値以下ならばステップS35に進む。
<Step 533: FIG. 6>
The absolute value (ABS) of the value obtained by subtracting the magnitude of the representative value of the motion vector in the connected component L (n) from the magnitude of the motion vector in the connected component L (n) and block number m is compared with a predetermined threshold value. To do. If the obtained absolute value (ABS) is larger than the predetermined threshold value, the process proceeds to step S34, and if the obtained absolute value (ABS) is less than the predetermined threshold value, the process proceeds to step S35.

<ステップ534:図6>
ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きいとき、連結成分L(n)からブロックmを除外する。
<Step 534: FIG. 6>
When the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold, the block m is excluded from the connected component L (n).

図9において、連結成分L(2)では、動きベクトルの代表値が動きベクトルV2であるとき、ブロック番号m=1の動きベクトル:v(2,1)[V21]、ブロック番号m=3の動きベクトル:v(2,3)[V22]、ブロック番号m=12の動きベクトル:v(2,12)[V23]、ブロック番号m=17の動きベクトル:v(2,17)[V24]、ブロック番号m=24の動きベクトル:v(2,24)[V25]、ブロック番号m=25の動きベクトル:v(2,25)[V26]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(2)では、ブロック番号m=1のブロック:b(2,1)[B21]、ブロック番号m=3のブロック:b(2,3)[B22]、ブロック番号m=12のブロック:b(2,12)[B23]、ブロック番号m=17のブロック:b(2,17)[B24]、ブロック番号m=24のプロック:b(2,24)[B25]、ブロック番号m=25のブロック:b(2.25)[B26]を、連結成分から除外する。   In FIG. 9, in the connected component L (2), when the representative value of the motion vector is the motion vector V2, the motion vector of the block number m = 1: v (2,1) [V21] and the block number m = 3 Motion vector: v (2, 3) [V22], motion vector with block number m = 12: v (2, 12) [V23], motion vector with block number m = 17: v (2, 17) [V24] In the motion vector of block number m = 24: v (2, 24) [V25], the motion vector of block number m = 25: v (2, 25) [V26], the absolute value (ABS) obtained in step S33. ) Is greater than a predetermined threshold. Therefore, as shown in FIG. 10, in the connected component L (2), the block with the block number m = 1: b (2, 1) [B21], the block with the block number m = 3: b (2, 3) [ B22], block with block number m = 12: b (2,12) [B23], block with block number m = 17: b (2,17) [B24], block with block number m = 24: b (2 24) [B25], block number m = 25: b (2.25) [B26] is excluded from the connected components.

また図9において、連結成分L(5)では、動きベクトルの代表値が動きベクトルV5であるとき、ブロック番号m=11の動きベクトル:v(5,11)[V51]、ブロック番号m=16の動きベクトル:v(5,16)[V52]、ブロック番号m=24の動きベクトル:v(5,24)[V53]、ブロック番号m=25の動きベクトル:v(5,25)
[V54]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(5)では、ブロック番号m=11のブロック:b(5,11)[B51]、ブロック番号m=16のブロック:b(5,16)[B52]、ブロック番号m=24のブロック:b(5,24)[B53]、ブロック番号m=25のブロック:b(5,25)[B54]を、連結成分から除外する。
In FIG. 9, in the connected component L (5), when the representative value of the motion vector is the motion vector V5, the motion vector of the block number m = 11: v (5,11) [V51], the block number m = 16 Motion vector: v (5, 16) [V52], motion vector with block number m = 24: v (5, 24) [V53], motion vector with block number m = 25: v (5, 25)
In [V54], the absolute value (ABS) obtained in step S33 is greater than a predetermined threshold value. Therefore, as shown in FIG. 10, in the connected component L (5), the block of block number m = 11: b (5, 11) [B51], the block of block number m = 16: b (5, 16) [ B52], block with block number m = 24: b (5, 24) [B53], block with block number m = 25: b (5, 25) [B54] are excluded from the connected components.

図9において、連結成分L(6)では、動きベクトルの代表値が動きベクトルV6であるとき、ブロック番号m=1の動きベクトル:v(6,1)[V61]、ブロック番号m=24の動きベクトル:v(6,24)[V62]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(6)では、ブロック番号m=1のブロック:B(6,1)[B61]、ブロック番号m=24のブロック:B(6,24)[B62]を、連結成分から除外する。   In FIG. 9, in the connected component L (6), when the representative value of the motion vector is the motion vector V6, the motion vector of the block number m = 1: v (6,1) [V61] and the block number m = 24 In the motion vector: v (6, 24) [V62], the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold value. Therefore, as shown in FIG. 10, in the connected component L (6), the block with block number m = 1: B (6, 1) [B61], the block with block number m = 24: B (6, 24) [ B62] is excluded from the connected components.

図9において、連結成分L(9)では、動きベクトルの代表値が動きベクトルV9であるとき、ブロック番号m=1の動きベクトル:v(9,1)[V91]、ブロック番号m=3の動きベクトル:v(9,3)[V92]、ブロック番号m=6の動きベクトル:v(9,6)[V93]、ブロック番号m=11の動きベクトル:v(9,11)[V94]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(9)では、ブロック番号m=1のブロック:b(9,1)[B91]、ブロック番号m=3のブロック:b(9,3)[B92]、ブロック番号m=6のブロック:b(9,6)[B93]、ブロック番号m=11のブロックb(9,11)[B94]を、連結成分から除外する。   In FIG. 9, in the connected component L (9), when the representative value of the motion vector is the motion vector V9, the motion vector of the block number m = 1: v (9,1) [V91], the block number m = 3 Motion vector: v (9,3) [V92], motion vector with block number m = 6: v (9,6) [V93], motion vector with block number m = 11: v (9,11) [V94] In step S33, the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold value. Therefore, as shown in FIG. 10, in the connected component L (9), the block with block number m = 1: b (9, 1) [B91], the block with block number m = 3: b (9, 3) [ B92], block with block number m = 6: b (9,6) [B93] and block b (9,11) [B94] with block number m = 11 are excluded from the connected components.

<ステップS35:図6>
変数mから1を引く。
<Step S35: FIG. 6>
Subtract 1 from the variable m.

<ステップS36:図6>
変数mが0となるまで、ステップS33〜ステップS35の処理を繰り返す。変数mが0となると、連結成分L(n)において、ステップS33にて求めた絶対値(ABS)が所定の閾値より大きいとき、連結成分L(n)からブロックmを除外する処理は完了する。
<Step S36: FIG. 6>
Until the variable m becomes 0, the processing of step S33 to step S35 is repeated. When the variable m becomes 0, in the connected component L (n), when the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold, the process of excluding the block m from the connected component L (n) is completed. .

<ステップS37:図6>
変数nから1を引く。
<Step S37: FIG. 6>
Subtract 1 from variable n.

<ステップS38:図6>
変数nが0となるまで、ステップS30〜ステップS37を処理を繰り返す。変数nが0となると、各々の連結成分において、ステップS33にて求めた絶対値(ABS)が所定の閾値より大きいとき、各々の連結成分からブロックmを除外する処理は完了する。図7に示す対象ブロック集合が、ステップS21〜ステップS38に基づき処理された結果の一例を、図11に示す。
<Step S38: FIG. 6>
Steps S30 to S37 are repeated until the variable n becomes zero. When the variable n becomes 0, in each connected component, when the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold, the process of excluding the block m from each connected component is completed. An example of the result of processing the target block set shown in FIG. 7 based on steps S21 to S38 is shown in FIG.

このようにして、生成した対象ブロック集合に該当する領域を新たな対象領域集合とし、オブジェクト管理部1は、この対象ブロック集合を符号化制御部3に与える。   In this way, a region corresponding to the generated target block set is set as a new target region set, and the object management unit 1 gives this target block set to the encoding control unit 3.

符号化制御部3では、オブジェクト管理部1から対象ブロック集合を受け取り、その対象ブロック集合に対しては量子化ステップサイズを小さくするように制御し、また対象ブロック集合以外に対してはブロックの量子化ステップサイズを高くするように制御する。   The encoding control unit 3 receives the target block set from the object management unit 1 and controls the target block set so as to reduce the quantization step size. Control to increase the step size.

なお、上述したように、対象領域に対する探索範囲及び量子化ステップサイズの制御以外の入力画像に対する符号化方法は既存の符号化方法を適用することができるので、ここでの詳細な説明は省略する。   As described above, since the encoding method for the input image other than the search range and quantization step size control for the target region can be applied, the detailed description here is omitted. .

続いて、第1の実施形態の画像符号化装置100の前段にマッチングパターン部200を設けて実施した場合の動作を図6を参照しながら説明する。   Next, an operation when the matching pattern unit 200 is provided in the preceding stage of the image encoding device 100 according to the first embodiment will be described with reference to FIG.

図12に示すように、第1の実施形態の画像符号化装置100の前段にパターンマッチング部200を接続している。   As shown in FIG. 12, a pattern matching unit 200 is connected to the previous stage of the image encoding device 100 of the first embodiment.

パターンマッチング部200に入力画像が入力すると、入力画像に対しパターンマッチング部200にあらかじめ用意されているパターンとの照合をとり、マッチした領域を対象領域集合に変換して画像符号化装置100に与える。   When an input image is input to the pattern matching unit 200, the input image is compared with a pattern prepared in advance in the pattern matching unit 200, and the matched region is converted into a target region set and given to the image encoding device 100. .

画像符号化装置100に対象領域集合が入力すると、画像符号化装置100では、この対象領域集合を用いて周辺ブロック集合を生成して、その周辺ブロック集合に基づき周辺ブロック集合に属するブロックの動き探索範囲を広げ、周辺ブロック集合以外の部分の探索範囲を狭めるよう動き探索を制御し、得られた動きベクトルを用い対象領域集合を更新し、対応する対象ブロック集合を用いて対象ブロックにより小さい量子化ステップサイズを割り振るよう符号化制御を行なう。   When the target region set is input to the image encoding device 100, the image encoding device 100 generates a peripheral block set using the target region set, and based on the peripheral block set, motion search for blocks belonging to the peripheral block set Control the motion search to expand the range and narrow the search range of parts other than the surrounding block set, update the target region set using the obtained motion vector, and use the corresponding target block set to make the smaller quantization to the target block Encoding control is performed so as to allocate the step size.

(A−3)第1の実施形態の効果
以上のように、第1の実施形態によれば、対象領域の周辺ブロックの動き探索範囲を広げることで対象の動きが大きい場合でも確実に対象の追跡を行なうことができ、量子化ステップサイズを下げる対象を確実なものにすることができる。
(A-3) Effects of the First Embodiment As described above, according to the first embodiment, even if the target motion is large by expanding the motion search range of the peripheral blocks in the target region, Tracking can be performed, and the target for reducing the quantization step size can be ensured.

また、第1の実施形態によれば、他のブロックの探索範囲を狭めることで計算量を一定に保てることができ、性能の比較的低いハードウェアでも実行することができる。   Further, according to the first embodiment, the calculation amount can be kept constant by narrowing the search range of other blocks, and can be executed even with hardware having relatively low performance.

さらに、第1の実施形態によれば、符号量を適切に割り振ることで、全体の符号量に制限がある場合でも注目する対象を鮮明に符号化しつつ符号量を抑えることが可能になる。(B)第2の実施形態
次に、本発明の画像符号化装置の第2の実施形態を図面を参照しながら説明する。
Furthermore, according to the first embodiment, by appropriately allocating the code amount, it is possible to suppress the code amount while clearly encoding a target of interest even when the overall code amount is limited. (B) Second Embodiment Next, a second embodiment of the image coding apparatus of the present invention will be described with reference to the drawings.

第2の実施形態の画像符号化装置が第1の実施形態の画像符号化装置と異なる点は、オブジェクト管理部において、対象領域集合更新部が算出した対象ブロック集合の各連結成分と各連結成分の動きベクトルの代表値を記録する点である。   The difference between the image coding apparatus of the second embodiment and the image coding apparatus of the first embodiment is that, in the object management unit, each connected component and each connected component of the target block set calculated by the target region set update unit. The representative value of the motion vector is recorded.

そこで、以下では、第2の実施形態の画像符号化装置の機能と、第2の実施形態の画像符号化装置を監視映像システムの画像符号化装置として適用した場合の例を挙げて説明する。   Therefore, hereinafter, the function of the image encoding device according to the second embodiment and an example in which the image encoding device according to the second embodiment is applied as an image encoding device of a surveillance video system will be described.

(B−1)第2の実施形態の構成及び動作
図13は、第2の実施形態の画像符号化装置110を監視映像システムに適用したときの適用例を示す構成図である。
(B-1) Configuration and Operation of Second Embodiment FIG. 13 is a configuration diagram showing an application example when the image encoding device 110 of the second embodiment is applied to a surveillance video system.

図13に示すように、第2の実施形態の画像符号化装置110は、パターンマッチング部200及び動き解析部300に接続している。   As illustrated in FIG. 13, the image encoding device 110 according to the second embodiment is connected to a pattern matching unit 200 and a motion analysis unit 300.

パターンマッチング部200は、第1の実施形態と同様に、入力画像に対しパターンマッチング部200にあらかじめ用意されているパターンとの照合をとり、マッチした領域を対象領域集合に変換して画像符号化装置100に与えるものである。   Similar to the first embodiment, the pattern matching unit 200 compares an input image with a pattern prepared in advance in the pattern matching unit 200, converts the matched region into a target region set, and performs image coding. It is given to the device 100.

画像符号化装置110は、パターンマッチング部200から対象領域集合を受け取ると、第1の実施形態と同様に、動き探索の制御及び符号量の制御を行なうものである。また、第2の実施形態の画像符号化装置110は、対象領域とする対象ブロック集合を構成する連結成分とその動きベクトルの代表値を動き解析部300に与えるものである。   When receiving the target region set from the pattern matching unit 200, the image encoding device 110 performs motion search control and code amount control, as in the first embodiment. In addition, the image encoding device 110 according to the second embodiment provides the motion analysis unit 300 with the connected components constituting the target block set as the target region and the representative value of the motion vector.

なお、第2の実施形態の画像符号化装置110の内部構成は図1に示す第1の実施形態の内部構成に対応するが、オブジェクト管理部の機能が異なる。   Note that the internal configuration of the image encoding device 110 of the second embodiment corresponds to the internal configuration of the first embodiment shown in FIG. 1, but the function of the object management unit is different.

図14は、第2の実施形態のオブジェクト管理部の機能構成を示すブロック図であり、図14に示す第2の実施形態のオブジェクト管理部は、対象領域集合記録部104、周辺ブロック集合算出部102、対象領域集合更新部103を有する。   FIG. 14 is a block diagram illustrating a functional configuration of the object management unit according to the second embodiment. The object management unit according to the second embodiment illustrated in FIG. 14 includes a target area set recording unit 104 and a peripheral block set calculation unit. 102, and a target area set update unit 103.

周辺ブロック集合算出部102及び対象領域集合更新部103は、第1の実施形態で説明した構成に対応するのでここでの詳細な説明は省略する。   Since the peripheral block set calculation unit 102 and the target region set update unit 103 correspond to the configuration described in the first embodiment, detailed description thereof is omitted here.

対象領域集合記録部104は、第1の実施形態と同様に、対象領域集合を記録するメモリと入出力制御機能を備えると共に、対象領域集合更新部103が算出した対象ブロック集合を構成する各連結成分及び各連結成分の動きベクトルの代表値を記録するメモリを有する。また、対象領域集合領域104は、対象ブロック集合を構成する各連結成分及び各連結成分の動きベクトルの代表値を動く情報として出力するものである。   Similar to the first embodiment, the target area set recording unit 104 includes a memory for recording the target area set and an input / output control function, and each of the connected blocks constituting the target block set calculated by the target area set update unit 103. A memory for recording a representative value of the component and a motion vector of each connected component; The target area set area 104 outputs each connected component constituting the target block set and a representative value of a motion vector of each connected component as movement information.

動き解析部300は、画像符号化装置110から対象ブロック集合を構成する連結成分とその動きベクトルの代表値とを受け取ると、この連結成分と動きベクトルの代表値とに基づいて対象領域の動き追跡を行なうものである。また、動き解析部300は、追跡対象が入力画像の枠内にあることを判断し、枠外に出ようとする際に、追跡対象を入力画像の枠内に納まるようにカメラ制御をカメラ制御部(図示しない)に出力するものである。さらに、動き解析部300は、対象の動き解析情報を図示しない記録部に動き解析用ログ情報を記録するものである。   When the motion analysis unit 300 receives a connected component constituting the target block set and a representative value of the motion vector from the image encoding device 110, the motion analysis unit 300 performs motion tracking of the target region based on the connected component and the representative value of the motion vector. Is to do. Also, the motion analysis unit 300 determines that the tracking target is within the frame of the input image, and when trying to move out of the frame, the motion analysis unit 300 performs camera control so that the tracking target is within the frame of the input image. (Not shown). Furthermore, the motion analysis unit 300 records motion analysis log information in a recording unit (not shown) of target motion analysis information.

(B−2)第2の実施形態の効果
以上のように、第2の実施形態によれば、第1の実施形態で説明した効果と同様の効果を奏することができる。
(B-2) Effects of the Second Embodiment As described above, according to the second embodiment, the same effects as those described in the first embodiment can be achieved.

また、第2の実施形態によれば、動き情報を出力する機能を備えることにより、別途追跡機能を備える必要がないから、性能の低いハードウェアを用いる装置でも実行することができる。   In addition, according to the second embodiment, since a function for outputting motion information is provided, it is not necessary to provide a separate tracking function, and therefore, it can be executed even by an apparatus using hardware with low performance.

(C)第3の実施形態
次に、本発明の画像符号化装置の第3の実施形態を図面を参照しながら説明する。
(C) Third Embodiment Next, a third embodiment of the image encoding device of the present invention will be described with reference to the drawings.

第3の実施形態の画像符号化装置が第1の実施形態の画像符号化装置と異なる点は、オブジェクト管理部において、対象領域集合の追加や削除などの変更を制御する点である。   The image coding apparatus according to the third embodiment is different from the image coding apparatus according to the first embodiment in that the object management unit controls changes such as addition and deletion of a target area set.

そこで、以下では、第3の実施形態の画像符号化装置の機能と、第3の実施形態の画像符号化装置の適用例を挙げて説明する。   Therefore, hereinafter, the function of the image encoding device of the third embodiment and an application example of the image encoding device of the third embodiment will be described.

(C−1)第3の実施形態の構成及び動作
図15は、第2の実施形態の画像符号化装置120の適用例を示す構成図であり、図15では、画像符号化装置120は対象領域指定部400と接続している。
(C-1) Configuration and Operation of Third Embodiment FIG. 15 is a configuration diagram illustrating an application example of the image encoding device 120 of the second embodiment. In FIG. 15, the image encoding device 120 is a target. The area designation unit 400 is connected.

対象領域指定部400は、例えば利用者等の操作を受けて、追跡対象の領域指定を取り込み、その領域指定を画像符号化装置120に与えるものである。また、対象領域指定部400は、新たに追跡対象とする領域の指定を受け付けたり、既に指定した対象の削除などの指定の変更も取り込むものである。   The target area designating unit 400 receives, for example, an operation of a user or the like, takes in the area designation of the tracking target, and gives the area designation to the image encoding device 120. In addition, the target area designating unit 400 accepts designation of a new area to be tracked, and captures designation changes such as deletion of an already designated target.

これにより、対象領域指定部400で指定した領域に対してのみ動き探索範囲の拡張を行ないその他の部分に関しては量子化ステップサイズを大きく下げることができる。   As a result, the motion search range is expanded only for the region specified by the target region specifying unit 400, and the quantization step size can be greatly reduced for other portions.

なお、対象領域指定部400は、例えば、タッチパネルやポインティングデバイス等の操作により指定する対象を取り込むものを適用できる。   Note that the target area specifying unit 400 can be applied, for example, to capture a target specified by an operation of a touch panel, a pointing device, or the like.

画像符号化装置120は、第1の実施形態と同様に、動き探索の制御及び符号量の制御を行なうと共に、対象領域指定部400から対象を指定する制御信号を受け取ると、その指定された対象領域集合の追加や消去などを行なうものである。   Similar to the first embodiment, the image encoding device 120 performs motion search control and code amount control, and receives a control signal for specifying a target from the target region specifying unit 400, and the specified target This is for adding or deleting area sets.

図16は、第3の実施形態のオブジェクト管理部の機能構成を示すブロック図であり、図16に示す第2の実施形態のオブジェクト管理部は、対象領域集合記録部105、周辺ブロック集合算出部102、対象領域集合更新部103を有する。   FIG. 16 is a block diagram illustrating a functional configuration of the object management unit according to the third embodiment. The object management unit according to the second embodiment illustrated in FIG. 16 includes a target area set recording unit 105 and a peripheral block set calculation unit. 102, and a target area set update unit 103.

周辺ブロック集合算出部102及び対象領域集合更新部103は、第1の実施形態で説明した構成に対応するのでここでの詳細な説明は省略する。   Since the peripheral block set calculation unit 102 and the target region set update unit 103 correspond to the configuration described in the first embodiment, detailed description thereof is omitted here.

対象領域集合記録部105は、第1の実施形態と同様に、対象領域集合を記録するメモリと入出力制御機能を備えると共に、対象領域指定部400から対象を指定する制御信号を受け取ると、その指定された対象領域集合の追加や消去などを行なうものである。   Similar to the first embodiment, the target area set recording unit 105 includes a memory for recording the target area set and an input / output control function, and receives a control signal for specifying a target from the target area specifying unit 400. The specified target area set is added or deleted.

(C−2)第3の実施形態の効果
以上のように、第3の実施形態によれば、第1の実施形態で説明した効果と同様の効果を奏することができる。
(C-2) Effects of Third Embodiment As described above, according to the third embodiment, the same effects as those described in the first embodiment can be achieved.

また、第3の実施形態によれば、対象領域制御機能を備えることにより、インタラタティブに追跡対象に含めたり、除外することができる。その結果、はっきりと映し出したい対象とぼかしたい対象がある場合等に有効となる。   In addition, according to the third embodiment, by including the target area control function, it can be included in the tracking target interactively or excluded. As a result, this is effective when there is an object that is clearly projected and an object that is desired to be blurred.

(D)他の実施形態
上述した第1〜第3の実施形態は、動画像を符号化する符号化装置に広く適用できるが、例えば監視映像システムの画像符号化装置に適用できる。監視映像システムに適用した場合、特定の指定対象に対する符号化に必要な計算量及び符号量を多く割り当てることができるので、その指定領域の対象を鮮明な画像として得ることができ、監視する対象の追跡、動きの解析も容易になる。またこの装置を使い計算量、符号量を割り振る度合いをより大きくすることで特定対象だけを鮮明にし、その他の部分はぼかしてしまうような画像処理をリアルタイムで自動に行なうという応用も考えられる。
(D) Other Embodiments The first to third embodiments described above can be widely applied to an encoding apparatus that encodes a moving image, but can be applied to, for example, an image encoding apparatus of a surveillance video system. When applied to a surveillance video system, it is possible to allocate a large amount of calculation and code necessary for encoding a specific designated object, so that the object of the designated area can be obtained as a clear image, Tracking and motion analysis are also easy. In addition, an application may be considered in which image processing is automatically performed in real time so that only a specific object is sharpened and the other portions are blurred by increasing the degree of allocation of the calculation amount and code amount using this apparatus.

第2及び第3の実施形態で説明したそれぞれの画像符号化装置の機能を共に持ち合わせた画像符号化装置とすることもできる。   It is also possible to provide an image encoding device that has both the functions of the image encoding devices described in the second and third embodiments.

上述した第1〜第3の実施形態で説明した画像符号化装置の機能は、CPUなどのハードウェア資源がソフトウェア処理を実行することにより実現することができるものであるが、ハードウェアとして実現してもよい。   The functions of the image coding apparatus described in the first to third embodiments described above can be realized by hardware processing such as a CPU executing software processing, but are realized as hardware. May be.

第1の実施形態の画像符号化装置の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the image coding apparatus of 1st Embodiment. 第1の実施形態のオブジェクト管理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the object management part of 1st Embodiment. 第1の実施形態の周辺ブロック集合の算出処理を示すフローチャートである。It is a flowchart which shows the calculation process of the surrounding block set of 1st Embodiment. 第1の実施形態の対象領域ブロックと周辺ブロック集合との関係を説明する説明図である。It is explanatory drawing explaining the relationship between the object area | region block of 1st Embodiment, and a periphery block set. 第1の実施形態の対象ブロック集合の算出処理を示すフローチャート(疎の1)である。It is a flowchart (sparse 1) which shows the calculation process of the object block set of 1st Embodiment. 第1の実施形態の対象ブロック集合の算出処理を示すフローチャート(その2)である。It is a flowchart (the 2) which shows the calculation process of the object block set of 1st Embodiment. 第1の実施形態の対象ブロック集合における連結部分に属するブロックの一例を示す図である。It is a figure which shows an example of the block which belongs to the connection part in the object block set of 1st Embodiment. 図7に対してステップS23〜S27に基づき処理された対象ブロック集合における連結部分に属するブロックの一例を示す図である。It is a figure which shows an example of the block which belongs to the connection part in the object block set processed based on FIG.7 S23-S27. 図8に対してステップS28に基づき処理された対象ブロック集合における連結部分に属するブロックの一例を示す図である。It is a figure which shows an example of the block which belongs to the connection part in the object block set processed based on FIG.8 with respect to FIG. 図8に対してステップS29〜S34に基づき処理された対象ブロック集合における連結部分に属するブロックの一例を示す図である。It is a figure which shows an example of the block which belongs to the connection part in the object block set processed based on FIG.8 S29-S34. 図7に対してステップS21〜S38に基づき処理された対象ブロック集合における連結部分に属するブロックの一例を示す図である。It is a figure which shows an example of the block which belongs to the connection part in the object block set processed based on FIG.7 S21-S38. 第1の実施形態の画像符号化装置の適用例を示す構成図である。It is a block diagram which shows the example of application of the image coding apparatus of 1st Embodiment. 第2の実施形態の画像符号化装置の適用例を示す構成図である。It is a block diagram which shows the example of application of the image coding apparatus of 2nd Embodiment. 第2の実施形態のオブジェクト管理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the object management part of 2nd Embodiment. 第3の実施形態の画像符号化装置の適用例を示す構成図である。It is a block diagram which shows the example of application of the image coding apparatus of 3rd Embodiment. 第3の実施形態のオブジェクト管理部の機能構成を示すブロック図である。It is a block diagram which shows the function structure of the object management part of 3rd Embodiment.

符号の説明Explanation of symbols

1…オブジェクト管理部、101、104及び105…対象領域集合記録部、102…周辺ブロック集合算出部、103…対象領域集合更新部、2…探索範囲制御部、3…符号化制御部、4…mv検出部、5…インター予測部、6…イントラ予測部、7…ブロック分割部、8…直交変換部、9…量子化部、10…エントロピー符号化部、11…逆量子化部、12…直交逆変換部、13…モード選択部、14…フレームバッファ、15…バッファ管理部、16…フレームバッファ、100、110及び120…画像符号化装置、200…パターンマッチング部、300…動き解析部、400…対象領域指定部。   DESCRIPTION OF SYMBOLS 1 ... Object management part, 101, 104 and 105 ... Target area set recording part, 102 ... Peripheral block set calculation part, 103 ... Target area set update part, 2 ... Search range control part, 3 ... Encoding control part, 4 ... mv detection unit, 5 ... inter prediction unit, 6 ... intra prediction unit, 7 ... block division unit, 8 ... orthogonal transform unit, 9 ... quantization unit, 10 ... entropy coding unit, 11 ... inverse quantization unit, 12 ... Orthogonal inverse transform unit, 13 ... mode selection unit, 14 ... frame buffer, 15 ... buffer management unit, 16 ... frame buffer, 100, 110 and 120 ... image encoding device, 200 ... pattern matching unit, 300 ... motion analysis unit, 400... Target area designation unit.

Claims (4)

動画像を符号化する画像符号化装置において、
指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理手段と、
上記画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定手段と、
上記周辺領域決定手段により決定された上記周辺領域に対しては動き探索の探索範囲を広げるようにし、上記周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御手段と、
上記探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出手段と、
上記動きベクトル検出手段により検出された動きベクトルと上記周辺領域とに基づいて上記画像中の指定対象の対象領域を更新する対象領域更新手段と、
上記対象領域管理手段が管理する上記画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御手段と
を備えることを特徴とする画像符号化装置。
In an image encoding device for encoding a moving image,
Target area management means for managing a target area indicating a position of a specified target in a specified image;
A peripheral region determining means for determining a peripheral region including a target region to be specified in the image;
A search range in which the search range for motion search is expanded for the peripheral region determined by the peripheral region determination means, and the search range for motion search is narrowed for regions other than the peripheral region. Control means;
Motion vector detection means for detecting a motion vector within the search range controlled by the search range control means;
Target area update means for updating the target area to be specified in the image based on the motion vector detected by the motion vector detection means and the peripheral area;
An image encoding apparatus comprising: an encoding control unit configured to encode a target region to be specified in the image managed by the target region management unit with a quantization step size set small.
上記対象領域更新手段が、更新した新たな対象領域において、隣接するブロックをまとめて構成した1又は複数の連結成分と、各連結成分を構成する各ブロックの動きベクトルに基づいて各連結成分の動きベクトルの代表値とを求めることを特徴とする請求項1に記載の画像符号化装置。   In the new target region updated by the target region update means, the motion of each connected component based on one or a plurality of connected components configured by grouping adjacent blocks and the motion vector of each block constituting each connected component 2. The image encoding apparatus according to claim 1, wherein a representative value of the vector is obtained. 上記対象領域管理手段が、上記対象領域更新手段により更新された新たな対象領域、上記対象領域における各連結成分と、上記各連結成分の動きベクトルの代表値とを保持することを特徴とする請求項2に記載の画像符号化装置。   The target area management means holds a new target area updated by the target area update means, each connected component in the target area, and a representative value of a motion vector of each connected component. Item 3. The image encoding device according to Item 2. 動画像を符号化する画像符号化方法において、
対象領域管理手段が、指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理工程と、
周辺領域決定手段が、上記画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定工程と、
探索範囲制御手段が、上記周辺領域決定手段により決定された上記周辺領域に対しては動き探索の探索範囲を広げるようにし、上記周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御工程と、
動きベクトル検出手段が、上記探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出工程と、
対象領域更新手段が、上記動きベクトル検出手段により検出された動きベクトルと上記周辺領域とに基づいて上記画像中の指定対象の対象領域を更新する対象領域更新工程と、
符号化制御手段が、上記対象領域管理手段が管理する上記画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御工程と
を備えることを特徴とする画像符号化方法。
In an image encoding method for encoding a moving image,
A target area management means for managing a target area indicating a position of a specified target in a specified image;
A peripheral region determining step for determining a peripheral region including a target region to be specified in the image;
The search range control means widens the search range of motion search for the peripheral area determined by the peripheral area determination means, and narrows the search range of motion search for areas other than the peripheral area. A search range control step for controlling
A motion vector detection step in which the motion vector detection means detects a motion vector within the search range controlled by the search range control means;
A target region update step in which the target region update unit updates the target region of the designation target in the image based on the motion vector detected by the motion vector detection unit and the peripheral region;
An encoding control unit comprising: an encoding control step for encoding with a small quantization step size set for a target region to be specified in the image managed by the target region management unit. An image encoding method to be performed.
JP2006251231A 2006-09-15 2006-09-15 Apparatus and method for encoding image Pending JP2008072608A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006251231A JP2008072608A (en) 2006-09-15 2006-09-15 Apparatus and method for encoding image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006251231A JP2008072608A (en) 2006-09-15 2006-09-15 Apparatus and method for encoding image

Publications (1)

Publication Number Publication Date
JP2008072608A true JP2008072608A (en) 2008-03-27

Family

ID=39293765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006251231A Pending JP2008072608A (en) 2006-09-15 2006-09-15 Apparatus and method for encoding image

Country Status (1)

Country Link
JP (1) JP2008072608A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190268605A1 (en) * 2018-02-27 2019-08-29 Canon Kabushiki Kaisha Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium
US20190268606A1 (en) * 2018-02-27 2019-08-29 Canon Kabushiki Kaisha Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190268605A1 (en) * 2018-02-27 2019-08-29 Canon Kabushiki Kaisha Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium
US20190268606A1 (en) * 2018-02-27 2019-08-29 Canon Kabushiki Kaisha Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium
JP2019149722A (en) * 2018-02-27 2019-09-05 キヤノン株式会社 Moving image coding apparatus, control method of the same, and program
US10897621B2 (en) * 2018-02-27 2021-01-19 Canon Kabushiki Kaisha Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium
JP7072401B2 (en) 2018-02-27 2022-05-20 キヤノン株式会社 Moving image coding device, control method and program of moving image coding device

Similar Documents

Publication Publication Date Title
EP1389016B1 (en) Improved motion estimation and block matching pattern
US10291925B2 (en) Techniques for hardware video encoding
CN100468982C (en) Method and apparatus for performing high quality fast predictive motion search
US8488678B2 (en) Moving image encoding apparatus and moving image encoding method
US20150172687A1 (en) Multiple-candidate motion estimation with advanced spatial filtering of differential motion vectors
US20090067504A1 (en) Real-time video coding/decoding
US20060115167A1 (en) Image processing apparatus and method of the same
KR100843418B1 (en) Apparatus and method for image coding
JP5216710B2 (en) Decryption processing method
KR20070088322A (en) Apparatus and method for computing motion vector
US20190261001A1 (en) Encoding video using palette prediction and intra-block copy
CN108401185B (en) Reference frame selection method, video transcoding method, electronic device and storage medium
CN113422959A (en) Video encoding and decoding method and device, electronic equipment and storage medium
JP4898415B2 (en) Moving picture coding apparatus and moving picture coding method
JP2012129791A (en) Image encoder
JP2008072608A (en) Apparatus and method for encoding image
US11528485B2 (en) Encoding apparatus and program
JP2002247584A (en) Method and device for encoding image, program for image encoding processing, and recording medium for the program
CN113810692A (en) Method for framing changes and movements, image processing apparatus and program product
US10397566B2 (en) Image coding apparatus, image coding method, and program
US6332001B1 (en) Method of coding image data
JP5171658B2 (en) Image encoding device
KR100529331B1 (en) Method of estimating motion vector in layered frame structure
JP2009118097A (en) Image encoder, its control method, and computer program
JPH11275587A (en) Motion vector generator, image coder, motion vector generating method and image coding method