JP2008072608A - Apparatus and method for encoding image - Google Patents
Apparatus and method for encoding image Download PDFInfo
- Publication number
- JP2008072608A JP2008072608A JP2006251231A JP2006251231A JP2008072608A JP 2008072608 A JP2008072608 A JP 2008072608A JP 2006251231 A JP2006251231 A JP 2006251231A JP 2006251231 A JP2006251231 A JP 2006251231A JP 2008072608 A JP2008072608 A JP 2008072608A
- Authority
- JP
- Japan
- Prior art keywords
- image
- target
- motion vector
- unit
- block
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像符号化装置及び画像符号化方法に関し、例えば、動画像を圧縮するために、動画像データに対して符号化処理を行ない、符号化画像データを出力する画像符号化装置及び画像符号化方法に適用し得る。 The present invention relates to an image encoding device and an image encoding method, for example, an image encoding device that performs encoding processing on moving image data and outputs encoded image data in order to compress a moving image, and an image It can be applied to an encoding method.
動画像を圧縮するために動画像データに対する符号化方式として、一般にMPEGで規格化された標準化技術が用いられている。MPEG規格の画像符号化方法は、動画像の各フレームを小ブロックに分割し、マクロブロックと呼ばれるブロック単位で符号化処理を行なうものであり、その符号化処理は大別してイントラ符号化とインター符号化との2種類に分類される。 In order to compress moving images, a standardization technique standardized by MPEG is generally used as an encoding method for moving image data. The MPEG standard image encoding method divides each frame of a moving image into small blocks and performs encoding processing in units of blocks called macroblocks. The encoding processing is roughly divided into intra encoding and inter encoding. It is classified into two types.
イントラ符号化とは、動画像の各フレーム内で隣接する画素間の相関関係を利用した圧縮処理である。イントラ符号化方法は、入力画像の1フレームを各ブロックに分割し、ブロック毎に離散コサイン変換(DCT)を施してから量子化し、量子化したDCT係数に対して可変長符号化をする。 Intra coding is a compression process that uses the correlation between adjacent pixels in each frame of a moving image. In the intra coding method, one frame of an input image is divided into blocks, subjected to discrete cosine transform (DCT) for each block, quantized, and variable length coding is performed on the quantized DCT coefficients.
インター符号化とは、動画像のフレーム間の差分信号を符号化する処理である。インター符号化方法は、これから符号化処理をする符号化対象画像と参照画像から求めた動きベクトルに基づき、動き補償して最適な予測マクロブロックを取得し、この予測マクロブロックと符号化対象のマクロブロックとの差分信号を求める。そして、その差分信号に対してDCTを施してから量子化し、量子化したDCT係数を動きベクトルや量子化ステップサイズと共に可変長符号化する。 Inter coding is a process of coding a difference signal between frames of a moving image. The inter coding method obtains an optimal prediction macroblock by performing motion compensation on the basis of a motion vector obtained from an encoding target image to be encoded and a reference image, and the prediction macroblock and a macro to be encoded. Find the difference signal from the block. The differential signal is quantized after being subjected to DCT, and the quantized DCT coefficient is variable-length encoded together with the motion vector and the quantization step size.
ここで、符号化対象画像と参照画像のそれぞれのブロック間で最も似ているブロックを探索することを動き探索といい、この動き探索により求められたブロックの位置の時間方向のずれを動きベクトルという。 Here, searching for the most similar block between the respective blocks of the encoding target image and the reference image is referred to as motion search, and the shift in the time direction of the position of the block obtained by the motion search is referred to as a motion vector. .
従来、画像符号化装置における動き探索方式は、例えば特許文献1及び2に示すように、例えば、それぞれの画像の位置において一定の探索範囲を設けたり、又例えば、周辺の動きベクトルの大きさに応じて探索範囲を決定したりし、このようにして決定した探索範囲の中で最も似ているブロックを検索して動きを検出している。
Conventionally, as shown in
また、画像符号化装置のおけるDCT係数の量子化の際、量子化の幅を示す量子化ステップサイズは、動画像の各フレームに対して分割した全てのブロックについて一定のものとしたり、また動画像に割り当てられた符号量と各係数値に応じて決定したりしている。 In addition, when the DCT coefficient is quantized in the image coding apparatus, the quantization step size indicating the quantization width is constant for all blocks divided for each frame of the moving image, It is determined according to the code amount allocated to the image and each coefficient value.
ところで、画像を符号化する際、ある特定の指定領域のみを鮮明に映し出すことが強く望まれることがある。例えば、監視映像などの動画像の符号化処理においては、映像中の監視対象の画質を向上させ、監視対象の特定の容易化を図ることができる。 By the way, when an image is encoded, it may be strongly desired that only a specific designated area is clearly displayed. For example, in the process of encoding a moving image such as a monitoring video, it is possible to improve the image quality of the monitoring target in the video and facilitate the identification of the monitoring target.
しかしながら、上述した従来の符号化装置において、探索範囲が広くなると、それにつれて計算量、符号量が増大するため、ハードウェアの処理負荷が異なる。そのため、ハードウェアの性能に応じて探索範囲が限定されてしまい、例えば広い探索範囲を必要とする場合などは結果的に動きの検索がうまくいかず、注目したい対象が不鮮明になる場合がある。 However, in the above-described conventional encoding device, when the search range is widened, the calculation amount and the code amount increase accordingly, so that the hardware processing load differs. For this reason, the search range is limited according to the performance of the hardware. For example, when a wide search range is required, the motion search may not be successful, and the target to be noticed may be unclear.
また、DCT係数の量子化処理では、符号量の軽減のためにDCT係数を量子化ステップサイズで割り算して余りを丸め込んでいるが、復号の際には、量子化値に量子化ステップサイズを掛けることで復元しているから、正確な値を復元できず歪みが生じてしまう。なお、この歪みは、量子化ステップサイズが小さくなればなるほど小さくなる。 Also, in the DCT coefficient quantization process, the DCT coefficient is divided by the quantization step size to round down the remainder in order to reduce the code amount, but at the time of decoding, the quantization step size is added to the quantization value. Since it is restored by multiplying, an accurate value cannot be restored and distortion occurs. This distortion becomes smaller as the quantization step size becomes smaller.
しかしながら、量子化ステップサイズは、上述したように、使用できる符号量に規定されているから、必ずしも注目したい対象が鮮明に映るとは限らない。 However, since the quantization step size is defined by the code amount that can be used as described above, the target to be noticed does not always appear clearly.
そのため、画像中において指定された対象の動き探索が他の部分よりうまくいく必要があり、他の部分に比べより符号量を多く割り当てることができる画像符号化装置及び画像符号化方法が求められている。 Therefore, there is a need for an image encoding device and an image encoding method that can perform motion search of a target specified in an image more successfully than other portions, and can allocate a larger amount of code than other portions. Yes.
かかる課題を解決するために、第1の本発明の画像符号化装置は、動画像を符号化する画像符号化装置において、(1)指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理手段と、(2)画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定手段と、(3)周辺領域決定手段により決定された周辺領域に対しては動き探索の探索範囲を広げるようにし、周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御手段と、(4)探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出手段と、(5)動きベクトル検出手段により検出された動きベクトルと周辺領域とに基づいて画像中の指定対象の対象領域を更新する対象領域更新手段と、(6)対象領域管理手段が管理する画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御手段とを備えることを特徴とする。 In order to solve such a problem, an image encoding device according to a first aspect of the present invention is an image encoding device that encodes a moving image. (1) A target region indicating a position of a specified target in a specified image is displayed. A target area management means for managing; (2) a peripheral area determining means for determining a peripheral area including a target area to be specified in an image; and (3) a peripheral area determined by the peripheral area determining means. Search range control means for controlling the search range for motion search so that the search range for motion search is expanded and the search range for motion search is narrowed for areas other than the surrounding area; and (4) within the search range controlled by the search range control means. Motion vector detection means for detecting a motion vector in (5), and (5) target area update means for updating the target area to be designated in the image based on the motion vector detected by the motion vector detection means and the peripheral area; (6) to the target area of the specified object in the image managed by the target area management means, characterized in that it comprises a coding control means for coding is set smaller quantization step size.
第2の本発明の画像符号化方法は、動画像を符号化する画像符号化方法において、(1)対象領域管理手段が、指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理工程と、(2)周辺領域決定手段が、画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定工程と、(3)探索範囲制御手段が、周辺領域決定手段により決定された周辺領域に対しては動き探索の探索範囲を広げるようにし、周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御工程と、(4)動きベクトル検出手段が、探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出工程と、(5)対象領域更新手段が、動きベクトル検出手段により検出された動きベクトルと周辺領域とに基づいて画像中の指定対象の対象領域を更新する対象領域更新工程と、(6)符号化制御手段が、対象領域管理手段が管理する画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御工程とを備えることを特徴とする。 The image encoding method according to the second aspect of the present invention is the image encoding method for encoding a moving image, wherein (1) the target area management means manages a target area indicating the position of the specified target in the specified image. A target region management step, (2) a peripheral region determination step in which the peripheral region determination unit determines a peripheral region including the target region to be specified in the image, and (3) a search range control unit includes a peripheral region determination unit. (4) a search range control step for performing control so that the search range for motion search is expanded for the peripheral region determined by the above, and the search range for motion search is narrowed for regions other than the peripheral region; A motion vector detection step in which the motion vector detection means detects a motion vector within the search range controlled by the search range control means; and (5) a motion vector detected by the motion vector detection means by the target region update means. A target area update step of updating the target area to be specified in the image based on the peripheral area, and (6) the encoding control means for the target area to be specified in the image managed by the target area management means And an encoding control step for encoding with a small quantization step size.
本発明によれば、画像中の指定領域に対する符号化に必要な計算量及び符号量を多く配分することができるため、全体としての計算量及び符号量を抑えながら、指定領域をより鮮明な符号化をすることができ、かつ指定領域の動き情報を提供することができる。 According to the present invention, it is possible to allocate a large amount of calculation and code necessary for encoding a specified area in an image, so that the specified area can be coded more clearly while suppressing the calculation amount and code amount as a whole. And motion information of a designated area can be provided.
(A)第1の実施形態
以下、本発明の画像符号化装置の第1の実施形態を図面を参照しながら説明する。
(A) First Embodiment Hereinafter, a first embodiment of an image encoding device of the present invention will be described with reference to the drawings.
第1の実施形態は、入力画像を圧縮するために画像データに対して符号化処理を行なう画像符号化装置に、本発明の画像符号化装置を適用した場合を説明する。 In the first embodiment, a case where the image coding apparatus of the present invention is applied to an image coding apparatus that performs coding processing on image data to compress an input image will be described.
(A−1)第1の実施形態の構成
図1は、第1の実施形態の画像符号化装置100の主な構成を示すブロック図である。図1に示すように、第1の実施形態の画像符号化装置100は、オブジェクト管理部1、探索範囲制御部2、符号化制御部3、mv検出部4、インター予測部、イントラ予測部6、ブロック分割部7、直交変換部8、量子化部9、エントロピー符号化部10、逆量子化部11、直交逆変換部12、モード選択部13、フレームバッファ14、バッファ管理部15、フレームバッファ16、を有して構成される。
(A-1) Configuration of the First Embodiment FIG. 1 is a block diagram showing the main configuration of the
第1の実施形態では、オブジェクト管理部1、探索範囲制御部2、符号化制御部3、mv検出部4、及び、インター予測部5の機能が従来の画像符号化装置と異なるものであり、これら以外の構成は従来の画像符号化装置の構成に対応する。
In the first embodiment, the functions of the
ブロック分割部7は、入力画像を取り込み、その入力画像をブロック(第1の実施形態では、縦横16画素の矩形の画素集合のブロック)に分割するものである。また、ブロック分割部7は、ブロック化した入力画像を直交変換部8及びmv検出部4に与えるものである。
The block dividing
直交変換部8は、予測画像(インター予測の場合入力画像のブロックに最も似ている参照画像のブロック、イントラ予測の場合ブロックの左と上の周辺画素を使って計算した画素値)との差分を直交変換するものである。また、直交変換部は、周波数変換した変換係数を量子化部9に与えるものである。
The
量子化部9は、直交変換部8により周波数変換された変換係数を量子化し、量子化した量子化値を逆量子化部11及びエントロピー符号化部10に与えるものである。
The
エントロピー符号化部10は、量子化部9から量子化された変換係数、動きベクトル等をエントロピー符号化するものである。
The
逆量子化部11は、インター予測部5で参照画像として使用するためのローカルデコード画像を作成するため、量子化部9により量子化されたものに対して逆量子化を行なうものである。また、逆量子化部11は、逆量子化した信号を直交逆変換部12に与えるものである。
The
直交逆変換部12は、ローカルデコード画像を求めるために、逆量子化部11により逆量子化された信号に対して直交逆変換を行なうものである。また、直交逆変換部12は、直交逆変換したデータと参照画像とを合成したローカルデコード画像をフレームバッファ14に与えるものである。
The orthogonal
フレームバッファ14は、ローカルデコード画像のフレームを保持するものである。また、フレームバッファ14は、保持している画像フレームを参照画像フレームとしてイントラ予測部6及びバッファ管理部15に与えるものである。
The
イントラ予測部6は、フレームバッファ14から参照画像フレームを受け取り、現画像フレームと参照画像フレーム間のイントラ予測を行ない、その予測画像をモード選択部13を介して直交変換部8及びエントロピー符号化部10に与えるものである。
The
バッファ管理部15は、フレームバッファ14に保持される参照画像フレームを管理するものである。
The
フレームバッファ16は、バッファ管理部15から与えられた参照画像フレームを保持するものであり、保持している参照画像フレームをインター予測部5及びmv検出部4に与えるものである。
The
インター予測部5は、フレームバッファ16からの参照画像フレームと、mv検出部4からの動きベクトルとに基づいて、インター予測を行なうものである。また、インター予測部5は、モード選択部13を介して予測画像を直交変換部8に与えるものである。
The
モード選択部13は、インター予測部5とイントラ予測部6が求めた予測画像のうち、最適なものを選択するものであり、選択した予測画像を直交変換部8に与えるものである。また、モード選択部13は、選択した予測モードを符号化制御部3及びバッファ管理部15に通知するものである。
The
オブジェクト管理部1は、画像中において指定された指定対象が占める対象領域を管理するものである。オブジェクト管理部1は、入力した対象領域集合を受け取ると、参照画像の対象領域集合に含まれるブロックと最もよくマッチングする(最もよく似ている)ブロックを、入力画像の周辺ブロック集合から探し出し、追跡するものである。また、オブジェクト管理部1は、記録する対象領域集合を探索範囲制御部2に与えるものである。さらに、オブジェクト管理部1は、mv検出部4から動きベクトルを受け取り、受け取った動きベクトルに基づいて対象領域のブロック集合を更新し、その更新した対象領域のブロック集合を記録すると共に、その更新した対象領域のブロック集合を符号化制御部3に与えるものである。
The
ここで、対象領域集合とは、注目の対象となる領域の集合であり、オブジェクト管理部1は、対象領域を、例えばブロックのブロック番号やピクセル位置や画像の各行の指定範囲として管理する。また、この対象領域集合の指定方法は、種々の方法を適用することができる。
Here, the target area set is a set of areas to be noticed, and the
また、周辺ブロック集合とは、入力画像の対象領域集合から所定距離以内の周辺に位置するブロックのブロック番号の集合である。また、周辺ブロック集合を決定するための対象領域集合からの距離は通常の探索範囲より大きくとるものとする。 The peripheral block set is a set of block numbers of blocks located in the periphery within a predetermined distance from the target area set of the input image. Further, the distance from the target area set for determining the peripheral block set is assumed to be larger than the normal search range.
図2は、オブジェクト管理部1の機能構成を示すブロック図であり、図2に示すように、オブジェクト管理部1は、対象領域集合記録部101、周辺ブロック集合算出部102、対象領域集合更新部103を有する。
FIG. 2 is a block diagram illustrating a functional configuration of the
対象領域集合記録部101は、対象領域集合と対象ブロック集合を記録するメモリと入出力制御機能を有するものであり、対象領域集合を受け取ると、対象領域集合を記録すると共に、その対象領域集合を周辺ブロック集合算出部102に与えるものである。また、対象領域集合記録部101は、対象領域集合更新部103により動きベクトルに応じて更新された対象領域集合を記録する。
The target area set
周辺ブロック集合算出部102は、対象領域集合記録部101から対象領域集合を受け取ると、その対象領域集合から所定距離以内に位置する周辺のブロックのブロック番号を求めて周辺ブロック集合を生成するものである。また、周辺ブロック集合算出部12は、求めた周辺ブロック集合を探索範囲制御部2に与える。
When the peripheral block set
対象領域集合更新部103は、mv検出部4から動きベクトルを受け取ると、その動きベクトルに基づいて対象ブロック集合を生成し、生成した対象ブロック集合を新たな対象領域集合として対象領域集合記録部11に与えて記録させるものである。
Upon receiving the motion vector from the
探索範囲制御部2は、mv検出部4による動きを検出する範囲を制御するものであり、オブジェクト管理部1から周辺ブロック集合を受け取ると、周辺ブロック集合に属するブロックに対して、通常の探索範囲に加えて、周辺ブロック集合算出部102で算出した対象領域ブロックの一部(周辺ブロック集合算出部102で使用した探索範囲内にある)を探索し、それ以外のブロックの探索範囲は狭めるものである。
The search
mv検出部4は、フレームバッファ16からの参照画像フレームと、ブロック分割部7からの入力画像フレームとを比較して、動きベクトルを検出するものである。また、mv検出部4は、検出した動きベクトルをオブジェクト管理部1、インター予測部5及びエントロピー符号化部10に与えるものである。
The
符号化制御部3は、オブジェクト管理部1から対象ブロック集合を受け取ると、その対象ブロック集合に対しては量子化ステップサイズを小さくするように制御し、また対象ブロック集合以外に対してはブロックの量子化ステップサイズを高くするように制御するものである。このように、対象ブロック集合について量子化ステップサイズを小さくすることで、復号側で復号処理をする際、DCT係数の値の歪みを小さくすることができるので、画像中の指定対象を鮮明に映し出すことができる。
When the encoding control unit 3 receives the target block set from the
(A−2)第1の実施形態の動作
次に、第1の実施形態の画像符号化装置100の動画像の符号化処理の動作を説明する。
(A-2) Operation of the First Embodiment Next, the operation of the moving image encoding process of the
図1において、まず、注目したい対象の領域指定を受けると、その領域指定に対応する対象領域集合がオブジェクト管理部1に与えられる。
In FIG. 1, first, when a target area designation to be noticed is received, a target area set corresponding to the area designation is given to the
対象領域集合がオブジェクト管理部1に与えられると、オブジェクト管理部1の対象領域集合記録部101に対象領域集合が記録されると共に、対象領域集合は周辺ブロック集合算出部102に与えられ、周辺ブロック集合算出部102により周辺ブロック集合が算出される。
When the target area set is given to the
ここで、図3は、周辺ブロック集合算出部102における周辺ブロック算出処理を示すフローチャートであり、また図4は、対象領域ブロックと周辺ブロック集合との関係を説明する説明図である。
Here, FIG. 3 is a flowchart showing the peripheral block calculation processing in the peripheral block set
図3において、まず、入力した画像についてブロックに分割する(S11)。このとき、図1に示すブロック分割部7により分割されたブロックを用いるようにしてもよい。
In FIG. 3, first, the inputted image is divided into blocks (S11). At this time, you may make it use the block divided | segmented by the
次に、対象領域集合記録部101から対象領域集合を受け取ると、その対象領域集合が参照画像の各ブロックに該当するものを含むか否かを判断し、対象領域集合が参照画像の各ブロックに含まれるときに、当該対象領域に対応するブロックを特定し(S12)、これらブロックを対象領域ブロックとする。
Next, when the target area set is received from the target area set
そして、対象領域ブロックを構成する各ブロックから所定範囲以内に位置するブロックを周辺ブロックとして特定し(S13)、対象領域ブロック及び周辺ブロックを含むブロック番号を周辺ブロック集合として算出する。 Then, a block located within a predetermined range from each block constituting the target area block is specified as a peripheral block (S13), and block numbers including the target area block and the peripheral block are calculated as a peripheral block set.
図4では、対象領域ブロックを構成する各ブロックから2ブロック以内に位置するブロックを周辺ブロックとした場合の例を示す。また、図4にも示すように、周辺ブロック集合算出部102が求めた周辺ブロック集合には対象領域ブロックが含まれるものとする。
FIG. 4 shows an example in which a block located within two blocks from each block constituting the target area block is a peripheral block. Also, as shown in FIG. 4, it is assumed that the peripheral block set obtained by the peripheral block set
このようにして、周辺ブロック集合算出部102により周辺ブロック集合が算出されると、周辺ブロック集合は探索範囲制御部2に与えられ、探索範囲制御部2により探索範囲が制御される。
Thus, when the peripheral block set is calculated by the peripheral block set calculating
すなわち、探索範囲制御部2では、周辺ブロック集合を構成するブロックについては、通常の探索範囲に対象領域ブロックの一部を加えて探索範囲を広げるように制御し、周辺ブロック集合のブロック以外については探索範囲を狭めるように制御する。
That is, the search
これにより、対象領域の探索範囲を広げることができるため注目したい対象が広い領域を持つものであっても対応することができる。また、その一方で、対象領域に係る動き探索の計算量は増大するが、当該対象領域以外の部分の動き探索の計算量を軽減することができるので、全体としては過大な処理負荷はかからず、注目したい対象に対して集中的に計算させて鮮明にすることができる。 Thus, since the search range of the target area can be expanded, it is possible to deal with even if the target to be noticed has a wide area. On the other hand, although the calculation amount of motion search related to the target region increases, the calculation amount of motion search of the portion other than the target region can be reduced, so that the overall processing load is large. Instead, it can be intensively calculated for an object to be noticed to make it clear.
探索範囲制御部2より制御された探索範囲はmv検出部4に与えられると、mv検索部4では、探索範囲を用いて、参照画像フレーム及び入力画像フレームに基づいて動きベクトルを検出し、その検出した動きベクトルをオブジェクト管理部1に与える。
When the search range controlled by the search
mv検出部4からの動きベクトルがオブジェクト管理部1に与えられると、オブジェクト管理部1の対象領域集合更新部103により、新たな対象領域に更新されて、その新たな対象領域が対象領域集合記録部101に記録される。
When the motion vector from the
図5及び図6における処理の内容は、次のステップS21〜ステップS38に基づき処理される。 The contents of the processing in FIGS. 5 and 6 are processed based on the following steps S21 to S38.
<ステップS21・図5>
まず、周辺ブロック集合を構成する全てのブロックの中で、ブロックの動きベクトルが指す位置が対象領域集合に属する場合、この周辺ブロック集合に属するブロックを対象ブロック集合に入れる。
<Step S21, FIG. 5>
First, when the position indicated by the motion vector of a block belongs to the target area set among all the blocks constituting the peripheral block set, the block belonging to the peripheral block set is put into the target block set.
<ステップS22:図5>
次に、対象ブロック集合における連結成分を求める。ここで、連結成分とは、隣接する一塊のブロックの集合であり、あるブロックが連結成分に属するとは、隣接する連結成分に属するブロックを通って連結成分内の任意のブロックにたどり着けるということである。連結成分として求めたブロックには、おのおの1から2,3,…,Nと順々にブロック番号を割り当てることにより、各連結成分は、連結成分に属するブロックのブロック番号の集合で表すことが出来るようにする。図7には、連結成分が9つ存在するものを一例として示す。また、連結成分L(1)はブロック番号:1〜6からなる集合、連結成分L(2)はブロック番号:1〜25からなる集合、連結成分L(3)はブロック番号:1〜5からなる集合、連結成分L(4)はブロック番号:1〜5からなる集合、連結成分L(5)はブロック番号:1〜25からなる集合、連結成分L(6)はブロック番号:1〜24からなる集合、連結成分L(7)はブロック番号:1〜5からなる集合、連結成分L(8)はブロック番号:1〜5からなる集合、連結成分L(g)はブロック番号1〜24からなる集合である。
<Step S22: FIG. 5>
Next, a connected component in the target block set is obtained. Here, a connected component is a set of blocks of adjacent blocks, and a block belongs to a connected component means that it can reach an arbitrary block in the connected component through a block belonging to the adjacent connected component. is there. Each block obtained as a connected component is assigned a block number in order of 1 to 2, 3,..., N, so that each connected component can be represented by a set of block numbers of blocks belonging to the connected component. Like that. FIG. 7 shows an example in which nine connected components exist. The connected component L (1) is a set composed of block numbers: 1 to 6, the connected component L (2) is a set composed of block numbers: 1 to 25, and the connected component L (3) is composed of block numbers: 1 to 5. The connected component L (4) is a set consisting of block numbers: 1 to 5, the connected component L (5) is a set consisting of block numbers: 1 to 25, and the connected component L (6) is a block number: 1-24. The connected component L (7) is a set consisting of block numbers: 1 to 5, the connected component L (8) is a set consisting of block numbers: 1 to 5, and the connected component L (g) is a block number 1-24. Is a set of
<ステップS23:図5>
次に、変数nに、求めた連結成分の数(図7の例では9)を代入する。
<Step S23: FIG. 5>
Next, the obtained number of connected components (9 in the example of FIG. 7) is substituted into the variable n.
<ステップS24:図5>
そして、連結部分L(n)の大きさ(例えば、連結部分L(n)を構成するブロック数)が、ある大きさ以下ならばステップS25に進み、ある大きさより大きいならばステップS26に進む。
<Step S24: FIG. 5>
If the size of the connection portion L (n) (for example, the number of blocks constituting the connection portion L (n)) is less than a certain size, the process proceeds to step S25, and if greater than a certain size, the process proceeds to step S26.
<ステップS25:図5>
対象ブロック集合から、連結成分L(n)を除外する。
<Step S25: FIG. 5>
The connected component L (n) is excluded from the target block set.
<ステップS26:図5>
変数nから1を引く。
<Step S26: FIG. 5>
Subtract 1 from variable n.
<ステップS27:図5>
変数nが0となるまで、ステップS24〜ステップS26の処理を繰り返す。変数nが0となると、求めた連結成分の全てにおいて、各々の連結成分の大きさ(各々の連結部分を構成するブロック数)がある閾値以下となるものは、対象ブロック集合から除外される。例えば、対象ブロック集合は、図7のように求めた連結成分L(1)から求めた連結成分L(9)とする。ステップS21〜ステップS27において、連結成分の大きさ(連結部分を構成するブロック数)が6以下なら、対象ブロック集合から連結成分L(n)を除外するとしたとき、連結成分L(1)、連結成分L(3)、連結成分L(4)、連結成分L(7)、連結成分L(8)が除外され、連結成分L(2)、連結成分L(5)、連結成分L(6)、連結成分L(9)が残る。この図7に対してステップS23〜ステップS27の処理をした結果の一例を図8に表す。図8における連結成分の数は、9から4となる。
<Step S27: FIG. 5>
The process from step S24 to step S26 is repeated until the variable n becomes 0. When the variable n becomes 0, in all of the obtained connected components, the size of each connected component (the number of blocks constituting each connected portion) is less than a certain threshold value is excluded from the target block set. For example, the target block set is a connected component L (9) obtained from the connected component L (1) obtained as shown in FIG. In step S21 to step S27, if the size of the connected component (the number of blocks constituting the connected portion) is 6 or less, when the connected component L (n) is excluded from the target block set, the connected component L (1), connected Component L (3), connected component L (4), connected component L (7), connected component L (8) are excluded, connected component L (2), connected component L (5), connected component L (6) The connected component L (9) remains. FIG. 8 shows an example of a result obtained by performing the processing from step S23 to step S27 on FIG. The number of connected components in FIG.
<ステップ528〜ステップ536>
各連結成分において、動きベクトルの大きさが他の動きベクトルの大きさと大きく異なっているブロックを連結成分から除外する(ステップS28〜ステップS36)。
<Step 528 to Step 536>
In each connected component, blocks whose motion vectors are significantly different from other motion vectors are excluded from the connected components (steps S28 to S36).
<ステップS28:図5>
まず、対象ブロック集合における各連結成分の動きベクトルの代表値(例えば、対象ブロック集合における各連結成分の動きベクトルの平均値等)を求める。図8に対してステップS28の処理をした結果の一例を図9に表す。
<Step S28: FIG. 5>
First, a representative value of motion vectors of each connected component in the target block set (for example, an average value of motion vectors of each connected component in the target block set) is obtained. FIG. 9 shows an example of the result obtained by performing the process of step S28 on FIG.
<ステップS29:図5>
次に、変数nに、ステップS22で求めた連結成分の数(図9の例では9)を代入する。
<Step S29: FIG. 5>
Next, the number of connected components obtained in step S22 (9 in the example of FIG. 9) is substituted for variable n.
<ステップS30:図6>
変数nと、ステップS25で連結成分L(n)を除外したときの値:nとを比較する。比較した結果、変数nが、ステップS25で連結成分L(n)を除外したときの値:n(図9では、n=1,3,4,7,8)と同じであれば、ステップS31に進む。比較した結果、変数nがステップS25で連結成分L(n)を除外したときの値:n(図9では、n=1,3,4,7,8)と異なれば、ステップS32(図9)に進む。
<Step S30: FIG. 6>
The variable n is compared with the value n when the connected component L (n) is excluded in step S25. As a result of the comparison, if the variable n is the same as the value obtained when the connected component L (n) is excluded in step S25: n (n = 1, 3, 4, 7, 8 in FIG. 9), step S31 is performed. Proceed to As a result of the comparison, if the variable n is different from the value obtained when the connected component L (n) is excluded in step S25: n (n = 1, 3, 4, 7, 8 in FIG. 9), step S32 (FIG. 9 )
<ステップS31:図6>
変数nから1を引き、ステップS30に戻る。
<Step S31: FIG. 6>
1 is subtracted from the variable n, and the process returns to step S30.
<ステップ532:図6>
変数mに、連結成分L(n)の大きさ(ここでは、例えば、連結成分L(n)を構成するブロック数M(n))を代入する。図9では、M(2)=25,M(5)=25,M(6)=24,M(9)=24となる。
<Step 532: FIG. 6>
The variable m is assigned the size of the connected component L (n) (here, for example, the number of blocks M (n) constituting the connected component L (n)). In FIG. 9, M (2) = 25, M (5) = 25, M (6) = 24, and M (9) = 24.
<ステップ533:図6>
連結成分L(n)、ブロック番号mにおける動きベクトルの大きさから、連結成分L(n)における動きベクトルの代表値の大きさを引いた値の絶対値(ABS)が、所定の閾値と比較する。求めた絶対値(ABS)が所定の閾値より大きいならばステップS34に進み、求めた絶対値(ABS)が所定の閾値以下ならばステップS35に進む。
<Step 533: FIG. 6>
The absolute value (ABS) of the value obtained by subtracting the magnitude of the representative value of the motion vector in the connected component L (n) from the magnitude of the motion vector in the connected component L (n) and block number m is compared with a predetermined threshold value. To do. If the obtained absolute value (ABS) is larger than the predetermined threshold value, the process proceeds to step S34, and if the obtained absolute value (ABS) is less than the predetermined threshold value, the process proceeds to step S35.
<ステップ534:図6>
ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きいとき、連結成分L(n)からブロックmを除外する。
<Step 534: FIG. 6>
When the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold, the block m is excluded from the connected component L (n).
図9において、連結成分L(2)では、動きベクトルの代表値が動きベクトルV2であるとき、ブロック番号m=1の動きベクトル:v(2,1)[V21]、ブロック番号m=3の動きベクトル:v(2,3)[V22]、ブロック番号m=12の動きベクトル:v(2,12)[V23]、ブロック番号m=17の動きベクトル:v(2,17)[V24]、ブロック番号m=24の動きベクトル:v(2,24)[V25]、ブロック番号m=25の動きベクトル:v(2,25)[V26]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(2)では、ブロック番号m=1のブロック:b(2,1)[B21]、ブロック番号m=3のブロック:b(2,3)[B22]、ブロック番号m=12のブロック:b(2,12)[B23]、ブロック番号m=17のブロック:b(2,17)[B24]、ブロック番号m=24のプロック:b(2,24)[B25]、ブロック番号m=25のブロック:b(2.25)[B26]を、連結成分から除外する。 In FIG. 9, in the connected component L (2), when the representative value of the motion vector is the motion vector V2, the motion vector of the block number m = 1: v (2,1) [V21] and the block number m = 3 Motion vector: v (2, 3) [V22], motion vector with block number m = 12: v (2, 12) [V23], motion vector with block number m = 17: v (2, 17) [V24] In the motion vector of block number m = 24: v (2, 24) [V25], the motion vector of block number m = 25: v (2, 25) [V26], the absolute value (ABS) obtained in step S33. ) Is greater than a predetermined threshold. Therefore, as shown in FIG. 10, in the connected component L (2), the block with the block number m = 1: b (2, 1) [B21], the block with the block number m = 3: b (2, 3) [ B22], block with block number m = 12: b (2,12) [B23], block with block number m = 17: b (2,17) [B24], block with block number m = 24: b (2 24) [B25], block number m = 25: b (2.25) [B26] is excluded from the connected components.
また図9において、連結成分L(5)では、動きベクトルの代表値が動きベクトルV5であるとき、ブロック番号m=11の動きベクトル:v(5,11)[V51]、ブロック番号m=16の動きベクトル:v(5,16)[V52]、ブロック番号m=24の動きベクトル:v(5,24)[V53]、ブロック番号m=25の動きベクトル:v(5,25)
[V54]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(5)では、ブロック番号m=11のブロック:b(5,11)[B51]、ブロック番号m=16のブロック:b(5,16)[B52]、ブロック番号m=24のブロック:b(5,24)[B53]、ブロック番号m=25のブロック:b(5,25)[B54]を、連結成分から除外する。
In FIG. 9, in the connected component L (5), when the representative value of the motion vector is the motion vector V5, the motion vector of the block number m = 11: v (5,11) [V51], the block number m = 16 Motion vector: v (5, 16) [V52], motion vector with block number m = 24: v (5, 24) [V53], motion vector with block number m = 25: v (5, 25)
In [V54], the absolute value (ABS) obtained in step S33 is greater than a predetermined threshold value. Therefore, as shown in FIG. 10, in the connected component L (5), the block of block number m = 11: b (5, 11) [B51], the block of block number m = 16: b (5, 16) [ B52], block with block number m = 24: b (5, 24) [B53], block with block number m = 25: b (5, 25) [B54] are excluded from the connected components.
図9において、連結成分L(6)では、動きベクトルの代表値が動きベクトルV6であるとき、ブロック番号m=1の動きベクトル:v(6,1)[V61]、ブロック番号m=24の動きベクトル:v(6,24)[V62]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(6)では、ブロック番号m=1のブロック:B(6,1)[B61]、ブロック番号m=24のブロック:B(6,24)[B62]を、連結成分から除外する。 In FIG. 9, in the connected component L (6), when the representative value of the motion vector is the motion vector V6, the motion vector of the block number m = 1: v (6,1) [V61] and the block number m = 24 In the motion vector: v (6, 24) [V62], the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold value. Therefore, as shown in FIG. 10, in the connected component L (6), the block with block number m = 1: B (6, 1) [B61], the block with block number m = 24: B (6, 24) [ B62] is excluded from the connected components.
図9において、連結成分L(9)では、動きベクトルの代表値が動きベクトルV9であるとき、ブロック番号m=1の動きベクトル:v(9,1)[V91]、ブロック番号m=3の動きベクトル:v(9,3)[V92]、ブロック番号m=6の動きベクトル:v(9,6)[V93]、ブロック番号m=11の動きベクトル:v(9,11)[V94]において、ステップS33にて求めた絶対値(ABS)が、所定の閾値より大きくなる。よって、図10に示すように、連結成分L(9)では、ブロック番号m=1のブロック:b(9,1)[B91]、ブロック番号m=3のブロック:b(9,3)[B92]、ブロック番号m=6のブロック:b(9,6)[B93]、ブロック番号m=11のブロックb(9,11)[B94]を、連結成分から除外する。 In FIG. 9, in the connected component L (9), when the representative value of the motion vector is the motion vector V9, the motion vector of the block number m = 1: v (9,1) [V91], the block number m = 3 Motion vector: v (9,3) [V92], motion vector with block number m = 6: v (9,6) [V93], motion vector with block number m = 11: v (9,11) [V94] In step S33, the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold value. Therefore, as shown in FIG. 10, in the connected component L (9), the block with block number m = 1: b (9, 1) [B91], the block with block number m = 3: b (9, 3) [ B92], block with block number m = 6: b (9,6) [B93] and block b (9,11) [B94] with block number m = 11 are excluded from the connected components.
<ステップS35:図6>
変数mから1を引く。
<Step S35: FIG. 6>
Subtract 1 from the variable m.
<ステップS36:図6>
変数mが0となるまで、ステップS33〜ステップS35の処理を繰り返す。変数mが0となると、連結成分L(n)において、ステップS33にて求めた絶対値(ABS)が所定の閾値より大きいとき、連結成分L(n)からブロックmを除外する処理は完了する。
<Step S36: FIG. 6>
Until the variable m becomes 0, the processing of step S33 to step S35 is repeated. When the variable m becomes 0, in the connected component L (n), when the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold, the process of excluding the block m from the connected component L (n) is completed. .
<ステップS37:図6>
変数nから1を引く。
<Step S37: FIG. 6>
Subtract 1 from variable n.
<ステップS38:図6>
変数nが0となるまで、ステップS30〜ステップS37を処理を繰り返す。変数nが0となると、各々の連結成分において、ステップS33にて求めた絶対値(ABS)が所定の閾値より大きいとき、各々の連結成分からブロックmを除外する処理は完了する。図7に示す対象ブロック集合が、ステップS21〜ステップS38に基づき処理された結果の一例を、図11に示す。
<Step S38: FIG. 6>
Steps S30 to S37 are repeated until the variable n becomes zero. When the variable n becomes 0, in each connected component, when the absolute value (ABS) obtained in step S33 is larger than a predetermined threshold, the process of excluding the block m from each connected component is completed. An example of the result of processing the target block set shown in FIG. 7 based on steps S21 to S38 is shown in FIG.
このようにして、生成した対象ブロック集合に該当する領域を新たな対象領域集合とし、オブジェクト管理部1は、この対象ブロック集合を符号化制御部3に与える。
In this way, a region corresponding to the generated target block set is set as a new target region set, and the
符号化制御部3では、オブジェクト管理部1から対象ブロック集合を受け取り、その対象ブロック集合に対しては量子化ステップサイズを小さくするように制御し、また対象ブロック集合以外に対してはブロックの量子化ステップサイズを高くするように制御する。
The encoding control unit 3 receives the target block set from the
なお、上述したように、対象領域に対する探索範囲及び量子化ステップサイズの制御以外の入力画像に対する符号化方法は既存の符号化方法を適用することができるので、ここでの詳細な説明は省略する。 As described above, since the encoding method for the input image other than the search range and quantization step size control for the target region can be applied, the detailed description here is omitted. .
続いて、第1の実施形態の画像符号化装置100の前段にマッチングパターン部200を設けて実施した場合の動作を図6を参照しながら説明する。
Next, an operation when the
図12に示すように、第1の実施形態の画像符号化装置100の前段にパターンマッチング部200を接続している。
As shown in FIG. 12, a
パターンマッチング部200に入力画像が入力すると、入力画像に対しパターンマッチング部200にあらかじめ用意されているパターンとの照合をとり、マッチした領域を対象領域集合に変換して画像符号化装置100に与える。
When an input image is input to the
画像符号化装置100に対象領域集合が入力すると、画像符号化装置100では、この対象領域集合を用いて周辺ブロック集合を生成して、その周辺ブロック集合に基づき周辺ブロック集合に属するブロックの動き探索範囲を広げ、周辺ブロック集合以外の部分の探索範囲を狭めるよう動き探索を制御し、得られた動きベクトルを用い対象領域集合を更新し、対応する対象ブロック集合を用いて対象ブロックにより小さい量子化ステップサイズを割り振るよう符号化制御を行なう。
When the target region set is input to the
(A−3)第1の実施形態の効果
以上のように、第1の実施形態によれば、対象領域の周辺ブロックの動き探索範囲を広げることで対象の動きが大きい場合でも確実に対象の追跡を行なうことができ、量子化ステップサイズを下げる対象を確実なものにすることができる。
(A-3) Effects of the First Embodiment As described above, according to the first embodiment, even if the target motion is large by expanding the motion search range of the peripheral blocks in the target region, Tracking can be performed, and the target for reducing the quantization step size can be ensured.
また、第1の実施形態によれば、他のブロックの探索範囲を狭めることで計算量を一定に保てることができ、性能の比較的低いハードウェアでも実行することができる。 Further, according to the first embodiment, the calculation amount can be kept constant by narrowing the search range of other blocks, and can be executed even with hardware having relatively low performance.
さらに、第1の実施形態によれば、符号量を適切に割り振ることで、全体の符号量に制限がある場合でも注目する対象を鮮明に符号化しつつ符号量を抑えることが可能になる。(B)第2の実施形態
次に、本発明の画像符号化装置の第2の実施形態を図面を参照しながら説明する。
Furthermore, according to the first embodiment, by appropriately allocating the code amount, it is possible to suppress the code amount while clearly encoding a target of interest even when the overall code amount is limited. (B) Second Embodiment Next, a second embodiment of the image coding apparatus of the present invention will be described with reference to the drawings.
第2の実施形態の画像符号化装置が第1の実施形態の画像符号化装置と異なる点は、オブジェクト管理部において、対象領域集合更新部が算出した対象ブロック集合の各連結成分と各連結成分の動きベクトルの代表値を記録する点である。 The difference between the image coding apparatus of the second embodiment and the image coding apparatus of the first embodiment is that, in the object management unit, each connected component and each connected component of the target block set calculated by the target region set update unit. The representative value of the motion vector is recorded.
そこで、以下では、第2の実施形態の画像符号化装置の機能と、第2の実施形態の画像符号化装置を監視映像システムの画像符号化装置として適用した場合の例を挙げて説明する。 Therefore, hereinafter, the function of the image encoding device according to the second embodiment and an example in which the image encoding device according to the second embodiment is applied as an image encoding device of a surveillance video system will be described.
(B−1)第2の実施形態の構成及び動作
図13は、第2の実施形態の画像符号化装置110を監視映像システムに適用したときの適用例を示す構成図である。
(B-1) Configuration and Operation of Second Embodiment FIG. 13 is a configuration diagram showing an application example when the
図13に示すように、第2の実施形態の画像符号化装置110は、パターンマッチング部200及び動き解析部300に接続している。
As illustrated in FIG. 13, the
パターンマッチング部200は、第1の実施形態と同様に、入力画像に対しパターンマッチング部200にあらかじめ用意されているパターンとの照合をとり、マッチした領域を対象領域集合に変換して画像符号化装置100に与えるものである。
Similar to the first embodiment, the
画像符号化装置110は、パターンマッチング部200から対象領域集合を受け取ると、第1の実施形態と同様に、動き探索の制御及び符号量の制御を行なうものである。また、第2の実施形態の画像符号化装置110は、対象領域とする対象ブロック集合を構成する連結成分とその動きベクトルの代表値を動き解析部300に与えるものである。
When receiving the target region set from the
なお、第2の実施形態の画像符号化装置110の内部構成は図1に示す第1の実施形態の内部構成に対応するが、オブジェクト管理部の機能が異なる。
Note that the internal configuration of the
図14は、第2の実施形態のオブジェクト管理部の機能構成を示すブロック図であり、図14に示す第2の実施形態のオブジェクト管理部は、対象領域集合記録部104、周辺ブロック集合算出部102、対象領域集合更新部103を有する。
FIG. 14 is a block diagram illustrating a functional configuration of the object management unit according to the second embodiment. The object management unit according to the second embodiment illustrated in FIG. 14 includes a target area set
周辺ブロック集合算出部102及び対象領域集合更新部103は、第1の実施形態で説明した構成に対応するのでここでの詳細な説明は省略する。
Since the peripheral block set
対象領域集合記録部104は、第1の実施形態と同様に、対象領域集合を記録するメモリと入出力制御機能を備えると共に、対象領域集合更新部103が算出した対象ブロック集合を構成する各連結成分及び各連結成分の動きベクトルの代表値を記録するメモリを有する。また、対象領域集合領域104は、対象ブロック集合を構成する各連結成分及び各連結成分の動きベクトルの代表値を動く情報として出力するものである。
Similar to the first embodiment, the target area set
動き解析部300は、画像符号化装置110から対象ブロック集合を構成する連結成分とその動きベクトルの代表値とを受け取ると、この連結成分と動きベクトルの代表値とに基づいて対象領域の動き追跡を行なうものである。また、動き解析部300は、追跡対象が入力画像の枠内にあることを判断し、枠外に出ようとする際に、追跡対象を入力画像の枠内に納まるようにカメラ制御をカメラ制御部(図示しない)に出力するものである。さらに、動き解析部300は、対象の動き解析情報を図示しない記録部に動き解析用ログ情報を記録するものである。
When the
(B−2)第2の実施形態の効果
以上のように、第2の実施形態によれば、第1の実施形態で説明した効果と同様の効果を奏することができる。
(B-2) Effects of the Second Embodiment As described above, according to the second embodiment, the same effects as those described in the first embodiment can be achieved.
また、第2の実施形態によれば、動き情報を出力する機能を備えることにより、別途追跡機能を備える必要がないから、性能の低いハードウェアを用いる装置でも実行することができる。 In addition, according to the second embodiment, since a function for outputting motion information is provided, it is not necessary to provide a separate tracking function, and therefore, it can be executed even by an apparatus using hardware with low performance.
(C)第3の実施形態
次に、本発明の画像符号化装置の第3の実施形態を図面を参照しながら説明する。
(C) Third Embodiment Next, a third embodiment of the image encoding device of the present invention will be described with reference to the drawings.
第3の実施形態の画像符号化装置が第1の実施形態の画像符号化装置と異なる点は、オブジェクト管理部において、対象領域集合の追加や削除などの変更を制御する点である。 The image coding apparatus according to the third embodiment is different from the image coding apparatus according to the first embodiment in that the object management unit controls changes such as addition and deletion of a target area set.
そこで、以下では、第3の実施形態の画像符号化装置の機能と、第3の実施形態の画像符号化装置の適用例を挙げて説明する。 Therefore, hereinafter, the function of the image encoding device of the third embodiment and an application example of the image encoding device of the third embodiment will be described.
(C−1)第3の実施形態の構成及び動作
図15は、第2の実施形態の画像符号化装置120の適用例を示す構成図であり、図15では、画像符号化装置120は対象領域指定部400と接続している。
(C-1) Configuration and Operation of Third Embodiment FIG. 15 is a configuration diagram illustrating an application example of the
対象領域指定部400は、例えば利用者等の操作を受けて、追跡対象の領域指定を取り込み、その領域指定を画像符号化装置120に与えるものである。また、対象領域指定部400は、新たに追跡対象とする領域の指定を受け付けたり、既に指定した対象の削除などの指定の変更も取り込むものである。
The target
これにより、対象領域指定部400で指定した領域に対してのみ動き探索範囲の拡張を行ないその他の部分に関しては量子化ステップサイズを大きく下げることができる。
As a result, the motion search range is expanded only for the region specified by the target
なお、対象領域指定部400は、例えば、タッチパネルやポインティングデバイス等の操作により指定する対象を取り込むものを適用できる。
Note that the target
画像符号化装置120は、第1の実施形態と同様に、動き探索の制御及び符号量の制御を行なうと共に、対象領域指定部400から対象を指定する制御信号を受け取ると、その指定された対象領域集合の追加や消去などを行なうものである。
Similar to the first embodiment, the
図16は、第3の実施形態のオブジェクト管理部の機能構成を示すブロック図であり、図16に示す第2の実施形態のオブジェクト管理部は、対象領域集合記録部105、周辺ブロック集合算出部102、対象領域集合更新部103を有する。
FIG. 16 is a block diagram illustrating a functional configuration of the object management unit according to the third embodiment. The object management unit according to the second embodiment illustrated in FIG. 16 includes a target area set
周辺ブロック集合算出部102及び対象領域集合更新部103は、第1の実施形態で説明した構成に対応するのでここでの詳細な説明は省略する。
Since the peripheral block set
対象領域集合記録部105は、第1の実施形態と同様に、対象領域集合を記録するメモリと入出力制御機能を備えると共に、対象領域指定部400から対象を指定する制御信号を受け取ると、その指定された対象領域集合の追加や消去などを行なうものである。
Similar to the first embodiment, the target area set
(C−2)第3の実施形態の効果
以上のように、第3の実施形態によれば、第1の実施形態で説明した効果と同様の効果を奏することができる。
(C-2) Effects of Third Embodiment As described above, according to the third embodiment, the same effects as those described in the first embodiment can be achieved.
また、第3の実施形態によれば、対象領域制御機能を備えることにより、インタラタティブに追跡対象に含めたり、除外することができる。その結果、はっきりと映し出したい対象とぼかしたい対象がある場合等に有効となる。 In addition, according to the third embodiment, by including the target area control function, it can be included in the tracking target interactively or excluded. As a result, this is effective when there is an object that is clearly projected and an object that is desired to be blurred.
(D)他の実施形態
上述した第1〜第3の実施形態は、動画像を符号化する符号化装置に広く適用できるが、例えば監視映像システムの画像符号化装置に適用できる。監視映像システムに適用した場合、特定の指定対象に対する符号化に必要な計算量及び符号量を多く割り当てることができるので、その指定領域の対象を鮮明な画像として得ることができ、監視する対象の追跡、動きの解析も容易になる。またこの装置を使い計算量、符号量を割り振る度合いをより大きくすることで特定対象だけを鮮明にし、その他の部分はぼかしてしまうような画像処理をリアルタイムで自動に行なうという応用も考えられる。
(D) Other Embodiments The first to third embodiments described above can be widely applied to an encoding apparatus that encodes a moving image, but can be applied to, for example, an image encoding apparatus of a surveillance video system. When applied to a surveillance video system, it is possible to allocate a large amount of calculation and code necessary for encoding a specific designated object, so that the object of the designated area can be obtained as a clear image, Tracking and motion analysis are also easy. In addition, an application may be considered in which image processing is automatically performed in real time so that only a specific object is sharpened and the other portions are blurred by increasing the degree of allocation of the calculation amount and code amount using this apparatus.
第2及び第3の実施形態で説明したそれぞれの画像符号化装置の機能を共に持ち合わせた画像符号化装置とすることもできる。 It is also possible to provide an image encoding device that has both the functions of the image encoding devices described in the second and third embodiments.
上述した第1〜第3の実施形態で説明した画像符号化装置の機能は、CPUなどのハードウェア資源がソフトウェア処理を実行することにより実現することができるものであるが、ハードウェアとして実現してもよい。 The functions of the image coding apparatus described in the first to third embodiments described above can be realized by hardware processing such as a CPU executing software processing, but are realized as hardware. May be.
1…オブジェクト管理部、101、104及び105…対象領域集合記録部、102…周辺ブロック集合算出部、103…対象領域集合更新部、2…探索範囲制御部、3…符号化制御部、4…mv検出部、5…インター予測部、6…イントラ予測部、7…ブロック分割部、8…直交変換部、9…量子化部、10…エントロピー符号化部、11…逆量子化部、12…直交逆変換部、13…モード選択部、14…フレームバッファ、15…バッファ管理部、16…フレームバッファ、100、110及び120…画像符号化装置、200…パターンマッチング部、300…動き解析部、400…対象領域指定部。
DESCRIPTION OF
Claims (4)
指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理手段と、
上記画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定手段と、
上記周辺領域決定手段により決定された上記周辺領域に対しては動き探索の探索範囲を広げるようにし、上記周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御手段と、
上記探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出手段と、
上記動きベクトル検出手段により検出された動きベクトルと上記周辺領域とに基づいて上記画像中の指定対象の対象領域を更新する対象領域更新手段と、
上記対象領域管理手段が管理する上記画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御手段と
を備えることを特徴とする画像符号化装置。 In an image encoding device for encoding a moving image,
Target area management means for managing a target area indicating a position of a specified target in a specified image;
A peripheral region determining means for determining a peripheral region including a target region to be specified in the image;
A search range in which the search range for motion search is expanded for the peripheral region determined by the peripheral region determination means, and the search range for motion search is narrowed for regions other than the peripheral region. Control means;
Motion vector detection means for detecting a motion vector within the search range controlled by the search range control means;
Target area update means for updating the target area to be specified in the image based on the motion vector detected by the motion vector detection means and the peripheral area;
An image encoding apparatus comprising: an encoding control unit configured to encode a target region to be specified in the image managed by the target region management unit with a quantization step size set small.
対象領域管理手段が、指定された画像中の指定対象の位置を示す対象領域を管理する対象領域管理工程と、
周辺領域決定手段が、上記画像中の指定対象の対象領域を包含する周辺領域を決定する周辺領域決定工程と、
探索範囲制御手段が、上記周辺領域決定手段により決定された上記周辺領域に対しては動き探索の探索範囲を広げるようにし、上記周辺領域以外の領域に対しては動き探索の探索範囲を狭くするように制御する探索範囲制御工程と、
動きベクトル検出手段が、上記探索範囲制御手段が制御した探索範囲内で動きベクトルを検出する動きベクトル検出工程と、
対象領域更新手段が、上記動きベクトル検出手段により検出された動きベクトルと上記周辺領域とに基づいて上記画像中の指定対象の対象領域を更新する対象領域更新工程と、
符号化制御手段が、上記対象領域管理手段が管理する上記画像中の指定対象の対象領域に対して、量子化ステップサイズを小さく設定して符号化させる符号化制御工程と
を備えることを特徴とする画像符号化方法。 In an image encoding method for encoding a moving image,
A target area management means for managing a target area indicating a position of a specified target in a specified image;
A peripheral region determining step for determining a peripheral region including a target region to be specified in the image;
The search range control means widens the search range of motion search for the peripheral area determined by the peripheral area determination means, and narrows the search range of motion search for areas other than the peripheral area. A search range control step for controlling
A motion vector detection step in which the motion vector detection means detects a motion vector within the search range controlled by the search range control means;
A target region update step in which the target region update unit updates the target region of the designation target in the image based on the motion vector detected by the motion vector detection unit and the peripheral region;
An encoding control unit comprising: an encoding control step for encoding with a small quantization step size set for a target region to be specified in the image managed by the target region management unit. An image encoding method to be performed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006251231A JP2008072608A (en) | 2006-09-15 | 2006-09-15 | Apparatus and method for encoding image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006251231A JP2008072608A (en) | 2006-09-15 | 2006-09-15 | Apparatus and method for encoding image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008072608A true JP2008072608A (en) | 2008-03-27 |
Family
ID=39293765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006251231A Pending JP2008072608A (en) | 2006-09-15 | 2006-09-15 | Apparatus and method for encoding image |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008072608A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190268605A1 (en) * | 2018-02-27 | 2019-08-29 | Canon Kabushiki Kaisha | Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium |
US20190268606A1 (en) * | 2018-02-27 | 2019-08-29 | Canon Kabushiki Kaisha | Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium |
-
2006
- 2006-09-15 JP JP2006251231A patent/JP2008072608A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190268605A1 (en) * | 2018-02-27 | 2019-08-29 | Canon Kabushiki Kaisha | Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium |
US20190268606A1 (en) * | 2018-02-27 | 2019-08-29 | Canon Kabushiki Kaisha | Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium |
JP2019149722A (en) * | 2018-02-27 | 2019-09-05 | キヤノン株式会社 | Moving image coding apparatus, control method of the same, and program |
US10897621B2 (en) * | 2018-02-27 | 2021-01-19 | Canon Kabushiki Kaisha | Moving image encoding apparatus, control method for moving image encoding apparatus, and storage medium |
JP7072401B2 (en) | 2018-02-27 | 2022-05-20 | キヤノン株式会社 | Moving image coding device, control method and program of moving image coding device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1389016B1 (en) | Improved motion estimation and block matching pattern | |
US10291925B2 (en) | Techniques for hardware video encoding | |
CN100468982C (en) | Method and apparatus for performing high quality fast predictive motion search | |
US8488678B2 (en) | Moving image encoding apparatus and moving image encoding method | |
US20150172687A1 (en) | Multiple-candidate motion estimation with advanced spatial filtering of differential motion vectors | |
US20090067504A1 (en) | Real-time video coding/decoding | |
US20060115167A1 (en) | Image processing apparatus and method of the same | |
KR100843418B1 (en) | Apparatus and method for image coding | |
JP5216710B2 (en) | Decryption processing method | |
KR20070088322A (en) | Apparatus and method for computing motion vector | |
US20190261001A1 (en) | Encoding video using palette prediction and intra-block copy | |
CN108401185B (en) | Reference frame selection method, video transcoding method, electronic device and storage medium | |
CN113422959A (en) | Video encoding and decoding method and device, electronic equipment and storage medium | |
JP4898415B2 (en) | Moving picture coding apparatus and moving picture coding method | |
JP2012129791A (en) | Image encoder | |
JP2008072608A (en) | Apparatus and method for encoding image | |
US11528485B2 (en) | Encoding apparatus and program | |
JP2002247584A (en) | Method and device for encoding image, program for image encoding processing, and recording medium for the program | |
CN113810692A (en) | Method for framing changes and movements, image processing apparatus and program product | |
US10397566B2 (en) | Image coding apparatus, image coding method, and program | |
US6332001B1 (en) | Method of coding image data | |
JP5171658B2 (en) | Image encoding device | |
KR100529331B1 (en) | Method of estimating motion vector in layered frame structure | |
JP2009118097A (en) | Image encoder, its control method, and computer program | |
JPH11275587A (en) | Motion vector generator, image coder, motion vector generating method and image coding method |