JP2008245237A - Image processing method and device, and image device using the same - Google Patents

Image processing method and device, and image device using the same Download PDF

Info

Publication number
JP2008245237A
JP2008245237A JP2007181365A JP2007181365A JP2008245237A JP 2008245237 A JP2008245237 A JP 2008245237A JP 2007181365 A JP2007181365 A JP 2007181365A JP 2007181365 A JP2007181365 A JP 2007181365A JP 2008245237 A JP2008245237 A JP 2008245237A
Authority
JP
Japan
Prior art keywords
correlation
picture
quantization
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007181365A
Other languages
Japanese (ja)
Inventor
Mitsuru Suzuki
満 鈴木
Hiroo Ishii
裕夫 石井
Shigeyuki Okada
茂之 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007181365A priority Critical patent/JP2008245237A/en
Priority to US12/073,047 priority patent/US8126277B2/en
Publication of JP2008245237A publication Critical patent/JP2008245237A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To solve the problem that image quality is deteriorated when suppressing the amount of codes. <P>SOLUTION: A correlation evaluation section 72 evaluates a correlation between a predetermined region in a target picture and a region, corresponding to a picture region different in the time direction from the target picture. A quantization control section 80 changes a quantization process to a predetermined region in the target picture adaptively in accordance with the evaluation, obtained by the correlation evaluation section 72. For an example, if the correlation is determined to be weaker than a predetermined threshold from an evaluation value obtained by the correlation evaluation section 72, the quantization step for quantizing the predetermined region is expanded. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、動画像を符号化するための画像処理方法、画像処理装置およびそれを用いた撮像装置に関する。   The present invention relates to an image processing method for encoding a moving image, an image processing apparatus, and an imaging apparatus using the same.

デジタルビデオカメラが普及してきている。デジタルビデオカメラで撮像された動画像は、MPEG(Moving Picture Experts Group)形式で記録されるのが一般的である。MPEG形式などの記録方式を採用するデジタルビデオカメラは、撮像した画像を量子化した後、圧縮符号化する。量子化は画質と符号量に影響を与える処理である。量子化ステップを大きくすると、符号量を削減することができるが、画質が低下してしまう。逆に、量子化ステップを小さくすると、高画質で記録することができるが、符号量が増大してしまう。   Digital video cameras are becoming popular. In general, a moving image captured by a digital video camera is recorded in a moving picture experts group (MPEG) format. A digital video camera that employs a recording method such as the MPEG format quantizes a captured image and then compresses and encodes the image. Quantization is a process that affects image quality and code amount. When the quantization step is increased, the code amount can be reduced, but the image quality is deteriorated. Conversely, if the quantization step is reduced, recording can be performed with high image quality, but the code amount increases.

量子化ステップは、バッファ占有量やマクロブロックの符号量をもとに決定されることが一般的である。
特開平8−181992号公報
In general, the quantization step is determined based on the buffer occupancy and the macroblock code amount.
JP-A-8-181992

しかしながら、バッファ占有量などをもとに単純に量子化ステップを決定すると、視聴者が注目している領域の符号量が削減されたり、逆に、変化が大きい領域など高画質にしてもさほど主観画質を向上させない領域に多くの符号量が割り当てられてしまうこともある。   However, if the quantization step is simply determined based on the buffer occupancy etc., the code amount in the area that the viewer is paying attention to is reduced. A large amount of code may be assigned to an area where the image quality is not improved.

本発明はこうした状況に鑑みなされたものであり、その目的は、符号量を抑制しつつ、主観画質を向上させることができる画像処理方法、画像処理装置およびそれを用いた撮像装置を提供することにある。   The present invention has been made in view of such circumstances, and an object of the present invention is to provide an image processing method, an image processing apparatus, and an imaging apparatus using the same, which can improve subjective image quality while suppressing the amount of codes. It is in.

本発明のある態様の画像処理方法は、対象ピクチャ内の所定の領域と、その対象ピクチャと時間方向に異なるピクチャの領域に対応した領域との相関を評価し、対象ピクチャ内の所定の領域に対する処理の内容を適応的に変化させる。  An image processing method according to an aspect of the present invention evaluates a correlation between a predetermined region in a target picture and a region corresponding to a region of a picture that differs from the target picture in the temporal direction, and The contents of processing are adaptively changed.

本発明によれば、符号量を抑制しつつ、主観画質を向上させることができる。   According to the present invention, it is possible to improve the subjective image quality while suppressing the code amount.

まず、本発明の実施の形態を詳細に説明する前に、代表的な実施態様について説明する。本発明のある態様の画像処理方法は、対象ピクチャ内の所定の領域と、その対象ピクチャと時間方向に異なるピクチャの領域に対応した領域との相関を評価し、対象ピクチャ内の所定の領域に対する処理の内容を適応的に変化させる。「ピクチャ」は符号化の単位であり、その概念にはフレーム、フィールド、VOP(Video Object Plane)などが含まれてもよい。「所定の領域」はマクロブロックであってもよい。「時間方向に異なるピクチャ」は、過去のピクチャでも未来のピクチャであってもよい。   First, before describing the embodiments of the present invention in detail, typical embodiments will be described. An image processing method according to an aspect of the present invention evaluates a correlation between a predetermined region in a target picture and a region corresponding to a region of a picture that differs from the target picture in the temporal direction, and The contents of processing are adaptively changed. “Picture” is a unit of encoding, and the concept may include a frame, a field, a VOP (Video Object Plane), and the like. The “predetermined area” may be a macro block. The “pictures that differ in the time direction” may be past pictures or future pictures.

この態様によると、対象ピクチャ内の所定の領域と、その対象ピクチャと時間方向に異なるピクチャの対応した領域との相関を参照して、対象ピクチャ内の所定の領域を符号化することにより、領域ごとに異なる符号化処理も可能となり、符号量を抑制しつつ、主観画質を向上させる符号化も可能となる。   According to this aspect, by encoding the predetermined area in the target picture with reference to the correlation between the predetermined area in the target picture and the corresponding area of the picture that differs from the target picture in the temporal direction, Different encoding processes can be performed for each, and encoding that improves subjective image quality while suppressing the amount of codes is also possible.

本発明の別の態様もまた、画像処理装置である。この装置は、対象ピクチャ内の所定の領域と、そのピクチャと時間方向に異なるピクチャの領域に対応した領域との相関を評価する相関評価部と、相関評価部により求められた評価に応じて、対象ピクチャ内の所定の領域に対する量子化処理を適応的に制御する量子化制御部と、を備える。   Another embodiment of the present invention is also an image processing apparatus. According to the evaluation obtained by the correlation evaluation unit, a correlation evaluation unit that evaluates a correlation between a predetermined region in the target picture and a region corresponding to the region of the picture that differs from the picture in the temporal direction, A quantization control unit that adaptively controls quantization processing on a predetermined region in the target picture.

この態様によると、対象ピクチャ内の所定の領域と、そのピクチャと時間方向に異なるピクチャの対応した領域との相関を参照して、量子化処理のパラメータを適応的に変化させることにより、符号量を抑制しつつ、主観画質を向上させることができる。   According to this aspect, by referring to the correlation between a predetermined area in the target picture and the corresponding area of the picture that differs from the picture in the temporal direction, the amount of code can be changed by adaptively changing the quantization processing parameter. The subjective image quality can be improved while suppressing the above.

量子化制御部は、相関評価部により求められた評価値により、相関が所定の閾値より弱いと判断される場合、所定の領域を量子化するときの量子化ステップを拡大してもよい。これによると、符号量を削減しても主観画質をさほど低下させないと判定される領域では、量子化ステップを拡大することにより、符号量を削減することができる。   When it is determined that the correlation is weaker than the predetermined threshold based on the evaluation value obtained by the correlation evaluation unit, the quantization control unit may expand the quantization step when the predetermined region is quantized. According to this, in a region where it is determined that the subjective image quality is not significantly reduced even if the code amount is reduced, the code amount can be reduced by expanding the quantization step.

量子化制御部は、相関評価部により求められた評価値により、相関が所定の閾値より強いと判断される場合、所定の領域を量子化するときの量子化ステップを縮小してもよい。これによると、視聴者が注目しやすい領域と判定される領域では、量子化ステップを縮小することにより、画質を向上させることができる。   The quantization control unit may reduce the quantization step when the predetermined region is quantized when the correlation is determined to be stronger than the predetermined threshold based on the evaluation value obtained by the correlation evaluation unit. According to this, it is possible to improve the image quality by reducing the quantization step in an area that is determined as an area that is easily noticed by the viewer.

量子化制御部は、相関評価部により求められた評価値により、相関が所定の閾値より弱いと判断される場合、所定の領域を量子化するときの除算処理で発生する端数を切り捨ててもよい。これによると、符号量を削減しても主観画質をさほど低下させないと判定される領域では、量子化の際の除算処理で発生する端数を切り捨てることにより、画質を向上させることができる。   If the correlation is determined to be weaker than a predetermined threshold based on the evaluation value obtained by the correlation evaluation unit, the quantization control unit may round off the fraction generated in the division process when quantizing the predetermined region. . According to this, in an area where it is determined that the subjective image quality is not significantly reduced even if the code amount is reduced, the image quality can be improved by rounding down the fraction generated in the division process at the time of quantization.

量子化制御部は、相関評価部により求められた評価値により、相関が所定の閾値より強いと判断される場合、所定の領域を量子化するときの除算処理で発生する端数を四捨五入してもよい。これによると、符号量を削減しても主観画質をさほど低下させないと判定される領域では、視聴者が注目しやすい領域と判定される領域では、量子化の際の除算処理で発生する端数を四捨五入することにより、原画像に近い画像を記録させることができる。   The quantization control unit may round off the fraction generated in the division process when quantizing a predetermined region when the correlation is determined to be stronger than the predetermined threshold based on the evaluation value obtained by the correlation evaluation unit. Good. According to this, in a region where it is determined that the subjective image quality does not decrease so much even if the code amount is reduced, in a region where it is determined that the viewer is likely to focus attention, the fraction generated in the division process at the time of quantization is reduced. By rounding off, an image close to the original image can be recorded.

本発明の別の態様もまた、画像処理装置である。この装置は、対象ピクチャ内の所定の領域に対応する予測領域を、対象ピクチャと時間方向に異なるピクチャ内で探索し、各予測領域候補の評価値を参照して、予測領域を決定する動き検出部と、評価値のうちの少なくとも一つを用いて、対象ピクチャ内の所定の領域に対する量子化処理を適応的に制御する量子化制御部と、を備える。「評価値のうちの少なくとも一つ」は、動き検出部により決定された予測領域の評価値であってもよい。   Another embodiment of the present invention is also an image processing apparatus. This apparatus searches for a prediction area corresponding to a predetermined area in a target picture in a picture that differs in time direction from the target picture, and refers to an evaluation value of each prediction area candidate to determine a prediction area. And a quantization control unit that adaptively controls a quantization process for a predetermined region in the target picture using at least one of the evaluation values. “At least one of the evaluation values” may be an evaluation value of the prediction region determined by the motion detection unit.

この態様によると、予測領域を探索するために生成される評価値を用いて、量子化処理のパラメータを適応的に変化させることにより、符号量を抑制しつつ、主観画質を向上させることができる。また、量子化処理に使用する、ピクチャ間の相関を表す評価値を別に演算する必要がなく、演算量を削減することができる。   According to this aspect, the subjective image quality can be improved while suppressing the code amount by adaptively changing the quantization processing parameter using the evaluation value generated for searching the prediction region. . In addition, it is not necessary to separately calculate an evaluation value representing a correlation between pictures used for quantization processing, and the amount of calculation can be reduced.

動き検出部は、ピクチャ間符号化すべきピクチャおよびピクチャ内符号化すべきピクチャの両方に対して、評価値を生成してもよい。動き検出部をピクチャ内符号化すべきピクチャに対しても動作させることにより、量子化処理に使用する評価値をフレームの種別に関係なく生成することができる。   The motion detection unit may generate evaluation values for both the picture to be inter-coded and the picture to be intra-coded. By operating the motion detection unit also on the picture to be encoded within the picture, the evaluation value used for the quantization process can be generated regardless of the frame type.

本発明の別の態様は、撮像装置である。この装置は、撮像素子と、上述した画像処理装置と、を備え、画像処理装置は、撮像素子から取り込んだピクチャに対して量子化処理を行う。   Another aspect of the present invention is an imaging apparatus. This apparatus includes an imaging device and the above-described image processing device, and the image processing device performs a quantization process on a picture captured from the imaging device.

この態様によると、符号量を抑制しつつ、主観画質を向上させることができる撮像装置を構築することができる。   According to this aspect, it is possible to construct an imaging apparatus that can improve the subjective image quality while suppressing the code amount.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

以下、本発明の実施の形態を詳細に説明する。図1は、実施の形態に係る撮像装置500の構成図である。撮像装置500は、撮像部5および符号化装置100を備える。符号化装置100の構成は、ハードウェア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされた画像符号化機能のあるプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。   Hereinafter, embodiments of the present invention will be described in detail. FIG. 1 is a configuration diagram of an imaging apparatus 500 according to the embodiment. The imaging device 500 includes the imaging unit 5 and the encoding device 100. The configuration of the encoding device 100 can be realized in hardware by a CPU, memory, or other LSI of an arbitrary computer, and is realized by a program having an image encoding function loaded in the memory in software. Here, however, the functional blocks realized by the cooperation are depicted. Therefore, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

撮像部5は、CCD(Charge Coupled Devices)センサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどの撮像素子を備え、撮像素子で撮像した画像を電気信号に変換し、動画像として符号化装置100に出力する。符号化装置100は、フレーム単位で入力される動画像を受け取り、動画像を符号化し、符号化ストリームCSを出力する。   The imaging unit 5 includes an imaging element such as a CCD (Charge Coupled Devices) sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, converts an image captured by the imaging element into an electrical signal, and encodes the encoded image as a moving image. Output to. The encoding apparatus 100 receives a moving image input in units of frames, encodes the moving image, and outputs an encoded stream CS.

本実施の形態に係る符号化装置100は、国際標準化機関であるISO(International Organization for Standardization)/IEC(International Electrotechnical Commission)によって標準化されたMPEGシリーズの規格(MPEG−1、MPEG−2およびMPEG−4)、電気通信に関する国際標準機関であるITU−T(International Telecommunication Union-Telecommunication Standardization Sector)によって標準化されたH.26xシリーズの規格(H.261、H.262およびH.263)、もしくは両方の標準化機関によって合同で標準化された最新の動画像圧縮符号化標準規格であるH.264/AVC(両機関における正式勧告名はそれぞれMPEG-4 Part 10: Advanced Video CodingとH.264)に準拠して動画像の符号化を行う。   An encoding apparatus 100 according to the present embodiment includes MPEG series standards (MPEG-1, MPEG-2 and MPEG-) standardized by ISO (International Organization for Standardization) / IEC (International Electrotechnical Commission) which are international standardization organizations. 4) H.264 standardized by ITU-T (International Telecommunication Union-Telecommunication Standardization Sector) which is an international standard organization for telecommunications. 26x series standards (H.261, H.262 and H.263), or H.264, the latest video compression coding standard standardized jointly by both standards organizations. H.264 / AVC (official recommendation names in both organizations are MPEG-4 Part 10: Advanced Video Coding and H.264 respectively).

MPEGシリーズの規格では、フレーム内符号化を行う画像フレームをI(Intra)フレーム、過去のフレームを参照画像として順方向のフレーム間予測符号化を行う画像フレームをP(Predictive)フレーム、過去と未来のフレームを参照画像として双方向のフレーム間予測符号化を行う画像フレームをBフレームという。   In the MPEG series standard, an image frame for intra-frame encoding is an I (Intra) frame, an image frame for forward inter-frame predictive encoding with a past frame as a reference image, a P (Predictive) frame, and past and future An image frame that performs bidirectional inter-frame predictive coding using this frame as a reference image is referred to as a B frame.

一方、H.264/AVCでは、参照画像として利用できるフレームは、時間の先後を問わず、過去の2枚のフレームを参照画像としてもよく、未来の2枚のフレームを参照画像としてもよい。また、参照画像として利用できるフレームの枚数も問わず、3枚以上のフレームを参照画像として用いることもできる。したがって、MPEG−1/2/4では、Bフレームは双方向予測(Bi-directional prediction)フレームのことを指していたが、H.264/AVCでは、Bフレームは、参照画像の時間の先後は問わないため、双予測(Bi-predictive prediction)フレームのことを指すことに留意する。   On the other hand, H. In H.264 / AVC, the frame that can be used as a reference image may be a past two frames as a reference image or a future two frames as a reference image regardless of the time. Further, three or more frames can be used as the reference image regardless of the number of frames that can be used as the reference image. Therefore, in MPEG-1 / 2/4, the B frame refers to a Bi-directional prediction frame. Note that in H.264 / AVC, the B frame refers to a bi-predictive prediction frame because the time of the reference image does not matter before and after.

なお、本願明細書では、フレームとピクチャを同じ意味で用いており、Iフレーム、Pフレーム、Bフレームは、それぞれIピクチャ、Pピクチャ、Bピクチャとも呼ばれている。
また、本願明細書では、符号化の単位としてフレームを例に挙げて説明するが、符号化の単位はフィールドであってもよい。また、符号化の単位はMPEG−4におけるVOPであってもよい。
In the specification of the present application, a frame and a picture are used in the same meaning, and an I frame, a P frame, and a B frame are also called an I picture, a P picture, and a B picture, respectively.
In this specification, a frame is used as an example of the encoding unit. However, the encoding unit may be a field. The unit of encoding may be a VOP in MPEG-4.

ブロック生成部10は、入力された画像フレームをマクロブロックに分割する。画像フレームの左上から右下方向の順にマクロブロックが形成される。ブロック生成部10は生成したマクロブロックを差分器12、動き補償部70および相関評価部72に供給する。   The block generation unit 10 divides the input image frame into macro blocks. Macroblocks are formed in order from the upper left to the lower right of the image frame. The block generation unit 10 supplies the generated macroblock to the differentiator 12, the motion compensation unit 70, and the correlation evaluation unit 72.

差分器12は、ブロック生成部10から供給される画像フレームがIフレームであれば、そのまま直交変換部20に出力するが、PフレームまたはBフレームであれば、動き補償部70から供給される予測画像との差分を計算して直交変換部20に供給する。   If the image frame supplied from the block generation unit 10 is an I frame, the differentiator 12 outputs it to the orthogonal transformation unit 20 as it is. However, if the image frame is a P frame or a B frame, the difference unit 12 provides a prediction supplied from the motion compensation unit 70. The difference from the image is calculated and supplied to the orthogonal transform unit 20.

動き補償部70は、フレームメモリ60に格納されている過去または未来の画像フレームを参照画像として利用し、ブロック生成部10から入力されたPフレームまたはBフレームの各マクロブロックについて、誤差の最も小さい予測領域を参照画像から探索し、マクロブロックから予測領域へのずれを示す動きベクトルを求める。動き補償部70は、動きベクトルを用いてマクロブロック毎に動き補償を行い、予測画像を生成する。動き補償部70は、生成した動きベクトルを可変長符号化部90に供給し、予測画像を差分器12と加算器14に供給する。   The motion compensation unit 70 uses the past or future image frame stored in the frame memory 60 as a reference image, and has the smallest error for each macroblock of the P frame or the B frame input from the block generation unit 10. A prediction area is searched from the reference image, and a motion vector indicating a deviation from the macroblock to the prediction area is obtained. The motion compensation unit 70 performs motion compensation for each macroblock using the motion vector, and generates a predicted image. The motion compensation unit 70 supplies the generated motion vector to the variable length encoding unit 90 and supplies the predicted image to the differentiator 12 and the adder 14.

動き補償部70では、双方向予測と片方向予測のいずれも適用可能である。動き補償部70は、片方向予測では、前方参照フレームに対する動きを示す順方向動きベクトルを生成する。双方向予測では、順方向動きベクトルに加えて、後方参照フレームに対する動きを示す逆方向動きベクトルの2つの動きベクトルを生成する。   The motion compensation unit 70 can apply both bidirectional prediction and unidirectional prediction. In the unidirectional prediction, the motion compensation unit 70 generates a forward motion vector indicating the motion with respect to the forward reference frame. In the bi-directional prediction, in addition to the forward motion vector, two motion vectors of a backward motion vector indicating motion with respect to the backward reference frame are generated.

差分器12は、ブロック生成部10から出力される現在の画像、すなわち符号化対象の画像と、動き補償部70から出力される予測画像との差分を求め、直交変換部20に出力する。直交変換部20は、差分器12から与えられた差分画像を離散コサイン変換(DCT)し、DCT係数を量子化部30に与える。   The differentiator 12 calculates a difference between the current image output from the block generation unit 10, that is, the image to be encoded, and the predicted image output from the motion compensation unit 70, and outputs the difference to the orthogonal transform unit 20. The orthogonal transform unit 20 performs a discrete cosine transform (DCT) on the difference image given from the differentiator 12 and gives a DCT coefficient to the quantization unit 30.

量子化部30は、量子化制御部80により設定された量子化ステップでDCT係数を量子化し、可変長符号化部90に与える。可変長符号化部90は、動き補償部70から与えられた動きベクトルとともに差分画像の量子化されたDCT係数を可変長符号化し、符号化ストリームCSを生成する。バッファ92は、符号化ストリームCSを一時記憶し、所定のタイミングでメモリカードやハードディスクやDVDなどの記録媒体に記録するか、ネットワークに送出する。バッファ92は、符号化ストリームCSの符号量または符号化ストリームCSによるバッファ占有量を量子化制御部80に与える。   The quantization unit 30 quantizes the DCT coefficient in the quantization step set by the quantization control unit 80 and supplies the quantized DCT coefficient to the variable length coding unit 90. The variable length coding unit 90 performs variable length coding on the DCT coefficient quantized of the difference image together with the motion vector supplied from the motion compensation unit 70, and generates a coded stream CS. The buffer 92 temporarily stores the encoded stream CS, and records the encoded stream CS on a recording medium such as a memory card, a hard disk, or a DVD at a predetermined timing, or sends it to a network. The buffer 92 gives the code amount of the encoded stream CS or the buffer occupation amount by the encoded stream CS to the quantization control unit 80.

量子化部30は、画像フレームの量子化されたDCT係数を逆量子化部40に供給する。逆量子化部40は、与えられた量子化データを逆量子化し、逆直交変換部50に与え、逆直交変換部50は、与えられた逆量子化データを逆離散コサイン変換する。これにより、符号化された画像フレームが復元される。復元された画像フレームは加算器14に入力される。   The quantization unit 30 supplies the quantized DCT coefficient of the image frame to the inverse quantization unit 40. The inverse quantization unit 40 inversely quantizes the given quantized data and provides it to the inverse orthogonal transform unit 50. The inverse orthogonal transform unit 50 performs inverse discrete cosine transform on the given inverse quantized data. Thereby, the encoded image frame is restored. The restored image frame is input to the adder 14.

加算器14は、逆直交変換部50から供給される画像フレームがIフレームであれば、そのままフレームメモリ60に格納する。加算器14は、逆直交変換部50から供給される画像フレームがPフレームまたはBフレームであれば、それは差分画像であるため、逆直交変換部50から供給された差分画像と動き補償部70から供給される予測画像とを加算することにより、元の画像フレームを再構成し、フレームメモリ60に格納する。   If the image frame supplied from the inverse orthogonal transform unit 50 is an I frame, the adder 14 stores it in the frame memory 60 as it is. If the image frame supplied from the inverse orthogonal transform unit 50 is a P frame or a B frame, the adder 14 is a difference image, so the difference image supplied from the inverse orthogonal transform unit 50 and the motion compensation unit 70 By adding the supplied predicted image, the original image frame is reconstructed and stored in the frame memory 60.

PフレームもしくはBフレームの符号化処理の場合は、上述のように動き補償部70が動作するが、Iフレームの符号化処理の場合は、動き補償部70は動作せず、ここでは図示しないが、Iフレームはフレーム内予測が行われた後、直交変換部20に供給される。   In the case of P frame or B frame encoding processing, the motion compensation unit 70 operates as described above. However, in the case of I frame encoding processing, the motion compensation unit 70 does not operate and is not shown here. The I frame is supplied to the orthogonal transform unit 20 after intra-frame prediction.

相関評価部72は、現在のフレームの小領域と、そのフレームと時間方向に前後するフレームの対応する小領域との相関を評価する。当該小領域は、マクロブロックであってもよいし、マクロブロックより大きい領域であってもよいし、マクロブロックより小さい領域であってもよい。   The correlation evaluation unit 72 evaluates the correlation between the small area of the current frame and the corresponding small areas of the frame and the frame that moves back and forth in the time direction. The small area may be a macro block, an area larger than the macro block, or an area smaller than the macro block.

上記現在のフレームと時間方向に前後するフレームは、現在のフレームに対して一つ過去のフレームであっても、一つ未来のフレームであってもよい。また、二つ以上の過去のフレームや、過去の複数のフレームの平均値であってもよい。また、現在のフレームと、過去または未来の複数のフレームとの複数の相関を算出してもよい。上記現在のフレームと比較対象とすべき、当該フレームと時間方向に前後するフレームは、量子化後に逆量子化および逆直交変換を経た参照画像であっても、原画像であってもよい。   The current frame and the frame that moves back and forth in the time direction may be one past frame or one future frame with respect to the current frame. Further, it may be an average value of two or more past frames or a plurality of past frames. Further, a plurality of correlations between the current frame and a plurality of past or future frames may be calculated. The frame that is to be compared with the current frame and that precedes and follows in the time direction may be a reference image that has undergone inverse quantization and inverse orthogonal transformation after quantization, or may be an original image.

相関評価部72は、上記相関に基づく評価値を量子化制御部80に与える。なお、評価手法の詳細は後述する。量子化制御部80は、相関評価部72から与えられた評価値に応じて、量子化ステップを適応的に変化させ、量子化部30に与える。また、相関評価部72から与えられた評価値に応じて、量子化の際の数値の丸め方を適応的に変化させ、量子化部30に与える。これらの処理の詳細は後述する。   The correlation evaluation unit 72 gives an evaluation value based on the correlation to the quantization control unit 80. Details of the evaluation method will be described later. The quantization control unit 80 adaptively changes the quantization step according to the evaluation value given from the correlation evaluation unit 72 and gives the quantization step 30 to the quantization step 30. Further, according to the evaluation value given from the correlation evaluation unit 72, the rounding method of the numerical value at the time of quantization is adaptively changed and given to the quantization unit 30. Details of these processes will be described later.

図2は、実施の形態に係る相関評価部72による相関評価処理の一例を示す図である。図2では、相関評価部72は、現在のフレームF1のマクロブロックB1と、過去のフレームF0の最適予測ブロックB0との相関を評価する。16×16画素の最適予測ブロックB0は、16×16画素のマクロブロックB1と最も誤差が小さいブロックを示す。   FIG. 2 is a diagram illustrating an example of correlation evaluation processing by the correlation evaluation unit 72 according to the embodiment. In FIG. 2, the correlation evaluation unit 72 evaluates the correlation between the macroblock B1 of the current frame F1 and the optimal prediction block B0 of the past frame F0. The 16 × 16 pixel optimum prediction block B0 indicates a block having the smallest error from the 16 × 16 pixel macroblock B1.

相関評価部72は、マクロブロックB1の画素値と、最適予測ブロックB0の対応する画素値との差分の絶対値和を求める。差分の計算を、フレームF1、F0間のすべての画素に対して行ってもよいし、一画素おきに差分を計算するなど、間引いて行ってもよい。また、画素値の差分の二乗和を求めてもよい。   The correlation evaluation unit 72 calculates the absolute value sum of the differences between the pixel value of the macroblock B1 and the corresponding pixel value of the optimal prediction block B0. The difference may be calculated for all the pixels between the frames F1 and F0, or may be thinned out by calculating the difference every other pixel. Further, a sum of squares of pixel value differences may be obtained.

また、相関評価部72は、マクロブロックB1の画素値と、最適予測ブロックB0の対応する画素値との差分を、直交変換して得られる係数の絶対値和または二乗和を求めてもよい。この場合、差分値の平均が直流成分として一つの係数に集約されるため、明るさの変化による影響を受けにくくなる。これにより、明るさだけが変化した場合でも、相関の度合いを正しく求めることができる。   Further, the correlation evaluation unit 72 may obtain an absolute value sum or a square sum of coefficients obtained by orthogonally transforming the difference between the pixel value of the macroblock B1 and the corresponding pixel value of the optimal prediction block B0. In this case, since the average of the difference values is collected as one coefficient as a direct current component, it is difficult to be affected by changes in brightness. Thereby, even when only the brightness changes, the degree of correlation can be obtained correctly.

量子化制御部80は、現在のフレームF1のマクロブロックB1の係数を量子化する際の量子化ステップを上述した評価に基づいて決定する。量子化部30は、量子化制御部80により決定された量子化ステップで、現在のフレームF1のマクロブロックB1の係数を量子化する。   The quantization control unit 80 determines a quantization step for quantizing the coefficient of the macroblock B1 of the current frame F1 based on the above-described evaluation. The quantization unit 30 quantizes the coefficient of the macroblock B1 of the current frame F1 in the quantization step determined by the quantization control unit 80.

図3は、実施の形態に係る符号化装置100の動作例1を示すフローチャートである。なお、マクロブロックなどの小領域の量子化ステップのステップ幅Q+ΔQは、バッファ占有量や符号量によって決定される基本となる基本量子化ステップQに、時間的に前後するフレームとの相関によって決定される付加量子化ステップΔQを付加したものとする。以下の例では、過去のフレームとの相関を用いるものとする。   FIG. 3 is a flowchart showing an operation example 1 of the encoding apparatus 100 according to the embodiment. Note that the step width Q + ΔQ of a quantization step of a small area such as a macroblock is determined by a correlation with a frame that is temporally precedent or subtracted from the basic quantization step Q determined by the buffer occupancy and code amount. It is assumed that an additional quantization step ΔQ is added. In the following example, correlation with a past frame is used.

相関評価部72は、上述したようにフレーム間の対応する小領域において、画素値またはDCT係数の差分を算出する(S10)。相関評価部72は、算出した差分の絶対値和や二乗和を求めて、評価値とする(S12)。   As described above, the correlation evaluation unit 72 calculates the difference between the pixel value or the DCT coefficient in the corresponding small region between the frames (S10). The correlation evaluation unit 72 obtains the sum of absolute values and sum of squares of the calculated differences and uses them as evaluation values (S12).

量子化制御部80は、当該評価値と所定の閾値とを比較する(S14)。この閾値は、設計者が実験やシミュレーションを基に決定した値に設定される。量子化制御部80は、当該評価値が所定の閾値より大きい場合(S14のY)、量子化ステップのステップ幅Q+ΔQを縮小する(S16)。当該評価値が所定の閾値より大きい場合とは、過去のフレームとの相関が強いことを示す。すなわち、その領域の画像の変化が小さい状態を示す。その領域の画像は今後も変化しない可能性が高く、画像が変化していないと画質の低下が目立ちやすくなる。逆にいえば、この領域の画質を低下させると、主観画質を大きく低下させてしまうといえる。したがって、付加量子化ステップΔQを負の数にして、ステップ幅Q+ΔQを縮小させることにより、画質を向上させる。   The quantization control unit 80 compares the evaluation value with a predetermined threshold value (S14). This threshold value is set to a value determined by the designer based on experiments and simulations. When the evaluation value is larger than the predetermined threshold (Y in S14), the quantization control unit 80 reduces the step width Q + ΔQ of the quantization step (S16). The case where the evaluation value is larger than the predetermined threshold indicates that the correlation with the past frame is strong. That is, it shows a state in which the change in the image of the region is small. There is a high possibility that the image in that area will not change in the future, and if the image has not changed, the deterioration of the image quality will be noticeable. Conversely, it can be said that if the image quality in this region is reduced, the subjective image quality is greatly reduced. Therefore, the image quality is improved by making the additional quantization step ΔQ a negative number and reducing the step width Q + ΔQ.

ステップS14にて、量子化制御部80は、当該評価値が所定の閾値未満の場合(S14のN)、量子化ステップのステップ幅Q+ΔQを拡大する(S18)。当該評価値が所定の閾値未満の場合とは、過去のフレームとの相関が小さいことを示す。すなわち、その領域の画像の変化が大きい状態を示す。その領域の画像は今後も変化する可能性が高く、画像が変化していると画質の低下が目立ちにくくなる。逆にいえば、この領域の画質を低下させても、主観画質にあまり影響を与えないといえる。したがって、付加量子化ステップΔQを正の数にして、ステップ幅Q+ΔQを拡大させることにより、符号量を削減させる。   In step S14, when the evaluation value is less than the predetermined threshold (N in S14), the quantization control unit 80 increases the step width Q + ΔQ of the quantization step (S18). The case where the evaluation value is less than the predetermined threshold indicates that the correlation with the past frame is small. That is, it shows a state in which the change in the image of the region is large. The image in that region is likely to change in the future, and if the image changes, the deterioration in image quality is less noticeable. Conversely, it can be said that even if the image quality in this region is reduced, the subjective image quality is not significantly affected. Therefore, the code amount is reduced by increasing the step width Q + ΔQ by making the additional quantization step ΔQ a positive number.

以上説明したように本動作例によれば、現在のフレームにおける量子化ステップのステップ幅Q+ΔQを、時間方向のフレームとの相関関係に応じて、適応的に変化させることにより、符号量を抑制しつつ、主観画質を向上させることができる。   As described above, according to this operation example, the code amount is suppressed by adaptively changing the step width Q + ΔQ of the quantization step in the current frame according to the correlation with the frame in the time direction. However, the subjective image quality can be improved.

なお、図3のフローチャートでは説明を単純化するために、一つの閾値を用いる例を説明したが、複数の閾値を用いて、きめ細かく処理してもよい。たとえば、相関が非常に強い場合と、相関がやや強い場合を分けてもよい。相関がやや強い領域の画像は少しずつ動いている状態を示し、視聴者が注目しやすい領域といえる。そこで、ステップS18で縮小させたステップ幅Q+ΔQよりさらに縮小させたQ+ΔQに変更させる。また、相関が強いとも弱いといえない中間領域では、付加量子化ステップΔQを零にしてもよい。これらによれば、符号量と主観画質とのトレードオフ関係をさらに最適化することができる。   In the flowchart of FIG. 3, an example in which one threshold is used has been described in order to simplify the description. However, detailed processing may be performed using a plurality of thresholds. For example, a case where the correlation is very strong and a case where the correlation is slightly strong may be separated. An image of a region with a slightly strong correlation shows a state of moving little by little, and can be said to be a region where viewers can easily pay attention. Therefore, the step width Q + ΔQ reduced in step S18 is changed to Q + ΔQ further reduced. In addition, in the intermediate region where the correlation is strong or weak, the additional quantization step ΔQ may be set to zero. According to these, the trade-off relationship between the code amount and the subjective image quality can be further optimized.

図4は、実施の形態に係る符号化装置100の動作例2を示すフローチャートである。動作例2は、量子化する際の丸め方を適応的に変化させる処理である。量子化する際、DCT係数を2(nは整数)で最上位ビットから順に除算する必要がある。その際、各ビットの重みで除算した結果、割り切れなかった場合、その除算された値を次の除算に備えて丸める必要がある。数値の丸め方には、小数点以下の数値を、単純に四捨五入したり、0.25を足した後に四捨五入したり、または切り捨てたりする方法がある。 FIG. 4 is a flowchart showing an operation example 2 of the encoding apparatus 100 according to the embodiment. The operation example 2 is a process of adaptively changing the rounding method when quantizing. When quantizing, it is necessary to divide the DCT coefficient by 2 n (n is an integer) in order from the most significant bit. At this time, if division is not possible as a result of division by the weight of each bit, it is necessary to round the divided value in preparation for the next division. As a method of rounding a numerical value, there are a method of rounding off a numerical value after the decimal point, rounding up after adding 0.25, or rounding down.

動作例2は、上述した動作例1の処理とステップS14まで同様の処理のため、それらの説明を省略する。なお、閾値は異なるものを用いてもよい。量子化制御部80は、ステップS12にて算出された評価値が所定の閾値より大きい場合(S14のY)、量子化する際の丸め方として、切り捨て処理を選択する(S20)。上述したように、客観画質を低下させても、主観画質にあまり影響を与えない領域では、下位ビットに割り当てられる高周波成分の情報量を減少させることにより、符号量を削減することが望ましい。とくに、動きが大きい画像領域では、高周波成分で表現される明るさの小さな変化に対して、視聴者の目は鈍感になる。よって、符号量削減につながる切り捨て処理を採用する。   Since the operation example 2 is the same as the process of the operation example 1 described above up to step S14, the description thereof is omitted. Different threshold values may be used. When the evaluation value calculated in step S12 is larger than the predetermined threshold (Y in S14), the quantization control unit 80 selects a rounding-down process as a rounding method for quantization (S20). As described above, it is desirable to reduce the code amount by reducing the information amount of the high-frequency component allocated to the lower bits in a region that does not significantly affect the subjective image quality even if the objective image quality is reduced. In particular, in an image region with large movement, the viewer's eyes become insensitive to small changes in brightness expressed by high-frequency components. Therefore, a truncation process that leads to code amount reduction is adopted.

ステップS14にて、量子化制御部80は、当該評価値が所定の閾値未満の場合(S14のN)、量子化する際の丸め方として、四捨五入処理を選択する(S22)。上述したように、客観画質を低下させると主観画質も大きく低下してしまう領域では、画質を維持する必要がある。そこで、下位ビットに割り当てられる高周波成分の情報量も的確に記録する必要があり、原画像に比較的近い画像を残すことができる四捨五入処理を採用する。   In step S14, if the evaluation value is less than the predetermined threshold value (N in S14), the quantization control unit 80 selects a rounding process as a rounding method for quantization (S22). As described above, it is necessary to maintain the image quality in a region where the subjective image quality is greatly lowered when the objective image quality is lowered. Therefore, it is necessary to accurately record the information amount of the high-frequency component assigned to the lower bits, and a rounding process that can leave an image relatively close to the original image is adopted.

以上説明したように本動作例によれば、量子化する際の丸め方を、時間方向のフレームとの相関関係に応じて、適応的に変化させることにより、符号量を抑制しつつ、主観画質を向上させることができる。   As described above, according to this operation example, the rounding method when quantizing is adaptively changed according to the correlation with the frame in the time direction, thereby suppressing the code amount and reducing the subjective image quality. Can be improved.

以上、本発明をいくつかの実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on some embodiments. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.

図5は、変形例に係る撮像装置500の構成図である。変形例に係る撮像装置500は、図1に示した撮像装置500と比較し、相関評価部72を別に設けず、その作用を動き補償部71に兼用させている。その他の構成は図1と同様であるため、以下、動き補償部71を中心に説明し、その他の構成の説明は適宜、省略する。   FIG. 5 is a configuration diagram of an imaging apparatus 500 according to a modification. Compared to the imaging apparatus 500 shown in FIG. 1, the imaging apparatus 500 according to the modified example does not include the correlation evaluation unit 72 separately, and uses the action of the motion compensation unit 71. Since other configurations are the same as those in FIG. 1, the following description will focus on the motion compensation unit 71, and description of other configurations will be omitted as appropriate.

動き補償部71は、マクロブロックの最適な予測領域を参照画像から探索する動き検出部としての機能と、決定した予測領域に基づき動きベクトルを生成し、その動きベクトルに基づいて予測画像を生成する予測画像生成部としての機能を備える。以下、より具体的に説明する。動き補償部71は、フレームメモリ60に格納されている過去または未来の画像フレームを参照画像として利用し、ブロック生成部10から入力されたフレームの各マクロブロックについて、誤差の最も小さい予測領域を参照画像から探索し、マクロブロックから予測領域へのずれを示す動きベクトルを求める。   The motion compensation unit 71 generates a motion vector based on a function as a motion detection unit that searches an optimal prediction region of a macroblock from a reference image and the determined prediction region, and generates a prediction image based on the motion vector. A function as a predicted image generation unit is provided. More specific description will be given below. The motion compensation unit 71 uses a past or future image frame stored in the frame memory 60 as a reference image, and refers to the prediction region with the smallest error for each macroblock of the frame input from the block generation unit 10. A search is performed from the image, and a motion vector indicating a deviation from the macroblock to the prediction region is obtained.

動き補償部71は、誤差の最も小さい予測領域を求めるため、マクロブロックの画素値と、予測領域の候補とすべき各候補領域の画素値との差分を算出し、その絶対値和をそれぞれ求める。なお、絶対値和ではなく二乗和を求めてもよい。動き補償部71は、絶対値和または二乗和が最も小さい候補領域を予測領域に決定する。   The motion compensation unit 71 calculates the difference between the pixel value of the macroblock and the pixel value of each candidate region that should be a candidate for the prediction region in order to obtain the prediction region with the smallest error, and obtains the sum of absolute values thereof. . Note that the sum of squares may be obtained instead of the sum of absolute values. The motion compensation unit 71 determines a candidate region having the smallest absolute value sum or square sum as a prediction region.

動き補償部71は、動きベクトルを用いてマクロブロック毎に動き補償を行い、予測画像を生成する。動き補償部71は、生成した動きベクトルを可変長符号化部90に供給し、予測画像を差分器12と加算器14に供給する。また、予測領域を決定する過程で算出した絶対値和または二乗和を、評価値として量子化制御部80に供給する。ここで、供給すべき評価値は、決定された予測領域の評価値であってもよいし、その予測領域を含む各候補領域の評価値のうち、少なくとも一つ以上の評価値を基礎としたものであってもよい。たとえば、最も予測誤差の小さい評価値と、そのつぎに予測誤差が小さい評価値を足した値を量子化制御部80に評価値として供給してもよい。   The motion compensation unit 71 performs motion compensation for each macroblock using a motion vector, and generates a predicted image. The motion compensation unit 71 supplies the generated motion vector to the variable length encoding unit 90 and supplies the predicted image to the differentiator 12 and the adder 14. Also, the absolute value sum or the square sum calculated in the process of determining the prediction region is supplied to the quantization control unit 80 as an evaluation value. Here, the evaluation value to be supplied may be an evaluation value of the determined prediction region, or based on at least one evaluation value among the evaluation values of each candidate region including the prediction region It may be a thing. For example, a value obtained by adding an evaluation value with the smallest prediction error and then an evaluation value with the smallest prediction error may be supplied to the quantization control unit 80 as an evaluation value.

動き補償部71が予測領域を決定し、それを基礎に予測画像を生成する必要があるのは、フレーム間符号化すべきPフレームおよびBフレームである。変形例では、フレーム内符号化すべきIフレームに対しても、フレーム間の相関の度合いを求めるため、上述した絶対値和または二乗和を求める。もちろん、Iフレームの場合、動きベクトルおよび予測画像は生成する必要がない。   The motion compensator 71 determines a prediction region and needs to generate a prediction image based on the prediction region for P frames and B frames to be inter-coded. In the modified example, the above-described sum of absolute values or sum of squares is obtained for the I frame to be intra-coded to obtain the degree of correlation between frames. Of course, in the case of an I frame, it is not necessary to generate a motion vector and a predicted image.

量子化制御部80は、動き補償部71から与えられた評価値に応じて、量子化ステップを適応的に変化させ、量子化部30に与える。また、動き補償部71から与えられた評価値に応じて、量子化の際の数値の丸め方を適応的に変化させ、量子化部30に与える。   The quantization control unit 80 adaptively changes the quantization step according to the evaluation value given from the motion compensation unit 71 and gives the quantization step 30 to the quantization step 30. Further, according to the evaluation value given from the motion compensation unit 71, the rounding method of the numerical value at the time of quantization is adaptively changed and given to the quantization unit 30.

以上説明したように変形例によれば、動き補償のために予測領域を決定する過程で使用する評価値を、量子化する際のステップ幅や丸め方の制御にも転用することにより、それら制御の基礎とすべき評価値を別に演算する必要がなくなり、全体としての演算量を削減することができる。したがって、処理時間の短縮および回路規模の削減にも資する。   As described above, according to the modification, the evaluation value used in the process of determining the prediction region for motion compensation is also used for controlling the step width and rounding method when quantizing, thereby controlling them. It is no longer necessary to separately calculate an evaluation value that should be the basis of the above, and the amount of calculation as a whole can be reduced. Therefore, it contributes to shortening of processing time and circuit scale.

また、上述した実施の形態では、MPEG方式を想定したが、Motion−JPEG方式にも適用可能である。Motion−JPEG2000方式では、DCT変換ではなく、ウェーブレット変換を用いる。この場合、上述したDCT係数をウェーブレット係数に適宜、読み替えればよい。   In the above-described embodiment, the MPEG system is assumed, but the present invention can also be applied to the Motion-JPEG system. In the Motion-JPEG2000 system, wavelet transformation is used instead of DCT transformation. In this case, the above-described DCT coefficients may be appropriately read as wavelet coefficients.

実施の形態に係る撮像装置の構成図である。It is a block diagram of the imaging device which concerns on embodiment. 実施の形態に係る相関評価部による相関評価処理の一例を示す図である。It is a figure which shows an example of the correlation evaluation process by the correlation evaluation part which concerns on embodiment. 実施の形態に係る符号化装置の動作例1を示すフローチャートである。It is a flowchart which shows the operation example 1 of the encoding apparatus which concerns on embodiment. 実施の形態に係る符号化装置の動作例2を示すフローチャートである。It is a flowchart which shows the operation example 2 of the encoding apparatus which concerns on embodiment. 変形例に係る撮像装置の構成図である。It is a block diagram of the imaging device which concerns on a modification.

符号の説明Explanation of symbols

5 撮像部、 10 ブロック生成部、 12 差分器、 14 加算器、 20 直交変換部、 30 量子化部、 40 逆量子化部、 50 逆直交変換部、 60 フレームメモリ、 70 動き補償部、 72 相関評価部、 80 量子化制御部、 90 可変長符号化部、 92 バッファ、 100 符号化装置、 500 撮像装置。   5 imaging units, 10 block generation units, 12 differentiators, 14 adders, 20 orthogonal transformation units, 30 quantization units, 40 inverse quantization units, 50 inverse orthogonal transformation units, 60 frame memories, 70 motion compensation units, 72 correlations Evaluation unit, 80 quantization control unit, 90 variable length coding unit, 92 buffer, 100 coding device, 500 imaging device.

Claims (8)

対象ピクチャ内の所定の領域と、その対象ピクチャと時間方向に異なるピクチャの前記領域に対応した領域との相関を評価し、前記対象ピクチャ内の所定の領域に対する処理の内容を適応的に変化させることを特徴とする画像処理方法。   Evaluate the correlation between a predetermined area in the target picture and the area corresponding to the area of the picture that differs from the target picture in the temporal direction, and adaptively change the processing content for the predetermined area in the target picture An image processing method. 対象ピクチャ内の所定の領域と、その対象ピクチャと時間方向に異なるピクチャの前記領域に対応した領域との相関を評価する相関評価部と、
前記相関評価部により求められた評価に応じて、前記対象ピクチャ内の所定の領域に対する量子化処理を適応的に制御する量子化制御部と、
を備えることを特徴とする画像処理装置。
A correlation evaluation unit that evaluates a correlation between a predetermined region in the target picture and a region corresponding to the region of the picture that is different from the target picture in the temporal direction;
A quantization control unit that adaptively controls a quantization process for a predetermined region in the target picture according to the evaluation obtained by the correlation evaluation unit;
An image processing apparatus comprising:
前記量子化制御部は、
前記相関評価部により求められた評価値により、前記相関が所定の閾値より弱いと判断される場合、前記所定の領域を量子化するときの量子化ステップを拡大することを特徴とする請求項2に記載の画像処理装置。
The quantization control unit
The quantization step for quantizing the predetermined region is expanded when the correlation is determined to be weaker than a predetermined threshold based on the evaluation value obtained by the correlation evaluation unit. The image processing apparatus according to 1.
前記量子化制御部は、
前記相関評価部により求められた評価値により、前記相関が所定の閾値より強いと判断される場合、前記所定の領域を量子化するときの量子化ステップを縮小することを特徴とする請求項2に記載の画像処理装置。
The quantization control unit
3. The quantization step for quantizing the predetermined region is reduced when the correlation is determined to be stronger than a predetermined threshold based on the evaluation value obtained by the correlation evaluation unit. The image processing apparatus according to 1.
前記量子化制御部は、
前記相関評価部により求められた評価値により、前記相関が所定の閾値より弱いと判断される場合、前記所定の領域を量子化するときの除算処理で発生する端数を切り捨てることを特徴とする請求項2に記載の画像処理装置。
The quantization control unit
When the correlation is determined to be weaker than a predetermined threshold based on the evaluation value obtained by the correlation evaluation unit, a fraction generated in a division process when quantizing the predetermined region is rounded down. Item 3. The image processing apparatus according to Item 2.
対象ピクチャ内の所定の領域に対応する予測領域を、前記対象ピクチャと時間方向に異なるピクチャ内で探索し、各予測領域候補の評価値を参照して、前記予測領域を決定する動き検出部と、
前記評価値のうちの少なくとも一つを用いて、前記対象ピクチャ内の所定の領域に対する量子化処理を適応的に制御する量子化制御部と、
を備えることを特徴とする画像処理装置。
A motion detection unit that searches for a prediction area corresponding to a predetermined area in the target picture in a picture that is different in time direction from the target picture, and determines the prediction area by referring to an evaluation value of each prediction area candidate; ,
A quantization controller that adaptively controls a quantization process for a predetermined region in the target picture using at least one of the evaluation values;
An image processing apparatus comprising:
前記動き検出部は、
ピクチャ間符号化すべきピクチャおよびピクチャ内符号化すべきピクチャの両方に対して、前記評価値を生成することを特徴とする請求項6に記載の画像処理装置。
The motion detector is
The image processing apparatus according to claim 6, wherein the evaluation value is generated for both a picture to be inter-picture encoded and a picture to be intra-picture encoded.
撮像素子と、
請求項2から7のいずれかに記載の画像処理装置と、を備え、
前記画像処理装置は、前記撮像素子から取り込んだピクチャに対して前記量子化処理を行うことを特徴とする撮像装置。
An image sensor;
An image processing apparatus according to any one of claims 2 to 7,
The image processing apparatus performs the quantization process on a picture captured from the image sensor.
JP2007181365A 2007-02-28 2007-07-10 Image processing method and device, and image device using the same Pending JP2008245237A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007181365A JP2008245237A (en) 2007-02-28 2007-07-10 Image processing method and device, and image device using the same
US12/073,047 US8126277B2 (en) 2007-02-28 2008-02-28 Image processing method, image processing apparatus and image pickup apparatus using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007050104 2007-02-28
JP2007181365A JP2008245237A (en) 2007-02-28 2007-07-10 Image processing method and device, and image device using the same

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2009094938A Division JP2009153227A (en) 2007-02-28 2009-04-09 Image processing apparatus and image pickup apparatus using the same

Publications (1)

Publication Number Publication Date
JP2008245237A true JP2008245237A (en) 2008-10-09

Family

ID=39915962

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2007181365A Pending JP2008245237A (en) 2007-02-28 2007-07-10 Image processing method and device, and image device using the same
JP2009094938A Pending JP2009153227A (en) 2007-02-28 2009-04-09 Image processing apparatus and image pickup apparatus using the same

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2009094938A Pending JP2009153227A (en) 2007-02-28 2009-04-09 Image processing apparatus and image pickup apparatus using the same

Country Status (1)

Country Link
JP (2) JP2008245237A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6016332B2 (en) * 2011-05-12 2016-10-26 キヤノン株式会社 Image processing apparatus and image processing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05227526A (en) * 1991-10-17 1993-09-03 Sony Corp Picture processor
JPH0846976A (en) * 1994-07-29 1996-02-16 Nec Corp Predictive coding device

Also Published As

Publication number Publication date
JP2009153227A (en) 2009-07-09

Similar Documents

Publication Publication Date Title
KR100987765B1 (en) Prediction method and apparatus in video encoder
US20090190660A1 (en) Image encoding method
JP5173409B2 (en) Encoding device and moving image recording system provided with encoding device
US20140233645A1 (en) Moving image encoding apparatus, method of controlling the same, and program
JP5649296B2 (en) Image encoding device
JP5032936B2 (en) Video encoding apparatus and control method thereof
KR100987921B1 (en) Block based Motion-Search Area Rate Distortion Optimization using Motion Blur/Deblur post filter
US8126277B2 (en) Image processing method, image processing apparatus and image pickup apparatus using the same
JP5760950B2 (en) Moving picture re-encoding device, moving picture re-encoding method, and moving picture re-encoding computer program
JP2007124580A (en) Moving picture encoding program, program storage medium and encoder
JP5598199B2 (en) Video encoding device
JP4911625B2 (en) Image processing apparatus and imaging apparatus equipped with the same
US10148954B2 (en) Method and system for determining intra mode decision in H.264 video coding
JP2008245237A (en) Image processing method and device, and image device using the same
JP3690259B2 (en) High-speed moving image encoding apparatus and high-speed moving image encoding method
KR100613732B1 (en) Image Compression System for Digital Video Surveillance and Method for controlling the Same
JP2008289105A (en) Image processing device and imaging apparatus equipped therewith
JP4561701B2 (en) Video encoding device
US9544594B2 (en) Moving image reencoding device and moving image reencoding method
JP6874844B2 (en) Moving image coding device, moving image coding method, and moving image coding program
JP4100067B2 (en) Image information conversion method and image information conversion apparatus
JP2008153802A (en) Moving picture encoding device and moving picture encoding program
JP6016484B2 (en) Encoder
JP2007036887A (en) Coding method
KR200309401Y1 (en) Image Compression System for Digital Video Surveillance

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081113

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20081201

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20090114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090324

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090609