JP2006260520A - Image processor, image processing method, and image display device - Google Patents

Image processor, image processing method, and image display device Download PDF

Info

Publication number
JP2006260520A
JP2006260520A JP2005254276A JP2005254276A JP2006260520A JP 2006260520 A JP2006260520 A JP 2006260520A JP 2005254276 A JP2005254276 A JP 2005254276A JP 2005254276 A JP2005254276 A JP 2005254276A JP 2006260520 A JP2006260520 A JP 2006260520A
Authority
JP
Japan
Prior art keywords
image
contour
luminance data
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005254276A
Other languages
Japanese (ja)
Other versions
JP3753731B1 (en
Inventor
Yoshiaki Okuno
好章 奥野
Akihiro Nagase
章裕 長瀬
Jun Someya
潤 染谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2005254276A priority Critical patent/JP3753731B1/en
Priority to PCT/JP2005/020798 priority patent/WO2006087849A1/en
Application granted granted Critical
Publication of JP3753731B1 publication Critical patent/JP3753731B1/en
Publication of JP2006260520A publication Critical patent/JP2006260520A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)
  • Processing Of Color Television Signals (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor capable of improving display image quality, by performing contour correction processing suitable for each of a still image area and a moving image area. <P>SOLUTION: A contour width of a contour part in an input image is detected (31), the amount of magnification control for specifying for every pixel, the interpolation magnification of interpolation pixels to correct the contour part of the input image is generated, based on the contour width (33), between each frame variation of the input image is obtained for each pixel (10), and pixel data of the interpolation pixels is calculated by interpolation operation, using the conversion magnification obtained through adjustment of the magnification control amount according to the variation amount (34). <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、デジタル画像の輪郭を所望の鮮鋭度に補正する画像処理装置及び方法、並びにこの画像処理装置を用いた画像表示装置に関する。   The present invention relates to an image processing apparatus and method for correcting a contour of a digital image to a desired sharpness, and an image display apparatus using the image processing apparatus.

画像の輪郭部を補正して鮮鋭度を高める画像処理方法として、下記の引用文献に開示されたものがある。引用文献1に開示された画像処理方法は、入力画像信号の微分値の絶対値、およびこの絶対値の平均値を算出し、算出された絶対値から平均値を差引いた差分値を求め、この差分値に応じて画像の拡大・縮小率を制御するものである。このように、画像信号の変化に応じて画像の拡大・縮小率を制御することにより、画像の拡大縮小回路を利用して輪郭の立ち上がり、立下りを急峻にし、画像の鮮鋭度を高めることができる。   As an image processing method for correcting the contour portion of an image to increase the sharpness, there is one disclosed in the following cited document. The image processing method disclosed in the cited document 1 calculates an absolute value of a differential value of an input image signal and an average value of the absolute value, obtains a difference value obtained by subtracting the average value from the calculated absolute value, The image enlargement / reduction ratio is controlled in accordance with the difference value. In this way, by controlling the enlargement / reduction ratio of the image according to the change of the image signal, it is possible to use the image enlargement / reduction circuit to make the rising and falling edges sharp and to increase the sharpness of the image. it can.

引用文献2に開示された画像処理方法は、入力画像の画素数を変換する際、画像信号の高域成分に基づく制御量を生成し、この制御量を用いて画素数変換用の補間フィルタにおける補間位相を制御するものである。このように、画像の高域成分に基づいて補間位相を制御することにより、画像の輪郭部における変化を急峻にし、画像の鮮鋭度を高めることができる。
特開2002−16820号公報 特開2000−101870号公報
The image processing method disclosed in the cited document 2 generates a control amount based on a high frequency component of an image signal when converting the number of pixels of an input image, and uses this control amount in an interpolation filter for pixel number conversion. Controls the interpolation phase. In this way, by controlling the interpolation phase based on the high frequency component of the image, it is possible to make the change in the contour portion of the image steep and increase the sharpness of the image.
JP 2002-16820 A JP 2000-101870 A

上記引用文献に開示された従来の画像処理方法においては、画像の高域成分の量に基づいて輪郭部の鮮鋭度を改善しているため、レベルの差分が大きい輪郭部に比べて、レベルの差分が小さい輪郭部では鮮鋭度が改善されにくいという問題があった。また、動画領域と静止画領域で同一の処理を行うため、静止画領域にあわせて鮮鋭度改善を行うと、動画領域では鮮明さに欠け、動画領域に合わせて輪郭改善を行うと、静止画部においては鮮鋭度が強くなりすぎ画像が不自然になるという問題があった。
さらに、フリッカを含んだ画像では輪郭部の鮮鋭度を高めることでフリッカがより強調されるという問題があった。
In the conventional image processing method disclosed in the above cited document, the sharpness of the contour is improved based on the amount of the high frequency component of the image. There is a problem that the sharpness is difficult to be improved in the contour portion where the difference is small. Also, since the same processing is performed in the moving image area and the still image area, if sharpness improvement is performed in accordance with the still image area, the moving image area lacks sharpness, and if the contour improvement is performed in accordance with the moving image area, the still image There is a problem in that the sharpness is too strong in the part and the image becomes unnatural.
Furthermore, there is a problem that flicker is emphasized more in an image including flicker by increasing the sharpness of the outline.

本発明は、上記課題を解決するためになされたものであり、静止画領域、および動画領域のそれぞれに適した輪郭補正処理を行うことにより、表示画像を高画質化することが可能な画像処理装置を提供することを目的とする。
また、フリッカを強調することなく輪郭部の鮮鋭度を向上させることが可能な画像処理装置を提供することを目的とする。
The present invention has been made to solve the above-described problems, and image processing that can improve the display image quality by performing contour correction processing suitable for each of a still image region and a moving image region. An object is to provide an apparatus.
It is another object of the present invention to provide an image processing apparatus capable of improving the sharpness of an outline without enhancing flicker.

本発明に係る画像処理装置は、入力画像の輪郭部を補正する画像処理装置であって、
上記入力画像における輪郭部の輪郭幅を検出し、当該輪郭幅に基づいて、上記入力画像の輪郭部を補正する補間画素の補間倍率を画素毎に指定するための倍率制御量を生成する倍率制御量生成手段と、
上記入力画像と当該入力画像の1フレーム前の画像との変化量を画素毎に求め、当該変化量に応じて上記倍率制御量を調整して変換倍率を生成する倍率生成手段と、
上記変換倍率を用いた補間演算により上記補間画素の画素データを算出し、輪郭部が補正された画像データを出力する補間演算手段と
を備えたものである。
An image processing apparatus according to the present invention is an image processing apparatus that corrects a contour portion of an input image,
Magnification control for detecting the contour width of the contour portion in the input image and generating a magnification control amount for designating the interpolation magnification of the interpolation pixel for correcting the contour portion of the input image for each pixel based on the contour width A quantity generating means;
A magnification generating means for obtaining a change amount between the input image and an image one frame before the input image for each pixel, adjusting the magnification control amount according to the change amount, and generating a conversion magnification;
Interpolation calculation means for calculating pixel data of the interpolation pixel by interpolation calculation using the conversion magnification and outputting image data in which the contour portion is corrected is provided.

本発明に係る画像処理方法は、入力画像の輪郭部を補正する画像処理方法であって、
上記入力画像における輪郭部の輪郭幅を検出し、当該輪郭幅に基づいて、上記入力画像の輪郭部を補正する補間画素の補間倍率を画素毎に指定する倍率制御量を生成する工程と、
上記入力画像と当該入力画像の1フレーム前の画像との変化量を画素毎に求め、当該変化量に応じて上記倍率制御量を調整して変換倍率を生成する工程と、
上記変換倍率を用いた補間演算により上記補間画素の画素データを算出し、輪郭部が補正された画像データを出力する工程と
を備えたものである。
An image processing method according to the present invention is an image processing method for correcting a contour portion of an input image,
Detecting a contour width of a contour portion in the input image, and generating a magnification control amount for designating, for each pixel, an interpolation magnification of an interpolation pixel for correcting the contour portion of the input image based on the contour width;
Obtaining a change amount between the input image and the image one frame before the input image for each pixel, adjusting the magnification control amount according to the change amount, and generating a conversion magnification;
Calculating pixel data of the interpolated pixel by an interpolation operation using the conversion magnification, and outputting image data in which the contour portion is corrected.

本発明に係る画像処理装置は、輪郭幅に基づいて、輪郭部を補正する補間画素の補間倍率を画素毎に指定する倍率制御量を生成し、入力画像の1フレーム間の変化量に応じて上記倍率制御量を調整して得られる変換倍率を用いて上記補間画素の画素データを算出するので、動画領域と静止画領域が混在する画像において動画領域における輪郭部をより急峻にすることにより、動画領域における画像のぼやけを改善し、より鮮明な画像を得ることができる。   The image processing apparatus according to the present invention generates a magnification control amount for designating, for each pixel, an interpolation magnification of an interpolation pixel for correcting the contour portion based on the contour width, and according to a change amount between one frame of the input image. Since the pixel data of the interpolation pixel is calculated using the conversion magnification obtained by adjusting the magnification control amount, by making the contour portion in the moving image area steeper in the image in which the moving image area and the still image area are mixed, The blur of the image in the moving image area can be improved, and a clearer image can be obtained.

実施の形態1.
図1は、本発明に係る画像処理装置を備えた画像表示装置の一実施形態を示すブロック図である。図1に示す画像表示装置は、受信部1、画像処理部2、出力同期信号生成部7、送信部8、および表示部9を備えている。画像処理部2は、変換部3、記憶部4、輪郭補正部5、変換部6、比較判定部10により構成される。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an embodiment of an image display apparatus provided with an image processing apparatus according to the present invention. The image display apparatus shown in FIG. 1 includes a reception unit 1, an image processing unit 2, an output synchronization signal generation unit 7, a transmission unit 8, and a display unit 9. The image processing unit 2 includes a conversion unit 3, a storage unit 4, a contour correction unit 5, a conversion unit 6, and a comparison determination unit 10.

受信部1は、外部から入力される画像信号Diおよび同期信号Siを受信し、デジタル形式の画像データDaに変換し、同期信号Saとともに出力する。受信部1は、画像信号Diがアナログ信号の場合、A/D変換器によって構成される。また、画像信号Diがシリアルのデジタル信号やパラレルのデジタル信号の場合は、入力画像信号の形式に対応したレシーバにより構成され、チューナなどの受信機を適宜含んで構成される。   The receiving unit 1 receives an image signal Di and a synchronization signal Si input from the outside, converts them into digital image data Da, and outputs them together with the synchronization signal Sa. The receiving unit 1 is configured by an A / D converter when the image signal Di is an analog signal. Further, when the image signal Di is a serial digital signal or a parallel digital signal, the image signal Di is configured by a receiver corresponding to the format of the input image signal, and includes a receiver such as a tuner as appropriate.

画像データDaは、R,G,B3原色の色データで構成される場合と、輝度成分および色成分のデータにより構成される場合が考えられるが、ここではR,G,B3原色の色データで構成されるものとして説明を行う。   The image data Da may be composed of R, G, B3 primary color data or luminance component and color component data. Here, the R, G, B3 primary color data is used. The description will be made assuming that it is configured.

受信部1から出力された画像データDaおよび同期信号Saは、画像処理部2の変換部3に入力される。また、同期信号Saは出力同期信号生成部7にも入力される。
変換部3は、R,G,B3原色の色データからなる画像データDaを輝度データDYおよび色差データDCr,DCbに変換するとともに、同期信号Saを当該画像データDaの変換に必要な時間だけ遅延し、遅延された同期信号DSを出力する。変換部3により出力された輝度データDY、色差データDCr,DCb、および同期信号DSは記憶部4に送られる。
The image data Da and the synchronization signal Sa output from the reception unit 1 are input to the conversion unit 3 of the image processing unit 2. Further, the synchronization signal Sa is also input to the output synchronization signal generator 7.
The conversion unit 3 converts image data Da composed of color data of R, G, B3 primary colors into luminance data DY and color difference data DCr, DCb, and delays the synchronization signal Sa by a time necessary for conversion of the image data Da. Then, the delayed synchronization signal DS is output. The luminance data DY, the color difference data DCr and DCb, and the synchronization signal DS output from the conversion unit 3 are sent to the storage unit 4.

記憶部4は、変換部3により出力される輝度データDYおよび色差データDCr,DCbを一時的に記憶する。記憶部4は、PC(パーソナルコンピュータ)や、テレビといったフレーム周波数の異なる機器から出力される画像信号を一定のフレーム周波数(例えば60Hz)に変換するフレーム周波数変換用のメモリ、あるいは一画面分の画像データを保持するためのフレームバッファとして用いられるフレームメモリを備えるものであり、当該フレームメモリに輝度データDYおよび色差データDCr,DCbを記憶する。   The storage unit 4 temporarily stores the luminance data DY and the color difference data DCr and DCb output from the conversion unit 3. The storage unit 4 is a frame frequency conversion memory that converts an image signal output from a PC (personal computer) or a device having a different frame frequency, such as a television, to a fixed frame frequency (for example, 60 Hz), or an image for one screen. A frame memory used as a frame buffer for holding data is provided, and luminance data DY and color difference data DCr, DCb are stored in the frame memory.

出力同期信号生成部7は、記憶部4に記憶された輝度データDYおよび色差データDCr,DCbを読み出すタイミングを示す同期信号QSを生成して記憶部4に出力する。ここで出力同期信号生成部7は、記憶部4のフレームメモリにおいてフレーム周波数の変換を行う場合、すなわち記憶部4から画像データDaと異なるフレーム周波数の画像データを出力する場合、同期信号Saと異なる周期の同期信号QSを生成する。記憶部4において、フレーム周波数の変換が行われない場合は、同期信号QSと同期信号Saは等しくなる。   The output synchronization signal generation unit 7 generates a synchronization signal QS indicating the timing for reading the luminance data DY and the color difference data DCr and DCb stored in the storage unit 4 and outputs the synchronization signal QS to the storage unit 4. Here, the output synchronization signal generation unit 7 is different from the synchronization signal Sa when performing frame frequency conversion in the frame memory of the storage unit 4, that is, when outputting image data having a frame frequency different from the image data Da from the storage unit 4. A period synchronization signal QS is generated. When the frame frequency is not converted in the storage unit 4, the synchronization signal QS and the synchronization signal Sa are equal.

記憶部4は、輝度データDY,色差データDCr,DCbを出力同期信号生成部7からの同期信号QSに基づいて読み出し、タイミング調整された輝度データQY、色差データQCr,QCbを輪郭補正部5に出力する。記憶部4はまた、輝度データQYの1フレーム前の輝度データRYを比較判定部10に出力する。   The storage unit 4 reads the luminance data DY and the color difference data DCr and DCb based on the synchronization signal QS from the output synchronization signal generation unit 7, and the timing-adjusted luminance data QY and color difference data QCr and QCb to the contour correction unit 5. Output. The storage unit 4 also outputs the luminance data RY one frame before the luminance data QY to the comparison determination unit 10.

比較判定部10は記憶部4から読み出された輝度データQYと、1フレーム前の輝度データRYの差分を画素毎に算出することにより、各画素におけるフレーム間での輝度レベル変化を検出する。比較判定部10は、フレーム間での輝度レベル変化に基づいて、後段の輪郭補正部5における輪郭補正量を調整するための画像処理調整係数QFを生成し、輪郭補正部5に出力する。   The comparison determination unit 10 detects a change in luminance level between frames in each pixel by calculating a difference between the luminance data QY read from the storage unit 4 and the luminance data RY of the previous frame for each pixel. The comparison determination unit 10 generates an image processing adjustment coefficient QF for adjusting the contour correction amount in the subsequent contour correction unit 5 based on the luminance level change between frames, and outputs the image processing adjustment coefficient QF to the contour correction unit 5.

輪郭補正部5は、比較判定部10から出力された画像処理調整係数QFに基づき、記憶部4から出力された輝度データQYに対し輪郭補正処理を行い、輪郭補正された輝度データZYaを色差データQCr,QCbとともに変換部6に出力する。   The contour correction unit 5 performs contour correction processing on the luminance data QY output from the storage unit 4 based on the image processing adjustment coefficient QF output from the comparison determination unit 10, and uses the luminance data ZYa corrected in contour as color difference data. It outputs to the conversion part 6 with QCr and QCb.

変換部6は、輝度データZYa、色差データQCr,QCbを表示部9が表示可能な形式の画像データQbに変換して送信部8に出力する。具体的には、輝度データと色差データからなる画像データをR,G,Bの3原色の色データからなる画像データに変換する。表示部9が受信可能なデータ形式が上記3原色の色データからなる画像データ以外の場合はこの限りではなく、変換部6は適切な形式のデータに変換を行う。   The conversion unit 6 converts the luminance data ZYa and the color difference data QCr, QCb into image data Qb in a format that can be displayed by the display unit 9 and outputs the image data Qb to the transmission unit 8. Specifically, image data composed of luminance data and color difference data is converted into image data composed of color data of three primary colors of R, G, and B. This is not the case when the data format receivable by the display unit 9 is other than the image data composed of the three primary color data, and the conversion unit 6 converts the data into an appropriate format.

表示部9は液晶パネル、プラズマパネル、CRT、有機ELといった表示デバイスにより構成され、送信部8が出力する画像データQcを同期信号Scが示すタイミングで表示する。   The display unit 9 is configured by a display device such as a liquid crystal panel, a plasma panel, a CRT, or an organic EL, and displays the image data Qc output from the transmission unit 8 at the timing indicated by the synchronization signal Sc.

図2は、図1に示す画像処理部2の詳細な内部構成を示すブロック図である。図2に示すように、記憶部4は、フレームメモリ13、フレームメモリ制御部11により構成される。フレームメモリ13は先述したように、フレーム周波数変換用のメモリ、または少なくとも一画面分の画像データを保持するためのフレームバッファとして用いられるものであり、一般的な画像表示装置について設けられるフレームメモリを用いることができる。   FIG. 2 is a block diagram showing a detailed internal configuration of the image processing unit 2 shown in FIG. As shown in FIG. 2, the storage unit 4 includes a frame memory 13 and a frame memory control unit 11. As described above, the frame memory 13 is used as a frame frequency conversion memory or a frame buffer for holding image data for at least one screen, and is a frame memory provided for a general image display device. Can be used.

図3は、図2に示すフレームメモリ制御部11の内部構成を示すブロック図である。図3に示すように、フレームメモリ制御部11は、書き込み制御部14、および読み出し制御部19を備えている。書き込み制御部14は、ラインバッファ15,16,17、書き込みアドレス制御部18により構成され、読み出し制御部19は、ラインバッファ20,21,22,23、読み出しアドレス制御部24により構成される。   FIG. 3 is a block diagram showing an internal configuration of the frame memory control unit 11 shown in FIG. As shown in FIG. 3, the frame memory control unit 11 includes a write control unit 14 and a read control unit 19. The write control unit 14 includes line buffers 15, 16, and 17 and a write address control unit 18, and the read control unit 19 includes line buffers 20, 21, 22, and 23, and a read address control unit 24.

以下、画像処理部2の動作を詳細に説明する。
図2に示すように、変換部3は画像データDaを輝度データDYと色差データDCr,DCbに変換し、記憶部4のフレームメモリ制御部11に出力する。同時に変換部3は、同期信号Saを、画像データDaの変換処理に必要な時間だけ遅延し、遅延された同期信号DSをフレームメモリ制御部11に出力する。
Hereinafter, the operation of the image processing unit 2 will be described in detail.
As shown in FIG. 2, the conversion unit 3 converts the image data Da into luminance data DY and color difference data DCr and DCb, and outputs them to the frame memory control unit 11 of the storage unit 4. At the same time, the conversion unit 3 delays the synchronization signal Sa by a time necessary for the conversion process of the image data Da, and outputs the delayed synchronization signal DS to the frame memory control unit 11.

図3に示すように、フレームメモリ制御部11に入力された輝度データDYおよび色差データDCr,DCbは、書き込み制御部14のラインバッファ15,16,17にそれぞれ入力される。書き込みアドレス制御部18は、同期信号DSに基づいて、ラインバッファ15,16,17に入力された輝度データDYおよび色差データDCr,DCbをフレームメモリ13に書き込むための書き込みアドレスWAを発生する。ラインバッファ15,16,17から読み出される輝度データDY、および色差データDCr,DCbは、書き込みアドレスWAに対応する画像データWDとしてフレームメモリ13に書き込まれる。   As shown in FIG. 3, the luminance data DY and the color difference data DCr and DCb input to the frame memory control unit 11 are input to the line buffers 15, 16 and 17 of the write control unit 14, respectively. The write address control unit 18 generates a write address WA for writing the luminance data DY and the color difference data DCr and DCb input to the line buffers 15, 16, and 17 into the frame memory 13 based on the synchronization signal DS. Luminance data DY and color difference data DCr and DCb read from the line buffers 15, 16, and 17 are written in the frame memory 13 as image data WD corresponding to the write address WA.

一方、読み出しアドレス制御部24は、出力同期信号生成部7により出力される同期信号QSに基づいて、フレームメモリ13に書き込まれた輝度データDYおよび色差信号DCr,DCbを読み出すための読み出しアドレスRAを生成して出力する。フレームメモリ13は、読み出しアドレスRAに基づいて読み出されるデータRDをラインバッファ20,21,22,23に出力する。ラインバッファ20,21,22は、タイミング調整された輝度データQYおよび色差データQCr,QCbを輪郭補正部5に出力する。   On the other hand, the read address control unit 24 sets the read address RA for reading the luminance data DY and the color difference signals DCr and DCb written in the frame memory 13 based on the synchronization signal QS output from the output synchronization signal generation unit 7. Generate and output. The frame memory 13 outputs the data RD read based on the read address RA to the line buffers 20, 21, 22 and 23. The line buffers 20, 21, and 22 output the brightness data QY and the color difference data QCr and QCb that have been adjusted in timing to the contour correction unit 5.

図2に示すように、輪郭補正部5に入力された輝度データQYは、垂直輪郭補正部12に入力される。垂直輪郭補正部12は、輝度データQYに対し垂直方向の輪郭補正処理を行い、輪郭補正後の輝度成分のデータZYaを変換部6に出力する(輪郭補正処理の詳細については後述する)。ここで、垂直方向の輪郭補正処理を行う場合、補正後の輝度データZYaと、補正前の輝度データQYとの間には所定のライン数分の遅延が発生する。この遅延ライン数をkラインとすると、輝度データQYと、色差データQCr,QCbとの間にもkライン分の遅延が発生することとなる。このため、フレームメモリ制御部11は、補正後の輝度データZYaと色差データQCr,QCbとが同期して変換部6に入力されるよう色差データQCr,QCbをkライン分遅延して出力する。具体的には、フレームメモリ制御部11の読出しアドレス制御部24において、色差データQCr,QCbが輝度データQYに対し、kライン分遅れて読み出されるよう読み出しアドレスRAを生成する。   As shown in FIG. 2, the luminance data QY input to the contour correction unit 5 is input to the vertical contour correction unit 12. The vertical contour correction unit 12 performs vertical contour correction processing on the luminance data QY and outputs luminance component data ZYa after contour correction to the conversion unit 6 (details of the contour correction processing will be described later). Here, when the contour correction process in the vertical direction is performed, a delay corresponding to a predetermined number of lines occurs between the corrected luminance data ZYa and the corrected luminance data QY. If the number of delay lines is k lines, a delay corresponding to k lines also occurs between the luminance data QY and the color difference data QCr, QCb. Therefore, the frame memory control unit 11 delays and outputs the color difference data QCr, QCb by k lines so that the corrected luminance data ZYa and the color difference data QCr, QCb are input to the conversion unit 6 in synchronization. Specifically, the read address control unit 24 of the frame memory control unit 11 generates the read address RA so that the color difference data QCr and QCb are read with a delay of k lines with respect to the luminance data QY.

図4は、フレームメモリ制御部11から1ライン周期で出力される輝度データRY,QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図4において、QShは1ライン期間を示している。図4に示すように、色差データQCr,Qcbは、輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。   FIG. 4 is a diagram showing luminance data RY, QY and color difference data QCr, QCb output from the frame memory control unit 11 in one line cycle, and luminance data ZYa after contour correction output from the vertical contour correction unit 12. is there. In FIG. 4, QSh indicates one line period. As shown in FIG. 4, the color difference data QCr and Qcb are read out with a delay of the line period k necessary for the contour correction unit 5 to perform the contour correction processing with respect to the luminance data QY.

このように、画像データを輝度データDYおよび色差データDCr,DCbに変換してフレームメモリ13に書き込み、必要なライン数の輝度データを読み出して輪郭補正処理を行い、色差データQCr,QCbについては輪郭補正処理に必要なライン数分だけ遅延して読み出すことで、色差データのタイミング調整に必要なラインメモリを削減することができる。また、R,G,Bの色データに対して輪郭補正処理を行う場合に比して、フレームメモリ13の容量を削減するとともに、フレームメモリ13とフレームメモリ制御部11間のバス帯域を節約することができる。   As described above, the image data is converted into the luminance data DY and the color difference data DCr and DCb and written into the frame memory 13, the luminance data of the necessary number of lines is read out and the contour correction processing is performed. By reading data with a delay of the number of lines necessary for the correction process, it is possible to reduce the line memory necessary for adjusting the timing of the color difference data. Further, the capacity of the frame memory 13 is reduced and the bus bandwidth between the frame memory 13 and the frame memory control unit 11 is saved as compared with the case where the contour correction processing is performed on the R, G, B color data. be able to.

図5は、フレームメモリ制御部11から1フレーム周期で出力される輝度データRY,QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図5において、QSvは1フレーム期間を示している。図5に示すように、輝度データRYは、輝度データQYに対し1フレーム期間遅延して読み出される。   FIG. 5 is a diagram showing luminance data RY and QY and color difference data QCr and QCb output from the frame memory control unit 11 in one frame period, and luminance data ZYa after contour correction output from the vertical contour correction unit 12. is there. In FIG. 5, QSv indicates one frame period. As shown in FIG. 5, the luminance data RY is read with a delay of one frame period with respect to the luminance data QY.

フレームメモリ制御部11から出力される輝度データQY,RYは、図2に示すように比較判定部10に入力される。比較判定部10は輝度データQYと、1フレーム前の輝度データRYとの差分を画素毎に算出することにより、画像の輝度変化を示すフレーム間輝度差|QY-RY|を求める。フレーム間輝度差|QY-RY|の値は、画像の動きが小さい静止画領域において小さく、画像の動きが大きい動画領域において大きくなる。比較判定部10は、フレーム間輝度差|QY-RY|に基づいて輪郭補正部5における輪郭補正量を調整するための画像処理調整係数QFを輝度データQYの各画素データについて生成する。   The luminance data QY and RY output from the frame memory control unit 11 are input to the comparison determination unit 10 as shown in FIG. The comparison / determination unit 10 calculates a difference between the luminance data QY and the luminance data RY of the previous frame for each pixel, thereby obtaining an inter-frame luminance difference | QY−RY | indicating the luminance change of the image. The value of the inter-frame luminance difference | QY−RY | is small in the still image region where the image motion is small and is large in the moving image region where the image motion is large. The comparison determination unit 10 generates an image processing adjustment coefficient QF for adjusting the contour correction amount in the contour correction unit 5 for each pixel data of the luminance data QY based on the inter-frame luminance difference | QY−RY |.

図6は、フレーム間輝度差|QY-RY|と画像処理調整係数QFとの関係の一例を示す図である。図6の横軸は入力画像のフレーム間輝度差|QY-RY|を示し、縦軸は画像処理調整係数QFを示す。比較判定部10は、フレーム間輝度差|QY-RY|を所定の閾値Fmと比較し、|QY-RY|≦Fsとなる領域Aを静止画領域、|QY-RY|>Fsとなる領域Bを動画領域と判定し、領域Aにおける画像処理調整係数をQF=QFs、領域Bにおける画像処理調整係数をQF=QFmとする(ただし、QFs<QFm)。   FIG. 6 is a diagram illustrating an example of the relationship between the inter-frame luminance difference | QY−RY | and the image processing adjustment coefficient QF. The horizontal axis of FIG. 6 indicates the inter-frame luminance difference | QY-RY | of the input image, and the vertical axis indicates the image processing adjustment coefficient QF. The comparison determination unit 10 compares the inter-frame luminance difference | QY−RY | with a predetermined threshold value Fm, the region A where | QY−RY | ≦ Fs is a still image region, and the region where | QY−RY |> Fs. B is determined as a moving image area, an image processing adjustment coefficient in the area A is QF = QFs, and an image processing adjustment coefficient in the area B is QF = QFm (where QFs <QFm).

図7は、フレーム間輝度差|QY-RY|と画像処理調整係数QFとの関係の他の例を示す図である。図7に示す特性によれば、比較判定部10は、フレーム間輝度差|QY-RY|を所定の閾値Fl,Fhと比較し、|QY-RY|≦Flとなる領域Aを静止画領域、Fl<|QY-RY|≦Fhとなる領域Cを中間領域、Fh<|QY-RY|となる領域Bを動画領域と判定し、領域Aにおける画像処理調整係数をQF=QFs、領域Bにおける画像処理調整係数をFs<QF<QFm、領域Bにおける画像処理調整係数をQF=QFmとする。
図7に示すように、画像処理調整係数QFの値は、静止画領域において小さく、動画領域において大きくなる。図7に示す特性によれば、フレーム間輝度差|QY-RY|に応じて画像処理調整係数QFを連続的に変化させることができるので、ノイズ等の影響によりフレーム間輝度差|QY-RY|が変動した場合であっても、画像処理調整係数QFの値を安定して出力させることができる。
FIG. 7 is a diagram illustrating another example of the relationship between the inter-frame luminance difference | QY−RY | and the image processing adjustment coefficient QF. According to the characteristics shown in FIG. 7, the comparison / determination unit 10 compares the inter-frame luminance difference | QY−RY | with predetermined threshold values Fl and Fh, and determines the region A where | QY−RY | ≦ Fl as a still image region. , Fl <| QY−RY | ≦ Fh is determined as an intermediate region, and region B where Fh <| QY−RY | is determined as a moving image region, and an image processing adjustment coefficient in region A is QF = QFs, region B Let Fs <QF <QFm for the image processing adjustment coefficient in Q, and QF = QFm for the image processing adjustment coefficient in region B.
As shown in FIG. 7, the value of the image processing adjustment coefficient QF is small in the still image area and large in the moving image area. According to the characteristics shown in FIG. 7, since the image processing adjustment coefficient QF can be continuously changed according to the inter-frame luminance difference | QY-RY |, the inter-frame luminance difference | QY-RY due to the influence of noise or the like. Even when | varies, the value of the image processing adjustment coefficient QF can be stably output.

比較判定部10により生成された画像処理調整係数QFは輪郭補正部5に入力される。ここで、輪郭補正処理における画像処理調整係数QFの作用について説明する。
図8は、動画像の一例を示す図である。図8中、Sにより示す領域はフレーム間における画像変化が生じない静止画領域であり、Mにより示す領域はフレーム間で画像が変化する動画領域である。図8に示すような動画領域と静止画領域が混在する画像においては、動画領域は静止画領域に比してぼやけて見えるため、輪郭部の鮮鋭度をより大きくすることが望ましい。図6および7に示すように、画像処理調整係数QFの値は静止画領域において小さく、動画領域において大きくなるので、画像処理調整係数QFの値に応じて輪郭部の鮮鋭度を高める輪郭補正処理を行うことにより、ぼやけが発生する動画領域において輪郭部の鮮鋭度がより大きく強調されるので、より鮮明な動画像を得ることができる。
The image processing adjustment coefficient QF generated by the comparison determination unit 10 is input to the contour correction unit 5. Here, the operation of the image processing adjustment coefficient QF in the contour correction process will be described.
FIG. 8 is a diagram illustrating an example of a moving image. In FIG. 8, a region indicated by S is a still image region where no image change occurs between frames, and a region indicated by M is a moving image region where an image changes between frames. In an image in which a moving image region and a still image region are mixed as shown in FIG. 8, the moving image region appears more blurred than the still image region, so it is desirable to increase the sharpness of the contour portion. As shown in FIGS. 6 and 7, since the value of the image processing adjustment coefficient QF is small in the still image area and large in the moving image area, the contour correction processing increases the sharpness of the contour portion according to the value of the image processing adjustment coefficient QF. By performing the above, the sharpness of the contour portion is more emphasized in the moving image region where the blurring occurs, so that a clearer moving image can be obtained.

以下、輪郭補正部5の構成および動作について詳細に説明する。図2に示すように、輪郭補正部5に入力された輝度データQYは垂直輪郭補正部12に入力される。
図9は、垂直輪郭補正部12の内部構成を示すブロック図である。垂直輪郭補正部12は、ライン遅延25,28、および輪郭幅補正部26を備えている。輪郭幅補正部26は、輪郭幅検出部31、倍率制御量生成部32、乗算器320、倍率生成部33、補間演算部34により構成される。
Hereinafter, the configuration and operation of the contour correction unit 5 will be described in detail. As shown in FIG. 2, the luminance data QY input to the contour correction unit 5 is input to the vertical contour correction unit 12.
FIG. 9 is a block diagram showing an internal configuration of the vertical contour correction unit 12. The vertical contour correcting unit 12 includes line delays 25 and 28 and a contour width correcting unit 26. The contour width correction unit 26 includes a contour width detection unit 31, a magnification control amount generation unit 32, a multiplier 320, a magnification generation unit 33, and an interpolation calculation unit 34.

ライン遅延25は、輪郭幅補正部31における垂直方向の輪郭幅補正処理に必要な画素数の輝度データQYaを出力する。輪郭幅補正処理が、垂直方向に配列する11個の画素を用いて行われる場合、輝度データQYaは11個の画素データで構成される。
図10は、ライン遅延25により遅延される輝度データQYのタイミングチャートであり、輝度データQYaの画素数を2ka+1とする場合について示している。ライン遅延25は、図10に示すように、2ka+1ライン分の輝度データQYを遅延し、各ラインから1画素を同時に読み出すことにより、垂直方向に配列する2ka+1画素分の輝度データQYaを出力する。輝度データQYaは、輪郭幅検出部31および補間演算部34に入力される。
ライン遅延28は、画像処理調整係数QFを遅延することにより、ライン遅延25により出力される輝度データQYaの各画素データに対応する画像処理調整係数QF1を出力する。
The line delay 25 outputs luminance data QYa having the number of pixels necessary for the contour width correction process in the vertical direction in the contour width correction unit 31. When the contour width correction process is performed using 11 pixels arranged in the vertical direction, the luminance data QYa is composed of 11 pixel data.
FIG. 10 is a timing chart of the luminance data QY delayed by the line delay 25, and shows a case where the number of pixels of the luminance data QYa is 2ka + 1. As shown in FIG. 10, the line delay 25 delays luminance data QY for 2 ka + 1 lines, and outputs luminance data QYa for 2 ka + 1 pixels arranged in the vertical direction by simultaneously reading one pixel from each line. The luminance data QYa is input to the contour width detector 31 and the interpolation calculator 34.
The line delay 28 outputs the image processing adjustment coefficient QF1 corresponding to each pixel data of the luminance data QYa output by the line delay 25 by delaying the image processing adjustment coefficient QF.

図11は、輪郭幅補正部26における輪郭幅補正処理について説明するための図である。図11(a)は輪郭幅検出部31により検出される輪郭幅Waおよび基準位置PMを示している。検出された輪郭幅Waおよび基準位置PMは倍率制御量生成部32に入力される。   FIG. 11 is a diagram for explaining the contour width correction processing in the contour width correction unit 26. FIG. 11A shows the contour width Wa and the reference position PM detected by the contour width detector 31. The detected contour width Wa and reference position PM are input to the magnification control amount generation unit 32.

倍率制御量生成部32は、検出された輪郭幅Waと基準位置PMに基づいて、輪郭幅補正に用いる倍率制御量ZCを出力する。図11(b)は、倍率制御量を示す図である。倍率制御量ZCは、輪郭部を補正する画素を後述する補間演算により求める際、各画素の補間倍率(補間密度)を画素毎に指定するための制御量であり、図11(b)に示すように、輪郭前部bおよび輪郭後部cで正、輪郭中央部cで負、他の部分ではゼロとなり、輪郭部における総和が0となるよう生成される。倍率制御量ZCは、ライン遅延28により出力される画像処理調整係数QF1とともに乗算器320に入力される   The magnification control amount generation unit 32 outputs a magnification control amount ZC used for contour width correction based on the detected contour width Wa and the reference position PM. FIG. 11B shows the magnification control amount. The magnification control amount ZC is a control amount for designating the interpolation magnification (interpolation density) of each pixel for each pixel when obtaining the pixel for correcting the contour by interpolation calculation described later, and is shown in FIG. Thus, the contour front part b and the contour rear part c are positive, the contour center part c is negative, the other parts are zero, and the sum in the contour part is zero. The magnification control amount ZC is input to the multiplier 320 together with the image processing adjustment coefficient QF1 output by the line delay 28.

乗算器320は、倍率制御量ZCに画像処理調整係数QF1を積算することにより、調整された倍率制御量ZFCを出力する。図11(c)は、画像処理調整係数QF1により調整された倍率制御量ZCFを示す図である。図11(c)に示す倍率制御量ZFCは、画像処理係数QF1の値に応じて変化する。つまり、倍率制御量ZFCは、画像の変化が大きい動画領域において振幅が大きくなる。   The multiplier 320 outputs the adjusted magnification control amount ZFC by adding the image processing adjustment coefficient QF1 to the magnification control amount ZC. FIG. 11C is a diagram showing the magnification control amount ZCF adjusted by the image processing adjustment coefficient QF1. The magnification control amount ZFC shown in FIG. 11C changes according to the value of the image processing coefficient QF1. That is, the magnification control amount ZFC has a large amplitude in a moving image region where the image change is large.

倍率生成部33は、予め設定される画像全体の基準変換倍率Z0に倍率制御量ZCFを重畳して変換倍率Zを発生する。図11(d)は、変換倍率Zを示す図である。変換倍率Zは、輪郭前部bおよび輪郭後部dでは基準変換倍率Z0よりも大きく、輪郭中央部cでは基準変換倍率Z0よりも小さくなり、変換倍率Zの平均は基準変換倍率Z0と等しくなる。この基準倍率をZ0>1とした場合、輪郭幅補正処理において画素数を増やす拡大処理が行われ、Z0<1とした場合は画素数を減らす縮小処理が行われる。また、基準変換倍率をZ0=1とした場合、輪郭補正処理のみが行われる。   The magnification generation unit 33 generates a conversion magnification Z by superimposing a magnification control amount ZCF on a preset reference conversion magnification Z0 of the entire image. FIG. 11D shows the conversion magnification Z. The conversion magnification Z is larger than the reference conversion magnification Z0 at the contour front part b and the contour rear part d, and smaller than the reference conversion magnification Z0 at the contour center part c, and the average of the conversion magnifications Z is equal to the reference conversion magnification Z0. When this reference magnification is Z0> 1, enlargement processing for increasing the number of pixels is performed in the contour width correction processing, and when Z0 <1, reduction processing for reducing the number of pixels is performed. When the reference conversion magnification is set to Z0 = 1, only the contour correction process is performed.

補間演算部34は、変換倍率Zに基づいて輝度データQYaに対し補間演算処理を行うことにより輪郭部を補正する補間画素の画素データを算出する。補間演算処理の際、変換倍率Zが基準変換倍率Z0よりも大きい輪郭前部bおよび輪郭後部dでは補間密度が高くなり、変換倍率Zが基準倍率Z0よりも小さい輪郭中央部cでは補間密度が低くなる。つまり、輪郭前部bおよび輪郭後部dでは画素数を相対的に増やす拡大処理が行われ、輪郭中央部cでは画素数を相対的に減らす縮小処理が行われる。
図11(e)は、図11(d)に示す変換倍率Zに基づいて画素数変換、および輪郭幅補正を行った輝度データZYaを示す図である。輪郭中央部cでは画像を縮小し、輪郭前部bおよび輪郭後部dでは画像を拡大することにより、図11(e)に示すように輪郭幅を縮小し、輪郭部における輝度を急峻に変化させ、画像の鮮鋭度を向上することができる。
The interpolation calculation unit 34 calculates pixel data of an interpolation pixel for correcting the contour portion by performing an interpolation calculation process on the luminance data QYa based on the conversion magnification Z. During the interpolation calculation process, the interpolation density is high at the contour front portion b and the contour rear portion d where the conversion magnification Z is larger than the reference conversion magnification Z0, and the interpolation density is high at the contour central portion c where the conversion magnification Z is smaller than the reference magnification Z0. Lower. That is, enlargement processing for relatively increasing the number of pixels is performed at the front contour portion b and the rear contour portion d, and reduction processing for relatively decreasing the number of pixels is performed at the contour center portion c.
FIG. 11E is a diagram showing luminance data ZYa that has undergone pixel number conversion and contour width correction based on the conversion magnification Z shown in FIG. By reducing the image at the contour center portion c and enlarging the image at the contour front portion b and the contour rear portion d, the contour width is reduced as shown in FIG. The sharpness of the image can be improved.

ここで、輪郭幅Waに基づいて生成される倍率制御量ZCは、期間b,c,dにおける総和がゼロとなるように生成される。つまり、図11(b)において斜線で示した部分の面積をそれぞれSb,Sc,Sdとすると、Sb+Sd=Scとなるように生成される。このため、変換倍率Zは局部的に変動するが、画像全体での変換倍率Z0は、基準変換倍率Z0と等しくなる。このように、変換倍率Zの総和が基準変換0と等しくなるよう倍率制御量ZCを生成することにより、輪郭部における画像のずれを生じることなく輪郭幅を補正することができる。   Here, the magnification control amount ZC generated based on the contour width Wa is generated such that the sum in the periods b, c, and d becomes zero. That is, if the areas of the hatched portions in FIG. 11B are Sb, Sc, and Sd, respectively, they are generated so that Sb + Sd = Sc. For this reason, although the conversion magnification Z varies locally, the conversion magnification Z0 in the entire image is equal to the reference conversion magnification Z0. In this way, by generating the magnification control amount ZC so that the total sum of the conversion magnifications Z becomes equal to the reference conversion 0, the contour width can be corrected without causing an image shift in the contour portion.

図12は、静止画領域と動画領域における輪郭補正量の差を示す図である。図12(a)は輝度データQYa、図12(b)は変換倍率Z、図12(c)は輪郭補正後の輝度データZYaをそれぞれ示している。図12(b)において、実線は動画領域における変換倍率Zを示し、破線は静止画領域における変換倍率Zを示している。また、図12(c)において、実線は動画領域における輪郭補正後の輝度データZYaを示し、破線は静止画領域における輪郭補正後の輝度データZYaを示している。   FIG. 12 is a diagram illustrating a difference in contour correction amount between a still image region and a moving image region. 12A shows luminance data QYa, FIG. 12B shows conversion magnification Z, and FIG. 12C shows luminance data ZYa after contour correction. In FIG. 12B, the solid line indicates the conversion magnification Z in the moving image area, and the broken line indicates the conversion magnification Z in the still image area. In FIG. 12C, the solid line indicates the luminance data ZYa after contour correction in the moving image region, and the broken line indicates the luminance data ZYa after contour correction in the still image region.

動画領域においては、倍率制御量ZCに積算される画像処理調整係数QF1の値が静止画領域に比して大きいため、図12(b)に示すように変換倍率Zの振幅は静止画領域(破線)よりも動画領域(実線)の方が大きくなる。つまり、輪郭中央部cでの縮小率が大きくなり、輪郭前部b、および輪郭後部dでの画像拡大率が大きくなる。このため、図12(c)に示すように、動画領域における輪郭補正後の輝度データZYaの輪郭幅Wcは、静止画領域における輪郭幅Wbよりも狭くなり、鮮鋭度が高くなる。これにより、動画領域に発生する画像のぼやけを改善することができる。   In the moving image area, the value of the image processing adjustment coefficient QF1 integrated with the magnification control amount ZC is larger than that in the still image area. Therefore, as shown in FIG. The moving image area (solid line) is larger than the broken line). That is, the reduction ratio at the contour center portion c increases, and the image enlargement ratio at the contour front portion b and the contour rear portion d increases. For this reason, as shown in FIG. 12C, the contour width Wc of the luminance data ZYa after contour correction in the moving image region is narrower than the contour width Wb in the still image region, and the sharpness is increased. Thereby, the blur of the image generated in the moving image area can be improved.

以上に説明したように、本発明に係る画像処理装置は、フレーム間の輝度変化に応じて輪郭部の鮮鋭度を調整するので、動画領域と静止画領域が混在する画像において動画領域における輪郭部をより急峻にすることにより、動画領域における画像のぼやけを改善し、より鮮明な画像を得ることができる。   As described above, the image processing apparatus according to the present invention adjusts the sharpness of the contour portion according to the luminance change between frames, so that the contour portion in the moving image region in an image in which the moving image region and the still image region are mixed. By making the image sharper, blurring of the image in the moving image region can be improved and a clearer image can be obtained.

図13は、垂直輪郭補正部12の他の構成を示すブロック図である。図13に示す垂直輪郭補正部12は、輪郭幅補正部12の後段に、ライン遅延27,29、および輪郭強調部30を備えている。輪郭強調部30は、輪郭幅補正部30により出力された輪郭幅補正後の輝度データZYaに対し、後述する輪郭強調処理を行う。輪郭強調部30は輪郭検出部35、強調量生成部36、乗算器360、および強調量加算部37により構成される。   FIG. 13 is a block diagram showing another configuration of the vertical contour correction unit 12. The vertical contour correcting unit 12 illustrated in FIG. 13 includes line delays 27 and 29 and a contour emphasizing unit 30 subsequent to the contour width correcting unit 12. The contour emphasizing unit 30 performs contour emphasis processing described later on the luminance data ZYa after contour width correction output by the contour width correcting unit 30. The contour enhancement unit 30 includes a contour detection unit 35, an enhancement amount generation unit 36, a multiplier 360, and an enhancement amount addition unit 37.

輪郭幅補正部26より出力される輝度データZYaは、ライン遅延27に入力される。ライン遅延27は、輪郭強調部30における輪郭強調処理に必要な画素数の輝度データQYbを出力する。輪郭強調処理が垂直方向に配列する5個の画素を用いて行われる場合、輝度データQYbは5画素分の輝度データで構成される。
図14はライン遅延B27により遅延される輝度データZYaのタイミングチャートであり、輝度データQYbの画素数を2kb+1とする場合について示している。ライン遅延27は、図14に示すように、2kb+1ライン分の輝度データZYaを遅延し、各ラインから1画素を同時に読み出すことにより、垂直方向に配列する2kb+1画素分の輝度データQYbを出力する。輝度データQYbは、輪郭検出部35、および強調量加算部37に入力される。
ライン遅延29は、ライン遅延28により出力される画像処理調整係数QF1を遅延することにより、輝度データQYbの各画素データに対応する画像処理調整係数QF2を出力する。
The luminance data ZYa output from the contour width correction unit 26 is input to the line delay 27. The line delay 27 outputs luminance data QYb having the number of pixels necessary for the contour enhancement processing in the contour enhancement unit 30. When the contour enhancement process is performed using five pixels arranged in the vertical direction, the luminance data QYb is composed of luminance data for five pixels.
FIG. 14 is a timing chart of the luminance data ZYa delayed by the line delay B27, and shows a case where the number of pixels of the luminance data QYb is 2 kb + 1. As shown in FIG. 14, the line delay 27 delays the luminance data ZYa for 2 kb + 1 lines, and outputs luminance data QYb for 2 kb + 1 pixels arranged in the vertical direction by simultaneously reading out one pixel from each line. The luminance data QYb is input to the contour detection unit 35 and the enhancement amount addition unit 37.
The line delay 29 delays the image processing adjustment coefficient QF1 output by the line delay 28, thereby outputting the image processing adjustment coefficient QF2 corresponding to each pixel data of the luminance data QYb.

輪郭検出部35は、輝度データQYbに対し2次微分等の微分演算を行うことにより、補正後の輪郭幅における輝度の変化量を検出し、検出結果を輪郭検出データRとして強調量生成部36に出力する。強調量生成部36は、輪郭検出データRに基づいて輝度データQYbの輪郭を強調するための強調量SHを生成し、乗算器360に出力する。乗算器360は、強調量SHに画像処理調整係数QF2を乗じた強調量SHFを強調量加算部37に出力する。強調量加算部37は、輝度データQYbに強調量SHFを加算することにより画像データQYbの輪郭を強調する。   The contour detection unit 35 detects a change in luminance in the corrected contour width by performing a differential operation such as a second derivative on the luminance data QYb, and uses the detection result as the contour detection data R for the enhancement amount generation unit 36. Output to. The enhancement amount generator 36 generates an enhancement amount SH for enhancing the contour of the luminance data QYb based on the contour detection data R, and outputs the enhancement amount SH to the multiplier 360. The multiplier 360 outputs the enhancement amount SHF obtained by multiplying the enhancement amount SH by the image processing adjustment coefficient QF2 to the enhancement amount addition unit 37. The enhancement amount adding unit 37 enhances the contour of the image data QYb by adding the enhancement amount SHF to the luminance data QYb.

図15は、輪郭強調部30における輪郭強調処理について説明するための図である。
図15(a)は輪郭強調処理を行う前の輝度データQYbを示す。図15(a)において、実線は動画領域における輝度データQYbを示し、破線は静止画領域における輝度データQYbを示している。ここで、図15(a)に示す輝度データQYbはそれぞれ、図12(c)に示す輝度データZYaに対応している。
図15(b)は、図15(a)に示す輝度データQYbに基づいて生成される強調量SHを示している。図15(b)において、実線は動画領域における輝度データQYbについて生成される強調量SHを示し、破線は静止画領域における輝度データQYbについて生成される強調量SHを示している。
図15(c)は、(b)に示す強調量SHに画像処理調整係数QF2を乗じた強調量SHFを示している。図15(c)において、実線は動画領域における強調量SHFを示し、破線は静止画領域における強調量SHFを示している。
図15(d)は、図15(c)に示す強調量SHFを図15(a)に示す輝度データQYbに加算して得られる輪郭強調後の輝度データZYbを示している。図15(d)において、実線は動画領域における輝度データZYbを示し、破線は静止画領域における輝度データZYbを示している。
FIG. 15 is a diagram for explaining the contour emphasis processing in the contour emphasizing unit 30.
FIG. 15A shows the luminance data QYb before the edge enhancement process. In FIG. 15A, the solid line indicates the luminance data QYb in the moving image area, and the broken line indicates the luminance data QYb in the still image area. Here, each of the luminance data QYb shown in FIG. 15A corresponds to the luminance data ZYa shown in FIG.
FIG. 15B shows the enhancement amount SH generated based on the luminance data QYb shown in FIG. In FIG. 15B, the solid line indicates the enhancement amount SH generated for the luminance data QYb in the moving image region, and the broken line indicates the enhancement amount SH generated for the luminance data QYb in the still image region.
FIG. 15C shows an enhancement amount SHF obtained by multiplying the enhancement amount SH shown in FIG. 15B by the image processing adjustment coefficient QF2. In FIG. 15C, the solid line indicates the enhancement amount SHF in the moving image region, and the broken line indicates the enhancement amount SHF in the still image region.
FIG. 15 (d) shows luminance data ZYb after edge enhancement obtained by adding the enhancement amount SHF shown in FIG. 15 (c) to the luminance data QYb shown in FIG. 15 (a). In FIG. 15D, the solid line indicates the luminance data ZYb in the moving image area, and the broken line indicates the luminance data ZYb in the still image area.

図15(b)に示すように、動画領域における輝度データQYbについて生成される強調量SHは、静止画領域における強調量SHよりも幅が狭くなる。また、図15(c)に示すように、強調量SHに画像処理調整係数QF2を乗じることにより、動画領域における強調量SHFの振幅をより大きくすることができる。これにより、図15(d)に示すように、動画領域において輪郭部の前後により鮮鋭なオーバーシュート、アンダーシュートが付加されるので、動画領域の鮮鋭度を高めることができる。   As shown in FIG. 15B, the enhancement amount SH generated for the luminance data QYb in the moving image region is narrower than the enhancement amount SH in the still image region. In addition, as shown in FIG. 15C, the amplitude of the enhancement amount SHF in the moving image region can be increased by multiplying the enhancement amount SH by the image processing adjustment coefficient QF2. As a result, as shown in FIG. 15D, sharper overshoot and undershoot are added before and after the contour portion in the moving image region, so that the sharpness of the moving image region can be increased.

なお、輪郭幅補正部26、および輪郭強調部30における処理には、それぞれk+kbライン期間を要するので、フレームメモリ制御部11(図2)は、輪郭強調後の輝度データZYbと色差データQCr,QCbとが同期して変換部6に入力されるよう、色差データQCr,QCbを輝度データQYに対し、k+kbライン分遅れて出力する。   Since the processing in the contour width correcting unit 26 and the contour emphasizing unit 30 requires k + kb line periods, the frame memory control unit 11 (FIG. 2) determines the luminance data ZYb and color difference data QCr, QCb after contour emphasis. Are output with a delay of k + kb lines with respect to the luminance data QY.

以上のように、輪郭部の幅を縮小した輝度データに対し2次微分等の演算を行うことによりアンダーシュートおよびオーバーシュート(強調量SH)を生成し、この強調量SHに画像処理調整係数QFを乗じた強調量SHFを輪郭部の前後に付加することで、動画領域と静止画領域が混在する画像をより鮮明にすることができる。   As described above, undershoot and overshoot (enhancement amount SH) are generated by performing operations such as secondary differentiation on the luminance data with the reduced width of the contour portion, and the image processing adjustment coefficient QF is added to the enhancement amount SH. By adding the enhancement amount SHF multiplied by ## EQU1 ## before and after the contour portion, an image in which a moving image region and a still image region are mixed can be made clearer.

図16は、図13に示す垂直輪郭補正部12の変形例を示すブロック図である。図16に示す垂直輪郭補正部12は、ライン遅延29の後段に係数補正部38を備え、ライン遅延28には画像処理調整係数QFaが入力される。
図17は、フレーム間輝度差|QY-RY|と画像処理調整係数QFaとの関係を示す図である。図17に示すように、画像処理調整係数QFaは、領域AにおいてQFa=QFmとなり、領域BにおいてQFs<QFa<QFmとなり、領域CにおいてQY=QFsとなる。すなわち、画像処理調整係数QFaは、静止画領域において大きく、動画領域において小さくなる。
図16に示す輪郭幅補正部26においては、図17に示す特性を有する画像処理調整係数QFaを用いた輪郭幅補正処理が行われる。
FIG. 16 is a block diagram showing a modification of the vertical contour correcting unit 12 shown in FIG. The vertical contour correction unit 12 shown in FIG. 16 includes a coefficient correction unit 38 following the line delay 29, and the image processing adjustment coefficient QFa is input to the line delay 28.
FIG. 17 is a diagram illustrating the relationship between the inter-frame luminance difference | QY−RY | and the image processing adjustment coefficient QFa. As shown in FIG. 17, the image processing adjustment coefficient QFa is QFa = QFm in the region A, QFs <QFa <QFm in the region B, and QY = QFs in the region C. That is, the image processing adjustment coefficient QFa is large in the still image region and small in the moving image region.
In the contour width correction unit 26 shown in FIG. 16, contour width correction processing using the image processing adjustment coefficient QFa having the characteristics shown in FIG. 17 is performed.

ライン遅延28は、画像処理調整係数QFaを所定期間遅延することにより、ライン遅延25により出力される輝度データQYaの各画素データに対応する画像処理調整係数QFa1を出力する。ライン遅延29は、ライン遅延28により出力される画像処理調整係数QFa1を遅延することにより、輝度データQYbの各画素データに対応する画像処理調整係数QFa2を出力する。係数補正部38は、画像処理調整係数QFa2に対し、所定のフィルタリング処理を行うことにより、画像処理調整係数QFa2の特性を変換し、新たな画像処理調整係数QFbを出力する。   The line delay 28 outputs the image processing adjustment coefficient QFa1 corresponding to each pixel data of the luminance data QYa output by the line delay 25 by delaying the image processing adjustment coefficient QFa for a predetermined period. The line delay 29 delays the image processing adjustment coefficient QFa1 output by the line delay 28, thereby outputting an image processing adjustment coefficient QFa2 corresponding to each pixel data of the luminance data QYb. The coefficient correction unit 38 performs a predetermined filtering process on the image processing adjustment coefficient QFa2, thereby converting the characteristics of the image processing adjustment coefficient QFa2 and outputs a new image processing adjustment coefficient QFb.

図18は、フレーム間輝度差|QY-RY|と画像処理調整係数QFbとの関係を示す図である。図18に示すように、画像処理調整係数QFbは、領域AにおいてQFa=QFsとなり、領域BにおいてQFs<QFa<QFmとなり、領域CにおいてQY=QFsとなる。すなわち、画像処理調整係数QFbは、動画領域において大きく、静止画領域において小さくなる。
図16に示す輪郭強調部30においては、図18に示す特性を有する画像処理調整係数QFbを用いた輪郭強調処理が行われる。
FIG. 18 is a diagram illustrating the relationship between the inter-frame luminance difference | QY−RY | and the image processing adjustment coefficient QFb. As shown in FIG. 18, the image processing adjustment coefficient QFb is QFa = QFs in the region A, QFs <QFa <QFm in the region B, and QY = QFs in the region C. That is, the image processing adjustment coefficient QFb is large in the moving image area and small in the still image area.
In the contour emphasizing unit 30 shown in FIG. 16, the contour emphasizing process using the image processing adjustment coefficient QFb having the characteristics shown in FIG. 18 is performed.

図19は、図16に示す垂直輪郭補正部12における輪郭補正処理について説明するための図である。
図19(a)は、輪郭補正処理を行う前の輝度データQYaを示す図である。
図19(b)は輪郭幅補正を行った輝度データQYbを示す図である。図19(b)において、実線は動画領域における輝度データQYbを示し、破線は静止画領域における輝度データQYbを示している。
図19(c)は、図19(b)に示す輝度データQYbに基づいて生成される強調量SHを示している。図19(c)において、実線は動画領域における輝度データQYbについて生成される強調量SHを示し、破線は静止画領域における輝度データQYbについて生成される強調量SHを示している。
図19(d)は、図19(c)に示す強調量SHに画像処理調整係数QFbを乗じた強調量SHFを示している。図19(d)において、実線は動画領域における強調量SHFを示し、破線は静止画領域における強調量SHFを示している。
図19(e)は、図19(d)に示す強調量SHFを図19(b)に示す輝度データQYbに加算して得られる輪郭強調後の輝度データZYbを示している。図19(e)において、実線は動画領域における輝度データQYbを示し、破線は静止画領域における輝度データZYbを示している。
FIG. 19 is a diagram for explaining the contour correction processing in the vertical contour correcting unit 12 shown in FIG.
FIG. 19A is a diagram showing the luminance data QYa before performing the contour correction process.
FIG. 19B is a diagram showing luminance data QYb subjected to contour width correction. In FIG. 19B, the solid line indicates the luminance data QYb in the moving image area, and the broken line indicates the luminance data QYb in the still image area.
FIG. 19C shows the enhancement amount SH generated based on the luminance data QYb shown in FIG. In FIG. 19C, the solid line indicates the enhancement amount SH generated for the luminance data QYb in the moving image region, and the broken line indicates the enhancement amount SH generated for the luminance data QYb in the still image region.
FIG. 19D shows an enhancement amount SHF obtained by multiplying the enhancement amount SH shown in FIG. 19C by the image processing adjustment coefficient QFb. In FIG. 19D, the solid line indicates the enhancement amount SHF in the moving image region, and the broken line indicates the enhancement amount SHF in the still image region.
FIG. 19 (e) shows luminance data ZYb after edge enhancement obtained by adding the enhancement amount SHF shown in FIG. 19 (d) to the luminance data QYb shown in FIG. 19 (b). In FIG. 19 (e), the solid line indicates the luminance data QYb in the moving image area, and the broken line indicates the luminance data ZYb in the still image area.

図16に示す輪郭幅補正部26においては、図17に示す画像処理調整係数QFaを用いて輪郭幅の補正量が調整されるので、動画領域における輪郭幅の補正量は静止画領域に比して小さい。このため、図19(b)に示すように動画領域における輪郭幅補正後の輝度データZYaの輪郭幅Wcは、静止画領域における輪郭幅Wbよりも広くなる。このため、図19(c)に示すように、動画領域における輪郭部の輝度データQYbについて生成される強調量SHの幅は太くなる。図19(c)に示す強調量に、図18に示す画像処理調整係数QFbを乗じることにより、動画領域における強調量SHFの振幅をより大きくすることができる。これにより、図19(e)に示すように、動画領域における輪郭部の前後により幅が太く、振幅の大きいオーバーシュート、アンダーシュートが付加される。   In the contour width correction unit 26 shown in FIG. 16, the contour width correction amount is adjusted using the image processing adjustment coefficient QFa shown in FIG. 17, so the contour width correction amount in the moving image region is larger than that in the still image region. Small. For this reason, as shown in FIG. 19B, the contour width Wc of the luminance data ZYa after the contour width correction in the moving image region is wider than the contour width Wb in the still image region. For this reason, as shown in FIG. 19C, the width of the enhancement amount SH generated with respect to the luminance data QYb of the contour portion in the moving image region becomes thick. By multiplying the enhancement amount shown in FIG. 19C by the image processing adjustment coefficient QFb shown in FIG. 18, the amplitude of the enhancement amount SHF in the moving image region can be further increased. As a result, as shown in FIG. 19E, overshoot and undershoot with a larger width and a larger amplitude are added before and after the contour portion in the moving image area.

非常に動きの早い動画においては、輪郭幅の補正量を大きくするよりも、よりくっきりとした縁を輪郭部に付加する方が効果的に画像の鮮鋭度を向上させることができる場合がある。図16に示す輪郭補正部26においては、動画領域における輪郭幅の補正量を小さくするとともに輪郭の強調量を大きくするので、動画領域における輪郭部に幅が太く振幅の大きいオーバーシュート、アンダーシュートが付加され、幅の太いくっきりとした縁が得られるので、非常に動きが早い動画においても輪郭の鮮鋭度を効果的に向上することができる。   In moving images that move very quickly, it may be possible to improve the sharpness of the image more effectively by adding a sharper edge to the contour portion than increasing the amount of contour width correction. In the contour correction unit 26 shown in FIG. 16, the amount of correction of the contour width in the moving image region is reduced and the amount of enhancement of the contour is increased. In addition, since a thick and clear edge is obtained, the sharpness of the contour can be effectively improved even in a moving image with very fast movement.

実施の形態2.
図20は、画像処理部2の他の構成を示すブロック図である。図20に示す画像処理部2は、垂直輪郭補正部12の後段に水平輪郭補正部38を備えている。水平輪郭補正部38は、垂直輪郭補正部12により出力される輝度データZYbに水平方向の輪郭補正処理を行い、輝度データZYeを出力する。
図20に示す垂直輪郭補正部12としては、図9,13,16のいずれの構成を用いてもよい。垂直輪郭補正部12において用いられる画像処理調整係数QFは輝度データZYbとともに水平輪郭補正部38に送られる。
Embodiment 2. FIG.
FIG. 20 is a block diagram illustrating another configuration of the image processing unit 2. The image processing unit 2 illustrated in FIG. 20 includes a horizontal contour correcting unit 38 following the vertical contour correcting unit 12. The horizontal contour correction unit 38 performs horizontal contour correction processing on the luminance data ZYb output from the vertical contour correction unit 12 and outputs luminance data ZYe.
As the vertical contour correcting unit 12 shown in FIG. 20, any of the configurations of FIGS. 9, 13, and 16 may be used. The image processing adjustment coefficient QF used in the vertical contour correcting unit 12 is sent to the horizontal contour correcting unit 38 together with the luminance data ZYb.

図21は、水平輪郭補正部34の内部構成を示すブロック図である。図21に示す水平輪郭補正部34は、画素遅延39,40、係数補正部41,42、輪郭幅補正部26、および輪郭強調部30を備えている。輪郭幅補正部26、および輪郭強調部30の構成および動作は、図13に示す垂直輪郭補正部12における輪郭幅補正部26、および輪郭強調部30と同様である。   FIG. 21 is a block diagram showing an internal configuration of the horizontal contour correction unit 34. The horizontal contour correction unit 34 illustrated in FIG. 21 includes pixel delays 39 and 40, coefficient correction units 41 and 42, a contour width correction unit 26, and a contour enhancement unit 30. The configurations and operations of the contour width correction unit 26 and the contour enhancement unit 30 are the same as those of the contour width correction unit 26 and the contour enhancement unit 30 in the vertical contour correction unit 12 shown in FIG.

画素遅延39は、垂直輪郭補正部12から順次出力される輝度データZYbを入力し、輪郭幅補正部26における水平方向の輪郭幅補正処理に必要な画素数の輝度データQYcを出力する。図22は、画素遅延39から出力される輝度データQYcを示す模式図であり、輝度データQYcの画素数を2ma+1とした場合について示している。図22に示すように、画素遅延39は水平方向に配列する複数の画素データからなる輝度データQYcを出力する。輪郭幅補正が、水平方向に配列する11個の画素を用いて行われる場合、輝度データQYcは11個の画素データで構成される。   The pixel delay 39 receives luminance data ZYb sequentially output from the vertical contour correction unit 12 and outputs luminance data QYc of the number of pixels necessary for the horizontal contour width correction processing in the contour width correction unit 26. FIG. 22 is a schematic diagram showing the luminance data QYc output from the pixel delay 39, and shows a case where the number of pixels of the luminance data QYc is 2ma + 1. As shown in FIG. 22, the pixel delay 39 outputs luminance data QYc composed of a plurality of pixel data arranged in the horizontal direction. When the contour width correction is performed using 11 pixels arranged in the horizontal direction, the luminance data QYc is composed of 11 pixel data.

係数補正部41は、垂直輪郭補正部12から入力される画像処理調整係数QFに所定のフィルタリング処理を行うことにより、水平方向における輪郭幅の補正量を調整するための画像処理調整係数QFcを出力する。   The coefficient correction unit 41 outputs an image processing adjustment coefficient QFc for adjusting the correction amount of the contour width in the horizontal direction by performing a predetermined filtering process on the image processing adjustment coefficient QF input from the vertical contour correction unit 12. To do.

画素遅延39から出力された2ma+1画素分の輝度データQYcは、輪郭幅補正部26に送られる。輪郭幅補正部26は、水平方向の輝度データQYcに対し、画像処理調整係数QFcを用いて、先述した垂直方向における輪郭幅補正処理と同様の処理を行うことにより、水平方向の輪郭幅が補正された輝度データZYcを出力する。   The luminance data QYc for 2ma + 1 pixels output from the pixel delay 39 is sent to the contour width correction unit 26. The contour width correction unit 26 corrects the horizontal contour width by performing the same processing as the vertical contour width correction processing described above on the horizontal luminance data QYc using the image processing adjustment coefficient QFc. The luminance data ZYc thus output is output.

輪郭幅補正部26により出力される輪郭幅補正後の輝度データZYcは、画素遅延40に入力される。画素遅延40は、輪郭強調部30における輪郭強調処理に必要な画素数の輝度データQYdを出力する。図23は、画素遅延B40から出力されるQYdのデータを示す模式図であり、輝度データZYcの画素数を2mb+1とした場合について示している。図23に示すように、画素遅延40は水平方向に配列する複数の画素データからなる輝度データQYdを出力する。輪郭強調処理が、水平方向に配列する5個の画素を用いて行われる場合、輝度データQYdは5個の画素データで構成される。
係数補正部42は、係数補正部41により出力された画像処理調整係数QFcに所定のフィルタリング処理を行うことにより、水平方向における輪郭の強調量を調整するための画像処理調整係数QFdを出力する。
The brightness data ZYc after the contour width correction output by the contour width correction unit 26 is input to the pixel delay 40. The pixel delay 40 outputs luminance data QYd having the number of pixels necessary for the contour enhancement processing in the contour enhancement unit 30. FIG. 23 is a schematic diagram showing QYd data output from the pixel delay B40, and shows a case where the number of pixels of the luminance data ZYc is 2 mb + 1. As shown in FIG. 23, the pixel delay 40 outputs luminance data QYd composed of a plurality of pixel data arranged in the horizontal direction. When the contour emphasis process is performed using five pixels arranged in the horizontal direction, the luminance data QYd is composed of five pixel data.
The coefficient correction unit 42 performs a predetermined filtering process on the image processing adjustment coefficient QFc output from the coefficient correction unit 41 to output an image processing adjustment coefficient QFd for adjusting the amount of enhancement of the contour in the horizontal direction.

画素遅延40から出力された2mb+1画素分の輝度データQYdは、輪郭強調部30に送られる。輪郭強調部30は、係数補正部42により出力される画像処理調整係数QFdを用いて、水平方向の輝度データQYdに対し、先述した垂直方向における輪郭強調処理と同様の処理を行うことにより、水平方向に輪郭強調された輝度データZYdを出力する。
なお、水平方向の輪郭補正を行った後に垂直方向の輪郭補正を行ってもよく、また、垂直方向と水平方向の輪郭補正を同時に実施してもよい。また、水平輪郭補正部38を、輪郭幅補正部26、または輪郭強調部30のいずれかのみにより構成することで回路規模を削減してもよい。
The luminance data QYd for 2 mb + 1 pixel output from the pixel delay 40 is sent to the contour emphasizing unit 30. The contour emphasizing unit 30 uses the image processing adjustment coefficient QFd output from the coefficient correcting unit 42 to perform horizontal processing on the luminance data QYd in the horizontal direction by performing processing similar to the above-described contour emphasizing processing in the vertical direction. Luminance data ZYd whose contour is emphasized in the direction is output.
Note that the contour correction in the vertical direction may be performed after performing the contour correction in the horizontal direction, or the contour correction in the vertical direction and the horizontal direction may be performed simultaneously. Further, the circuit size may be reduced by configuring the horizontal contour correcting unit 38 only by the contour width correcting unit 26 or the contour emphasizing unit 30.

以上のように、本実施の形態に係る画像処理装置は、上記実施の形態1において説明した輪郭補正処理を水平および垂直方向について行うので、動画領域における画像のぼやけを水平および垂直方向に過不足なく改善し、より鮮明な画像を得ることができる。
なお、水平方向輪郭補正部38の輪郭幅補正部26、および輪郭強調部30において用いられる画像処理調整係数QFcおよびQFdを適宜調整することにより、垂直および水平方向における輪郭幅、および輪郭部の前後に付加するオーバーシュート、アンダーシュートの大きさを適応的に調整することができる。
As described above, since the image processing apparatus according to the present embodiment performs the contour correction processing described in the first embodiment in the horizontal and vertical directions, the image blur in the moving image area is excessively and insufficiently horizontal and vertical. The image can be improved and a clearer image can be obtained.
Note that the image processing adjustment coefficients QFc and QFd used in the contour width correcting unit 26 and the contour emphasizing unit 30 of the horizontal direction contour correcting unit 38 are appropriately adjusted to adjust the contour width in the vertical and horizontal directions and before and after the contour portion. The size of the overshoot and undershoot added to can be adjusted adaptively.

実施の形態3.
図24は、画像処理部2の他の構成を示すブロック図である。図24に示す画像処理部2におけるフレームメモリ制御部11は、輝度データRYの2フレーム後(輝度データQYの1フレーム後)の輝度データSYをさらに出力する。輝度データSYは、輝度データRYとともに比較判定部10に送られる。他の構成は、図2に示す画像処理部2と同様である。
Embodiment 3 FIG.
FIG. 24 is a block diagram illustrating another configuration of the image processing unit 2. The frame memory control unit 11 in the image processing unit 2 shown in FIG. 24 further outputs the luminance data SY after two frames of the luminance data RY (after one frame of the luminance data QY). The luminance data SY is sent to the comparison determination unit 10 together with the luminance data RY. Other configurations are the same as those of the image processing unit 2 shown in FIG.

図25は、図24に示す画像処理部2におけるフレームメモリ制御部11の内部構成を示すブロック図である。図25に示すように、フレームメモリ制御部11は、フレームメモリ13から読み出される輝度データSYを出力するラインバッファ42をさらに備えている。他の構成は図3に示すフレームメモリ制御部11と同様である。   FIG. 25 is a block diagram showing an internal configuration of the frame memory control unit 11 in the image processing unit 2 shown in FIG. As shown in FIG. 25, the frame memory control unit 11 further includes a line buffer 42 that outputs luminance data SY read from the frame memory 13. Other configurations are the same as those of the frame memory control unit 11 shown in FIG.

図26は、フレームメモリ制御部11から1フレーム周期で出力される輝度データSY,QY,RYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYbを示す図である。図26において、QSvは1フレーム期間を示している。図26に示すように、輝度データRY,SYは、輝度データQYに対しそれぞれ前後1フレームの位相差を有する。
図27は、フレームメモリ制御部11から1ライン周期で出力される輝度データQYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYbを示す図である。図27において、QShは1ライン期間を示している。図27に示すように、色差データQCr,Qcbは、輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。
FIG. 26 shows luminance data SY, QY, RY and color difference data QCr, QCb output from the frame memory control unit 11 in one frame period, and luminance data ZYb after contour correction output from the vertical contour correction unit 12. FIG. In FIG. 26, QSv indicates one frame period. As shown in FIG. 26, the luminance data RY and SY have a phase difference of one frame before and after the luminance data QY.
FIG. 27 is a diagram showing luminance data QY and color difference data QCr, QCb output from the frame memory control unit 11 in one line cycle, and luminance data ZYb after contour correction output from the vertical contour correction unit 12. In FIG. 27, QSh indicates one line period. As shown in FIG. 27, the color difference data QCr and Qcb are read out with a delay of the line period k necessary for the contour correction unit 5 to perform the contour correction processing with respect to the luminance data QY.

図28は比較判定部10の内部構成を示すブロック図である。図28に示す比較判定部10は、動画静止画判定部43、フリッカ判定部44、係数補正部45から構成される。 動画静止画判定部43は、輝度データQY、および1フレーム前の輝度データRYから得られるフレーム間輝度差|QY-RY|に基づいて、画像処理調整係数QFを生成し、係数補正部45に出力する。また、動画静止画判定部43は、フレーム間輝度差|QY-RY|が所定値を越えた場合、動画検出フラグH=1を出力する。反対に、フレーム間輝度差|QY-RY|が所定値以下の場合、輝度データQYが静止画領域を表すことを示す動画検出フラグH=0を出力する。動画検出フラグHはフリッカ判定部44に送られる。
なお、静止画判定部43により出力される画像処理調整係数QFとフレーム間輝度差|QY-RY|との関係は、図7に示すものと同様である。
FIG. 28 is a block diagram illustrating an internal configuration of the comparison determination unit 10. 28 includes a moving image still image determination unit 43, a flicker determination unit 44, and a coefficient correction unit 45. The moving image still image determination unit 43 generates an image processing adjustment coefficient QF based on the luminance data QY and the inter-frame luminance difference | QY−RY | obtained from the luminance data RY of the previous frame, and supplies the coefficient correction unit 45 with the image processing adjustment coefficient QF. Output. The moving image still image determination unit 43 outputs the moving image detection flag H = 1 when the inter-frame luminance difference | QY−RY | exceeds a predetermined value. On the other hand, when the inter-frame luminance difference | QY−RY | is equal to or smaller than a predetermined value, a moving image detection flag H = 0 indicating that the luminance data QY represents a still image area is output. The moving image detection flag H is sent to the flicker determination unit 44.
Note that the relationship between the image processing adjustment coefficient QF output by the still image determination unit 43 and the inter-frame luminance difference | QY-RY | is the same as that shown in FIG.

フリッカ判定部44は、輝度データRYと、2フレーム後の輝度データSYとの差分を画素毎に算出することにより、3フレーム間の輝度変化を示すフレーム間輝度差|QY-SY|を求める。フリッカ判定部33は、フレーム間輝度差|QY-SY|、および動画検出フラグHに基づいて輝度データQYに含まれるフリッカ成分を検出し、フリッカ調整係数QGを生成する。   The flicker determination unit 44 calculates a difference between the luminance data RY and the luminance data SY after two frames for each pixel, thereby obtaining an inter-frame luminance difference | QY−SY | indicating a luminance change between the three frames. The flicker determination unit 33 detects a flicker component included in the luminance data QY based on the inter-frame luminance difference | QY-SY | and the moving image detection flag H, and generates a flicker adjustment coefficient QG.

図29は、フリッカ判定部44におけるフリッカの検出方法について説明するための図である。図29(a)は、輝度データQYが動画領域を表す場合の輝度データRY,QY,SYの変化を示している。輝度データQYが動画像領域を表す場合、図29(a)に示すように、2つのフレーム間輝度差|QY-RY|,|QY-SY|はともに大きな値となる。図29(b)は、輝度データQYにフリッカ成分を含む場合の輝度データRY,QY,SYの変化を示している。輝度データQYがフリッカ成分を含む場合、フレーム間輝度差|QY-RY|は大きな値となるのに対し、フレーム間輝度差|QY-SY|は0または非常に小さい値となる。ここで、フレーム間輝度差|QY-RY|が所定値を越える場合、動画検出フラグはH=1となるので、動画検出フラグH=1であり、かつフレーム間輝度差|QY-RY|が0または非常に小さい値となった場合、輝度データQYはフリッカ成分を含むと判別される。   FIG. 29 is a diagram for explaining a flicker detection method in the flicker determination unit 44. FIG. 29A shows changes in the luminance data RY, QY, SY when the luminance data QY represents a moving image area. When the luminance data QY represents a moving image area, the two inter-frame luminance differences | QY−RY | and | QY−SY | are both large values as shown in FIG. FIG. 29B shows changes in the luminance data RY, QY, SY when the luminance data QY includes a flicker component. When the luminance data QY includes a flicker component, the inter-frame luminance difference | QY-RY | is a large value, whereas the inter-frame luminance difference | QY-SY | is 0 or a very small value. Here, when the inter-frame luminance difference | QY−RY | exceeds a predetermined value, the moving image detection flag is H = 1, so that the moving image detection flag H = 1 and the inter-frame luminance difference | QY−RY | When the value is 0 or a very small value, it is determined that the luminance data QY includes a flicker component.

フリッカ判定部44は、動画静止画判定部43から出力される動画検出フラグHの値、およびフレーム間輝度差|RY-SY|の大きさに基づいて輝度データQYがフリッカを含むか判別するとともに、判別結果に基づいてフリッカ調整係数QGを出力する。動画検出フラグH=0の場合、すなわち輝度データQYが静止画領域を表す場合、フリッカ判定部44はフリッカ調整係数QGを1として出力する。反対に、動画検出フラグH=1の場合、すなわち輝度データQYが動画領域を表す場合、フリッカ検出部44は、フレーム間輝度差|RY-SY|の大きさに基づいてフリッカ調整係数QGを出力する。   The flicker determination unit 44 determines whether or not the luminance data QY includes flicker based on the value of the moving image detection flag H output from the moving image still image determination unit 43 and the magnitude of the inter-frame luminance difference | RY-SY |. The flicker adjustment coefficient QG is output based on the determination result. When the moving image detection flag H = 0, that is, when the luminance data QY represents a still image region, the flicker determination unit 44 outputs the flicker adjustment coefficient QG as 1. On the other hand, when the moving image detection flag H = 1, that is, when the luminance data QY represents a moving image area, the flicker detection unit 44 outputs the flicker adjustment coefficient QG based on the magnitude of the inter-frame luminance difference | RY-SY |. To do.

図30は、フリッカ調整係数QGとフレーム間輝度差|RY−SY|との関係を示す図である。図30において、横軸はフレーム間輝度差|RY−SY|の逆数であり、縦軸はフリッカ調整係数QGの大きさを示す。また、図30において、フレーム間輝度差|RY−SY|の逆数が小さい領域A(|RY−SY|が大きい領域)を動画領域、フレーム間輝度差|RY−SY|の逆数が大きい領域C(|RY−SY|が小さい領域)をフリッカ発生領域とし、動画領域とフリッカ発生領域との間の中間領域を領域Bとする。
図30に示すように、フリッカ調整係数QGは、動画領域(領域A)において大きな値となり(QG=QGm)、フリッカ発生領域(領域C)において小さな値となる(QG=QGf)。また、中間領域(領域B)においては、動画領域およびフリッカ発生領域におけるフリッカ調整係数Qf,Qmの中間の値となる(QGf<QF<QGf)。
係数補正部45は、動画静止画判定部43により出力される画像処理調整係数QFと、フリッカ判定部44により出力されるフリッカ調整係数QGとを積算し、新たな画像処理調整係数QFGを生成する。
FIG. 30 is a diagram illustrating a relationship between the flicker adjustment coefficient QG and the inter-frame luminance difference | RY−SY |. In FIG. 30, the horizontal axis represents the reciprocal of the inter-frame luminance difference | RY-SY |, and the vertical axis represents the magnitude of the flicker adjustment coefficient QG. In FIG. 30, a region A (region where RY−SY | is large) having a small reciprocal of the inter-frame luminance difference | RY−SY | is a moving image region, and a region C having a large reciprocal of the inter-frame luminance difference | RY−SY | (A region where | RY-SY | is small) is a flicker generation region, and an intermediate region between the moving image region and the flicker generation region is a region B.
As shown in FIG. 30, the flicker adjustment coefficient QG has a large value (QG = QGm) in the moving image region (region A) and a small value (QG = QGf) in the flicker generation region (region C). In the intermediate area (area B), the flicker adjustment coefficients Qf and Qm in the moving image area and the flicker occurrence area are intermediate values (QGf <QF <QGf).
The coefficient correction unit 45 integrates the image processing adjustment coefficient QF output from the moving image still image determination unit 43 and the flicker adjustment coefficient QG output from the flicker determination unit 44 to generate a new image processing adjustment coefficient QFG. .

輝度データQYが静止画領域を表す場合(動画検出フラグがH=0となる場合)、フリッカ調整係数はQG=1となるので、画像処理調整係数QFGは、図7に示す領域A(静止画領域)における画像処理調整係数QF=QFsの値と等しくなる。
フレーム間輝度差|QY-RY|が所定値を越える場合(動画検出フラグがH=1となる場合)、図7に示すように、画像処理調整係数QFは領域B(動画領域)におけるQFmとなる(QFm>QFs)。一方、フリッカ調整係数QGは図30に示すように、フリッカ発生領域(領域C)において小さく、動画領域(領域A)において大きくなる。このため、フリッカ発生領域における画像処理調整係数QFCは、図7に示す領域C(動画領域)における画像処理調整係数QF=QFmを小さくした値となり、領域A(動画領域)における画像処理調整係数QFCは上記画像処理調整係数QF=QFmと等しいか、またはこれよりも大きな値となる。
When the luminance data QY represents a still image area (when the moving image detection flag is H = 0), the flicker adjustment coefficient is QG = 1, so that the image processing adjustment coefficient QFG is the area A (still image shown in FIG. Image processing adjustment coefficient QF = QFs in the region).
When the inter-frame luminance difference | QY−RY | exceeds a predetermined value (when the moving image detection flag is H = 1), as shown in FIG. 7, the image processing adjustment coefficient QF is QFm in the region B (moving region). (QFm> QFs). On the other hand, the flicker adjustment coefficient QG is small in the flicker occurrence region (region C) and large in the moving image region (region A) as shown in FIG. Therefore, the image processing adjustment coefficient QFC in the flicker occurrence area becomes a value obtained by reducing the image processing adjustment coefficient QF = QFm in the area C (moving area) shown in FIG. 7, and the image processing adjusting coefficient QFC in the area A (moving area). Is equal to or larger than the image processing adjustment coefficient QF = QFm.

図31は、フリッカの有無による輪郭補正量の差を示す図である。図31(a)(b)(c)は、輝度データQYa、変換倍率Z、輪郭補正後の輝度データZYaをそれぞれ示している。図31(b)において、実線は動画像領域における変換倍率Zを示し、破線はフリッカ発生領域における変換倍率Zを示している。また、図31(c)において、実線は動画領域における輪郭補正後の輝度データZYaを示し、破線はフリッカ発生領域における輪郭補正後の輝度データZYaを示している。
フリッカ発生領域においては、倍率制御量ZCに積算される画像処理調整係数QFGの値がフリッカを含まない動画領域に比して小さいため、図31(b)に示すように変換倍率Zの振幅はフリッカ発生領域において小さくなる。このため、図31(c)に示すように、フリッカ発生領域における輪郭補正後の輝度データZYaの輪郭幅Wbは、フリッカを含まない動画領域における輪郭幅Wcよりも広くなり、鮮鋭度が低くなる。つまり、フリッカ発生領域において、輪郭部の鮮鋭度を高めることによりフリッカが強調されるのを防ぐことができる。
FIG. 31 is a diagram showing a difference in contour correction amount depending on the presence or absence of flicker. FIGS. 31A, 31B, and 31C show luminance data QYa, conversion magnification Z, and luminance data ZYa after contour correction. In FIG. 31B, the solid line indicates the conversion magnification Z in the moving image area, and the broken line indicates the conversion magnification Z in the flicker occurrence area. In FIG. 31C, the solid line indicates the luminance data ZYa after contour correction in the moving image region, and the broken line indicates the luminance data ZYa after contour correction in the flicker occurrence region.
In the flicker occurrence region, the value of the image processing adjustment coefficient QFG integrated with the magnification control amount ZC is smaller than that of the moving image region not including flicker. Therefore, as shown in FIG. It becomes smaller in the flicker occurrence area. For this reason, as shown in FIG. 31C, the contour width Wb of the luminance data ZYa after contour correction in the flicker occurrence region is wider than the contour width Wc in the moving image region not including flicker, and the sharpness is lowered. . That is, in the flicker occurrence region, it is possible to prevent the flicker from being emphasized by increasing the sharpness of the contour portion.

以上のように、本実施の形態に係る画像処理装置によれば、フレーム間輝度差|QY-RY|,|RY−SY|に基づいてフリッカを検出し、フリッカ発生領域における輪郭補正量を抑制するので、フリッカ成分を強調することなく動画像領域の鮮鋭度を高めることができる。   As described above, according to the image processing apparatus of the present embodiment, flicker is detected based on the inter-frame luminance difference | QY−RY |, | RY−SY |, and the contour correction amount in the flicker occurrence region is suppressed. Therefore, the sharpness of the moving image region can be increased without enhancing the flicker component.

実施の形態4.
図32は、実施の形態4におけるフレームメモリ制御部11の構成を示すブロック図であり、図2に示される画像処理装置2におけるフレームメモリ制御部11の別の構成を示している。
フレームメモリ制御部11は、書き込み制御部14、および読み出し制御部19を備えている。書き込み制御部14は、符号化部46,47および48、バッファ49、50および51、書き込みアドレス制御部52により構成され、読み出し制御部19は、バッファ53、54、55および56、復号化部57、58、59および60、読み出しアドレス制御部61により構成される。
Embodiment 4 FIG.
FIG. 32 is a block diagram showing a configuration of the frame memory control unit 11 in the fourth embodiment, and shows another configuration of the frame memory control unit 11 in the image processing apparatus 2 shown in FIG.
The frame memory control unit 11 includes a write control unit 14 and a read control unit 19. The write control unit 14 includes encoding units 46, 47 and 48, buffers 49, 50 and 51, and a write address control unit 52. The read control unit 19 includes buffers 53, 54, 55 and 56, and a decoding unit 57. , 58, 59 and 60, and a read address control unit 61.

フレームメモリ制御部11に入力された輝度データDYおよび色差データDCr、DCbは、書き込み制御部14の符号化部46、47および48にそれぞれ入力される。   The luminance data DY and the color difference data DCr and DCb input to the frame memory control unit 11 are input to the encoding units 46, 47 and 48 of the write control unit 14, respectively.

符号化部46は、入力された輝度データDYを符号化することにより、輝度データDYに対応する符号化された輝度データEYをバッファ49に出力する。輝度データDYの符号化は、FBTC(Fixed Block Truncation Coding)やGBTC(Generalized Block Truncation Coding)などのブロック符号化を用いることができる。また、JPEG(Joint Photographic Experts Group)といった2次元離散コサイン変換符号化、JPEG−LS(Joint Photographic Experts Group-Lossless)といった予測符号化、JPEG2000といったウェーブレット変換による符号化など、静止画用の符号化方式であれば任意のものを用いることができる。なお、こうした静止画用の符号化方法は、符号化前の輝度データDYと符号化された後述する復号化後の復号化輝度データとが完全に一致しない非可逆符号化であっても適用することが可能である。   The encoding unit 46 outputs the encoded luminance data EY corresponding to the luminance data DY to the buffer 49 by encoding the input luminance data DY. For coding the luminance data DY, block coding such as FBTC (Fixed Block Truncation Coding) or GBTC (Generalized Block Truncation Coding) can be used. Also, encoding methods for still images such as two-dimensional discrete cosine transform coding such as JPEG (Joint Photographic Experts Group), predictive coding such as JPEG-LS (Joint Photographic Experts Group-Lossless), and coding using wavelet transform such as JPEG2000. Any can be used. Note that such a still image encoding method is applied even to lossy encoding in which luminance data DY before encoding and encoded luminance data after decoding, which will be described later, do not completely match. It is possible.

同様に、符号化部47および48は、入力された色差データDCrおよびDCbを符号化することにより、色差データDCrおよびDCbのそれぞれに対応する符号化された色差データECrおよびECbをバッファ50および51にそれぞれ出力する。   Similarly, the encoding units 47 and 48 encode the input color difference data DCr and DCb, thereby buffering the encoded color difference data ECr and ECb corresponding to the color difference data DCr and DCb, respectively. Respectively.

書き込みアドレス制御部52は、同期信号DSに基づいて、バッファ49、50および51に入力された符号化輝度データEYおよび符号化色差データECr、ECbをフレームメモリ13に書き込むための書き込みアドレスWAを発生する。バッファ49、50および51から読み出される符号化輝度データEY、および符号化色差データECr、ECbは、書き込みアドレスWAに対応する書き込みデータWDとしてフレームメモリに書き込まれる。   The write address control unit 52 generates a write address WA for writing the encoded luminance data EY and the encoded color difference data ECr and ECb input to the buffers 49, 50 and 51 to the frame memory 13 based on the synchronization signal DS. To do. The encoded luminance data EY and the encoded color difference data ECr and ECb read from the buffers 49, 50 and 51 are written into the frame memory as write data WD corresponding to the write address WA.

ここで、出力同期信号生成部7は、記憶部4のフレームメモリにおいてフレーム周波数の変換を行う場合、即ち記憶部4から画像データDaと異なるフレーム周波数の画像データを出力する場合、同期信号Daと異なる周期の同期信号QSを生成する。記憶部4において、フレーム周波数の変換が行われない場合は、同期信号QSと同期信号Saは等しくなる。(図2を参照)   Here, the output synchronization signal generation unit 7 performs the conversion of the frame frequency in the frame memory of the storage unit 4, that is, when the image data having a frame frequency different from the image data Da is output from the storage unit 4, A synchronization signal QS having a different period is generated. When the frame frequency is not converted in the storage unit 4, the synchronization signal QS and the synchronization signal Sa are equal. (See Figure 2)

読み出しアドレス制御部61は、出力同期信号生成部7により出力される同期信号QSに基づいて、フレームメモリ13に書き込まれた符号化輝度データEYおよび符号化色差データECr、ECbを読み出すための読み出しアドレスRAを発生する。
フレームメモリ13は、読み出しアドレスRAに基づいて読み出されるデータRDをバッファ53、54、55、56に出力する。バッファ53、54、55は符号化輝度データEY1、および符号化色差データECr1、ECb1を出力し、それぞれ復号化部57、58、59に入力される。また、バッファ56は、バッファ53から出力される符号化輝度データEY1よりも1フレーム期間遅延した符号化輝度データEY2を出力し、符号化輝度データEY2は復号化部60に入力される。
The read address control unit 61 reads out the encoded luminance data EY and the encoded color difference data ECr and ECb written in the frame memory 13 based on the synchronization signal QS output from the output synchronization signal generation unit 7. Generate RA.
The frame memory 13 outputs data RD read based on the read address RA to the buffers 53, 54, 55, and 56. The buffers 53, 54, and 55 output the encoded luminance data EY1 and the encoded color difference data ECr1 and ECb1, and are input to the decoding units 57, 58, and 59, respectively. Further, the buffer 56 outputs encoded luminance data EY2 delayed by one frame period from the encoded luminance data EY1 output from the buffer 53, and the encoded luminance data EY2 is input to the decoding unit 60.

復号化部57は、バッファ53から出力される符号化輝度データEY1を復号化することにより、入力された輝度データDYに対応する輝度データQYを出力する。同様に、復号化部58と59は、バッファ54と55から出力される符号化色差データECrとECbを復号化することにより、入力された色差データDCrとDCbのそれぞれに対応する色差データQCrとQCbを出力する。出力された輝度データQYと色差データQCr、QCbは、輪郭補正部5に入力される。
また、復号化部60は、バッファ56からの符号化輝度データEY2を復号化することにより、輝度データQYよりも1フレーム遅延した輝度データRYを出力する。
輝度データQYとRYは、比較判定部10に入力される。
The decoding unit 57 decodes the encoded luminance data EY1 output from the buffer 53, and outputs luminance data QY corresponding to the input luminance data DY. Similarly, the decoding units 58 and 59 decode the encoded color difference data ECr and ECb output from the buffers 54 and 55, so that the color difference data QCr corresponding to each of the input color difference data DCr and DCb QCb is output. The output luminance data QY and color difference data QCr, QCb are input to the contour correction unit 5.
In addition, the decoding unit 60 decodes the encoded luminance data EY2 from the buffer 56, thereby outputting luminance data RY delayed by one frame from the luminance data QY.
The luminance data QY and RY are input to the comparison determination unit 10.

図2に示すように、輪郭補正部5に入力された輝度データQYは、垂直輪郭補正部12に入力される。実施の形態1でも説明したように、垂直輪郭補正部12が輝度データQYに対し垂直方向の輪郭補正処理を行って、輪郭補正後の輝度データZYaを出力する際に、補正後の輝度データZYaと、補正前の輝度データQYとの間には所定のライン数分の遅延が発生する。この遅延ライン数をkラインとすると、輝度データQYと、色差データQCr,QCbとの間にもkライン分の遅延が発生することとなる。このため、フレームメモリ制御部11は、補正後の輝度データZYaと色差データQCr,QCbとが同期して変換部6に入力されるよう色差データQCr,QCbをkライン分遅延して出力する。具体的には、フレームメモリ制御部11の読出しアドレス制御部24において、色差データQCr,QCbが輝度データQYに対し、kライン分遅れて読み出されるよう読み出しアドレスRAを生成する。   As shown in FIG. 2, the luminance data QY input to the contour correction unit 5 is input to the vertical contour correction unit 12. As described in the first embodiment, when the vertical contour correction unit 12 performs the contour correction process in the vertical direction on the luminance data QY and outputs the luminance data ZYa after the contour correction, the corrected luminance data ZYa is output. And a delay of a predetermined number of lines occurs between the luminance data QY before correction. If the number of delay lines is k lines, a delay corresponding to k lines also occurs between the luminance data QY and the color difference data QCr, QCb. Therefore, the frame memory control unit 11 delays and outputs the color difference data QCr, QCb by k lines so that the corrected luminance data ZYa and the color difference data QCr, QCb are input to the conversion unit 6 in synchronization. Specifically, the read address control unit 24 of the frame memory control unit 11 generates the read address RA so that the color difference data QCr and QCb are read with a delay of k lines with respect to the luminance data QY.

図4は、フレームメモリ制御部11から1ライン周期で出力される輝度データRY,QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図4において、QShは1ライン期間を示している。図4に示すように、色差データQCr,Qcbは、輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。   FIG. 4 is a diagram showing luminance data RY, QY and color difference data QCr, QCb output from the frame memory control unit 11 in one line cycle, and luminance data ZYa after contour correction output from the vertical contour correction unit 12. is there. In FIG. 4, QSh indicates one line period. As shown in FIG. 4, the color difference data QCr and Qcb are read out with a delay of the line period k necessary for the contour correction unit 5 to perform the contour correction processing with respect to the luminance data QY.

図5は、フレームメモリ制御部11から1フレーム周期で出力される輝度データRY,QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図5において、QSvは1フレーム期間を示している。図5に示すように、輝度データRYは、輝度データQYに対し1フレーム期間遅延して読み出される。   FIG. 5 is a diagram showing luminance data RY and QY and color difference data QCr and QCb output from the frame memory control unit 11 in one frame period, and luminance data ZYa after contour correction output from the vertical contour correction unit 12. is there. In FIG. 5, QSv indicates one frame period. As shown in FIG. 5, the luminance data RY is read with a delay of one frame period with respect to the luminance data QY.

フレームメモリ制御部11から出力された輝度データQY、RYは、図2に示すように比較判定部10に入力される。比較判定部10は、輝度データQYと1フレーム前の輝度データRYに基づいて動画/静止画の判定を行い、判定結果から画像処理調整係数QFを発生する。画像処理調整係数QFは輪郭補正部5に入力される。輪郭補正部5は、画像処理調整係数QFに基づいて輪郭補正処理を行って、輪郭補正された輝度データZYaを出力する。   The luminance data QY and RY output from the frame memory control unit 11 are input to the comparison determination unit 10 as shown in FIG. The comparison / determination unit 10 determines a moving image / still image based on the luminance data QY and the luminance data RY one frame before, and generates an image processing adjustment coefficient QF from the determination result. The image processing adjustment coefficient QF is input to the contour correction unit 5. The contour correction unit 5 performs contour correction processing based on the image processing adjustment coefficient QF and outputs luminance data ZYa whose contour has been corrected.

輪郭補正部5、比較判定部10、変換部3および6については、実施の形態1ですでに説明した内容と同様であるため、詳しい説明を省略する。   Since the contour correction unit 5, the comparison determination unit 10, and the conversion units 3 and 6 are the same as those already described in the first embodiment, detailed description thereof is omitted.

このように、画像データを輝度データDYおよび色差データDCr、DCbに変換してフレームメモリ13に書き込み、必要なライン数の輝度データを読み出して輪郭補正処理を行い、色差データQCr、QCbについては輪郭補正処理に必要なライン数分だけ遅延して読み出すことで、色差データのタイミング調整に必要なラインメモリを削減することができる。
さらに、フレームメモリ13に対して画像データの書き込み、読み出しを行う際に、画像データを符号化してから、符号化された画像データをフレームメモリ13に書き込み、フレームメモリ13から符号化された画像データを読み出した後で復号化するので、符号化された画像データの符号化率(データ圧縮率)を高くするほど、符号化された画像データを格納するフレームメモリ13の容量を削減できるとともに、フレームメモリ13とフレームメモリ制御部11の間のバス帯域を節約することができる。
As described above, the image data is converted into the luminance data DY and the color difference data DCr and DCb and written in the frame memory 13, the luminance data of the necessary number of lines is read out and the contour correction processing is performed. By reading data with a delay of the number of lines necessary for the correction process, it is possible to reduce the line memory necessary for adjusting the timing of the color difference data.
Further, when image data is written to or read from the frame memory 13, the image data is encoded, and then the encoded image data is written to the frame memory 13, and the image data encoded from the frame memory 13 is encoded. Therefore, as the coding rate (data compression rate) of the encoded image data is increased, the capacity of the frame memory 13 for storing the encoded image data can be reduced, and the frame The bus bandwidth between the memory 13 and the frame memory control unit 11 can be saved.

図33は、実施の形態4におけるフレームメモリ制御部11の別の構成を示すブロック図である。図33に示すフレームメモリ制御部11は、符号化部47、48、バッファ49、50、51、書き込みアドレス制御部52、バッファ53、54、55,56、復号化部58、59、読み出しアドレス制御部61から構成される。   FIG. 33 is a block diagram illustrating another configuration of the frame memory control unit 11 according to the fourth embodiment. 33 includes an encoding unit 47, 48, buffers 49, 50, 51, a write address control unit 52, buffers 53, 54, 55, 56, a decoding unit 58, 59, and a read address control. The unit 61 is configured.

図33に示したフレームメモリ制御部11は、フレームメモリ13への書き込み前の符号化処理と、読み出し後の復号化処理を、色差データDCr、DCbに対して行い、輝度データDYに対しては行わない。
フレームメモリ制御部11に入力された輝度データDYはバッファ49に入力され、色差データDCr、DCbはそれぞれ符号化部47、48に入力される。符号化部47および48は、色差データDCr、DCbを符号化して、符号化色差データECr、ECbをそれぞれ出力する。符号化色差データECr、ECbは、バッファ50、51にそれぞれ入力される。
The frame memory control unit 11 shown in FIG. 33 performs the encoding process before writing to the frame memory 13 and the decoding process after reading on the color difference data DCr and DCb, and on the luminance data DY. Not performed.
The luminance data DY input to the frame memory control unit 11 is input to the buffer 49, and the color difference data DCr and DCb are input to the encoding units 47 and 48, respectively. The encoding units 47 and 48 encode the color difference data DCr and DCb and output the encoded color difference data ECr and ECb, respectively. The encoded color difference data ECr and ECb are input to the buffers 50 and 51, respectively.

書き込みアドレス制御部52は、同期信号DSに基づいて、バッファ49に入力された輝度データDY、およびバッファ50、51に入力された符号化色差データECr、ECbをフレームメモリ13に書き込むための書き込みアドレスWAを発生する。バッファ49、50および51から読み出される輝度データDY、および符号化色差データECr、ECbは、書き込みアドレスWAに対応する書き込みデータWDとしてフレームメモリに書き込まれる。   The write address control unit 52 writes the luminance data DY input to the buffer 49 and the encoded color difference data ECr and ECb input to the buffers 50 and 51 to the frame memory 13 based on the synchronization signal DS. Generate WA. The luminance data DY and the encoded color difference data ECr and ECb read from the buffers 49, 50 and 51 are written into the frame memory as write data WD corresponding to the write address WA.

一方、読み出しアドレス制御部61は、出力同期信号生成部7により出力される同期信号QSに基づいて、フレームメモリ13に書き込まれた輝度データDYおよび符号化色差データECr、ECbを読み出すための読み出しアドレスRAを発生する。フレームメモリ13は、読み出しアドレスRAに基づいて読み出されるデータRDをバッファ53、54、55、56に出力する。バッファ53は輝度データQYを出力する。また、バッファ54、55は符号化色差データECr1、ECb1を出力し、それぞれ復号化部58、59に入力される。また、バッファ56は、バッファ53から出力される輝度データQYよりも1フレーム期間遅延した輝度データRYを出力する。   On the other hand, the read address control unit 61 reads the luminance data DY and the encoded color difference data ECr and ECb written in the frame memory 13 based on the synchronization signal QS output from the output synchronization signal generation unit 7. Generate RA. The frame memory 13 outputs data RD read based on the read address RA to the buffers 53, 54, 55, and 56. The buffer 53 outputs luminance data QY. The buffers 54 and 55 output the encoded color difference data ECr1 and ECb1, and are input to the decoding units 58 and 59, respectively. The buffer 56 outputs luminance data RY delayed by one frame period from the luminance data QY output from the buffer 53.

復号化部58と59は、バッファ54と55から出力される符号化色差データECrとECbを復号化することにより、入力された色差データDCrとDCbのそれぞれに対応する色差データQCrとQCbを出力する。出力された輝度データQYと色差データQCr、QCbは、輪郭補正部5に入力される。   The decoding units 58 and 59 output the color difference data QCr and QCb corresponding to the input color difference data DCr and DCb by decoding the encoded color difference data ECr and ECb output from the buffers 54 and 55, respectively. To do. The output luminance data QY and color difference data QCr, QCb are input to the contour correction unit 5.

輝度データQY、RYおよび色差データQCr、QCbのタイミング関係は、実施の形態4のなかで図4および図5を用いてすでに説明された内容と同様であるので、ここでの説明は省略する。   Since the timing relationship between the luminance data QY, RY and the color difference data QCr, QCb is the same as that already described with reference to FIGS. 4 and 5 in the fourth embodiment, description thereof is omitted here.

色差データに関して、符号化された色差データをフレームメモリ13に格納するので、フレームメモリ13のメモリ容量を削減することができる。   With regard to the color difference data, the encoded color difference data is stored in the frame memory 13, so that the memory capacity of the frame memory 13 can be reduced.

また、符号化方法として非可逆符号化を用いた場合には、符号化前の画像データと、符号化処理と復号化処理を経た画像データとの間には誤差を生じる。図33に示した構成例では、符号化処理と復号化処理を経た色差データ出力QCr、QCbは、元々の色差データDCr、DCbとの間に誤差を生じうる。一方、輝度データDYは符号化処理および復号化処理を経ないので、入力の輝度データDYと出力の輝度データQY、RYとの誤差を生じない。
一般に、輝度データに比べ、色差データに対する人間の視覚的な感度は低いので、符号化処理と復号化処理によって色差データに誤差が生じても、輝度データには誤差が生じないため、画質への悪影響を抑制することができる。
When lossy encoding is used as an encoding method, an error occurs between image data before encoding and image data that has undergone encoding and decoding. In the configuration example shown in FIG. 33, the color difference data outputs QCr and QCb that have undergone the encoding process and the decoding process may cause an error between the original color difference data DCr and DCb. On the other hand, since the luminance data DY is not subjected to the encoding process and the decoding process, there is no error between the input luminance data DY and the output luminance data QY, RY.
Generally, human visual sensitivity to color difference data is lower than that of luminance data. Therefore, even if an error occurs in the color difference data due to the encoding process and the decoding process, no error occurs in the luminance data. Adverse effects can be suppressed.

実施の形態5.
図34は実施の形態5におけるフレームメモリ11の構成を示すブロック図である。これは、図24に示される画像処理装置2におけるフレームメモリ制御部11の別の構成を示している。
図34に示されるフレームメモリ制御部11は、書き込み制御部14および読み出し制御部19から構成される。書き込み制御部14は図32に示した構成と同様の構成である。読み出し制御部19は、図32に示した構成に加えて、バッファ62と復号化部63をさらに備えている。
Embodiment 5. FIG.
FIG. 34 is a block diagram showing the configuration of the frame memory 11 in the fifth embodiment. This shows another configuration of the frame memory control unit 11 in the image processing apparatus 2 shown in FIG.
The frame memory control unit 11 shown in FIG. 34 includes a write control unit 14 and a read control unit 19. The write control unit 14 has the same configuration as that shown in FIG. The read control unit 19 further includes a buffer 62 and a decoding unit 63 in addition to the configuration shown in FIG.

書き込み制御部14については、実施の形態4において図32で示した構成と同様であるので、詳しい動作の説明は省略する。また、出力同期信号生成部7で生成される同期信号QSについても、実施の形態4において説明した内容と同じであるので、説明を省略する。   Since the write control unit 14 is the same as the configuration shown in FIG. 32 in the fourth embodiment, a detailed description of the operation is omitted. Further, the synchronization signal QS generated by the output synchronization signal generation unit 7 is the same as the content described in the fourth embodiment, and thus the description thereof is omitted.

読み出し制御部19については、読み出しアドレス制御部61は、出力同期信号生成部7により出力される同期信号QSに基づいて、フレームメモリ13に書き込まれた符号化輝度データEYおよび符号化色差データECr、ECbを読み出すための読み出しアドレスRAを発生する。
フレームメモリ13は、読み出しアドレスRAに基づいて読み出されるデータRDをバッファ53、54、55、56および62に出力する。バッファ53、54、55は符号化輝度データEY1、および符号化色差データECr1、ECb1を出力し、それぞれ復号化部57、58、59に入力される。また、バッファ56は、バッファ53から出力される符号化輝度データEY1よりも1フレーム期間遅延した符号化輝度データEY2を出力し、符号化輝度データEY2は符号化部60に入力される。
さらに、バッファ62は、符号化輝度データEY1よりも1フレーム期間早い符号化輝度データEY0を出力し、復号化部63に入力される。
As for the read control unit 19, the read address control unit 61, based on the synchronization signal QS output from the output synchronization signal generation unit 7, encodes the encoded luminance data EY and the encoded color difference data ECr written in the frame memory 13. A read address RA for reading ECb is generated.
The frame memory 13 outputs data RD read based on the read address RA to the buffers 53, 54, 55, 56 and 62. The buffers 53, 54, and 55 output the encoded luminance data EY1 and the encoded color difference data ECr1 and ECb1, and are input to the decoding units 57, 58, and 59, respectively. Further, the buffer 56 outputs encoded luminance data EY2 delayed by one frame period from the encoded luminance data EY1 output from the buffer 53, and the encoded luminance data EY2 is input to the encoding unit 60.
Further, the buffer 62 outputs encoded luminance data EY0 that is one frame period earlier than the encoded luminance data EY1, and is input to the decoding unit 63.

復号化部57、58、59は、符号化輝度データEY1および符号化色差データECr1,ECb1を復号化することにより、入力画像データに対応する輝度データQYおよび色差データQCr、QCbを出力する。同様に、復号化部60、63は、符号化輝度データEY2、EY0をそれぞれ復号化することにより、輝度データQYに対して1フレーム遅延した輝度データRYと1フレーム早い輝度データSYを出力する。
輝度データQYは、輪郭補正部5および比較判定部10に入力され、色差データQCrとQCbは輪郭補正部5に入力される。また、輝度データRYとSYは比較判定部10に入力される。
The decoding units 57, 58 and 59 decode the encoded luminance data EY1 and the encoded color difference data ECr1 and ECb1, thereby outputting luminance data QY and color difference data QCr and QCb corresponding to the input image data. Similarly, the decoding units 60 and 63 decode the encoded luminance data EY2 and EY0, respectively, thereby outputting luminance data RY delayed by one frame and luminance data SY one frame earlier than the luminance data QY.
The luminance data QY is input to the contour correction unit 5 and the comparison determination unit 10, and the color difference data QCr and QCb are input to the contour correction unit 5. Further, the luminance data RY and SY are input to the comparison determination unit 10.

図26に示すように、輝度データRY、SYは、輝度データQYに対してそれぞれ前後1フレームの位相差を有する。また、図27に示すように、色差データQCr、QCbは、輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。
これら輝度データQY、RY、SY、色差データQCr、QCbの関係の詳細については、すでに実施の形態3で説明した内容と同様であるので、ここでは説明を省略する。
As shown in FIG. 26, the luminance data RY and SY have a phase difference of one frame before and after the luminance data QY. Further, as shown in FIG. 27, the color difference data QCr and QCb are read out with respect to the luminance data QY with a delay of a line period k necessary for the contour correction unit 5 to perform the contour correction processing.
Since the details of the relationship between the luminance data QY, RY, SY, and the color difference data QCr, QCb are the same as those already described in the third embodiment, the description thereof is omitted here.

比較判定部10は、入力された輝度データQY、RY、SYに基づいて、フリッカの有無を検出して、フリッカ発生領域において輪郭補正量を抑制するように働く画像処理調整係数QFGを発生し、画像処理調整係数QFGは輪郭補正部5に入力される。
輪郭補正部5は、画像処理調整係数QFGに基づいて、輝度データQYに対して輪郭補正処理を行って、輪郭補正された輝度データZYaを出力する。
比較判定部10と輪郭補正部5の動作は、実施の形態3、実施の形態1ですでに説明済みであるので、ここでは詳しい説明を省略する。
The comparison determination unit 10 detects the presence or absence of flicker based on the input luminance data QY, RY, and SY, and generates an image processing adjustment coefficient QFG that works to suppress the contour correction amount in the flicker generation region. The image processing adjustment coefficient QFG is input to the contour correction unit 5.
The contour correction unit 5 performs contour correction processing on the luminance data QY based on the image processing adjustment coefficient QFG, and outputs contour corrected luminance data ZYa.
Since the operations of the comparison determination unit 10 and the contour correction unit 5 have already been described in the third embodiment and the first embodiment, detailed description thereof is omitted here.

フレーム間輝度差|QY−RY|、|RY−SY|に基づいてフリッカを検出し、フリッカ発生領域における輪郭補正量を抑制できるので、フリッカ成分を強調することなく動画像領域の鮮鋭度を高めることができる。   Flicker is detected based on the inter-frame luminance difference | QY−RY | and | RY−SY |, and the amount of contour correction in the flicker occurrence area can be suppressed. Therefore, the sharpness of the moving image area is enhanced without enhancing the flicker component. be able to.

さらに、フレームメモリ13に対して画像データの書き込み、読み出しを行う際に、画像データを符号化してから、符号化された画像データをフレームメモリ13に書き込み、フレームメモリ13から符号化された画像データを読み出した後で復号化するので、符号化された画像データの符号化率(データ圧縮率)を高くするほど、符号化された画像データを格納するフレームメモリ13の容量を削減できるとともに、フレームメモリ13とフレームメモリ制御部11の間のバス帯域を節約することができる。   Further, when image data is written to or read from the frame memory 13, the image data is encoded, and then the encoded image data is written to the frame memory 13, and the image data encoded from the frame memory 13 is encoded. Therefore, as the coding rate (data compression rate) of the encoded image data is increased, the capacity of the frame memory 13 for storing the encoded image data can be reduced, and the frame The bus bandwidth between the memory 13 and the frame memory control unit 11 can be saved.

また、図35に示すように、フレームメモリ13に画像データの書き込み、読み出しをする際の符号化処理、復号化処理を、色差データDCr、DCbについては行って、輝度データDYについては行わないよう、フレームメモリ制御部11を構成してもよい。図35は、実施の形態5におけるフレームメモリ制御部11の別の構成例を示すブロック図である。   Also, as shown in FIG. 35, encoding processing and decoding processing when writing and reading image data to and from the frame memory 13 are performed for the color difference data DCr and DCb, but not for the luminance data DY. The frame memory control unit 11 may be configured. FIG. 35 is a block diagram illustrating another configuration example of the frame memory control unit 11 according to the fifth embodiment.

図35において、輝度データDYは符号化部を介さずにバッファ49に直接入力される。色差データDCrとDCbは、それぞれ符号化部47、48で符号化され、符号化色差データECr、ECbがバッファ50、51に入力される。バッファ49、50、51から読み出される符号化されていない輝度データDY、および符号化色差データECrが書き込みデータWDとしてフレームメモリ13に書き込まれる。   In FIG. 35, the luminance data DY is directly input to the buffer 49 without going through the encoding unit. The color difference data DCr and DCb are encoded by the encoding units 47 and 48, respectively, and the encoded color difference data ECr and ECb are input to the buffers 50 and 51, respectively. Uncoded luminance data DY and encoded color difference data ECr read from the buffers 49, 50 and 51 are written in the frame memory 13 as write data WD.

次に、フレームメモリ13に書き込まれた輝度データDYおよび符号化色差データECr、ECbが、読み出しデータRDとして読み出され、バッファ52、53、54、55,62に入力される。バッファ52は輝度データQYを出力し、バッファ55および62は、輝度データQYに対して1フレーム遅延した輝度データRYと、1フレーム早い輝度データSYを出力する。
バッファ54,55は、輝度データQYと同じフレームの符号化色差データECr1、ECb1をそれぞれ復号化部58、59に向けて出力する。復号化部58、59では、符号化色差データECr1、ECb1がそれぞれ復号化され、復号化された色差データQCr、QCbを出力する。
Next, the luminance data DY and the encoded color difference data ECr and ECb written in the frame memory 13 are read as read data RD and input to the buffers 52, 53, 54, 55 and 62. The buffer 52 outputs luminance data QY, and the buffers 55 and 62 output luminance data RY delayed by one frame with respect to the luminance data QY and luminance data SY that is one frame earlier.
The buffers 54 and 55 output the encoded color difference data ECr1 and ECb1 of the same frame as the luminance data QY to the decoding units 58 and 59, respectively. In the decoding units 58 and 59, the encoded color difference data ECr1 and ECb1 are decoded, and the decoded color difference data QCr and QCb are output.

フレームメモリ13に対して符号化した色差データと符号化しない輝度データを書き込み、フレームメモリ13から符号化色差データと輝度データを読み出して、符号化色差データを復号化することにより、符号化された色差データの符号化率(データ圧縮率)を高くするほど、フレームメモリ13の容量を削減できるとともに、フレームメモリ13とフレームメモリ制御部11の間のバス帯域を節約することができる。
また、人間の視覚的な感度の低い色差データに対して符号化および復号化を行うため、符号化方法が不可逆符号化の場合であっても、符号化前と復号化後の色差データ間に生じる誤差による、画像の劣化を抑制することができる。
Encoded by writing encoded color difference data and non-encoded luminance data to the frame memory 13, reading encoded color difference data and luminance data from the frame memory 13, and decoding the encoded color difference data. As the coding rate (data compression rate) of the color difference data is increased, the capacity of the frame memory 13 can be reduced and the bus band between the frame memory 13 and the frame memory control unit 11 can be saved.
In addition, since color difference data with low human visual sensitivity is encoded and decoded, even if the encoding method is irreversible encoding, the difference between the color difference data before and after encoding is determined. Deterioration of an image due to an error that occurs can be suppressed.

実施の形態6.
図36は、実施の形態6におけるフレームメモリ制御部11の構成を示すブロック図であり、図2に示される画像処理装置2におけるフレームメモリ制御部11の別の構成を示している。
フレームメモリ制御部11は、書き込み制御部14、および読み出し制御部19を備えている。書き込み制御部14は、符号化部46、バッファ49、50および51、書き込みアドレス制御部52により構成され、読み出し制御部19は、バッファ54、55および56、復号化部60、読み出しアドレス制御部61により構成される。
Embodiment 6 FIG.
FIG. 36 is a block diagram showing the configuration of the frame memory control unit 11 in the sixth embodiment, and shows another configuration of the frame memory control unit 11 in the image processing apparatus 2 shown in FIG.
The frame memory control unit 11 includes a write control unit 14 and a read control unit 19. The write control unit 14 includes an encoding unit 46, buffers 49, 50 and 51, and a write address control unit 52. The read control unit 19 includes buffers 54, 55 and 56, a decoding unit 60, and a read address control unit 61. Consists of.

動作について説明する。
フレームメモリ制御部11に入力された輝度データDYは、符号化部46に入力されるとともに、読み出し制御部19を介して輝度データQYとして出力される。符号化部46は、輝度データDYを符号化することにより、輝度データDYに対応する符号化された輝度データEYをバッファ49に出力する。
フレームメモリ制御部11に入力された色差データDCr、DCbは、バッファ50、51に入力される。
The operation will be described.
The luminance data DY input to the frame memory control unit 11 is input to the encoding unit 46 and also output as luminance data QY via the read control unit 19. The encoding unit 46 encodes the luminance data DY, and outputs the encoded luminance data EY corresponding to the luminance data DY to the buffer 49.
The color difference data DCr and DCb input to the frame memory control unit 11 are input to the buffers 50 and 51.

書き込みアドレス制御部52は、同期信号DSに基づいて、バッファ49に入力された符号化輝度データEY、およびバッファ50、51に入力された色差データDCr、DCbをフレームメモリに書き込むための書き込みアドレスWAを発生する。バッファ49、50および51から読み出される符号化輝度データEY、および色差データDCr、DCbは、書き込みアドレスWAに対応する書き込みデータWDとしてフレームメモリ13に書き込まれる。   Based on the synchronization signal DS, the write address control unit 52 writes the coded luminance data EY input to the buffer 49 and the color difference data DCr and DCb input to the buffers 50 and 51 to the frame memory WA. Is generated. The encoded luminance data EY and the color difference data DCr and DCb read from the buffers 49, 50 and 51 are written in the frame memory 13 as write data WD corresponding to the write address WA.

ここで、出力同期信号生成部7は、記憶部4のフレームメモリ13においてフレーム周波数の変換を行わないものとし、同期信号Sa(即ちDS)に同期した同期信号QSを発生する。   Here, the output synchronization signal generation unit 7 does not perform frame frequency conversion in the frame memory 13 of the storage unit 4 and generates a synchronization signal QS synchronized with the synchronization signal Sa (ie, DS).

読み出しアドレス制御部61は、出力同期信号生成部7により出力される同期信号QSに基づいて、フレームメモリ13に書き込まれた符号化輝度データEYおよび色差データDCr、DCbを読み出すための読み出しアドレスRAを発生する。
フレームメモリ13は、読み出しアドレスRAに基づいて読み出されるデータRDをバッファ54、55、56に出力する。バッファ54、55は色差データQCr、QCbを出力する。また、バッファ56は、輝度データQY、すなわち入力の輝度データDYよりも1フレーム遅延した符号化輝度データEY1を出力する。バッファ56から出力された符号化輝度データEY1は復号化部60に入力され、復号化部60は符号化輝度データEY1を復号することにより、輝度データRYを出力する。輝度データRYは輝度データQYよりも1フレーム遅延している。
輝度データQY、色差データQCr、QCbは輪郭補正部5に入力され、輝度データQYとRYは比較判定部10に入力される。
Based on the synchronization signal QS output from the output synchronization signal generation unit 7, the read address control unit 61 sets a read address RA for reading the encoded luminance data EY and the color difference data DCr and DCb written in the frame memory 13. appear.
The frame memory 13 outputs the data RD read based on the read address RA to the buffers 54, 55, and 56. The buffers 54 and 55 output the color difference data QCr and QCb. Further, the buffer 56 outputs the luminance data QY, that is, the encoded luminance data EY1 delayed by one frame from the input luminance data DY. The encoded luminance data EY1 output from the buffer 56 is input to the decoding unit 60, and the decoding unit 60 decodes the encoded luminance data EY1 to output luminance data RY. The luminance data RY is delayed by one frame from the luminance data QY.
Luminance data QY and color difference data QCr, QCb are input to the contour correction unit 5, and luminance data QY and RY are input to the comparison determination unit 10.

図2に示すように、輪郭補正部5に入力された輝度データQYは、垂直輪郭補正部12に入力される。すでに実施の形態1でも説明したように、垂直輪郭補正部12が輝度データQYに対し垂直方向の輪郭補正処理を行って、輪郭補正後の輝度データZYaを出力する際に、補正後の輝度データZYaと、補正前の輝度データQYとの間には所定のライン数分の遅延が発生する。この遅延ライン数をkラインとすると、輝度データQYと、色差データQCr,QCbとの間にもkライン分の遅延が発生することとなる。このため、フレームメモリ制御部11は、補正後の輝度データZYaと色差データQCr,QCbとが同期して変換部6に入力されるよう、色差データQCr,QCbをkライン分遅延して出力する。具体的には、フレームメモリ制御部11の読出しアドレス制御部24において、色差データQCr,QCbが輝度データQY(すなわち、入力輝度データDY)に対し、kライン分遅れて読み出されるよう読み出しアドレスRAを生成する。   As shown in FIG. 2, the luminance data QY input to the contour correction unit 5 is input to the vertical contour correction unit 12. As already described in the first embodiment, when the vertical contour correction unit 12 performs the contour correction process in the vertical direction on the luminance data QY and outputs the luminance data ZYa after the contour correction, the corrected luminance data A delay corresponding to a predetermined number of lines occurs between ZYa and luminance data QY before correction. If the number of delay lines is k lines, a delay corresponding to k lines also occurs between the luminance data QY and the color difference data QCr, QCb. Therefore, the frame memory control unit 11 outputs the color difference data QCr and QCb with a delay of k lines so that the corrected luminance data ZYa and the color difference data QCr and QCb are input to the conversion unit 6 in synchronization. . Specifically, the read address control unit 24 of the frame memory control unit 11 sets the read address RA so that the color difference data QCr and QCb are read with a delay of k lines with respect to the luminance data QY (that is, the input luminance data DY). Generate.

図37は、フレームメモリ制御部11に入力される輝度データDY、色差データDCrおよびDCb、フレームメモリ制御部から1ライン周期で出力される輝度データRY,QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図37において、DShとQShは1ライン期間を示しており、出力の水平同期信号QShは入力水平同期信号QShに同期している。図37に示すように、色差データQCr,Qcbは、輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。入力の輝度データDYと、出力の輝度データQYおよびRYは同じライン位置nを示すのに対して、出力の色差データQCrとQCbはライン位置n−kとなる。   FIG. 37 shows luminance data DY, color difference data DCr and DCb input to the frame memory control unit 11, luminance data RY, QY and color difference data QCr, QCb output from the frame memory control unit in one line cycle, and vertical contours. It is a figure which shows the luminance data ZYa after the outline correction output from the correction | amendment part 12. FIG. In FIG. 37, DSh and QSh indicate one line period, and the output horizontal synchronizing signal QSh is synchronized with the input horizontal synchronizing signal QSh. As shown in FIG. 37, the color difference data QCr and Qcb are read out with a delay of the line period k required for the contour correction unit 5 to perform the contour correction processing with respect to the luminance data QY. The input luminance data DY and the output luminance data QY and RY indicate the same line position n, whereas the output color difference data QCr and QCb are line positions nk.

図38は、フレームメモリ制御部11から1フレーム周期で出力される輝度データRY,QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図38において、DSvおよびQSvは1フレーム期間を示しており、出力垂直同期QSvは入力垂直同期DSvと同期している。図38に示すように、輝度データRYは、輝度データQYに対し1フレーム期間遅延して読み出される。   FIG. 38 is a diagram showing luminance data RY and QY and color difference data QCr and QCb output from the frame memory control unit 11 in one frame period, and luminance data ZYa after contour correction output from the vertical contour correction unit 12. is there. In FIG. 38, DSv and QSv indicate one frame period, and the output vertical synchronization QSv is synchronized with the input vertical synchronization DSv. As shown in FIG. 38, the luminance data RY is read with a delay of one frame period with respect to the luminance data QY.

フレームメモリ制御部11から出力された輝度データQY、RYは、図2に示すように比較判定部10に入力される。比較判定部10は、輝度データQYと1フレーム前の輝度データRYに基づいて動画/静止画の判定を行い、判定結果から画像処理調整係数QFを発生する。画像処理調整係数QFは輪郭補正部5に入力される。輪郭補正部5は、画像処理調整係数QFに基づいて輪郭補正処理を行って、輪郭補正された輝度データZYaを出力する。   The luminance data QY and RY output from the frame memory control unit 11 are input to the comparison determination unit 10 as shown in FIG. The comparison / determination unit 10 determines a moving image / still image based on the luminance data QY and the luminance data RY one frame before, and generates an image processing adjustment coefficient QF from the determination result. The image processing adjustment coefficient QF is input to the contour correction unit 5. The contour correction unit 5 performs contour correction processing based on the image processing adjustment coefficient QF and outputs luminance data ZYa whose contour has been corrected.

輪郭補正部5、比較判定部10、変換部3および6については、実施の形態1ですでに説明した内容と同様であるため、詳しい説明を省略する。   Since the contour correction unit 5, the comparison determination unit 10, and the conversion units 3 and 6 are the same as those already described in the first embodiment, detailed description thereof is omitted.

このように、符号化された輝度データEYおよび色差データDCr、DCbをフレームメモリ13に書き込み、入力の輝度データDY(=QY)に対して輪郭補正処理を行い、色差データQCr、QCbについては輪郭補正処理に必要なライン数分だけ遅延して読み出すことで、色差データのタイミング調整に必要なラインメモリを削減することができる。
さらに、輝度データDYを符号化してから、符号化された輝度データEYをフレームメモリ13に書き込み、フレームメモリ13から符号化された輝度データEY1を読み出した後で復号化するので、符号化された輝度データの符号化率(データ圧縮率)を高くするほど、符号化された輝度データEYを格納するフレームメモリ13の容量を削減できるとともに、フレームメモリ13とフレームメモリ制御部11の間のバス帯域を節約することができる。
In this way, the encoded luminance data EY and color difference data DCr, DCb are written into the frame memory 13, the contour correction processing is performed on the input luminance data DY (= QY), and the color difference data QCr, QCb are contoured. By reading data with a delay of the number of lines necessary for the correction process, it is possible to reduce the line memory necessary for adjusting the timing of the color difference data.
Furthermore, after the luminance data DY is encoded, the encoded luminance data EY is written into the frame memory 13, and the encoded luminance data EY1 is read out from the frame memory 13 and then decoded. As the coding rate (data compression rate) of the luminance data is increased, the capacity of the frame memory 13 for storing the coded luminance data EY can be reduced, and the bus bandwidth between the frame memory 13 and the frame memory control unit 11 Can be saved.

また、フレームメモリ制御部11は、フレームメモリ13に画像データの書き込み、読み出しを行う際の符号化処理と復号化処理を、輝度データDYに加えて、色差データDCr、DCbについても行ってもよい。図39は、実施の形態6におけるフレームメモリ制御部11の別の構成を示すブロック図である。図39に示す構成は、図36に示した構成に対して、符号化部47および48、復号化部58および59をさらに備えたものである。   Further, the frame memory control unit 11 may perform encoding processing and decoding processing for writing and reading image data to and from the frame memory 13 for the color difference data DCr and DCb in addition to the luminance data DY. . FIG. 39 is a block diagram showing another configuration of the frame memory control unit 11 in the sixth embodiment. The configuration shown in FIG. 39 further includes encoding units 47 and 48 and decoding units 58 and 59 with respect to the configuration shown in FIG.

符号化部47および48は、入力された色差データDCr、DCbの符号化を行うことにより、色差データDCr、DCbに対応する符号化色差データECr0、ECb0をバッファ50、51にそれぞれ出力する。バッファ50、51はから読み出される符号化色差データECr0とECb0は、フレームメモリ13に書き込まれる。フレームメモリ13に書き込まれた符号化色差データECr0、ECb0が読み出され、バッファ54、55に入力される。バッファ54、55は、符号化色差データECr0、ECb0を復号化部58、59に向けてそれぞれ出力する。復号化部58、59は、符号化色差データECr0、ECb0を復号化し、復号化された色差データQCr、QCbをそれぞれ出力する。色差データQCr、QCbは輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。その他の部分についてはすでに説明済みの内容と同じである。   The encoding units 47 and 48 output the encoded color difference data ECr0 and ECb0 corresponding to the color difference data DCr and DCb to the buffers 50 and 51, respectively, by encoding the input color difference data DCr and DCb. The coded color difference data ECr0 and ECb0 read from the buffers 50 and 51 are written in the frame memory 13. The coded color difference data ECr0 and ECb0 written in the frame memory 13 are read out and input to the buffers 54 and 55. The buffers 54 and 55 output the encoded color difference data ECr0 and ECb0 to the decoding units 58 and 59, respectively. The decoding units 58 and 59 decode the encoded color difference data ECr0 and ECb0 and output the decoded color difference data QCr and QCb, respectively. The color difference data QCr and QCb are read out with respect to the luminance data QY after being delayed by a line period k necessary for the contour correction unit 5 to perform the contour correction processing. The other parts are the same as those already described.

輝度データDY、および色差データDCrおよびDCb符号化を行い、符号化された輝度データEY0をフレームメモリ13に書き込み、フレームメモリ13から符号化された輝度データEY1を読み出した後で復号化するので、符号化された輝度データと色差データの符号化率(データ圧縮率)を高くするほど、符号化された輝度データEY0、色差データECr0、ECb0を格納するフレームメモリ13の容量を削減できるとともに、フレームメモリ13とフレームメモリ制御部11の間のバス帯域を節約することができる。   Since the luminance data DY and the color difference data DCr and DCb are encoded, the encoded luminance data EY0 is written to the frame memory 13, and the encoded luminance data EY1 is read from the frame memory 13 and then decoded. As the coding rate (data compression rate) of the encoded luminance data and color difference data is increased, the capacity of the frame memory 13 for storing the encoded luminance data EY0, color difference data ECr0, ECb0 can be reduced, and the frame The bus bandwidth between the memory 13 and the frame memory control unit 11 can be saved.

実施の形態7.
図40は、実施の形態7における画像処理部2の構成を示すブロック図である。図40に示す構成は、図2に示す構成と比較して、フレームメモリ制御部11が輝度データQY1とQY2を出力し、輝度データQY1が輪郭補正部5に入力され、輝度データQY2が比較判定部10に入力される点が異なる。輝度データQY1は符号化処理と復号化処理を経ない輝度データであり、輝度データQY2は符号化処理と復号化処理を経た輝度データである。(詳細は後述する)
Embodiment 7 FIG.
FIG. 40 is a block diagram illustrating a configuration of the image processing unit 2 according to the seventh embodiment. In the configuration shown in FIG. 40, compared with the configuration shown in FIG. 2, the frame memory control unit 11 outputs luminance data QY1 and QY2, the luminance data QY1 is input to the contour correction unit 5, and the luminance data QY2 is compared and determined. The difference is that it is input to the unit 10. Luminance data QY1 is luminance data that has not undergone encoding and decoding, and luminance data QY2 is luminance data that has undergone encoding and decoding. (Details will be described later)

図41は、図40に示される画像処理装置2におけるフレームメモリ制御部11の構成を示すブロック図である。図41に示すフレームメモリ制御部11は、図36に示した構成に対して、さらに復号化部57を読み出し制御部に備えたものである。   FIG. 41 is a block diagram showing a configuration of the frame memory control unit 11 in the image processing apparatus 2 shown in FIG. The frame memory control unit 11 shown in FIG. 41 further includes a decoding unit 57 in the read control unit in addition to the configuration shown in FIG.

入力された輝度データDYは、符号化部46に入力されるとともに、読み出し制御部19を介して輝度データQY1として出力される。符号化部46は、輝度データDYを符号化することにより、輝度データDYに対応する符号化輝度データEY0を出力する。符号化輝度データEY0はバッファ49と復号化部57に入力される。復号化部57は符号化輝度データEY0を復号化することにより、輝度データQY1と同じフレーム、同じラインの輝度データQY2を出力する。また、フレームメモリ制御部11は、色差データQCrとQCb、輝度データQY1およびQY2から1フレーム遅延の輝度データRYを出力する。輝度データQY1とQY2の読み出しタイミングは、実施の形態6で図37および図38の中の輝度データQYと同じである。
その他の部分については、実施の形態6ですでに説明済みの内容と同じであるので、ここでは説明を省略する。
輝度データQY1と色差データQCr、QCbは輪郭補正部5に入力され、輝度データQY2と1フレーム遅延の輝度データRYは比較判定部10に入力される。
The input luminance data DY is input to the encoding unit 46 and also output as luminance data QY1 via the read control unit 19. The encoding unit 46 encodes the luminance data DY to output encoded luminance data EY0 corresponding to the luminance data DY. The encoded luminance data EY0 is input to the buffer 49 and the decoding unit 57. The decoding unit 57 decodes the encoded luminance data EY0, thereby outputting luminance data QY2 of the same frame and the same line as the luminance data QY1. The frame memory control unit 11 outputs luminance data RY with one frame delay from the color difference data QCr and QCb and the luminance data QY1 and QY2. The readout timing of the luminance data QY1 and QY2 is the same as the luminance data QY in FIGS. 37 and 38 in the sixth embodiment.
The other parts are the same as those already described in the sixth embodiment, and thus the description thereof is omitted here.
The luminance data QY1 and the color difference data QCr and QCb are input to the contour correction unit 5, and the luminance data QY2 and the luminance data RY with one frame delay are input to the comparison determination unit 10.

輝度データQY1は符号化および復号化の処理を経ておらず、輝度データQY2は符号化、復号化の処理を経ており、輝度データQY1とQY2はこの点が異なる。例えば、符号化方式が符号化前の輝度データDYと復号化後の輝度データQY2が完全に一致しない非可逆符号化の場合には、輝度データDYとQY2の間には誤差が生じる。
比較判定部10は、連続する2フレーム間の輝度データの差分に基づいて動画静止画判定を行って、輪郭補正部5の補正量を制御するように働く。
仮に、符号化と復号化を経た輝度データRYと経ない輝度データQY1に基づいて、比較判定部10での比較判定処理を行った場合には、静止画であっても、符号化と復号化を経ない輝度データQY1と経た輝度データRYとの間で生じる誤差のため、静止画部分が動画として判定される可能性がある。
The luminance data QY1 has not undergone encoding and decoding processing, the luminance data QY2 has undergone encoding and decoding processing, and the luminance data QY1 and QY2 are different in this respect. For example, when the encoding method is lossy encoding in which the luminance data DY before encoding and the luminance data QY2 after decoding do not completely match, an error occurs between the luminance data DY and QY2.
The comparison determination unit 10 performs moving image still image determination based on the difference in luminance data between two consecutive frames, and operates to control the correction amount of the contour correction unit 5.
If the comparison / determination process in the comparison / determination unit 10 is performed based on the luminance data RY that has been encoded and decoded and the luminance data QY1 that has not been encoded, the encoding / decoding is performed even for a still image. Due to an error that occurs between the luminance data QY1 that has not passed through and the luminance data RY that has passed through, the still image portion may be determined as a moving image.

一方、符号化した輝度データRYとQY2に基づいて比較判定処理を行った場合は、輝度データRYとQY2が入力の輝度データに対して同様に誤差を生じるため、静止画の場合にはRYとQY2に生じる誤差が等しくなるため相殺され、より正確な判定を行うことができる。また、符号化、復号化を経ない輝度データQY1に対して輪郭補正処理が実施されるので、画質を向上することができる。   On the other hand, when the comparison determination process is performed based on the encoded luminance data RY and QY2, the luminance data RY and QY2 similarly cause an error with respect to the input luminance data. Since errors occurring in QY2 are equal, they are canceled out, and a more accurate determination can be made. In addition, since the contour correction process is performed on the luminance data QY1 that has not been encoded and decoded, the image quality can be improved.

実施の形態8.
図42は、実施の形態8におけるフレームメモリ制御部11の構成を示すブロック図である。これは、図24に示される画像処理装置2におけるフレームメモリ制御部11の別の構成を示している。
図42に示されるフレームメモリ制御部11は、図36に示した構成に対して、さらにバッファ62と復号化部63を備えて、連続する3フレーム分の輝度データQY、RY、SYを出力できるようにしたものである。
Embodiment 8 FIG.
FIG. 42 is a block diagram illustrating a configuration of the frame memory control unit 11 according to the eighth embodiment. This shows another configuration of the frame memory control unit 11 in the image processing apparatus 2 shown in FIG.
The frame memory control unit 11 shown in FIG. 42 includes a buffer 62 and a decoding unit 63 in addition to the configuration shown in FIG. 36, and can output luminance data QY, RY, and SY for three consecutive frames. It is what I did.

書き込み制御部14の動作と、出力同期信号生成部7で生成される同期信号QSについては、実施の形態6において説明した内容と同様であるので、詳しい動作の説明は省略する。   Since the operation of the write control unit 14 and the synchronization signal QS generated by the output synchronization signal generation unit 7 are the same as those described in the sixth embodiment, detailed description of the operation is omitted.

読み出しアドレス制御部61は、出力同期信号生成部7により出力される同期信号QSに基づいて、フレームメモリ13に書き込まれた符号化輝度データEYおよび色差データDCr、DCbを読み出すための読み出しアドレスRAを発生する。
フレームメモリ13は、読み出しアドレスRAに基づいて読み出されるデータRDをバッファ54、55、56、62に出力する。バッファ54、55は色差データQCr、QCbを出力する。また、バッファ56は、輝度データQY、すなわち入力の輝度データDYよりも1フレーム遅延した符号化輝度データEY1を復号化部60に出力する。バッファ62は輝度データQYより2フレーム遅延した符号化輝度データEY2を復号化部63に出力する。復号化部60は符号化輝度データEY1を復号することにより、輝度データRYを出力し、復号化部63は符号化輝度データEY2を復号化することにより復号化された輝度データSYを出力する。ここで、輝度データRYは輝度データQYよりも1フレーム遅延しており、輝度データSYは輝度データQYよりも2フレーム遅延している。
輝度データQY、色差データQCr、QCbは輪郭補正部5に入力され、輝度データQY、RYおよびSYは比較判定部10に入力される。
Based on the synchronization signal QS output from the output synchronization signal generation unit 7, the read address control unit 61 sets a read address RA for reading the encoded luminance data EY and the color difference data DCr and DCb written in the frame memory 13. appear.
The frame memory 13 outputs data RD read based on the read address RA to the buffers 54, 55, 56, and 62. The buffers 54 and 55 output the color difference data QCr and QCb. Further, the buffer 56 outputs the luminance data QY, that is, the encoded luminance data EY1 delayed by one frame from the input luminance data DY to the decoding unit 60. The buffer 62 outputs the encoded luminance data EY2 delayed by two frames from the luminance data QY to the decoding unit 63. The decoding unit 60 outputs luminance data RY by decoding the encoded luminance data EY1, and the decoding unit 63 outputs decoded luminance data SY by decoding the encoded luminance data EY2. Here, the luminance data RY is delayed by one frame from the luminance data QY, and the luminance data SY is delayed by two frames from the luminance data QY.
Luminance data QY and color difference data QCr, QCb are input to the contour correction unit 5, and luminance data QY, RY, and SY are input to the comparison determination unit 10.

これまでの説明と同様に、フレームメモリ制御部11は、kライン分の遅延が発生した輪郭補正後の輝度データZYaと色差データQCr,QCbとが同期して変換部6に入力されるよう、色差データQCr,QCbをkライン分遅延して出力する。具体的には、フレームメモリ制御部11の読出しアドレス制御部24において、色差データQCr,QCbが輝度データQY(すなわち、入力輝度データDY)に対し、kライン分遅れて読み出されるよう読み出しアドレスRAを生成する。   Similarly to the description so far, the frame memory control unit 11 is configured so that the brightness data ZYa after contour correction in which a delay of k lines has occurred and the color difference data QCr and QCb are input to the conversion unit 6 in synchronization. The color difference data QCr and QCb are delayed by k lines and output. Specifically, the read address control unit 24 of the frame memory control unit 11 sets the read address RA so that the color difference data QCr and QCb are read with a delay of k lines with respect to the luminance data QY (that is, the input luminance data DY). Generate.

図43は、フレームメモリ制御部11に入力される輝度データDY、色差データDCrおよびDCb、フレームメモリ制御部から1ライン周期で出力される輝度データSY、RY、QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図43において、DShとQShは1ライン期間を示しており、出力の水平同期信号QShは入力水平同期信号QShに同期している。図43に示すように、色差データQCr,Qcbは、輝度データQYに対し、輪郭補正部5において輪郭補正処理を行うのに必要なライン期間kだけ遅延して読み出される。入力の輝度データDYと、出力の輝度データQY、RY、SYは同じライン位置nを示すのに対して、出力の色差データQCrとQCbはライン位置n−kとなる。   43 shows luminance data DY, color difference data DCr and DCb input to the frame memory control unit 11, luminance data SY, RY, QY and color difference data QCr, QCb output from the frame memory control unit in one line cycle, and It is a figure which shows the brightness | luminance data ZYa after the outline correction | amendment output from the vertical outline correction | amendment part 12. FIG. In FIG. 43, DSh and QSh indicate one line period, and the output horizontal synchronization signal QSh is synchronized with the input horizontal synchronization signal QSh. As shown in FIG. 43, the color difference data QCr and Qcb are read out with a delay of the line period k necessary for the contour correcting unit 5 to perform the contour correcting process with respect to the luminance data QY. The input luminance data DY and the output luminance data QY, RY, and SY indicate the same line position n, whereas the output color difference data QCr and QCb are line positions nk.

図44は、フレームメモリ制御部11から1フレーム周期で出力される輝度データSY、RY、QYおよび色差データQCr,QCb、ならびに垂直輪郭補正部12から出力される輪郭補正後の輝度データZYaを示す図である。図44において、DSvおよびQSvは1フレーム期間を示しており、出力垂直同期QSvは入力垂直同期DSvと同期している。図44に示すように、輝度データRYは、輝度データQYに対し1フレーム期間遅延して読み出され、輝度データSYは輝度データQYに対して2フレーム期間遅延して読み出される。   FIG. 44 shows luminance data SY, RY, QY and color difference data QCr, QCb output from the frame memory control unit 11 in one frame period, and luminance data ZYa after contour correction output from the vertical contour correction unit 12. FIG. In FIG. 44, DSv and QSv indicate one frame period, and the output vertical synchronization QSv is synchronized with the input vertical synchronization DSv. As shown in FIG. 44, the luminance data RY is read with a delay of one frame period with respect to the luminance data QY, and the luminance data SY is read with a delay of two frame periods with respect to the luminance data QY.

比較判定部10は、入力された輝度データQY、1フレーム前の輝度データRY、2フレーム前の輝度データSYに基づいて、フリッカの有無を検出して、フリッカ発生領域において輪郭補正量を抑制するように働く画像処理調整係数QFGを発生し、画像処理調整係数QFGは輪郭補正部5に入力される。   The comparison determination unit 10 detects the presence / absence of flicker based on the input luminance data QY, luminance data RY one frame before, and luminance data SY two frames before, and suppresses the contour correction amount in the flicker occurrence region. The image processing adjustment coefficient QFG that works as described above is generated, and the image processing adjustment coefficient QFG is input to the contour correction unit 5.

図45は実施の形態8における比較判定部10の内部構成を示すブロック図である。図45に示す比較判定部10は、動画静止画判定部43、フリッカ判定部44、係数補正部45から構成される。動画静止画判定部43は、輝度データQY、および1フレーム前の輝度データRYから得られるフレーム間輝度差|QY−RY|に基づいて、画像処理調整係数QFを生成し、係数補正部45に出力する。また、動画静止画判定部43は、フレーム間輝度差|QY−RY|が所定値を越えた場合、動画検出フラグH=1を出力する。反対に、フレーム間輝度差|QY−RY|が所定値以下の場合、輝度データQYが静止画領域を表すことを示す動画検出フラグH=0を出力する。動画検出フラグHはフリッカ判定部44に送られる。
なお、静止画判定部43により出力される画像処理調整係数QFとフレーム間輝度差|QY−RY|との関係は、図7に示すものと同様である。
FIG. 45 is a block diagram illustrating an internal configuration of the comparison / determination unit 10 according to the eighth embodiment. The comparison determination unit 10 illustrated in FIG. 45 includes a moving image still image determination unit 43, a flicker determination unit 44, and a coefficient correction unit 45. The moving image still image determination unit 43 generates an image processing adjustment coefficient QF based on the luminance data QY and the inter-frame luminance difference | QY−RY | obtained from the luminance data RY one frame before, and supplies the coefficient correction unit 45 with the image processing adjustment coefficient QF. Output. The moving image still image determination unit 43 outputs a moving image detection flag H = 1 when the inter-frame luminance difference | QY−RY | exceeds a predetermined value. On the other hand, when the inter-frame luminance difference | QY−RY | is equal to or smaller than a predetermined value, a moving image detection flag H = 0 indicating that the luminance data QY represents a still image area is output. The moving image detection flag H is sent to the flicker determination unit 44.
The relationship between the image processing adjustment coefficient QF output from the still image determination unit 43 and the inter-frame luminance difference | QY−RY | is the same as that shown in FIG.

フリッカ判定部44は、輝度データQYと、2フレーム前の輝度データSYとの差分を画素毎に算出することにより、3フレーム間の輝度変化を示すフレーム間輝度差|QY−SY|を求める。フリッカ判定部33は、フレーム間輝度差|QY−SY|、および動画検出フラグHに基づいて輝度データQYに含まれるフリッカ成分を検出し、フリッカ調整係数QGを生成する。   The flicker determination unit 44 calculates a difference between the luminance data QY and the luminance data SY two frames before for each pixel, thereby obtaining an inter-frame luminance difference | QY−SY | indicating a luminance change between the three frames. The flicker determination unit 33 detects a flicker component included in the luminance data QY based on the inter-frame luminance difference | QY−SY | and the moving image detection flag H, and generates a flicker adjustment coefficient QG.

図46は、フリッカ判定部44におけるフリッカの検出方法について説明するための図である。図46(a)は、輝度データQYが動画領域を表す場合の輝度データRY,QY,SYの変化を示している。輝度データQYが動画像領域を表す場合、図46(a)に示すように、2つのフレーム間輝度差|QY−RY|,|QY−SY|はともに大きな値となる。図29(b)は、輝度データQYにフリッカ成分を含む場合の輝度データRY,QY,SYの変化を示している。輝度データQYがフリッカ成分を含む場合、フレーム間輝度差|QY−RY|は大きな値となるのに対し、フレーム間輝度差|QY−SY|は0または非常に小さい値となる。ここで、フレーム間輝度差|QY−RY|が所定値を越える場合、動画検出フラグはH=1となるので、動画検出フラグH=1であり、かつフレーム間輝度差|QY-RY|が0または非常に小さい値となった場合、輝度データQYはフリッカ成分を含むと判別される。   FIG. 46 is a diagram for explaining a flicker detection method in the flicker determination unit 44. FIG. 46A shows changes in the luminance data RY, QY, SY when the luminance data QY represents a moving image area. When the luminance data QY represents a moving image area, the two inter-frame luminance differences | QY−RY | and | QY−SY | are both large values as shown in FIG. FIG. 29B shows changes in the luminance data RY, QY, SY when the luminance data QY includes a flicker component. When the luminance data QY includes a flicker component, the inter-frame luminance difference | QY−RY | is a large value, whereas the inter-frame luminance difference | QY−SY | is 0 or a very small value. Here, when the inter-frame luminance difference | QY−RY | exceeds a predetermined value, the moving image detection flag is H = 1, so that the moving image detection flag H = 1 and the inter-frame luminance difference | QY−RY | When the value is 0 or a very small value, it is determined that the luminance data QY includes a flicker component.

フリッカ判定部44は、動画静止画判定部43から出力される動画検出フラグHの値、およびフレーム間輝度差|QY−SY|の大きさに基づいて輝度データQYがフリッカを含むか判別するとともに、判別結果に基づいてフリッカ調整係数QGを出力する。動画検出フラグH=0の場合、すなわち輝度データQYが静止画領域を表す場合、フリッカ判定部44はフリッカ調整係数QGを1として出力する。反対に、動画検出フラグH=1の場合、すなわち輝度データQYが動画領域を表す場合、フリッカ検出部44は、フレーム間輝度差|QY−SY|の大きさに基づいてフリッカ調整係数QGを出力する。   The flicker determination unit 44 determines whether the luminance data QY includes flicker based on the value of the moving image detection flag H output from the moving image still image determination unit 43 and the magnitude of the inter-frame luminance difference | QY−SY |. The flicker adjustment coefficient QG is output based on the determination result. When the moving image detection flag H = 0, that is, when the luminance data QY represents a still image region, the flicker determination unit 44 outputs the flicker adjustment coefficient QG as 1. Conversely, when the moving image detection flag H = 1, that is, when the luminance data QY represents a moving image region, the flicker detection unit 44 outputs the flicker adjustment coefficient QG based on the magnitude of the inter-frame luminance difference | QY−SY |. To do.

図47は、フリッカ調整係数QGとフレーム間輝度差|QY−SY|との関係を示す図である。図30において、横軸はフレーム間輝度差|QY−SY|の逆数であり、縦軸はフリッカ調整係数QGの大きさを示す。また、図47において、フレーム間輝度差|QY−SY|の逆数が小さい領域A(|QY−SY|が大きい領域)を動画領域、フレーム間輝度差|QY−SY|の逆数が大きい領域C(|QY−SY|が小さい領域)をフリッカ発生領域とし、動画領域とフリッカ発生領域との間の中間領域を領域Bとする。
図47に示すように、フリッカ調整係数QGは、動画領域(領域A)において大きな値となり(QG=QGm)、フリッカ発生領域(領域C)において小さな値となる(QG=QGf)。また、中間領域(領域B)においては、動画領域およびフリッカ発生領域におけるフリッカ調整係数Qf,Qmの中間の値となる(QGf<QF<QGf)。
係数補正部45は、動画静止画判定部43により出力される画像処理調整係数QFと、フリッカ判定部44により出力されるフリッカ調整係数QGとを積算し、新たな画像処理調整係数QFGを生成する。
FIG. 47 is a diagram showing the relationship between the flicker adjustment coefficient QG and the inter-frame luminance difference | QY−SY |. In FIG. 30, the horizontal axis represents the reciprocal of the inter-frame luminance difference | QY-SY |, and the vertical axis represents the magnitude of the flicker adjustment coefficient QG. In FIG. 47, a region A in which the reciprocal of the inter-frame luminance difference | QY−SY | is small (region where | QY−SY | is large) is a moving image region, and a region C in which the reciprocal of the inter-frame luminance difference | QY−SY | (A region where | QY−SY | is small) is a flicker generation region, and an intermediate region between the moving image region and the flicker generation region is a region B.
As shown in FIG. 47, the flicker adjustment coefficient QG has a large value (QG = QGm) in the moving image region (region A) and a small value (QG = QGf) in the flicker generation region (region C). In the intermediate area (area B), the flicker adjustment coefficients Qf and Qm are intermediate between the moving image area and the flicker occurrence area (QGf <QF <QGf).
The coefficient correction unit 45 integrates the image processing adjustment coefficient QF output from the moving image still image determination unit 43 and the flicker adjustment coefficient QG output from the flicker determination unit 44 to generate a new image processing adjustment coefficient QFG. .

輝度データQYが静止画領域を表す場合(動画検出フラグがH=0となる場合)、フリッカ調整係数はQG=1となるので、画像処理調整係数QFGは、図7に示す領域A(静止画領域)における画像処理調整係数QF=QFsの値と等しくなる。
フレーム間輝度差|QY-RY|が所定値を越える場合(動画検出フラグがH=1となる場合)、図7に示すように、画像処理調整係数QFは領域B(動画領域)におけるQFmとなる(QFm>QFs)。一方、フリッカ調整係数QGは図47に示すように、フリッカ発生領域(領域C)において小さく、動画領域(領域A)において大きくなる。このため、フリッカ発生領域における画像処理調整係数QFCは、図7に示す領域C(動画領域)における画像処理調整係数QF=QFmを小さくした値となり、領域A(動画領域)における画像処理調整係数QFCは上記画像処理調整係数QF=QFmと等しいか、またはこれよりも大きな値となる。
When the luminance data QY represents a still image area (when the moving image detection flag is H = 0), the flicker adjustment coefficient is QG = 1, so that the image processing adjustment coefficient QFG is the area A (still image shown in FIG. Image processing adjustment coefficient QF = QFs in the region).
When the inter-frame luminance difference | QY−RY | exceeds a predetermined value (when the moving image detection flag is H = 1), as shown in FIG. 7, the image processing adjustment coefficient QF is QFm in the region B (moving region). (QFm> QFs). On the other hand, the flicker adjustment coefficient QG is small in the flicker occurrence region (region C) and large in the moving image region (region A) as shown in FIG. Therefore, the image processing adjustment coefficient QFC in the flicker occurrence area is a value obtained by reducing the image processing adjustment coefficient QF = QFm in the area C (moving area) shown in FIG. 7, and the image processing adjustment coefficient QFC in the area A (moving area). Is equal to or larger than the image processing adjustment coefficient QF = QFm.

図31は、フリッカの有無による輪郭補正量の差を示す図である。図31(a)(b)(c)は、輝度データQYa、変換倍率Z、輪郭補正後の輝度データZYaをそれぞれ示している。図31(b)において、実線は動画像領域における変換倍率Zを示し、破線はフリッカ発生領域における変換倍率Zを示している。また、図31(c)において、実線は動画領域における輪郭補正後の輝度データZYaを示し、破線はフリッカ発生領域における輪郭補正後の輝度データZYaを示している。
フリッカ発生領域においては、倍率制御量ZCに積算される画像処理調整係数QFGの値がフリッカを含まない動画領域に比して小さいため、図31(b)に示すように変換倍率Zの振幅はフリッカ発生領域において小さくなる。このため、図31(c)に示すように、フリッカ発生領域における輪郭補正後の輝度データZYaの輪郭幅Wbは、フリッカを含まない動画領域における輪郭幅Wcよりも広くなり、鮮鋭度が低くなる。つまり、フリッカ発生領域において、輪郭部の鮮鋭度を高めることによりフリッカが強調されるのを防ぐことができる。
FIG. 31 is a diagram showing a difference in contour correction amount depending on the presence or absence of flicker. FIGS. 31A, 31B, and 31C show luminance data QYa, conversion magnification Z, and luminance data ZYa after contour correction. In FIG. 31B, the solid line indicates the conversion magnification Z in the moving image area, and the broken line indicates the conversion magnification Z in the flicker occurrence area. In FIG. 31C, the solid line indicates the luminance data ZYa after contour correction in the moving image region, and the broken line indicates the luminance data ZYa after contour correction in the flicker occurrence region.
In the flicker occurrence region, the value of the image processing adjustment coefficient QFG integrated with the magnification control amount ZC is smaller than that of the moving image region not including flicker. Therefore, as shown in FIG. It becomes smaller in the flicker occurrence area. For this reason, as shown in FIG. 31C, the contour width Wb of the luminance data ZYa after contour correction in the flicker occurrence region is wider than the contour width Wc in the moving image region not including flicker, and the sharpness is lowered. . That is, in the flicker occurrence region, it is possible to prevent the flicker from being emphasized by increasing the sharpness of the contour portion.

以上のように、本実施の形態に係る画像処理装置によれば、フレーム間輝度差|QY-RY|,|QY−SY|に基づいてフリッカを検出し、フリッカ発生領域における輪郭補正量を抑制するので、フリッカ成分を強調することなく動画像領域の鮮鋭度を高めることができる。   As described above, according to the image processing apparatus according to the present embodiment, flicker is detected based on the inter-frame luminance difference | QY-RY |, | QY-SY |, and the contour correction amount in the flicker occurrence region is suppressed. Therefore, the sharpness of the moving image region can be increased without enhancing the flicker component.

さらに、 フレームメモリ制御部11が、符号化された輝度データEYおよび色差データDCr、DCbをフレームメモリ13に書き込み、入力の輝度データDY(=QY)に対して輪郭補正処理を行い、色差データQCr、QCbについては輪郭補正処理に必要なライン数分だけ遅延して読み出すことで、色差データのタイミング調整に必要なラインメモリを削減することができる。
さらに、輝度データDYを符号化してから、符号化された輝度データEYをフレームメモリ13に書き込み、フレームメモリ13から符号化された輝度データEY1を読み出した後で復号化するので、符号化された輝度データの符号化率(データ圧縮率)を高くするほど、符号化された輝度データEYを格納するフレームメモリ13の容量を削減できるとともに、フレームメモリ13とフレームメモリ制御部11の間のバス帯域を節約することができる。
Further, the frame memory control unit 11 writes the encoded luminance data EY and color difference data DCr and DCb to the frame memory 13, performs contour correction processing on the input luminance data DY (= QY), and performs color difference data QCr. , QCb can be read out with a delay corresponding to the number of lines necessary for the contour correction process, thereby reducing the line memory required for timing adjustment of the color difference data.
Furthermore, after the luminance data DY is encoded, the encoded luminance data EY is written into the frame memory 13, and the encoded luminance data EY1 is read out from the frame memory 13 and then decoded. As the coding rate (data compression rate) of the luminance data is increased, the capacity of the frame memory 13 for storing the coded luminance data EY can be reduced, and the bus bandwidth between the frame memory 13 and the frame memory control unit 11 is reduced. Can be saved.

輪郭補正部5は、画像処理調整係数QFGに基づいて、輝度データQYに対して輪郭補正処理を行って、輪郭補正された輝度データZYaを出力する。
比較判定部10と輪郭補正部5の動作は、実施の形態3、実施の形態1ですでに説明済みであるので、ここでは詳しい説明を省略する。
The contour correction unit 5 performs contour correction processing on the luminance data QY based on the image processing adjustment coefficient QFG, and outputs contour corrected luminance data ZYa.
Since the operations of the comparison determination unit 10 and the contour correction unit 5 have already been described in the third embodiment and the first embodiment, detailed description thereof is omitted here.

本発明に係る画像処理装置の一実施形態を示すブロック図である。1 is a block diagram showing an embodiment of an image processing apparatus according to the present invention. 画像処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image process part. フレームメモリ制御部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a frame memory control part. フレームメモリの読み出しタイミングを示す図である。It is a figure which shows the read-out timing of a frame memory. フレームメモリの読み出しタイミングを示す図である。It is a figure which shows the read-out timing of a frame memory. 画像処理調整係数の特性の一例を示す図である。It is a figure which shows an example of the characteristic of an image processing adjustment coefficient. 画像処理調整係数の特性の一例を示す図である。It is a figure which shows an example of the characteristic of an image processing adjustment coefficient. 動画像の一例を示す図である。It is a figure which shows an example of a moving image. 垂直輪郭補正部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a vertical outline correction | amendment part. ライン遅延の動作を示す図である。It is a figure which shows the operation | movement of a line delay. 輪郭幅補正処理について説明するための図である。It is a figure for demonstrating an outline width correction process. 動画領域、および静止画領域における輪郭幅補正処理について説明するための図である。It is a figure for demonstrating the outline width correction process in a moving image area | region and a still image area | region. 垂直輪郭補正部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a vertical outline correction | amendment part. ライン遅延の動作を示す図である。It is a figure which shows the operation | movement of a line delay. 輪郭強調処理について説明するための図である。It is a figure for demonstrating an outline emphasis process. 垂直輪郭補正部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a vertical outline correction | amendment part. 画像処理調整係数の特性の一例を示す図である。It is a figure which shows an example of the characteristic of an image processing adjustment coefficient. 画像処理調整係数の特性の一例を示す図である。It is a figure which shows an example of the characteristic of an image processing adjustment coefficient. 輪郭補正処理について説明するための図である。It is a figure for demonstrating an outline correction process. 画像処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image process part. 水平輪郭補正部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a horizontal outline correction | amendment part. 画素遅延の動作を示す図である。It is a figure which shows the operation | movement of a pixel delay. 画素遅延の動作を示す図である。It is a figure which shows the operation | movement of a pixel delay. 画像処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of an image process part. フレームメモリ制御部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a frame memory control part. フレームメモリの読み出しタイミングを示す図である。It is a figure which shows the read-out timing of a frame memory. フレームメモリの読み出しタイミングを示す図である。It is a figure which shows the read-out timing of a frame memory. 比較判定部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of a comparison determination part. フリッカの検出方法について説明するための図である。It is a figure for demonstrating the detection method of a flicker. フリッカ調整係数の特性を示す図である。It is a figure which shows the characteristic of a flicker adjustment coefficient. 動画領域、およびフリッカ発生領域における輪郭補正処理について説明するための図である。It is a figure for demonstrating the outline correction process in a moving image area | region and a flicker generation | occurrence | production area | region. 本発明の実施の形態4におけるフレームメモリ制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the frame memory control part in Embodiment 4 of this invention. 本発明の実施の形態4におけるフレームメモリ制御部の別の構成を示すブロック図である。It is a block diagram which shows another structure of the frame memory control part in Embodiment 4 of this invention. 本発明の実施の形態5におけるフレームメモリ制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the frame memory control part in Embodiment 5 of this invention. 本発明の実施の形態5におけるフレームメモリ制御部の別の構成を示すブロック図である。It is a block diagram which shows another structure of the frame memory control part in Embodiment 5 of this invention. 本発明の実施の形態6におけるフレームメモリ制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the frame memory control part in Embodiment 6 of this invention. フレームメモリの書き込み、読み出しタイミングを示す図である。It is a figure which shows the write-in / read-out timing of a frame memory. フレームメモリの書き込み、読み出しタイミングを示す図である。It is a figure which shows the write-in / read-out timing of a frame memory. 本発明の実施の形態6におけるフレームメモリ制御部の別の構成を示すブロック図である。It is a block diagram which shows another structure of the frame memory control part in Embodiment 6 of this invention. 本発明の実施の形態7における画像処理部の構成を示すブロック図である。It is a block diagram which shows the structure of the image process part in Embodiment 7 of this invention. 本発明の実施の形態7におけるフレームメモリ制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the frame memory control part in Embodiment 7 of this invention. 本発明の実施の形態8におけるフレームメモリ制御部の構成を示すブロック図である。It is a block diagram which shows the structure of the frame memory control part in Embodiment 8 of this invention. フレームメモリの書き込み、読み出しタイミングを示す図である。It is a figure which shows the write-in / read-out timing of a frame memory. フレームメモリの書き込み、読み出しタイミングを示す図である。It is a figure which shows the write-in / read-out timing of a frame memory. 実施の形態8における比較判定部の内部構成を示すブロック図である。FIG. 20 is a block diagram illustrating an internal configuration of a comparison / determination unit according to Embodiment 8. フリッカの検出方法について説明するための図である。It is a figure for demonstrating the detection method of a flicker. フリッカ調整係数の特性を示す図である。It is a figure which shows the characteristic of a flicker adjustment coefficient.

符号の説明Explanation of symbols

1 受信部、 2 画像処理部、 3 変換部、 4 記憶部、 5 輪郭補正部、 6 変換部、 7 出力同期信号生成部、 8 送信部、 9 表示部、 10 比較判定部、 11 フレームメモリ制御部、 12 垂直輪郭補正部、 13 フレームメモリ、 46〜48 符号化部、 49〜51 バッファ、 52 書き込みアドレス制御部、 53〜56 バッファ、 57〜60 復号化部、 61 読み出しアドレス制御部、 62 バッファ、 63 復号化部。
DESCRIPTION OF SYMBOLS 1 Reception part, 2 Image processing part, 3 Conversion part, 4 Storage part, 5 Contour correction part, 6 Conversion part, 7 Output synchronous signal generation part, 8 Transmission part, 9 Display part, 10 Comparison determination part, 11 Frame memory control Unit, 12 vertical contour correction unit, 13 frame memory, 46 to 48 encoding unit, 49 to 51 buffer, 52 write address control unit, 53 to 56 buffer, 57 to 60 decoding unit, 61 read address control unit, 62 buffer 63 Decoding unit.

Claims (13)

入力画像の輪郭部を補正する画像処理装置であって、
上記入力画像における輪郭部の輪郭幅を検出し、当該輪郭幅に基づいて、上記入力画像の輪郭部を補正する補間画素の補間倍率を画素毎に指定する倍率制御量を生成する倍率制御量生成手段と、
上記入力画像と当該入力画像の1フレーム前の画像との変化量を画素毎に求める比較手段と、
当該変化量に応じて上記倍率制御量を調整して変換倍率を生成する倍率生成手段と、
上記変換倍率を用いた補間演算により上記補間画素の画素データを算出し、輪郭部が補正された画像データを出力する補間演算手段と
を備えたことを特徴とする画像処理装置。
An image processing apparatus for correcting a contour portion of an input image,
Magnification control amount generation that detects the contour width of the contour portion in the input image and generates a magnification control amount that specifies the interpolation magnification of the interpolation pixel for correcting the contour portion of the input image for each pixel based on the contour width Means,
A comparison means for obtaining, for each pixel, the amount of change between the input image and the image one frame before the input image;
A magnification generation means for adjusting the magnification control amount according to the amount of change and generating a conversion magnification;
An image processing apparatus comprising: interpolation calculation means for calculating pixel data of the interpolation pixel by interpolation calculation using the conversion magnification and outputting image data in which a contour portion is corrected.
上記比較手段は、
入力画像データを符号化する符号化手段と、
符号化された画像データを遅延させるメモリ手段と、
メモリ手段から読み出した符号化された画像データを復号化する復号化手段、
を備えた
ことを特徴とする請求項1に記載の画像処理装置。
The comparison means is
Encoding means for encoding input image data;
Memory means for delaying the encoded image data;
Decoding means for decoding encoded image data read from the memory means;
The image processing apparatus according to claim 1, further comprising:
上記倍率制御量生成手段は、輪郭前部において正、輪郭中央部において負、輪郭後部において正となり、全体の総和が0となるよう上記倍率制御量を生成し、当該倍率制御量を画像データの拡大または縮小率を示す基準変換倍率に重畳して変換倍率を生成することを特徴とする請求項1又は2に記載の画像処理装置。   The magnification control amount generation means generates the magnification control amount so that the sum of the image data is positive at the front of the contour, negative at the center of the contour, and positive at the rear of the contour, and the total sum is 0. The image processing apparatus according to claim 1, wherein the conversion magnification is generated by being superimposed on a reference conversion magnification that indicates an enlargement or reduction ratio. 上記輪郭部が補正された画像データの高域成分を検出し、検出された高域成分に基づいて上記画像データの輪郭部を強調するための強調量を算出する強調量算出手段と、
上記輪郭部を補正した画像データに上記強調量を付加することにより、上記画像データの輪郭部を強調する輪郭強調手段と
をさらに備えることを特徴とする請求項1〜3のいずれかに記載の画像処理装置。
An enhancement amount calculating means for detecting a high frequency component of the image data in which the contour portion is corrected, and calculating an enhancement amount for enhancing the contour portion of the image data based on the detected high frequency component;
The image processing apparatus according to any one of claims 1 to 3, further comprising contour enhancement means for enhancing the contour portion of the image data by adding the enhancement amount to the image data obtained by correcting the contour portion. Image processing device.
上記強調量を、上記入力画像と当該入力画像の1フレーム前の画像との変化量に基づいて調整することを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the enhancement amount is adjusted based on a change amount between the input image and an image one frame before the input image. 上記入力画像と当該入力画像の前後のフレームの画像との変化量を求め、当該変化量に基づいて上記入力画像に含まれるフリッカ発生領域を検出するフリッカ判定手段をさらに備え、
上記フリッカ発生領域において上記倍率制御量を制限することを特徴とする請求項1〜5のいずれかに記載の画像処理装置。
Flicker determination means for obtaining a change amount between the input image and an image of a frame before and after the input image and detecting a flicker occurrence area included in the input image based on the change amount;
6. The image processing apparatus according to claim 1, wherein the magnification control amount is limited in the flicker occurrence region.
請求項1〜6のいずれかに記載の画像処理装置を備えたことを特徴とする画像表示装置。   An image display device comprising the image processing device according to claim 1. 入力画像の輪郭部を補正する画像処理方法であって、
上記入力画像における輪郭部の輪郭幅を検出し、当該輪郭幅に基づいて、上記入力画像の輪郭部を補正する補間画素の補間倍率を画素毎に指定する倍率制御量を生成する工程と、
上記入力画像と当該入力画像の1フレーム前の画像との変化量を画素毎に求める比較工程と、
当該変化量に応じて上記倍率制御量を調整して変換倍率を生成する工程と、
上記変換倍率を用いた補間演算により上記補間画素の画素データを算出し、輪郭部が補正された画像データを出力する工程と
を備えたことを特徴とする画像処理方法。
An image processing method for correcting a contour portion of an input image,
Detecting a contour width of a contour portion in the input image, and generating a magnification control amount for designating, for each pixel, an interpolation magnification of an interpolation pixel for correcting the contour portion of the input image based on the contour width;
A comparison step for obtaining, for each pixel, a change amount between the input image and an image one frame before the input image;
Adjusting the magnification control amount according to the amount of change and generating a conversion magnification;
An image processing method comprising: calculating pixel data of the interpolated pixel by an interpolation operation using the conversion magnification and outputting image data in which a contour portion is corrected.
上記比較工程は、
入力画像データを符号化する工程と、
符号化された画像データを遅延する工程と、
遅延された符号化された画像データを復号化する工程と
を備えたことを特徴とする請求項8に記載の画像処理方法。
The comparison process is
Encoding input image data;
Delaying the encoded image data;
The image processing method according to claim 8, further comprising a step of decoding the delayed encoded image data.
上記倍率制御量を、輪郭前部において正、輪郭中央部において負、輪郭後部において正となり、全体の総和が0となるよう生成し、当該倍率制御量を画像データの拡大または縮小率を示す基準変換倍率に重畳して変換倍率を生成することを特徴とする請求項8又は9に記載の画像処理方法。   The magnification control amount is generated so that the front of the contour is positive, negative at the center of the contour, positive at the rear of the contour, and the total sum is 0. 10. The image processing method according to claim 8, wherein the conversion magnification is generated by superimposing the conversion magnification. 上記輪郭部が補正された画像データの高域成分を検出し、検出された高域成分に基づいて上記画像データの輪郭部を強調するための強調量を算出する工程と、
上記輪郭部を補正した画像データに上記強調量を付加することにより、上記画像データの輪郭部を強調する工程と
をさらに備えることを特徴とする請求項8〜10のいずれかに記載の画像処理方法。
Detecting a high frequency component of the image data in which the contour portion is corrected, and calculating an enhancement amount for enhancing the contour portion of the image data based on the detected high frequency component;
The image processing according to claim 8, further comprising: a step of enhancing the contour portion of the image data by adding the enhancement amount to the image data obtained by correcting the contour portion. Method.
上記強調量を、上記入力画像と当該入力画像の1フレーム前の画像との変化量に基づいて調整することを特徴とする請求項11に記載の画像処理方法。   The image processing method according to claim 11, wherein the enhancement amount is adjusted based on a change amount between the input image and an image one frame before the input image. 上記入力画像と当該入力画像の前後のフレームの画像との変化量を求め、当該変化量に基づいて上記入力画像に含まれるフリッカ発生領域を検出する工程をさらに備え、
上記フリッカ発生領域において上記倍率制御量を制限する
ことを特徴とする請求項8〜12のいずれかに記載の画像処理方法。
A step of obtaining a change amount between the input image and an image of a frame before and after the input image, and detecting a flicker occurrence region included in the input image based on the change amount;
The image processing method according to claim 8, wherein the magnification control amount is limited in the flicker occurrence region.
JP2005254276A 2005-02-18 2005-09-02 Image processing apparatus, image processing method, and image display apparatus Active JP3753731B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005254276A JP3753731B1 (en) 2005-02-18 2005-09-02 Image processing apparatus, image processing method, and image display apparatus
PCT/JP2005/020798 WO2006087849A1 (en) 2005-02-18 2005-11-14 Image processing device, image processing method, and image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005042687 2005-02-18
JP2005254276A JP3753731B1 (en) 2005-02-18 2005-09-02 Image processing apparatus, image processing method, and image display apparatus

Publications (2)

Publication Number Publication Date
JP3753731B1 JP3753731B1 (en) 2006-03-08
JP2006260520A true JP2006260520A (en) 2006-09-28

Family

ID=36113786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005254276A Active JP3753731B1 (en) 2005-02-18 2005-09-02 Image processing apparatus, image processing method, and image display apparatus

Country Status (2)

Country Link
JP (1) JP3753731B1 (en)
WO (1) WO2006087849A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090091636A1 (en) * 2007-06-15 2009-04-09 Jun Hirai Image signal processing apparatus, image signal processing method, camera apparatus, image display apparatus, and image signal output apparatus
JP2010268526A (en) * 2010-08-30 2010-11-25 Sony Corp Image processing apparatus and method, and program
WO2011099294A1 (en) * 2010-02-10 2011-08-18 パナソニック株式会社 Contour correction device and image display device
US8488009B2 (en) 2008-07-31 2013-07-16 Sony Corporation Image processing apparatus, image processing method, and program
JP2015064467A (en) * 2013-09-25 2015-04-09 セイコーエプソン株式会社 Image processing circuit, electro-optic device, image processing method, and electronic device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6960969B2 (en) * 2019-09-20 2021-11-05 Kddi株式会社 Image decoding device, image decoding method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000101870A (en) * 1998-09-22 2000-04-07 Toshiba Corp Digital signal processing circuit
JP2001045331A (en) * 1999-07-27 2001-02-16 Mitsubishi Electric Corp Waveform response improving circuit
JP3719389B2 (en) * 2001-03-06 2005-11-24 三菱電機株式会社 Image processing apparatus, image display apparatus, and image processing method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090091636A1 (en) * 2007-06-15 2009-04-09 Jun Hirai Image signal processing apparatus, image signal processing method, camera apparatus, image display apparatus, and image signal output apparatus
US8548272B2 (en) 2007-06-15 2013-10-01 Sony Corporation Image signal processing apparatus, image signal processing method, camera apparatus, image display apparatus, and image signal output apparatus
US8488009B2 (en) 2008-07-31 2013-07-16 Sony Corporation Image processing apparatus, image processing method, and program
WO2011099294A1 (en) * 2010-02-10 2011-08-18 パナソニック株式会社 Contour correction device and image display device
JP2010268526A (en) * 2010-08-30 2010-11-25 Sony Corp Image processing apparatus and method, and program
JP2015064467A (en) * 2013-09-25 2015-04-09 セイコーエプソン株式会社 Image processing circuit, electro-optic device, image processing method, and electronic device

Also Published As

Publication number Publication date
JP3753731B1 (en) 2006-03-08
WO2006087849A1 (en) 2006-08-24

Similar Documents

Publication Publication Date Title
JP4169768B2 (en) Image coding apparatus, image processing apparatus, image coding method, and image processing method
US8385422B2 (en) Image processing apparatus and image processing method
US7262818B2 (en) Video system with de-motion-blur processing
US7724307B2 (en) Method and system for noise reduction in digital video
US8194757B2 (en) Method and system for combining results of mosquito noise reduction and block noise reduction
JP3753731B1 (en) Image processing apparatus, image processing method, and image display apparatus
JP2022530340A (en) Display management of high dynamic range images
US20060171466A1 (en) Method and system for mosquito noise reduction
US6351545B1 (en) Motion picture enhancing system
KR101081074B1 (en) Method of down-sampling data values
KR101052102B1 (en) Image signal processing device
WO2006025121A1 (en) Image processing apparatus, image processing method and image displaying apparatus
JP4380498B2 (en) Block distortion reduction device
US8526506B1 (en) System and method for transcoding with quality enhancement
JP2017228898A (en) Image processing apparatus and image processing method, computer program
JP3853257B2 (en) Mosquito distortion reducing apparatus and mosquito distortion reducing method
JP5045119B2 (en) Color transient correction device
KR102216391B1 (en) Real-time video transmission system and method of video transmission using digital remastering technology
JP5790933B2 (en) Noise removal equipment, electronic equipment
JPH0951532A (en) Distortion removing device
JP2007028468A (en) Image processing apparatus and method
GB2554663A (en) Method of video generation
JP2004015708A (en) Dynamic range control device for image signal
WO2023009392A1 (en) Neural networks for dynamic range conversion and display management of images
JP4117290B2 (en) Image quality improving method and image quality improving apparatus

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051213

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 3753731

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091222

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101222

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111222

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121222

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131222

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250