JP4994407B2 - Image processing apparatus and method, and image display apparatus - Google Patents

Image processing apparatus and method, and image display apparatus Download PDF

Info

Publication number
JP4994407B2
JP4994407B2 JP2009066630A JP2009066630A JP4994407B2 JP 4994407 B2 JP4994407 B2 JP 4994407B2 JP 2009066630 A JP2009066630 A JP 2009066630A JP 2009066630 A JP2009066630 A JP 2009066630A JP 4994407 B2 JP4994407 B2 JP 4994407B2
Authority
JP
Japan
Prior art keywords
image
intermediate image
value
luminance
frequency component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009066630A
Other languages
Japanese (ja)
Other versions
JP2010220063A (en
Inventor
正太郎 守谷
悟崇 奥田
聡 山中
浩次 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2009066630A priority Critical patent/JP4994407B2/en
Priority to US12/810,448 priority patent/US8249379B2/en
Priority to CN200980151958.8A priority patent/CN102265305B/en
Priority to EP09834301A priority patent/EP2362347A4/en
Priority to PCT/JP2009/006356 priority patent/WO2010073485A1/en
Priority to EP12162488.6A priority patent/EP2472850B1/en
Publication of JP2010220063A publication Critical patent/JP2010220063A/en
Application granted granted Critical
Publication of JP4994407B2 publication Critical patent/JP4994407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、入力画像に対し強調処理する画像処理装置及び方法並びにこれらを用いた画像表示装置に関し、例えば入力画像として、元となる画像を拡大した拡大画像が入力された際に、高周波数成分の生成及び加算をすることによって、解像感の高い出力画像を得るよう画像の強調処理を行うものである。   The present invention relates to an image processing apparatus and method for emphasizing an input image, and an image display apparatus using the same. For example, when an enlarged image obtained by enlarging an original image is input as an input image, a high frequency component The image enhancement processing is performed so as to obtain an output image with high resolution by generating and adding.

一般に画像を表す画像信号に対し適宜画像処理を施した後、画像を再生表示するということが行われている。また、カラー画像に画像の強調処理を行う場合、輝度信号に画像強調処理を行っている。   In general, an image signal representing an image is appropriately subjected to image processing and then reproduced and displayed. In addition, when image enhancement processing is performed on a color image, image enhancement processing is performed on a luminance signal.

例えば特許文献1に記載された画像処理装置においては、多重解像度に変換された細部画像に対して、所望の周波数帯域の細部画像に対する強調係数をその所望の周波数帯域よりも低周波数帯域の細部画像の信号に基づいて設定することにより、所望の周波数帯域を強調している。   For example, in the image processing apparatus described in Patent Document 1, with respect to a detail image converted to multi-resolution, an enhancement coefficient for a detail image in a desired frequency band is set to a detail image in a lower frequency band than the desired frequency band. The desired frequency band is emphasized by setting based on the above signal.

さらに特許文献2に記載された鮮鋭度強調回路においては、入力した映像信号の輝度成分に対して、その輝度成分の最も高い高域の成分が含まれる周波数帯を中心として強調する第1の強調回路と、第1の強調回路よりも低い中心周波数で映像信号の輝度成分を強調する第2の強調回路を備えている。   Further, in the sharpness enhancement circuit described in Patent Document 2, the first enhancement that emphasizes the luminance component of the input video signal around the frequency band including the highest frequency component of the luminance component. And a second enhancement circuit that enhances the luminance component of the video signal at a lower center frequency than the first enhancement circuit.

特開平9−44651号公報JP-A-9-44651 特開2000−115582号公報JP 2000-115582 A

しかしながら、多重解像度に変換された細部画像に対して、所望の周波数帯域の細部画像に対する強調係数を適宜設定する画像処理装置では、入力画像によっては強調処理が不適切あるいは不十分となり、適正な画質の出力画像を得ることができないことがあった。   However, in an image processing apparatus that appropriately sets an enhancement coefficient for a detail image in a desired frequency band with respect to a detail image converted to multi-resolution, the enhancement processing is inappropriate or insufficient depending on the input image, and the appropriate image quality Output image could not be obtained.

例えば、入力画像として拡大処理を受けた画像が入力される場合、入力画像の周波数スペクトルの高周波数成分側には、拡大処理前の画像の周波数スペクトルの一部が折り返した成分(折り返し成分)が現れる。したがって単純に高周波数成分を強調すると、この折り返し成分を強調してしまい、不適切な処理となる。また、周波数帯域を限定し、折り返し成分を含まない周波数帯域のみを強調すると、周波数スペクトルで考えた場合、高周波数成分側の強調を避けることになり、結果的に不十分な強調処理となってしまう。   For example, when an image that has undergone enlargement processing is input as an input image, a component (folding component) in which a part of the frequency spectrum of the image before enlargement processing is folded is present on the high frequency component side of the frequency spectrum of the input image. appear. Therefore, if the high frequency component is simply emphasized, this aliasing component is emphasized, which is inappropriate processing. In addition, if the frequency band is limited and only the frequency band that does not include the aliasing component is emphasized, when considering the frequency spectrum, emphasis on the high frequency component side is avoided, resulting in insufficient enhancement processing. End up.

また、入力画像としてノイズ処理を受けた画像が入力される場合、高周波数成分側の周波数スペクトルはノイズ処理によって失われている。したがって高周波数成分を取り出そうとしても、取り出すことができず、十分に画像の強調処理を行えないことがある。   When an image subjected to noise processing is input as an input image, the frequency spectrum on the high frequency component side is lost due to noise processing. Therefore, even if an attempt is made to extract a high frequency component, it cannot be extracted, and image enhancement processing may not be performed sufficiently.

また、入力した映像信号の輝度成分に対して、強調処理を行う場合、有彩色のエッジ付近で色が白く(あるいは薄く)なったり、エッジ付近が黒くなることがある。   Further, when emphasis processing is performed on the luminance component of the input video signal, the color may become white (or lighter) near the edge of the chromatic color, or the vicinity of the edge may become black.

本発明の画像処理装置は、
輝度信号と色差信号から成る入力画像の輝度信号から特定の周波数帯域の成分を取り出した第1の中間画像を生成する第1の中間画像生成手段と、
前記第1の中間画像をもとに第2の中間画像を生成する第2の中間画像生成手段と、
前記入力画像の輝度信号と色差信号の絶対値を加重加算する輝度色差加算手段と、
前記第1の中間画像の画素値を第1の増幅率に従って増幅した第3の中間画像を生成する第1の中間画像処理手段と、
前記第2の中間画像の画素値を第2の増幅率に従って増幅した第4の中間画像を生成する第2の中間画像処理手段と、
前記入力画像の輝度信号と前記第3の中間画像と前記第4の中間画像を加算する加算手段を有する画像処理装置において、
前記第2の中間画像生成手段は、
前記第1の中間画像の画素値が正の値から負の値あるいは負の値から正の値へと変化する箇所をゼロクロス点と捉えるゼロクロス判定手段と、
前記第1の中間画像を構成する画素のうち、前記ゼロクロス点の近傍にある画素の画素値を1より大きい増幅率で増幅した非線形処理画像を生成する信号増幅手段と、
前記非線形処理画像の高周波数成分のみを取り出した高周波数成分画像を生成する高周波数成分画像生成手段を有し、
前記高周波数成分画像を前記第2の中間画像として出力し、
前記第1の増幅率は、
前記第1の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が大きい場合、小さな値になり、
前記第1の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が小さい場合、小さな値になるよう決定され、
前記第2の増幅率は、
前記第2の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が大きい場合、小さな値になり、
前記第2の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が小さい場合、小さな値になるよう決定される
ことを特徴とする。
The image processing apparatus of the present invention
First intermediate image generation means for generating a first intermediate image obtained by extracting a component of a specific frequency band from a luminance signal of an input image composed of a luminance signal and a color difference signal;
Second intermediate image generation means for generating a second intermediate image based on the first intermediate image;
Luminance color difference addition means for weighted addition of absolute values of the luminance signal and color difference signal of the input image;
First intermediate image processing means for generating a third intermediate image obtained by amplifying the pixel value of the first intermediate image according to a first amplification factor;
Second intermediate image processing means for generating a fourth intermediate image obtained by amplifying the pixel value of the second intermediate image according to a second amplification factor;
In an image processing apparatus having addition means for adding the luminance signal of the input image, the third intermediate image, and the fourth intermediate image,
The second intermediate image generating means includes
A zero-cross determining means for capturing a point where the pixel value of the first intermediate image changes from a positive value to a negative value or from a negative value to a positive value as a zero-cross point;
Signal amplifying means for generating a nonlinear processed image obtained by amplifying a pixel value of a pixel in the vicinity of the zero-cross point among the pixels constituting the first intermediate image at an amplification factor greater than 1,
High-frequency component image generation means for generating a high-frequency component image obtained by extracting only the high-frequency component of the nonlinear processed image;
Outputting the high-frequency component image as the second intermediate image;
The first amplification factor is:
If the sign of the pixel value of the first intermediate image is positive and the output value of the luminance color difference adding means is large, it becomes a small value,
When the sign of the pixel value of the first intermediate image is negative and the output value of the luminance color difference adding means is small, it is determined to be a small value,
The second amplification factor is
If the sign of the pixel value of the second intermediate image is positive and the output value of the luminance color difference adding means is large, it becomes a small value,
When the sign of the pixel value of the second intermediate image is negative and the output value of the luminance / color difference adding means is small, it is determined to be a small value .

本発明の他の画像処理装置は、
輝度信号と色差信号から成る入力画像の輝度信号から特定の周波数帯域の成分を取り出した第1の中間画像を生成する第1の中間画像生成手段と、
前記第1の中間画像をもとに第2の中間画像を生成する第2の中間画像生成手段と、
前記入力画像の輝度信号と色差信号の絶対値を加重加算する輝度色差加算手段と、
前記第1の中間画像の画素値を、前記第1の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が大きい場合、小さな値になり、前記第1の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が小さい場合、小さな値になるよう決定される増幅率に従って増幅した第3の中間画像を生成する中間画像処理手段と、
前記入力画像の輝度信号と前記第2の中間画像と前記第3の中間画像を加算する加算手段を有する画像処理装置において、
前記第2の中間画像生成手段は、
前記第1の中間画像の画素値が正の値から負の値あるいは負の値から正の値へと変化する箇所をゼロクロス点と捉えるゼロクロス判定手段と、
前記第1の中間画像を構成する画素のうち、前記ゼロクロス点の近傍にある画素の画素値を1より大きい増幅率で増幅した非線形処理画像を生成する信号増幅手段と、
前記非線形処理画像の高周波数成分のみを取り出した高周波数成分画像を生成する高周波数成分画像生成手段を有し、
前記高周波数成分画像を前記第2の中間画像として出力する
ことを特徴とする。
本発明のさらに他の画像処理装置は、
輝度信号と色差信号から成る入力画像の輝度信号から特定の周波数帯域の成分を取り出した第1の中間画像を生成する第1の中間画像生成手段と、
前記第1の中間画像をもとに第2の中間画像を生成する第2の中間画像生成手段と、
前記入力画像の輝度信号と色差信号の絶対値を加重加算する輝度色差加算手段と、
前記第2の中間画像の画素値を、前記第2の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が大きい場合、小さな値になり、前記第2の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が小さい場合、小さな値になるよう決定される増幅率に従って増幅した第3の中間画像を生成する中間画像処理手段と、
前記入力画像の輝度信号と前記第1の中間画像と前記第3の中間画像を加算する加算手段を有する画像処理装置において、
前記第2の中間画像生成手段は、
前記第1の中間画像の画素値が正の値から負の値あるいは負の値から正の値へと変化する箇所をゼロクロス点と捉えるゼロクロス判定手段と、
前記第1の中間画像を構成する画素のうち、前記ゼロクロス点の近傍にある画素の画素値を1より大きい増幅率で増幅した非線形処理画像を生成する信号増幅手段と、
前記非線形処理画像の高周波数成分のみを取り出した高周波数成分画像を生成する高周波数成分画像生成手段を有し、
前記高周波数成分画像を前記第2の中間画像として出力する
ことを特徴とする
Another image processing apparatus of the present invention is
First intermediate image generation means for generating a first intermediate image obtained by extracting a component of a specific frequency band from a luminance signal of an input image composed of a luminance signal and a color difference signal;
Second intermediate image generation means for generating a second intermediate image based on the first intermediate image;
Luminance color difference addition means for weighted addition of absolute values of the luminance signal and color difference signal of the input image;
The pixel value of the first intermediate image becomes a small value when the sign of the pixel value of the first intermediate image is positive and the output value of the luminance color difference adding means is large, and the pixel of the first intermediate image An intermediate image processing means for generating a third intermediate image amplified according to an amplification factor determined to be a small value when the sign of the value is negative and the output value of the luminance color difference adding means is small;
In an image processing apparatus having addition means for adding the luminance signal of the input image, the second intermediate image, and the third intermediate image,
The second intermediate image generating means includes
A zero-cross determining means for capturing a point where the pixel value of the first intermediate image changes from a positive value to a negative value or from a negative value to a positive value as a zero-cross point;
Signal amplifying means for generating a nonlinear processed image obtained by amplifying a pixel value of a pixel in the vicinity of the zero-cross point among the pixels constituting the first intermediate image at an amplification factor greater than 1,
High-frequency component image generation means for generating a high-frequency component image obtained by extracting only the high-frequency component of the nonlinear processed image;
The high frequency component image is output as the second intermediate image .
Still another image processing apparatus according to the present invention provides:
First intermediate image generation means for generating a first intermediate image obtained by extracting a component of a specific frequency band from a luminance signal of an input image composed of a luminance signal and a color difference signal;
Second intermediate image generation means for generating a second intermediate image based on the first intermediate image;
Luminance color difference addition means for weighted addition of absolute values of the luminance signal and color difference signal of the input image;
The pixel value of the second intermediate image is a small value when the sign of the pixel value of the second intermediate image is positive and the output value of the luminance color difference adding means is large, and the pixel of the second intermediate image An intermediate image processing means for generating a third intermediate image amplified according to an amplification factor determined to be a small value when the sign of the value is negative and the output value of the luminance color difference adding means is small;
In an image processing apparatus having an adding means for adding the luminance signal of the input image, the first intermediate image, and the third intermediate image,
The second intermediate image generating means includes
A zero-cross determining means for capturing a point where the pixel value of the first intermediate image changes from a positive value to a negative value or from a negative value to a positive value as a zero-cross point;
Signal amplifying means for generating a nonlinear processed image obtained by amplifying a pixel value of a pixel in the vicinity of the zero-cross point among the pixels constituting the first intermediate image at an amplification factor greater than 1,
High-frequency component image generation means for generating a high-frequency component image obtained by extracting only the high-frequency component of the nonlinear processed image;
The high frequency component image is output as the second intermediate image
It is characterized by that .

本発明によれば、入力画像がその周波数スペクトルにおいて、高周波数成分側に折り返し成分を含んでいる場合や、高周波数成分を十分に含んでいない場合でもオーバーシュートの発生を防止しつつ、十分に画像の強調処理を行うことができ、さらに有彩色のエッジ付近で色が不自然に白く(あるいは薄く)なったり、エッジ付近が黒くなることがない。   According to the present invention, even when the input image includes a folded component on the high frequency component side in the frequency spectrum, or even when the input image does not sufficiently include the high frequency component, the occurrence of overshoot is sufficiently prevented. Image enhancement processing can be performed, and furthermore, the color does not become unnaturally white (or thin) near the edge of the chromatic color, and the vicinity of the edge does not become black.

本発明の実施の形態1による画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus by Embodiment 1 of this invention. 図1の第1の中間画像生成手段1の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 1st intermediate image generation means 1 of FIG. 図1の第2の中間画像生成手段2の構成例を示すブロック図である。It is a block diagram which shows the structural example of the 2nd intermediate image generation means 2 of FIG. 図1の第1の中間画像処理手段3Mの構成例を示すブロック図である。It is a block diagram which shows the structural example of the 1st intermediate image process means 3M of FIG. 図1の第2の中間画像処理手段3Hの構成例を示すブロック図である。It is a block diagram which shows the structural example of the 2nd intermediate image process means 3H of FIG. 図3の水平方向非線形処理手段2Ahの構成例を示す図である。It is a figure which shows the structural example of the horizontal direction nonlinear processing means 2Ah of FIG. 図3の垂直方向非線形処理手段2Avの構成例を示す図である。It is a figure which shows the structural example of the vertical direction nonlinear processing means 2Av of FIG. (A)〜(E)は、輝度色差加算画像YC、画像D1h、及び画像D1vの画素の配置並びに各画素の符号を示す情報の配置を示す図である。(A)-(E) is a figure which shows arrangement | positioning of the information which shows the arrangement | positioning of the pixel of the brightness | luminance color difference addition image YC, the image D1h, and the image D1v, and the code | symbol of each pixel. 本発明による画像処理装置を用いた画像表示装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image display apparatus using the image processing apparatus by this invention. 図9の画像拡大手段U1の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image expansion means U1 of FIG. (A)〜(E)は、図10画像拡大手段U1の動作を示す画素配置図である。(A)-(E) is a pixel arrangement | positioning figure which shows operation | movement of the FIG. 10 image expansion means U1. (A)〜(D)は、図10の画像拡大手段U1の動作を説明するための周波数応答及び周波数スペクトルを示す図である。(A)-(D) is a figure which shows the frequency response and frequency spectrum for demonstrating operation | movement of the image expansion means U1 of FIG. (A)〜(E)は、第1の中間画像生成手段1の動作を説明するための周波数応答及び周波数スペクトルを示す図である。(A)-(E) is a figure which shows the frequency response and frequency spectrum for demonstrating operation | movement of the 1st intermediate | middle image generation means 1. FIG. (A)〜(C)は、第2の中間画像生成手段2の動作を説明するための周波数応答及び周波数スペクトルを示す図である。(A)-(C) is a figure which shows the frequency response and frequency spectrum for demonstrating operation | movement of the 2nd intermediate | middle image generation means 2. FIG. (A)〜(C)は、ステップエッジとステップエッジをサンプリング間隔S1でサンプリングしたときに得られる、相連続する画素の信号の値を示す図である。(A)-(C) is a figure which shows the value of the signal of the pixel which continues when a step edge and a step edge are sampled by sampling interval S1. (A)〜(C)は、ステップエッジとステップエッジをサンプリング間隔S2でサンプリングしたときに得られる、相連続する画素の信号の値を示す図である。(A)-(C) is a figure which shows the value of the signal of the pixel which continues when a step edge and a step edge are sampled by sampling interval S2. (A)〜(F)は、第1の中間画像生成手段1及び第2の中間画像生成手段2の動作を説明するための、相連続する画素の信号の値を示す図である。(A)-(F) is a figure which shows the value of the signal of the pixel which continues for demonstrating operation | movement of the 1st intermediate image generation means 1 and the 2nd intermediate image generation means 2. FIG. (A)及び(B)は、高周波数成分の加算に適度に行うことによって、画像の鮮鋭感を増した場合、及び高周波数成分の加算を過度に行った結果、画質の低下を招いた場合の、相連続する画素の信号の値を示す図である。(A) and (B), when the sharpness of the image is increased by appropriately performing the addition of the high frequency component, and when the image quality is deteriorated as a result of excessive addition of the high frequency component It is a figure which shows the value of the signal of the pixel which continues. (A)及び(B)は、輝度色差加算画像YCの画素値Lと第1の中間画像処理手段3M及び第2の中間画像処理手段3Hにおける増幅率の関係を示す図である。(A) And (B) is a figure which shows the relationship between the pixel value L of the brightness | luminance color difference addition image YC, and the amplification factor in the 1st intermediate image processing means 3M and the 2nd intermediate image processing means 3H. 本発明の実施の形態2の画像処理装置を示す。3 shows an image processing apparatus according to a second embodiment of the present invention. 実施の形態2の画像処理装置における処理の手順を示すフロー図である。FIG. 10 is a flowchart illustrating a processing procedure in the image processing apparatus according to the second embodiment. 図21の第1の中間画像生成ステップST1における処理を示すフロー図である。It is a flowchart which shows the process in 1st intermediate | middle image generation step ST1 of FIG. 図21の第2の中間画像生成ステップST2における処理を示すフロー図である。It is a flowchart which shows the process in 2nd intermediate image generation step ST2 of FIG. 図23の水平方向非線形処理ステップST2Ahにおける処理を示すフロー図である。It is a flowchart which shows the process in horizontal direction nonlinear process step ST2Ah of FIG. 図23の垂直方向非線形処理ステップST2Avにおける処理を示すフロー図である。FIG. 24 is a flowchart showing processing in the vertical nonlinear processing step ST2Av in FIG. 23. 図21の第1の中間画像処理ステップST3Mにおける処理を示すフロー図である。It is a flowchart which shows the process in 1st intermediate | middle image process step ST3M of FIG. 図21の第2の中間画像処理ステップST3Hにおける処理を示すフロー図である。It is a flowchart which shows the process in 2nd intermediate image process step ST3H of FIG.

実施の形態1.
図1は本発明の実施の形態1による画像処理装置の構成例を示す図であり、図示の画像処理装置は例えば画像表示装置の一部として用いることができる。
Embodiment 1 FIG.
FIG. 1 is a diagram showing a configuration example of an image processing apparatus according to Embodiment 1 of the present invention. The illustrated image processing apparatus can be used as a part of an image display apparatus, for example.

図示の画像処理装置には、入力画像IMGINが入力され、出力画像IMGOUTが出力される。入力画像IMGINはカラー画像であり、輝度成分を表す信号YIN(以下、入力輝度画像YINと呼ぶ)色差成分を表す信号CRIN、CBINから成る。信号CRIN(以下、入力CR画像CRINと呼ぶ)は色差成分のうちCr成分を表し、信号CBIN(以下、入力CB画像CBINと呼ぶ)は色差成分のうちCb成分を表す。出力画像IMGOUTもカラー画像であり、輝度成分を表す信号YOUT(以下、出力輝度画像YOUTと呼ぶ)色差成分を表す信号CROUT、CBOUTから成る。信号CROUT(以下、出力CR画像CROUTと呼ぶ)は色差成分のうちCr成分を表し、信号CBOUT(以下、入力CB画像CBOUTと呼ぶ)は色差成分のうちCb成分を表す。   An input image IMGIN is input to the illustrated image processing apparatus, and an output image IMGOUT is output. The input image IMGIN is a color image and includes signals YIN (hereinafter referred to as input luminance image YIN) representing luminance components and signals CRIN and CBIN representing color difference components. A signal CRIN (hereinafter referred to as an input CR image CRIN) represents a Cr component of the color difference components, and a signal CBIN (hereinafter referred to as an input CB image CBIN) represents a Cb component of the color difference components. The output image IMGOUT is also a color image, and is composed of signals YOUT (hereinafter referred to as output luminance image YOUT) representing luminance components and signals CROUT and CBOUT representing color difference components. A signal CROUT (hereinafter referred to as an output CR image CROUT) represents a Cr component of the color difference components, and a signal CBOUT (hereinafter referred to as an input CB image CBOUT) represents a Cb component of the color difference components.

本発明の実施の形態1の画像処理装置は、第1の中間画像生成手段1と、第2の中間画像生成手段2と、輝度色差加算手段5と、第1の中間画像処理手段3Mと、第2の中間画像処理手段3Hと、加算手段4とを有する。   The image processing apparatus according to the first embodiment of the present invention includes a first intermediate image generation unit 1, a second intermediate image generation unit 2, a luminance color difference addition unit 5, a first intermediate image processing unit 3M, Second intermediate image processing means 3H and addition means 4 are provided.

第1の中間画像生成手段1は、入力輝度画像YINから特定の周波数帯域の成分(即ち第1の周波数(第1の所定の周波数)から第2の周波数(第2の所定の周波数)までの成分)を取り出した中間画像(第1の中間画像)D1を生成する。
第2の中間画像生成手段2は、中間画像D1に後述する処理を行った中間画像(第2の中間画像)D2を生成する。
The first intermediate image generating means 1 includes a component in a specific frequency band from the input luminance image YIN (that is, from the first frequency (first predetermined frequency) to the second frequency (second predetermined frequency). An intermediate image (first intermediate image) D1 from which the component is extracted is generated.
The second intermediate image generating means 2 generates an intermediate image (second intermediate image) D2 obtained by performing processing described later on the intermediate image D1.

輝度色差加算手段5は、入力輝度画像YINと、入力CR画像CRINと、入力CB画像CBINを後述するように重み付け加算した輝度色差加算画像YCを生成する。
第1の中間画像処理手段3Mは、中間画像D1に後述する処理を行った中間画像(第3の中間画像)D3Mを生成する。
第2の中間画像処理手段3Hは、中間画像D2に後述する処理を行った中間画像(第4の中間画像)D3Hを生成する。
加算手段4は、入力輝度画像YINと、中間画像D3Mと、中間画像D3Hとを加算する。
The luminance color difference adding means 5 generates a luminance color difference addition image YC obtained by weighted addition of the input luminance image YIN, the input CR image CRIN, and the input CB image CBIN as will be described later.
The first intermediate image processing unit 3M generates an intermediate image (third intermediate image) D3M obtained by performing processing described later on the intermediate image D1.
The second intermediate image processing means 3H generates an intermediate image (fourth intermediate image) D3H obtained by performing processing to be described later on the intermediate image D2.
The adding unit 4 adds the input luminance image YIN, the intermediate image D3M, and the intermediate image D3H.

図示の実施の形態の画像処理装置では輝度成分にのみ処理が行わる。即ち出力輝度画像YOUTとして加算手段4の出力画像が出力される一方、出力CR画像CROUTとして入力CR画像CRINがそのまま出力され、出力CB画像CBOUTとして入力CB画像CBINがそのまま出力される。   In the image processing apparatus of the illustrated embodiment, only the luminance component is processed. That is, the output image of the adding means 4 is output as the output luminance image YOUT, while the input CR image CRIN is output as it is as the output CR image CROUT, and the input CB image CBIN is output as it is as the output CB image CBOUT.

図2は第1の中間画像生成手段1の構成例を示した図であり、図示の第1の中間画像生成手段1は、入力輝度画像YINから第1の周波数以上の高周波数成分のみを取り出した画像D1Aを生成する高周波数成分画像生成手段1Aと、画像D1Aの第2の周波数以下の低周波数成分のみを取り出した画像D1Bを生成する低周波数成分画像生成手段1Bとを有する。高周波数成分画像生成手段1Aと低周波数成分画像生成手段1Bとで、特定の周波数帯域の成分を取り出す帯域通過フィルタ手段が構成されている。第1の中間画像生成手段1からは画像D1Bが中間画像D1として出力される。   FIG. 2 is a diagram illustrating a configuration example of the first intermediate image generation unit 1. The illustrated first intermediate image generation unit 1 extracts only a high frequency component equal to or higher than the first frequency from the input luminance image YIN. High frequency component image generation means 1A for generating the image D1A, and low frequency component image generation means 1B for generating an image D1B obtained by extracting only low frequency components equal to or lower than the second frequency of the image D1A. The high frequency component image generating means 1A and the low frequency component image generating means 1B constitute band pass filter means for extracting components in a specific frequency band. From the first intermediate image generating means 1, an image D1B is output as an intermediate image D1.

図3は第2の中間画像生成手段2の構成例を示した図であり、図示の第2の中間画像生成手段2は、中間画像D1に対し、後述する非線形処理を行った画像D2Aを出力する非線形処理手段2Aと、画像D2Aの第3の周波数(第3の所定の周波数)以上の高周波数成分のみを取り出した画像D2Bを出力する高周波数成分画像生成手段2Bを有する。第2の中間画像生成手段2からは画像D2Bが中間画像D2として出力される。   FIG. 3 is a diagram illustrating a configuration example of the second intermediate image generation unit 2. The illustrated second intermediate image generation unit 2 outputs an image D <b> 2 </ b> A obtained by performing non-linear processing described later on the intermediate image D <b> 1. Non-linear processing means 2A, and high-frequency component image generation means 2B that outputs an image D2B obtained by extracting only high-frequency components equal to or higher than a third frequency (third predetermined frequency) of the image D2A. From the second intermediate image generating means 2, an image D2B is output as an intermediate image D2.

図4は第1の中間画像処理手段3Mの構成例を示した図であり、図示の第1の中間画像処理手段3Mは、増幅率決定手段3MAと、画素値増幅手段3MBとを有する。増幅率決定手段3MAは、後述の輝度色差加算画像YCの画素値をもとに増幅率D3MAを決定する。画素値増幅手段3MBは、増幅率決定手段3MAにより決定された増幅率D3MAで中間画像D1の画素値を増幅し、その結果を中間画像D3MBとして出力する。そして第1の中間画像処理手段3Mからは中間画像D3MBが中間画像D3Mとして出力される。   FIG. 4 is a diagram illustrating a configuration example of the first intermediate image processing unit 3M. The illustrated first intermediate image processing unit 3M includes an amplification factor determination unit 3MA and a pixel value amplification unit 3MB. The amplification factor determination means 3MA determines the amplification factor D3MA based on the pixel value of the luminance / color difference addition image YC described later. The pixel value amplification unit 3MB amplifies the pixel value of the intermediate image D1 with the amplification factor D3MA determined by the amplification factor determination unit 3MA, and outputs the result as the intermediate image D3MB. Then, the intermediate image D3MB is output as the intermediate image D3M from the first intermediate image processing means 3M.

増幅率決定手段3MAは、水平方向増幅率決定手段3MAhと、垂直方向増幅率決定手段3MAvとを有し、画素値増幅手段3MBは、水平方向画素値増幅手段3MBhと、垂直方向画素値増幅手段3MBvとを有する。水平方向増幅率決定手段3MAhと、水平方向画素値増幅手段3MBhとで、第1の水平方向中間画像処理手段3Mhが構成され、垂直方向増幅率決定手段3MAvと、垂直方向画素値増幅手段3MBvとで、第1の垂直方向中間画像処理手段3Mvが構成されている。   The amplification factor determination unit 3MA includes a horizontal direction amplification factor determination unit 3MAh and a vertical direction amplification factor determination unit 3MAv. The pixel value amplification unit 3MB includes the horizontal direction pixel value amplification unit 3MBh and the vertical direction pixel value amplification unit. 3 MBv. The horizontal direction gain determining means 3MAh and the horizontal direction pixel value amplifying means 3MBh constitute a first horizontal direction intermediate image processing means 3Mh. The vertical direction gain determining means 3MAv, the vertical direction pixel value amplifying means 3MBv, Thus, the first vertical intermediate image processing means 3Mv is configured.

図5は第2の中間画像処理手段3Hの構成例を示した図であり、図示の第2の中間画像処理手段3Hは増幅率決定手段3HAと、画素値増幅手段3HBとを有する。増幅率決定手段3HAは後述の輝度色差加算画像YCの画素値をもとに増幅率D3HAを決定する。画素値増幅手段3HBは、増幅率決定手段3HAにより決定された増幅率D3HAで中間画像D2の画素値を増幅し、その結果を中間画像D3HBとして出力する。そして、第1の中間画像処理手段3Hからは中間画像D3HBが中間画像D3Hとして出力される。   FIG. 5 is a diagram showing a configuration example of the second intermediate image processing unit 3H. The illustrated second intermediate image processing unit 3H includes an amplification factor determination unit 3HA and a pixel value amplification unit 3HB. The amplification factor determining means 3HA determines the amplification factor D3HA based on the pixel value of the luminance / color difference addition image YC described later. The pixel value amplifying unit 3HB amplifies the pixel value of the intermediate image D2 with the amplification factor D3HA determined by the amplification factor determining unit 3HA, and outputs the result as the intermediate image D3HB. The intermediate image D3HB is output as the intermediate image D3H from the first intermediate image processing means 3H.

増幅率決定手段3HAは、水平方向増幅率決定手段3HAhと、垂直方向増幅率決定手段3HAvとを有し、画素値増幅手段3HBは、水平方向画素値増幅手段3HBhと、垂直方向画素値増幅手段3HBvとを有する。水平方向増幅率決定手段3HAhと、水平方向画素値増幅手段3HBhとで、第2の水平方向中間画像処理手段3Hhが構成され、垂直方向増幅率決定手段3HAvと、垂直方向画素値増幅手段3HBvとで、第2の垂直方向中間画像処理手段3Hvが構成されている。   The amplification factor determination unit 3HA includes a horizontal direction amplification factor determination unit 3HAh and a vertical direction amplification factor determination unit 3HAv. The pixel value amplification unit 3HB includes the horizontal direction pixel value amplification unit 3HBh and the vertical direction pixel value amplification unit. 3HBv. The horizontal direction gain determining means 3HAh and the horizontal direction pixel value amplifying means 3HBh constitute a second horizontal direction intermediate image processing means 3Hh. The vertical direction gain determining means 3HAv, the vertical direction pixel value amplifying means 3HBv, Thus, the second vertical intermediate image processing means 3Hv is configured.

加算手段4は、入力輝度画像YINに対し、中間画像D3M及び中間画像D3Hを加算し、出力輝度画像YOUTを生成する。   The adding unit 4 adds the intermediate image D3M and the intermediate image D3H to the input luminance image YIN to generate an output luminance image YOUT.

以下、本発明の実施の形態1による画像処理装置の詳細な動作について説明を行う。
まず、第1の中間画像生成手段1の詳細な動作について説明する。
第1の中間画像生成手段1は、高周波数成分画像生成手段1Aにおいて、入力輝度画像YINの第1の周波数以上の高周波数成分のみを取り出した画像D1Aを生成する。
高周波数成分の取り出しは、ハイパスフィルタ処理を行うことで可能である。高周波数成分の取り出しは画像の水平方向及び垂直方向それぞれについて行う。即ち高周波数成分画像生成手段1Aは、入力輝度画像YINに対し、水平方向のハイパスフィルタ処理を行って水平方向についてのみ第1の水平方向周波数以上の高周波数成分を取り出した画像D1Ahを生成する水平方向高周波数成分画像生成手段1Ahと、垂直方向のハイパスフィルタ処理を行って垂直方向についてのみ第2の垂直方向周波数以上の高周波数成分を取り出した画像D1Avを生成する垂直方向高周波数成分画像生成手段1Avを有し、画像D1Aは画像D1Ahと画像D1Avとから成る。
The detailed operation of the image processing apparatus according to the first embodiment of the present invention will be described below.
First, the detailed operation of the first intermediate image generating unit 1 will be described.
The first intermediate image generating unit 1 generates an image D1A in which only the high frequency component equal to or higher than the first frequency of the input luminance image YIN is extracted in the high frequency component image generating unit 1A.
High frequency components can be extracted by performing high-pass filter processing. High frequency components are extracted in the horizontal and vertical directions of the image. That is, the high frequency component image generating means 1A performs horizontal high-pass filter processing on the input luminance image YIN to generate an image D1Ah in which a high frequency component equal to or higher than the first horizontal frequency is extracted only in the horizontal direction. Direction high-frequency component image generation means 1Ah and vertical high-frequency component image generation means for generating an image D1Av obtained by performing high-pass filtering in the vertical direction and extracting a high-frequency component equal to or higher than the second vertical frequency only in the vertical direction The image D1A includes an image D1Ah and an image D1Av.

次に、第1の中間画像生成手段1は、低周波数成分画像生成手段1Bにおいて、画像D1Aの第2の周波数以下の低周波数成分のみを取り出した画像D1Bを生成する。低周波数成分の取り出しは、ローパスフィルタ処理を行うことで可能である。低周波数成分の取り出しは水平方向及び垂直方向それぞれについて行う。即ち低周波数成分画像生成手段1Bは、画像D1Ahに対し水平方向のローパスフィルタ処理を行って水平方向についてのみ第2の水平方向周波数以下の低周波数成分を取り出した画像D1Bhを生成する水平方向低周波数成分画像生成手段1Bと、画像D1Avに対し垂直方向のローパスフィルタ処理を行って垂直方向についてのみ第2の垂直方向周波数以下の低周波数成分を取り出した画像D1Bvを生成する垂直方向低周波数成分画像生成手段1Bvとを有し、画像D1Bは画像D1Bhと画像D1Bvから成る。第1の中間画像生成手段1からは、画像D1Bが中間画像D1として出力される。なお、中間画像D1は、画像D1Bhに相当する画像D1h、画像D1Bvに相当する画像D1vとから成る。   Next, the first intermediate image generation unit 1 generates an image D1B in which only the low frequency component equal to or lower than the second frequency of the image D1A is extracted in the low frequency component image generation unit 1B. The low frequency component can be extracted by performing a low pass filter process. The low frequency component is extracted in each of the horizontal direction and the vertical direction. That is, the low-frequency component image generation means 1B performs horizontal low-pass filter processing on the image D1Ah to generate an image D1Bh in which a low-frequency component below the second horizontal frequency is extracted only in the horizontal direction. Component image generation means 1B and vertical direction low-frequency component image generation that performs low-pass filter processing in the vertical direction on the image D1Av and generates an image D1Bv that extracts a low-frequency component below the second vertical frequency only in the vertical direction Means 1Bv, and the image D1B is composed of an image D1Bh and an image D1Bv. From the first intermediate image generating means 1, the image D1B is output as the intermediate image D1. The intermediate image D1 includes an image D1h corresponding to the image D1Bh and an image D1v corresponding to the image D1Bv.

次に、第2の中間画像生成手段2の詳細な動作について説明する。
まず、第2の中間画像生成手段2は、非線形処理手段2Aにおいて、中間画像D1に対して後述する非線形処理を行った画像D2Aを生成する。非線形処理は、水平方向及び垂直方向それぞれについて行う。即ち非線形処理手段2Aは、画像D1hに対して後述する非線形処理を行って画像D2Ahを生成する水平方向非線形処理手段2Ahと、画像D1vに対して後述する非線形処理を行って画像D2Avを生成する垂直方向非線形処理手段2Avとを有し、画像D2Aは画像D2Ahと画像D2Avとから成る。
Next, the detailed operation of the second intermediate image generating means 2 will be described.
First, the second intermediate image generation unit 2 generates an image D2A obtained by performing nonlinear processing described later on the intermediate image D1 in the nonlinear processing unit 2A. Nonlinear processing is performed in each of the horizontal direction and the vertical direction. That is, the nonlinear processing means 2A performs horizontal nonlinear processing means 2Ah that performs nonlinear processing described later on the image D1h to generate an image D2Ah, and vertical that performs nonlinear processing described later on image D1v to generate the image D2Av. The image D2A includes an image D2Ah and an image D2Av.

非線形処理手段2Aの動作についてさらに詳しく説明する。非線形処理手段2Aは互いに同様の構成から成る水平方向非線形処理手段2Ah及び垂直方向非線形処理手段2Avを備える。水平方向非線形処理手段2Ahは水平方向の処理を行い、垂直方向非線形処理手段2Avは垂直方向の処理を行う。   The operation of the nonlinear processing means 2A will be described in more detail. The nonlinear processing means 2A includes a horizontal nonlinear processing means 2Ah and a vertical nonlinear processing means 2Av having the same configuration. The horizontal nonlinear processing means 2Ah performs horizontal processing, and the vertical nonlinear processing means 2Av performs vertical processing.

図6は水平方向非線形処理手段2Ahの構成例を示す図である。図示の水平方向非線形処理手段2Ahはゼロクロス判定手段311hと、信号増幅手段312hとを備える。非線形処理手段2Ahには、画像D1hが入力画像DIN311hとして入力される。   FIG. 6 is a diagram showing a configuration example of the horizontal nonlinear processing means 2Ah. The illustrated horizontal non-linear processing means 2Ah includes a zero-cross determining means 311h and a signal amplifying means 312h. The image D1h is input to the nonlinear processing means 2Ah as the input image DIN311h.

ゼロクロス判定手段311hは入力画像DIN311hにおける画素値の変化を水平方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、信号D311hによってゼロクロス点の前後にある画素(前後において隣接する画素)の位置を信号増幅手段312hに伝達する。ここで「前後」とは信号が供給される順序における前後であり、水平方向に左から右に画素の信号が供給されるときは「左右」を意味し、垂直方向に上から下に画素の信号が供給されるときは「上下」を意味する。ゼロクロス判定手段311hでは、水平方向非線形処理手段2Ah内のゼロクロス判定手段311hでは、ゼロクロス点の左右に位置する画素がゼロクロス点の前後に位置する画素として認識される。   The zero-cross determining unit 311h checks the change in the pixel value in the input image DIN 311h along the horizontal direction. A point where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero-cross point, and pixels (adjacent pixels before and after the zero-cross point) before and after the zero-cross point by a signal D311h. The position is transmitted to the signal amplification means 312h. Here, “front and back” refers to the front and rear in the order in which signals are supplied. When a pixel signal is supplied from left to right in the horizontal direction, it means “left and right”, and the vertical and horizontal directions of the pixel When a signal is supplied, it means “up and down”. In the zero cross determination means 311h, the zero cross determination means 311h in the horizontal non-linear processing means 2Ah recognizes pixels located on the left and right of the zero cross point as pixels located before and after the zero cross point.

信号増幅手段312hは信号D311hをもとにゼロクロス点の前後にある画素(前後において隣接する画素)を特定し、ゼロクロス点の前後にある画素についてのみその画素値を増幅させた(絶対値を大きくした)非線形処理画像D312hを生成する。即ち、ゼロクロス点前後にある画素の画素値に対しては増幅率を1より大きな値とし、それ以外の画素の画素値に対しての増幅率は1とする。   Based on the signal D311h, the signal amplifying unit 312h identifies pixels before and after the zero cross point (adjacent pixels before and after the zero cross point), and amplifies the pixel value only for the pixels before and after the zero cross point (the absolute value is increased). A nonlinear processed image D312h is generated. That is, the amplification factor is set to a value larger than 1 for pixel values of pixels around the zero cross point, and the amplification factor is set to 1 for the pixel values of other pixels.

水平方向非線形処理手段2Ahからは画像D2Ahとして非線形処理画像D312hが出力される。   A nonlinear processed image D312h is output from the horizontal nonlinear processing means 2Ah as an image D2Ah.

図7は垂直方向非線形処理手段2Avの構成例を示す図である。図示の垂直方向非線形処理手段2Avはゼロクロス判定手段311vと、信号増幅手段312vとを備える。非線形処理手段2Avには、画像D1vが入力画像DIN311vとして入力される。   FIG. 7 is a diagram showing a configuration example of the vertical nonlinear processing means 2Av. The illustrated vertical nonlinear processing means 2Av includes a zero-cross determination means 311v and a signal amplification means 312v. The image D1v is input as the input image DIN311v to the nonlinear processing means 2Av.

ゼロクロス判定手段311vは入力画像DIN311vにおける画素値の変化を垂直方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、信号D311vによってゼロクロス点の前後にある画素(前後において隣接する画素)の位置を信号増幅手段312vに伝達する。垂直方向非線形処理手段2Av内のゼロクロス判定手段311vでは、ゼロクロス点の上下に位置する画素がゼロクロス点の前後に位置する画素として認識される。   The zero-cross determination unit 311v confirms the change of the pixel value in the input image DIN 311v along the vertical direction. A point where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero-cross point, and pixels (adjacent pixels before and after the zero-cross point) before and after the zero-cross point by the signal D311v. The position is transmitted to the signal amplification means 312v. In the zero cross determination means 311v in the vertical nonlinear processing means 2Av, pixels located above and below the zero cross point are recognized as pixels located before and after the zero cross point.

信号増幅手段312vは信号D311vをもとにゼロクロス点の前後にある画素(前後において隣接する画素)を特定し、ゼロクロス点の前後にある画素についてのみその画素値を増幅させた(絶対値を大きくした)非線形処理画像D312vを生成する。即ち、ゼロクロス点前後にある画素の画素値に対しては増幅率を1より大きな値とし、それ以外の画素の画素値に対しての増幅率は1とする。
以上が非線形処理手段2Aの動作である。
Based on the signal D311v, the signal amplifying unit 312v identifies pixels before and after the zero cross point (adjacent pixels before and after the zero cross point), and amplifies the pixel value only for the pixels before and after the zero cross point (the absolute value is increased). A nonlinear processed image D312v is generated. That is, the amplification factor is set to a value larger than 1 for pixel values of pixels around the zero cross point, and the amplification factor is set to 1 for the pixel values of other pixels.
The above is the operation of the nonlinear processing means 2A.

次に第2の中間画像生成手段2は、高周波数成分画像生成手段2Bにおいて、画像D2Aの第3の周波数以上の高周波数成分のみを取り出した画像D2Bを生成する。高周波数成分の取り出しは、ハイパスフィルタ処理を行うことで可能である。高周波数成分の取り出しは画像の水平方向及び垂直方向それぞれについて行う。即ち高周波数成分画像生成手段2Bは、画像D2Ahに対し水平方向のハイパスフィルタ処理を行って水平方向についてのみ第3の水平方向周波数以上の高周波数成分を取り出した画像D2Bhを生成する水平方向高周波数成分画像生成手段2Bhと、画像D2Avに対し垂直方向のハイパスフィルタ処理を行って垂直方向についてのみ第3の垂直方向周波数以上の高周波数成分を取り出した画像D2Bvを生成する垂直方向高周波数成分画像生成手段2Bvとを有し、画像D2Bは画像D2Bhと画像D2Bvとから成る。第2の中間画像生成手段2からは、画像D2Bが中間画像D2として出力される。中間画像D2は画像D2Bhに相当する画像D2hと、画像D2Bvに相当する画像D2vとから成る。   Next, the second intermediate image generation means 2 generates an image D2B in which only the high frequency component equal to or higher than the third frequency of the image D2A is extracted in the high frequency component image generation means 2B. High frequency components can be extracted by performing high-pass filter processing. High frequency components are extracted in the horizontal and vertical directions of the image. That is, the high frequency component image generation means 2B performs a horizontal high-pass filter process on the image D2Ah to generate an image D2Bh in which a high frequency component equal to or higher than the third horizontal frequency is extracted only in the horizontal direction. Component image generation means 2Bh and vertical high-frequency component image generation for generating an image D2Bv obtained by performing high-pass filter processing in the vertical direction on the image D2Av and extracting a high-frequency component equal to or higher than the third vertical frequency only in the vertical direction Means 2Bv, and the image D2B is composed of an image D2Bh and an image D2Bv. From the second intermediate image generating means 2, the image D2B is output as the intermediate image D2. The intermediate image D2 includes an image D2h corresponding to the image D2Bh and an image D2v corresponding to the image D2Bv.

輝度色差加算手段5の詳細な動作について説明する。輝度色差加算手段5は各画素について入力輝度画像YINの画素値と、入力CR画像CRINの画素値の絶対値と、入力CB画像CBINの画素値の絶対値とを加重加算し(加重加算のみにより)、輝度色差加算画像YCを生成する。即ち、輝度色差加算画像YCを、入力輝度画像YIN、入力CR画像CRIN、及び入力CB画像CBINを用いて以下に式により求める。
YC=Ky・YIN+Kcr・|CRIN|+Kcb・|CBIN| …(1)
ここでKy、Kcr、Kcbは重み付けのための係数である。
The detailed operation of the luminance / color difference adding means 5 will be described. The luminance color difference adding means 5 performs weighted addition (by weighted addition only) for each pixel, the pixel value of the input luminance image YIN, the absolute value of the pixel value of the input CR image CRIN, and the absolute value of the pixel value of the input CB image CBIN. ), A luminance color difference addition image YC is generated. That is, the luminance color difference addition image YC is obtained by the following equation using the input luminance image YIN, the input CR image CRIN, and the input CB image CBIN.
YC = Ky · YIN + Kcr · | CRIN | + Kcb · | CBIN | (1)
Here, Ky, Kcr, and Kcb are coefficients for weighting.

次に、第1の中間画像処理手段3Mの詳細な動作について説明する。
第1の中間画像処理手段3Mは、増幅率決定手段3MAにおいて輝度色差加算画像YCの画素値と中間画像D1の画素値の符号sD1をもとに増幅率D3MAを決定する。ここで、第1の中間画像D1は、画像D1hと画像D1vから成るので、符号sD1は画像D1hの符号を表す符号sD1hと画像D1vの符号を表す符号sD1vから成る。先に述べた通り、増幅率D3MAに基づいて第1の中間画像D1の画素値が増幅されるが、第1の中間画像D1は、画像D1hと画像D1vから成るので、増幅率D3MAとしては、画像D1hに対する増幅率D3MAhと画像D1vに対する増幅率D3MAvが決定される。即ち、増幅率決定手段3MAは、水平方向増幅率決定手段3MAhと、垂直方向増幅率決定手段3MAvとを有し、水平方向増幅率決定手段3MAhでは輝度色差加算画像YCの画素値と画像D1hの画素値の符号sD1hをもとに増幅率D3MAhが決定され、垂直方向増幅率決定手段3MAvでは輝度色差加算画像YCの画素値と画像D1vの画素値の符号sD1vをもとに増幅率D3MAvが決定され、増幅率決定手段3MAからは増幅率D3MAh及び増幅率D3MAvが増幅率D3MAとして出力される。
Next, a detailed operation of the first intermediate image processing unit 3M will be described.
The first intermediate image processing unit 3M determines the amplification factor D3MA based on the sign sD1 of the pixel value of the luminance / color difference addition image YC and the pixel value of the intermediate image D1 in the amplification factor determination unit 3MA. Here, since the first intermediate image D1 includes the image D1h and the image D1v, the code sD1 includes a code sD1h representing the code of the image D1h and a code sD1v representing the code of the image D1v. As described above, the pixel value of the first intermediate image D1 is amplified based on the amplification factor D3MA. Since the first intermediate image D1 is composed of the image D1h and the image D1v, as the amplification factor D3MA, An amplification factor D3MAh for the image D1h and an amplification factor D3MAv for the image D1v are determined. That is, the amplification factor determination unit 3MA includes a horizontal direction amplification factor determination unit 3MAh and a vertical direction amplification factor determination unit 3MAv. In the horizontal direction amplification factor determination unit 3MAh, the pixel value of the luminance color difference addition image YC and the image D1h The amplification factor D3MAh is determined based on the pixel value code sD1h, and the vertical amplification factor determination means 3MAv determines the amplification factor D3MAv based on the pixel value of the luminance-color difference added image YC and the pixel value code sD1v of the image D1v. Then, amplification factor D3MAh and amplification factor D3MAv are output as amplification factor D3MA from amplification factor determination means 3MA.

水平方向増幅率決定手段3MAh及び垂直方向増幅率決定手段3MAvの動作についてさらに詳しく説明する。   The operations of the horizontal direction gain determining means 3MAh and the vertical direction gain determining means 3MAv will be described in more detail.

図8(A)〜(E)は輝度色差加算画像YC、並びに画像D1h及びD1v、画像D1hの画素値の符号sD1h、画像D1vの画素値の符号sD1vを表した図であり、図8(A)が輝度色差加算画像YCを、図8(B)が画像D1hを、図8(C)が画像D1vを、図8(D)が符号sD1hを、図8(E)が符号sD1vを表している。また、図8(A)〜(E)では画像の水平方向及び垂直方向に合わせて水平座標、垂直座標及び各座標値が表されている。また、輝度色差加算画像YCについては、水平座標x、垂直座標yの位置にある画素の画素値がYC(xy)という記号で表されており、画像D1hについては、水平座標x、垂直座標yの位置にある画素の画素値がD1h(xy)という記号で表されており、画像D1vについては、水平座標x、垂直座標yの位置にある画素の画素値がD1v(xy)という記号で表されている。画像D1hの画素値の符号sD1hについては、水平座標x、垂直座標yの位置にある画素の符号がsD1h(xy)という記号で表されており、画像D1vの画素値の符号sD1vについては、水平座標x、垂直座標yの位置にある画素の符号がsD1v(xy)という記号で表されている。   FIGS. 8A to 8E are diagrams showing the luminance color difference addition image YC, the images D1h and D1v, the pixel value code sD1h of the image D1h, and the pixel value code sD1v of the image D1v. ) Represents the luminance color difference addition image YC, FIG. 8B represents the image D1h, FIG. 8C represents the image D1v, FIG. 8D represents the code sD1h, and FIG. 8E represents the code sD1v. Yes. 8A to 8E show horizontal coordinates, vertical coordinates, and coordinate values according to the horizontal and vertical directions of the image. In addition, for the luminance / color difference added image YC, the pixel value of the pixel at the position of the horizontal coordinate x and the vertical coordinate y is represented by the symbol YC (xy), and for the image D1h, the horizontal coordinate x and the vertical coordinate y The pixel value of the pixel at the position is represented by the symbol D1h (xy), and for the image D1v, the pixel value of the pixel at the position of the horizontal coordinate x and the vertical coordinate y is represented by the symbol D1v (xy). Has been. For the sign sD1h of the pixel value of the image D1h, the sign of the pixel at the position of the horizontal coordinate x and the vertical coordinate y is represented by the symbol sD1h (xy), and for the sign sD1v of the pixel value of the image D1v, The code | symbol of the pixel in the position of the coordinate x and the vertical coordinate y is represented by the symbol sD1v (xy).

水平方向増幅率決定手段3MAhは画像D1hの各画素に対する増幅率を輝度色差加算画像YCの同一座標の画素値と画像D1hの同一座標の画素値の符号に基づいて決定する。即ち、画素値D1h(11)に対する増幅率は画素値YC(11)と符号sD1h(11)をもとに決定し、画素値D1h(12)に対する増幅率は画素値YC(12)と符号sD1h(12)をもとに決定し、一般化すれば、画素値D1h(xy)に対する増幅率は画素値YC(xy)と符号sD1h(xy)をもとに決定し、という様に輝度色差加算画像YCの同一座標の画素値と画像D1hの同一座標の画素値の符号をもとに増幅率を決定し、その結果を増幅率D3MAhとして出力する。   The horizontal direction amplification factor determination means 3MAh determines the amplification factor for each pixel of the image D1h based on the sign of the pixel value of the same coordinate of the luminance color difference addition image YC and the pixel value of the same coordinate of the image D1h. That is, the amplification factor for the pixel value D1h (11) is determined based on the pixel value YC (11) and the symbol sD1h (11), and the amplification factor for the pixel value D1h (12) is the pixel value YC (12) and the symbol sD1h. If determined based on (12) and generalized, the amplification factor for the pixel value D1h (xy) is determined based on the pixel value YC (xy) and the code sD1h (xy), and so on. The amplification factor is determined based on the sign of the pixel value at the same coordinate in the image YC and the pixel value at the same coordinate in the image D1h, and the result is output as the amplification factor D3MAh.

また、垂直方向増幅率決定手段3MAvは画像D1vの各画素に対する増幅率を輝度色差加算画像YCの同一座標の画素値と画像D1vの同一座標の画素値の符号に基づいて決定する。即ち、画素値D1v(11)に対する増幅率は画素値YC(11)と符号sD1v(11)をもとに決定し、画素値D1v(12)に対する増幅率は画素値YC(12)と符号sD1v(12)をもとに決定し、一般化すれば、画素値D1v(xy)に対する増幅率は画素値YC(xy)と符号sD1v(xy)をもとに決定し、という様に輝度色差加算画像YCの同一座標の画素値と画像D1vの同一座標の画素値の符号をもとに増幅率を決定し、その結果を増幅率D3MAvとして出力する。   Further, the vertical direction amplification factor determining means 3MAv determines the amplification factor for each pixel of the image D1v based on the sign of the pixel value of the same coordinate of the luminance color difference addition image YC and the pixel value of the same coordinate of the image D1v. That is, the amplification factor for the pixel value D1v (11) is determined based on the pixel value YC (11) and the symbol sD1v (11), and the amplification factor for the pixel value D1v (12) is the pixel value YC (12) and the symbol sD1v. If determined based on (12) and generalized, the amplification factor for the pixel value D1v (xy) is determined based on the pixel value YC (xy) and the code sD1v (xy), and so on. The amplification factor is determined based on the sign of the pixel value at the same coordinate in the image YC and the pixel value at the same coordinate in the image D1v, and the result is output as the amplification factor D3MAv.

次に、画素値増幅手段3MBは、増幅率D3MAに基づいて第1の中間画像D1の画素値を増幅する。第1の中間画像D1は画像D1hと画像D1vとから成るので、画素値増幅手段3MBは、画像D1hの画素値を増幅するための水平方向画素値増幅手段3MBhと、画像D1vの画素値を増幅するための垂直方向画素値増幅手段3MBvとを有する。即ち、水平方向画素値増幅手段3MBhは、増幅率D3MAhに基づいて画像D1hの画素値を増幅した画像D3MBhを出力し、垂直方向画素値増幅手段3MBvは、増幅率D3MAvに基づいて画像D1vの画素値を増幅した画像D3MBvを出力する。そして画素値増幅手段3MBからは画像D3MBh及び画像D3MBvが画像D3MBとして出力される。   Next, the pixel value amplifying unit 3MB amplifies the pixel value of the first intermediate image D1 based on the amplification factor D3MA. Since the first intermediate image D1 includes the image D1h and the image D1v, the pixel value amplifying unit 3MB amplifies the pixel value of the image D1v and the horizontal pixel value amplifying unit 3MBh for amplifying the pixel value of the image D1h. Vertical direction pixel value amplifying means 3MBv. That is, the horizontal pixel value amplifying unit 3MBh outputs an image D3MBh obtained by amplifying the pixel value of the image D1h based on the amplification factor D3MAh, and the vertical pixel value amplifying unit 3MBv outputs the pixel of the image D1v based on the amplification factor D3MAv. An image D3MBv whose value has been amplified is output. Then, the image value D3MBh and the image D3MBv are output as the image D3MB from the pixel value amplifying unit 3MB.

画像D3MBが中間画像D3Mとして第1の中間画像処理手段3Mから出力される。中間画像D3Mは画像D3MBhに相当する画像D3Mhと画像D3MBvに相当する画像D3Mvから成る。
以上が第1の中間画像処理手段3Mの動作である。
The image D3MB is output from the first intermediate image processing means 3M as the intermediate image D3M. The intermediate image D3M includes an image D3Mh corresponding to the image D3MBh and an image D3Mv corresponding to the image D3MBv.
The above is the operation of the first intermediate image processing means 3M.

次に、第2の中間画像処理手段3Hの動作について説明する。図4と図5を比較すると、第2の中間画像処理手段は、入力信号が輝度色差加算画像YC、中間画像D2となっている以外は第1の中間画像処理手段と同様の構成となっており、第2の中間画像処理手段3Hは、第1の中間画像処理手段3Mが中間画像D1に対して行ったものと同じ処理を、中間画像D2に対して行って得た中間画像D3Hを出力する。なお、上述した第1の中間画像処理手段3Mの詳細な動作の説明から、第2の中間画像処理手段3Hの詳細な動作も明らかであるので、第2の中間画像処理手段3Hの詳細な動作の説明は省略する。   Next, the operation of the second intermediate image processing means 3H will be described. Comparing FIG. 4 and FIG. 5, the second intermediate image processing means has the same configuration as the first intermediate image processing means except that the input signals are the luminance color difference addition image YC and the intermediate image D2. The second intermediate image processing unit 3H outputs the intermediate image D3H obtained by performing the same process on the intermediate image D2 as the first intermediate image processing unit 3M performs on the intermediate image D1. To do. Since the detailed operation of the second intermediate image processing unit 3H is also apparent from the detailed operation of the first intermediate image processing unit 3M described above, the detailed operation of the second intermediate image processing unit 3H will be described. Description of is omitted.

最後に加算手段4の動作について説明する。加算手段4は、入力輝度画像YINと中間画像D3Mと中間画像D3Hとを加算した出力輝度画像YOUTを生成する。加算手段4の出力輝度画像YOUT、並びに出力CR画像CROUT及び出力CB画像CBOUTから成る出力画像IMGOUTが最終的な出力画像として、画像処理装置から出力される。   Finally, the operation of the adding means 4 will be described. The adding unit 4 generates an output luminance image YOUT obtained by adding the input luminance image YIN, the intermediate image D3M, and the intermediate image D3H. The output luminance image YOUT of the adding means 4 and the output image IMGOUT composed of the output CR image CROUT and the output CB image CBOUT are output from the image processing apparatus as the final output image.

中間画像D3Mは画像D3Mh及び画像D3Mvから成っており、中間画像D3Hは画像D3Hh及び画像D3Hvから成っているので、入力輝度画像YIN、中間画像D3M、及び中間画像D3Hを加算するとは、入力輝度画像YINに対し、画像D3Mh、D3Mv、D3Hh、及びD3Hvの全てを加算することを意味する。   The intermediate image D3M is composed of an image D3Mh and an image D3Mv, and the intermediate image D3H is composed of an image D3Hh and an image D3Hv. Therefore, when the input luminance image YIN, the intermediate image D3M, and the intermediate image D3H are added, the input luminance image This means that all of images D3Mh, D3Mv, D3Hh, and D3Hv are added to YIN.

ここで、加算手段4での加算処理は単純加算に限らず重み付け加算を行なっても良い。即ち、画像D3Mh、D3Mv、D3Hh、及びD3Hvの各々をそれぞれ異なる増幅率で増幅してから入力輝度画像YINに加算してもよい。   Here, the addition processing by the adding means 4 is not limited to simple addition, and weighted addition may be performed. That is, each of the images D3Mh, D3Mv, D3Hh, and D3Hv may be amplified with different amplification factors and then added to the input luminance image YIN.

以下、本発明における画像処理装置を画像表示装置の一部として利用する例について説明する。この説明を通じて、本発明における画像処理装置の作用、効果も明らかなものとなるであろう。以下の説明では特に断らない限り、Fnという記号は入力画像IMGINのナイキスト周波数を表す。   Hereinafter, an example in which the image processing apparatus according to the present invention is used as a part of an image display apparatus will be described. Through this description, the operation and effect of the image processing apparatus according to the present invention will become clear. In the following description, the symbol Fn represents the Nyquist frequency of the input image IMGIN unless otherwise specified.

図9は本発明における画像処理装置を利用した画像表示装置を示し、図示の画像表示装置においては、モニタU3上に原画IMGORGに対応した画像が表示される。   FIG. 9 shows an image display apparatus using the image processing apparatus according to the present invention. In the illustrated image display apparatus, an image corresponding to the original image IMGORG is displayed on the monitor U3.

カラー画像拡大手段U1は、原画IMGORGの画像サイズがモニタU3の画像サイズより小さい場合、原画IMGORGを拡大した画像IMGU1を出力する。ここで画像の拡大は例えばハイキュービック法などにより行なうことができる。   When the image size of the original image IMORG is smaller than the image size of the monitor U3, the color image enlarging means U1 outputs an image IMGU1 obtained by enlarging the original image IMORG. Here, the image can be enlarged by, for example, a high cubic method.

本発明における画像処理装置U2は、画像IMGU1を入力画像IMGINとし、入力画像IMGINに対し、先に説明した処理を行った画像IMGOUTを画像DU2として出力する。そしてモニタU3上には画像DU2が表示される。   The image processing device U2 in the present invention uses the image IMGU1 as the input image IMGIN, and outputs the image IMGOUT obtained by performing the above-described processing on the input image IMGIN as the image DU2. An image DU2 is displayed on the monitor U3.

なお、画像DU2は輝度信号(Y)と色差信号(Cr、Cb)に分かれている(以下、YCbCr形式と呼ぶこともある)ので、通常、モニタU3に表示される前に赤(R)緑(G)青(B)の色信号(以下RGB形式と呼ぶこともある)に変換される。YCbCr形式とRGB形式の間の変換は例えば国際電気通信連合による勧告ITU−R.BT601等に記載されており、RGB形式からYCbCr形式への変換は
Y=0.299R+0.587G+0.114B
Cr=0.500R−0.419G−0.081B
Cb=−0.169R−0.331G+0.500B
…(2)
により行なわれ、YCbCr形式からRGB形式への変換は
R=1.000Y+1.402Cr+0.000Cb
G=1.000Y−0.714Cr−0.344Cb
B=1.000Y+0.000Cr+1.772Cb
…(3)
により行なわれる。なお、式(2)、式(3)に示した係数は一例であって、本発明はこれらに限定されない。また、入力画像が8ビットデータの場合、Cr、Cbの値は通常−127以上128以下の範囲に丸め込まれる。
Note that the image DU2 is divided into a luminance signal (Y) and color difference signals (Cr, Cb) (hereinafter sometimes referred to as YCbCr format), and therefore, normally, red (R) green before being displayed on the monitor U3. (G) It is converted into a blue (B) color signal (hereinafter also referred to as RGB format). The conversion between the YCbCr format and the RGB format is, for example, a recommendation ITU-R. The conversion from RGB format to YCbCr format is described in BT601 etc. Y = 0.299R + 0.587G + 0.114B
Cr = 0.500R-0.419G-0.081B
Cb = −0.169R−0.331G + 0.500B
... (2)
The conversion from YCbCr format to RGB format is R = 1.000Y + 1.402Cr + 0.000Cb
G = 1.000Y-0.714Cr-0.344Cb
B = 1.000Y + 0.000Cr + 1.772Cb
... (3)
It is done by. Note that the coefficients shown in the equations (2) and (3) are examples, and the present invention is not limited to these. When the input image is 8-bit data, the values of Cr and Cb are usually rounded to a range of −127 to 128.

以下、原画IMGORGは、水平方向及び垂直方向ともにその画素数がモニタU3の画素数の半分であるとして、まずカラー画像拡大手段U1の動作、作用について説明を行う。   Hereinafter, assuming that the number of pixels of the original image IMGORG is half the number of pixels of the monitor U3 in both the horizontal direction and the vertical direction, the operation and action of the color image enlarging means U1 will be described first.

カラー画像拡大手段U1は原画IMGORGの輝度成分を表す画像YORGを拡大した画像DU1Yを生成する画像拡大手段U1Yと、Cr成分を表す画像CRORGを拡大した画像DU1CRを生成する画像拡大手段U1CRと、Cb成分を表す画像CBORGを拡大した画像DU1CBを生成する画像拡大手段U1CBとを有する。なお、画像拡大手段U1Y、画像拡大手段U1CR、及び画像拡大手段U1CBの構成はいずれも、図10に示す画像拡大手段U1と同じにすることができる。   The color image enlarging means U1 includes an image enlarging means U1Y that generates an image DU1Y obtained by enlarging the image YORG that represents the luminance component of the original image IMORG, an image enlarging means U1CR that generates an image DU1CR obtained by enlarging the image CRORG that represents the Cr component, and Cb. Image enlarging means U1CB that generates an image DU1CB obtained by enlarging the image CBORG representing the component. The configurations of the image enlarging unit U1Y, the image enlarging unit U1CR, and the image enlarging unit U1CB can all be the same as the image enlarging unit U1 shown in FIG.

図10は画像拡大手段U1の構成例を示す図であり、画像拡大手段U1は水平方向ゼロ挿入手段U1Aと、水平方向低周波数成分通過手段U1Bと、垂直方向ゼロ挿入手段U1Cと、垂直方向低周波数成分通過手段U1Dとを有する。
また、画像拡大手段U1への入力画像を原画DORGとして表す。
水平方向ゼロ挿入手段U1Aは原画DORGの水平方向に関して画素値0を持つ画素を適宜挿入した(原画DORGの水平方向に隣接する画素列相互間に、画素値0の画素から成る画素列を1列ずつ挿入した)画像DU1Aを生成する。
FIG. 10 is a diagram showing a configuration example of the image enlarging means U1, and the image enlarging means U1 includes a horizontal zero insertion means U1A, a horizontal low frequency component passing means U1B, a vertical zero insertion means U1C, and a vertical low Frequency component passing means U1D.
An input image to the image enlarging means U1 is represented as an original image DORG.
The horizontal zero inserting means U1A appropriately inserts pixels having a pixel value of 0 in the horizontal direction of the original image DORG (one pixel column consisting of pixels having a pixel value of 0 between adjacent pixel columns in the horizontal direction of the original image DORG). The image DU1A is inserted).

水平方向低周波数成分通過手段U1Bはローパスフィルタ処理により画像DU1Aの低周波数成分のみを取り出した画像DU1Bを生成する。
垂直方向ゼロ挿入手段U1Cは画像DU1Bの垂直方向に関して画素値0を持つ画素を適宜挿入した(画像DU1Bの垂直方向に隣接した画素行相互間に、画素値0の画素から成る画素行を1行ずつ挿入した)画像DU1Cを生成する。
垂直方向低周波数成分通過手段DU1Dは画像DU1Cの低周波数成分のみを取り出した画像DU1Dを生成する。
画像DU1Dが原画DORGを水平方向及び垂直方向ともに2倍した画像DU1として、画像拡大手段U1から出力される。
The horizontal direction low frequency component passing means U1B generates an image DU1B in which only the low frequency component of the image DU1A is extracted by low pass filter processing.
The vertical zero insertion means U1C appropriately inserts pixels having a pixel value of 0 in the vertical direction of the image DU1B (one pixel row consisting of pixels having a pixel value of 0 between adjacent pixel rows in the vertical direction of the image DU1B). The image DU1C is inserted).
The vertical direction low frequency component passing means DU1D generates an image DU1D obtained by extracting only the low frequency component of the image DU1C.
The image DU1D is output from the image enlarging means U1 as an image DU1 obtained by doubling the original image DORG in both the horizontal and vertical directions.

図11(A)〜(E)は画像拡大手段U1の動作を詳しく説明するための図であり、図11(A)は原画DORGを、図11(B)は画像DU1Aを、図11(C)は画像DU1Bを、図11(D)は画像DU1Cを、図11(E)は画像DU1Dを表す。図11(A)〜(E)において、四角(升目)は画素を表し、その中に書かれた記号あるいは数値は各画素の画素値を表す。   11A to 11E are diagrams for explaining the operation of the image enlarging means U1 in detail. FIG. 11A shows the original image DORG, FIG. 11B shows the image DU1A, and FIG. ) Represents the image DU1B, FIG. 11D represents the image DU1C, and FIG. 11E represents the image DU1D. 11A to 11E, squares (squares) represent pixels, and symbols or numerical values written therein represent pixel values of the respective pixels.

水平方向ゼロ挿入手段U1Aは図11(A)に示す原画DORGに対して、水平方向の1画素につき1個、画素値0をもった画素を挿入し(即ち、原画DORGの水平方向に隣接する画素列相互間に一つの、画素値0の画素から成る画素列を挿入し)、図11(B)に示す画像DU1Aを生成する。水平方向低周波数成分通過手段U1Bは図11(B)に示す画像DU1Aに対して、ローパスフィルタ処理を施し、図11(C)に示す画像DU1Bを生成する。   The horizontal direction zero insertion means U1A inserts one pixel having a pixel value of 0 for each pixel in the horizontal direction with respect to the original image DORG shown in FIG. 11A (that is, adjacent to the original image DORG in the horizontal direction). An image DU1A shown in FIG. 11B is generated by inserting one pixel row composed of pixels having a pixel value of 0 between the pixel rows. The horizontal direction low frequency component passing means U1B performs a low-pass filter process on the image DU1A shown in FIG. 11B to generate an image DU1B shown in FIG.

垂直方向ゼロ挿入手段U1Cは図11(C)に示す画像DU1Bに対して、垂直方向の1画素につき1個、画素値0をもった画素を挿入し(即ち、画像DU1Bの垂直方向に隣接する画素行相互間に一つの、画素値0の画素から成る画素行を挿入し)、図11(D)に示す画像DU1Cを生成する。垂直方向低周波数成分通過手段U1Dは図11(D)に示す画像DU1Cに対して、ローパスフィルタ処理を施し、図11(E)に示す画像DU1Dを生成する。以上の処理により原画DORGを水平方向及び垂直方向ともに2倍に拡大した画像DU1Dが生成される。   The vertical zero insertion unit U1C inserts one pixel having a pixel value of 0 for each pixel in the vertical direction into the image DU1B shown in FIG. 11C (that is, adjacent to the image DU1B in the vertical direction). An image DU1C shown in FIG. 11D is generated by inserting one pixel row composed of pixels having a pixel value of 0 between the pixel rows. The vertical low frequency component passing means U1D performs a low pass filter process on the image DU1C shown in FIG. 11D, and generates an image DU1D shown in FIG. With the above processing, an image DU1D in which the original image DORG is doubled in both the horizontal direction and the vertical direction is generated.

図12(A)〜(D)は画像拡大手段U1による処理の作用を周波数空間上で表したものであり、図12(A)は原画DORGの周波数スペクトル、図12(B)は画像DU1Aの周波数スペクトル、図12(C)は水平方向周波数成分通過手段U1Bの周波数応答、図12(D)は画像DU1Bの周波数スペクトルを表している。なお、図12(A)〜(D)において横軸は水平方向の空間周波数を表す周波数軸であり、縦軸は周波数スペクトルもしくは周波数応答の強度を表している。   12 (A) to 12 (D) show the effect of processing by the image enlarging means U1 on the frequency space, FIG. 12 (A) is the frequency spectrum of the original image DORG, and FIG. 12 (B) is the image DU1A. FIG. 12C shows the frequency spectrum, FIG. 12C shows the frequency response of the horizontal frequency component passing means U1B, and FIG. 12D shows the frequency spectrum of the image DU1B. 12A to 12D, the horizontal axis represents the frequency axis representing the spatial frequency in the horizontal direction, and the vertical axis represents the frequency spectrum or the intensity of the frequency response.

原画DORGの画素数は水平方向及び垂直方向ともに画像DU1の半分であり、言い換えると原画DORGのサンプリング間隔は画像DU1のサンプリング間隔の2倍である。したがって原画DORGのナイキスト周波数は画像DU1のナイキスト周波数の半分である。
一方、画像拡大手段U1(あるいは画像拡大手段U1Y、画像拡大手段U1CR、画像拡大手段U1CB)の出力する画像IMGU1が入力画像IMGINとして用いられるので、明らかに、画像DU1の画素数と入力画像IMGINの画素数は同じである。即ち画像DU1のナイキスト周波数もFnである。したがって原画DORGのナイキスト周波数は入力画像入力画像IMGINのナイキスト周波数の半分即ち、Fn/2である。
The number of pixels of the original image DORG is half that of the image DU1 in both the horizontal direction and the vertical direction. In other words, the sampling interval of the original image DORG is twice the sampling interval of the image DU1. Therefore, the Nyquist frequency of the original image DORG is half of the Nyquist frequency of the image DU1.
On the other hand, the image IMGU1 output from the image enlarging means U1 (or the image enlarging means U1Y, the image enlarging means U1CR, and the image enlarging means U1CB) is used as the input image IMGIIN. The number of pixels is the same. That is, the Nyquist frequency of the image DU1 is also Fn. Therefore, the Nyquist frequency of the original image DORG is half of the Nyquist frequency of the input image input image IMGIN, that is, Fn / 2.

なお、図12(A)〜(D)では表記を簡素にするため、1本の周波数軸しか用いていない。しかしながら、通常、画像データは2次元平面状に並んだ画素配列上に与えられた画素値から成り、その周波数スペクトルも水平方向の周波数軸及び垂直方向の周波数軸で張られる平面上に与えられるものである。したがって原画DORG等の周波数スペクトル等を正確に表すためには、水平方向の周波数軸及び垂直方向の周波数軸の両方を記載する必要がある。しかしながらその周波数スペクトルの形状は通常、周波数軸上の原点を中心に等方的に広がったものであり、周波数軸1本で張られる空間上での周波数スペクトルを示しさえすれば、そこから周波数軸2本で張られる空間へ拡張して考察することは当業者にとって容易である。したがって以降の説明でも特に断らない限り、周波数空間上での説明は、1本の周波数軸で張られる空間を用いて行う。   In FIGS. 12A to 12D, only one frequency axis is used to simplify the notation. However, normally, image data consists of pixel values given on a pixel array arranged in a two-dimensional plane, and its frequency spectrum is also given on a plane stretched by a horizontal frequency axis and a vertical frequency axis. It is. Therefore, in order to accurately represent the frequency spectrum of the original picture DORG or the like, it is necessary to describe both the horizontal frequency axis and the vertical frequency axis. However, the shape of the frequency spectrum usually spreads isotropically around the origin on the frequency axis, and as long as the frequency spectrum in the space spanned by one frequency axis is shown, the frequency axis It is easy for those skilled in the art to expand and consider the space spanned by two. Therefore, unless otherwise specified in the following description, the description on the frequency space is performed using a space stretched by one frequency axis.

また、原画DORGとして入力される信号としては、輝度成分を表す画像YORGと、色差成分を表す画像CRORG及びCBORGがある。しかし人間の目は色差成分の急峻な変化(あるいは色差信号の持つ高周波数成分)については感度が低い。したがって、原画DORGとして色差成分を表す画像CRORG及びCBORGが入力される場合、以下で説明するような折り返し成分はあまり問題とならない。したがって以下の説明では原画DORGとして原画IMGORGの輝度成分を表す画像YORGが入力される場合を前提にしている。   As signals input as the original image DORG, there are an image YORG representing a luminance component, and images CRORG and CBORG representing a color difference component. However, the human eye is not sensitive to abrupt changes in color difference components (or high frequency components of color difference signals). Therefore, when the images CRORG and CBORG representing the color difference components are input as the original image DORG, the aliasing component described below does not cause much problem. Therefore, in the following description, it is assumed that an image YORG representing the luminance component of the original image IMGORG is input as the original image DORG.

まず、原画DORGの周波数スペクトルについて説明する。通常、自然画像が原画DORGとして入力されるが、その場合にはその輝度成分のスペクトル強度は周波数空間の原点周辺に集中している。したがって原画DORGの周波数スペクトルは図12(A)のスペクトルSPOのようになる。   First, the frequency spectrum of the original picture DORG will be described. Normally, a natural image is input as the original image DORG. In this case, the spectral intensity of the luminance component is concentrated around the origin of the frequency space. Therefore, the frequency spectrum of the original picture DORG is like the spectrum SPO in FIG.

次に、画像DU1Aのスペクトル強度について説明する。画像DU1Aは、原画DORGに対して、水平方向に1画素につき1画素、画素値0を持った画素を挿入することで生成される。このような処理を行うと周波数スペクトルには原画DORGのナイキスト周波数を中心にした折り返しが発生する。即ち周波数±Fn/2を中心にスペクトルSPOが折り返したスペクトルSPMが発生するので、画像DU1Aの周波数スペクトルは図12(B)のように表される。   Next, the spectral intensity of the image DU1A will be described. The image DU1A is generated by inserting one pixel per pixel and a pixel value of 0 in the horizontal direction with respect to the original image DORG. When such processing is performed, aliasing around the Nyquist frequency of the original picture DORG occurs in the frequency spectrum. That is, since a spectrum SPM in which the spectrum SPO is folded around the frequency ± Fn / 2 is generated, the frequency spectrum of the image DU1A is expressed as shown in FIG.

次に、水平方向低周波数成分通過手段U1Bの周波数応答について説明する。水平方向低周波数成分通過手段はローパスフィルタによって実現されるので、その周波数応答は図12(C)に示すように周波数が高くなるほど低くなる。   Next, the frequency response of the horizontal low frequency component passing means U1B will be described. Since the horizontal low-frequency component passing means is realized by a low-pass filter, the frequency response becomes lower as the frequency becomes higher as shown in FIG.

最後に、画像DU1Bの周波数スペクトルについて説明する。図12(B)に示す周波数スペクトルを持った画像DU1Aに対し、図12(C)に示した周波数応答を持ったローパスフィルタ処理を行うことで、図12(D)に示す画像DU1Bが得られる。
したがって画像DU1Bの周波数スペクトルは画像DU1Bに示すように、スペクトルSPMの強度がある程度落ちたスペクトルSP2と、スペクトルSPOの強度がある程度落ちたスペクトルSP1から成る。なお一般に、ローパスフィルタの周波数応答は周波数が高くなるほど低くなる。従って、スペクトルSP1の強度をスペクトルSPOと比較すると、水平方向低周波数成分通過手段U1Bによって、高周波数成分側、即ち周波数が±Fn/2の近傍でのスペクトル強度が減少したものとなる。
Finally, the frequency spectrum of the image DU1B will be described. An image DU1B shown in FIG. 12D is obtained by performing low-pass filter processing having a frequency response shown in FIG. 12C on the image DU1A having the frequency spectrum shown in FIG. .
Therefore, as shown in the image DU1B, the frequency spectrum of the image DU1B includes a spectrum SP2 in which the intensity of the spectrum SPM has dropped to some extent and a spectrum SP1 in which the intensity of the spectrum SPO has dropped to some extent. In general, the frequency response of the low-pass filter decreases as the frequency increases. Therefore, when the intensity of the spectrum SP1 is compared with the spectrum SPO, the spectrum intensity on the high frequency component side, that is, in the vicinity of the frequency of ± Fn / 2 is reduced by the horizontal low frequency component passing means U1B.

また、画像拡大手段U1による処理のうち、垂直方向ゼロ挿入手段U1C及び垂直方向低周波数成分通過手段U1Dによる処理について、その周波数空間上での作用についての説明は省略するが、その処理の内容から、垂直方向の空間周波数を表す軸方向に対して、図12(A)〜(D)を参照して説明した内容と同様の作用があることは容易に理解できる。即ち、画像DU1Dの周波数スペクトルは、図12(D)に示した周波数スペクトルが2次元上に広がったものとなる。   Of the processing by the image enlarging means U1, the description of the operation on the frequency space of the processing by the vertical zero insertion means U1C and the vertical low frequency component passing means U1D is omitted, but from the contents of the processing. It can be easily understood that there is an action similar to that described with reference to FIGS. 12A to 12D with respect to the axial direction representing the spatial frequency in the vertical direction. That is, the frequency spectrum of the image DU1D is obtained by spreading the frequency spectrum shown in FIG.

また、以降の説明ではスペクトルSP2のことを折り返し成分と呼ぶ。この折り返し成分は、画像上では、比較的高い周波数成分を持ったノイズあるいは偽の信号として現れる。そのようなノイズあるいは偽の信号としてオーバーシュートやジャギーあるいはリンギング等が挙げられる。   In the following description, the spectrum SP2 is referred to as a folded component. This aliasing component appears on the image as noise or a false signal having a relatively high frequency component. Such noise or false signals include overshoot, jaggy or ringing.

以下、本発明における画像処理装置の作用、効果について説明する。
図13(A)〜(E)は入力画像IMGIN(もしくは画像IMGU1)として原画IMGORGを拡大して得られた画像IMGU1が入力された場合の、入力輝度画像YINから中間画像D1を生成する際の作用、効果を模式的に表した図であり、
図13(A)は入力輝度画像YINの周波数スペクトルを、図13(B)は高周波数成分画像生成手段1Aの周波数応答を、図13(C)は低周波数成分画像生成手段1Bの周波数応答を、図13(D)は第1の中間画像生成手段1の周波数応答を、図13(E)は中間画像D1の周波数スペクトルを表す。なお、図13(A)〜(E)においても図12(A)〜(D)と同様の理由で周波数軸は1本しか用いていない。
The operation and effect of the image processing apparatus according to the present invention will be described below.
FIGS. 13A to 13E show a case where the intermediate image D1 is generated from the input luminance image YIN when the image IMGU1 obtained by enlarging the original image IMORG as the input image IMGUIN (or the image IMGU1) is input. It is a diagram schematically showing the action and effect,
13A shows the frequency spectrum of the input luminance image YIN, FIG. 13B shows the frequency response of the high frequency component image generating means 1A, and FIG. 13C shows the frequency response of the low frequency component image generating means 1B. 13D shows the frequency response of the first intermediate image generating means 1, and FIG. 13E shows the frequency spectrum of the intermediate image D1. In FIGS. 13A to 13E, only one frequency axis is used for the same reason as in FIGS. 12A to 12D.

さらに図13(A)〜(E)では、空間周波数が0以上となる範囲でのみ周波数スペクトルあるいは周波数応答の強度を表しているが、以下の説明での周波数スペクトルあるいは周波数応答は、周波数軸上の原点を中心に対称的な形状となる。したがって説明に用いる図は、空間周波数が0以上となる範囲のみを示したもので十分である。   Further, in FIGS. 13A to 13E, the intensity of the frequency spectrum or the frequency response is shown only in the range where the spatial frequency is 0 or more, but the frequency spectrum or the frequency response in the following description is on the frequency axis. It becomes a symmetric shape around the origin. Therefore, the figure used for description is sufficient to show only the range where the spatial frequency is 0 or more.

まず、入力輝度画像YINの周波数スペクトルについて説明する。画像拡大手段U1Yにおける拡大処理によって生成された画像IMGU1が入力輝度画像YINとして入力されるので、入力輝度画像YINの周波数スペクトルは図13(A)に示すように、図12(D)で説明したものと同じ形状となり、原画IMGORGのスペクトルSPOの強度がある程度落ちたスペクトルSP1と折り返し成分となるスペクトルSP2とから成る。   First, the frequency spectrum of the input luminance image YIN will be described. Since the image IMGU1 generated by the enlargement process in the image enlarging means U1Y is input as the input luminance image YIN, the frequency spectrum of the input luminance image YIN has been described with reference to FIG. 12D as shown in FIG. The spectrum SP1 has the same shape as that of the original, and the spectrum SPO of the original image IMGORG has dropped to some extent, and the spectrum SP2 that is the aliasing component.

次に、高周波数成分画像生成手段1Aの周波数応答について説明する。高周波数成分画像生成手段1Aはハイパスフィルタにより構成されているので、その周波数応答は図13(B)に示すように周波数が低くなるほど低くなる。   Next, the frequency response of the high frequency component image generating unit 1A will be described. Since the high frequency component image generating means 1A is composed of a high-pass filter, the frequency response becomes lower as the frequency becomes lower as shown in FIG.

次に、低周波数成分画像生成手段1Bの周波数応答について説明する。低周波数成分画像生成手段1Bはローパスフィルタにより構成されているので、その周波数応答は図13(C)に示すように周波数が高くなるほど低くなる。   Next, the frequency response of the low frequency component image generation means 1B will be described. Since the low frequency component image generating means 1B is composed of a low pass filter, the frequency response thereof becomes lower as the frequency becomes higher as shown in FIG.

次に、第1の中間画像生成手段1の周波数応答について説明する。入力輝度画像YINが持つ周波数成分のうち、図13(D)に示された低周波数成分側の領域(「第1の周波数FL1」よりも低い周波数の帯域)RL1の周波数成分については、第1の中間画像生成手段1内の高周波数成分画像生成手段1Aで弱められる。一方、図13(D)に示された高周波数成分側の領域(第2の周波数FL2よりも高い周波数の帯域)RH1の周波数成分については、第1の中間画像生成手段1内の低周波数成分画像生成手段1Bで弱められる。したがって、第1の中間画像生成手段1の周波数応答は、図13(D)に示すように、低周波数成分側の領域RL1と高周波数成分側の領域RH1によって帯域を制限された中間の領域(特定の周波数帯域)RM1内にピークを持ったものとなる。   Next, the frequency response of the first intermediate image generating unit 1 will be described. Among the frequency components of the input luminance image YIN, the first frequency component of the low frequency component side region (band of frequencies lower than the “first frequency FL1”) RL1 shown in FIG. Is weakened by the high-frequency component image generation means 1A in the intermediate image generation means 1. On the other hand, for the frequency component of the high frequency component side region (band of frequencies higher than the second frequency FL2) RH1 shown in FIG. 13D, the low frequency component in the first intermediate image generating means 1 is used. It is weakened by the image generation means 1B. Therefore, as shown in FIG. 13D, the frequency response of the first intermediate image generating means 1 is an intermediate region (band region limited by the low frequency component side region RL1 and the high frequency component side region RH1). (Specific frequency band) RM1 has a peak.

次に、中間画像D1の周波数スペクトルについて説明する。図13(A)に示す周波数スペクトルを持つ入力輝度画像YINが、図13(D)に示した周波数応答を持つ第1の中間画像生成手段1を通過することで、図13(E)に示す中間画像D1が得られる。そして第1の中間画像生成手段1の周波数応答は、低周波数成分側の領域RL1と高周波数成分側の領域RH1によって帯域制限された中間の領域RM1内にピークを持ったものなので、中間画像D1の周波数スペクトルは、入力輝度画像YINの周波数スペクトルのうち、低周波数成分側の領域RL1と高周波数成分側の領域RH1に含まれる部分の強度が弱くなったものとなる。従って中間画像D1は入力輝度画像YINの持つ高周波数成分から折り返し成分となるスペクトルSP2を取り除いたものとなる。即ち第1の中間画像生成手段1には、入力輝度画像YINのもつ高周波数成分から折り返し成分となるスペクトルSP1を取り除いた中間画像D1を生成するという効果がある。   Next, the frequency spectrum of the intermediate image D1 will be described. The input luminance image YIN having the frequency spectrum shown in FIG. 13 (A) passes through the first intermediate image generating means 1 having the frequency response shown in FIG. 13 (D), so that it is shown in FIG. 13 (E). An intermediate image D1 is obtained. Since the frequency response of the first intermediate image generating means 1 has a peak in the intermediate region RM1 band-limited by the region RL1 on the low frequency component side and the region RH1 on the high frequency component side, the intermediate image D1 In the frequency spectrum of the input luminance image YIN, the intensity of the portion included in the low frequency component side region RL1 and the high frequency component side region RH1 is weakened. Therefore, the intermediate image D1 is obtained by removing the spectrum SP2 that is the aliasing component from the high frequency component of the input luminance image YIN. That is, the first intermediate image generating means 1 has an effect of generating the intermediate image D1 by removing the spectrum SP1 that is the aliasing component from the high frequency component of the input luminance image YIN.

図14(A)〜(C)は第2の中間画像生成手段2の作用、効果を表した図であり、図14(A)は非線形処理画像D2Aの周波数スペクトルを、図14(B)は高周波数成分画像生成手段2Bの周波数応答を、図14(C)は画像D2Bの周波数スペクトルを表す。なお、図14(A)〜(C)では、図13(A)〜(E)と同様の理由で、空間周波数が0以上となる範囲でのみ周波数スペクトルあるいは周波数応答を表している。   FIGS. 14A to 14C are diagrams showing the operation and effect of the second intermediate image generation unit 2, FIG. 14A shows the frequency spectrum of the nonlinear processed image D2A, and FIG. 14B shows the frequency spectrum. FIG. 14C shows the frequency response of the high frequency component image generating means 2B, and FIG. 14C shows the frequency spectrum of the image D2B. 14A to 14C show the frequency spectrum or frequency response only in the range where the spatial frequency is 0 or more for the same reason as in FIGS. 13A to 13E.

後述するように非線形処理画像D2Aでは、高周波数成分側の領域RH2に相当する高周波数成分が生成される。図14(A)はその様子を模式的に表した図である。図14(C)に示す画像D2Bは非線形処理画像D2Aが高周波数成分画像生成手段2Bを通過することで生成される。高周波数成分画像生成手段2Bは第3の周波数FL3以上の成分を通過させるハイパスフィルタで構成されており、その周波数応答は図14(B)に示すように周波数が高くなるほど高いものとなる。従って画像D2Bの周波数スペクトルは図14(C)に示すように非線形処理画像D2Aの周波数スペクトルから低周波数成分側の領域RL2に相当する成分(第3の周波数FL3よりも低い周波数成分)を取り除いたものとなる。言い換えると、非線形処理手段2Aには高周波数成分側の領域RH2に相当する高周波数成分を生成する効果があり、高周波数成分画像生成手段2Bには非線形処理手段2Aで生成された高周波数成分のみを取り出す効果がある。なお、図示の例では、第3の周波数FL3は、Fn/2に略等しい。   As will be described later, in the nonlinear processed image D2A, a high frequency component corresponding to the region RH2 on the high frequency component side is generated. FIG. 14A is a diagram schematically showing the state. An image D2B shown in FIG. 14C is generated by passing the nonlinear processed image D2A through the high frequency component image generating means 2B. The high-frequency component image generating means 2B is composed of a high-pass filter that passes components of the third frequency FL3 or higher, and the frequency response becomes higher as the frequency becomes higher as shown in FIG. 14B. Accordingly, the frequency spectrum of the image D2B is obtained by removing the component corresponding to the region RL2 on the low frequency component side (frequency component lower than the third frequency FL3) from the frequency spectrum of the nonlinear processed image D2A as shown in FIG. It will be a thing. In other words, the nonlinear processing means 2A has an effect of generating a high frequency component corresponding to the region RH2 on the high frequency component side, and the high frequency component image generating means 2B has only the high frequency component generated by the nonlinear processing means 2A. There is an effect to take out. In the illustrated example, the third frequency FL3 is substantially equal to Fn / 2.

上記の作用、効果についてさらに詳しく説明する。
図15(A)〜(C)及び図16(A)〜(C)はステップエッジをサンプリングした際に得られる輝度信号について表した図である。
図15(A)はステップエッジとサンプリング間隔S1を表しており、図15(B)はステップエッジをサンプリング間隔S1でサンプリングした際に得られる輝度信号を表しており、図15(C)は図15(B)に示される信号の高周波数成分を表している。一方、図16(A)はステップエッジとサンプリング間隔S1より間隔の広いサンプリング間隔S2を表しており、図16(B)はステップエッジをサンプリング間隔S2でサンプリングした際に得られる信号を表しており、図16(C)は図16(B)に示される信号の高周波数成分を表している。以下の説明ではサンプリング間隔S2の長さはサンプリング間隔S1の長さの2倍であるとする。
The above operations and effects will be described in more detail.
FIGS. 15A to 15C and FIGS. 16A to 16C are diagrams illustrating luminance signals obtained when sampling step edges.
FIG. 15A shows the step edge and the sampling interval S1, FIG. 15B shows the luminance signal obtained when the step edge is sampled at the sampling interval S1, and FIG. 15 (B) represents a high frequency component of the signal. On the other hand, FIG. 16A shows a sampling interval S2 wider than the step edge and the sampling interval S1, and FIG. 16B shows a signal obtained when the step edge is sampled at the sampling interval S2. FIG. 16C shows high frequency components of the signal shown in FIG. In the following description, it is assumed that the length of the sampling interval S2 is twice the length of the sampling interval S1.

図15(C)及び図16(C)に示されるようにステップエッジの中央は高周波数成分を表す信号においてゼロクロス点Zとして現れる。また、高周波数成分を表す信号のゼロクロス点Zの近傍での傾きは、サンプリング間隔が短いほど急になり、かつゼロクロス点Zの近傍での局所的な最大値、最小値を与える点の位置も、サンプリング間隔が短いほどゼロクロス点Zに近づく。   As shown in FIGS. 15C and 16C, the center of the step edge appears as a zero cross point Z in the signal representing the high frequency component. In addition, the slope of the signal representing the high frequency component near the zero cross point Z becomes steeper as the sampling interval is short, and the position of the point giving the local maximum value and minimum value near the zero cross point Z is also The shorter the sampling interval, the closer to the zero cross point Z.

即ち、サンプリング間隔が変わっても、エッジの近傍において高周波数成分を表す信号のゼロクロス点の位置は変化しないが、サンプリング間隔が小さくなるほど(あるいは解像度が上がるほど)エッジの近傍での高周波数成分の傾きは急になり、局所的な最大値、最小値を与える点の位置はゼロクロス点に近づく。   That is, even if the sampling interval changes, the position of the zero-cross point of the signal representing the high frequency component does not change in the vicinity of the edge, but the higher the frequency component in the vicinity of the edge, the smaller the sampling interval (or the higher the resolution). The slope becomes steep, and the position of the point giving the local maximum and minimum values approaches the zero cross point.

図17(A)〜(F)はステップエッジをサンプリング間隔S2でサンプリングした信号が2倍に拡大された後、本発明における画像処理装置に入力された際の作用、効果を示す図であり、特に第1の中間画像生成手段1及び第2の中間画像生成手段2の作用、効果を表している。なお、先に述べた通り、第1の中間画像生成手段1及び第2の中間画像生成手段2内部の処理は水平方向及び垂直方向のそれぞれについて行われるのでその処理は一次元的に行われる。したがって図17(A)〜(F)では一次元信号を用いて処理の内容を表している。   FIGS. 17A to 17F are diagrams showing the operation and effect when the signal obtained by sampling the step edge at the sampling interval S2 is doubled and then input to the image processing apparatus according to the present invention. In particular, the operations and effects of the first intermediate image generation unit 1 and the second intermediate image generation unit 2 are shown. As described above, since the processes in the first intermediate image generation unit 1 and the second intermediate image generation unit 2 are performed in each of the horizontal direction and the vertical direction, the process is performed one-dimensionally. Accordingly, in FIGS. 17A to 17F, the contents of the processing are represented using a one-dimensional signal.

図17(A)は、図16(B)と同様ステップエッジをサンプリング間隔S2でサンプリングした際の輝度信号を示す。図17(B)は、図17(A)に示される信号を2倍に拡大した信号を示す。即ち、原画DORGに図17(A)に示すようなエッジが含まれる場合、入力輝度画像YINとして図17(B)に示すような信号が入力される。なお、信号を2倍に拡大するとサンプリング間隔は拡大前の半分になるため、図17(B)に示される信号のサンプリング間隔は図14(A)〜(C)中のサンプリング間隔S1と同じになる。また、図17(A)において座標P3で表される位置はエッジ信号の低輝度側(低レベル側)の境界部分であり、座標P4で表される位置はエッジ信号の高輝度側(高レベル側)の境界である。   FIG. 17A shows the luminance signal when the step edge is sampled at the sampling interval S2 as in FIG. FIG. 17B shows a signal obtained by enlarging the signal shown in FIG. That is, when the original image DORG includes an edge as shown in FIG. 17A, a signal as shown in FIG. 17B is input as the input luminance image YIN. Note that when the signal is doubled, the sampling interval becomes half that before the expansion, so the sampling interval of the signal shown in FIG. 17B is the same as the sampling interval S1 in FIGS. Become. In FIG. 17A, the position represented by the coordinate P3 is a boundary portion on the low luminance side (low level side) of the edge signal, and the position represented by the coordinate P4 is the high luminance side (high level) of the edge signal. Side).

図17(C)は図17(B)に示される信号の高周波数成分を表す信号、即ち高周波数成分画像生成手段1Aから出力される画像D1Aに相当する信号を示す。なお、画像D1Aは、入力輝度画像YINの高周波数成分を取り出したものなので、その中には折り返し成分も含まれている。   FIG. 17C shows a signal representing the high frequency component of the signal shown in FIG. 17B, that is, a signal corresponding to the image D1A output from the high frequency component image generating means 1A. Note that since the image D1A is obtained by extracting the high frequency component of the input luminance image YIN, the aliasing component is included in the image D1A.

図17(D)は図17(C)に示される信号の低周波数成分を表す信号、即ち低周波数成分画像生成手段1Bから出力される画像D1Bに相当する信号を示す。なお先に述べたとおり画像D1Bが中間画像D1として出力されるので、図17(D)は中間画像D1にも相当する。図17(D)に示すとおり、中間画像D1においてゼロクロス点Zの近傍の局所的な最小値は座標P3に、局所的な最大値は座標P4に現れ、その様子は図16(C)に示した、ステップエッジをサンプリング間隔S2でサンプリングした信号から取り出した高周波数成分と一致する。また、画像D1Aに含まれていた折り返し成分は、低周波数成分画像生成手段1Bで行うローパスフィルタ処理によって取り除かれる。   FIG. 17D shows a signal representing the low frequency component of the signal shown in FIG. 17C, that is, a signal corresponding to the image D1B output from the low frequency component image generating means 1B. Since the image D1B is output as the intermediate image D1 as described above, FIG. 17D corresponds to the intermediate image D1. As shown in FIG. 17D, the local minimum value in the vicinity of the zero cross point Z in the intermediate image D1 appears at the coordinate P3, and the local maximum value appears at the coordinate P4, as shown in FIG. The step edge coincides with the high frequency component extracted from the signal sampled at the sampling interval S2. Further, the aliasing component included in the image D1A is removed by a low-pass filter process performed by the low-frequency component image generation unit 1B.

図17(E)は、図17(D)に示される信号に対する非線形処理手段2Aに入力された際の出力信号、即ち、中間画像D1が入力された場合に非線形処理手段2Aから出力される画像D2Aを表している。非線形処理手段2Aではゼロクロス点Zの前後の(前後において隣接する)座標P1、P2の信号値が増幅される。したがって、画像D2Aは図17(E)に示すように座標P1、P2での信号値の大きさが他の値に比べ大きくなり、ゼロクロス点Zの近傍で、局所的な最小値の現れる位置が座標P3からよりゼロクロス点Zに近い座標P1に、局所的な最大値の現れる位置が座標P4からよりゼロクロス点Zに近い座標P2へと変化する。これは非線形処理手段2Aにおける、ゼロクロス点Zの前後の画素の値を増幅するという非線形処理によって、高周波数成分が生成されたことを意味する。このように画素ごとに適応的に増幅率を変える、あるいは画素に応じて処理の内容を適宜変えることで、高周波数成分を生成することが可能になる。即ち非線形処理手段2Aには、中間画像D1には含まれない高周波数成分、すわなち、図14(A)に示した高周波数成分側の領域RH2に相当する高周波数成分を生成する効果がある。   FIG. 17E shows an output signal when the signal shown in FIG. 17D is input to the nonlinear processing means 2A, that is, an image output from the nonlinear processing means 2A when the intermediate image D1 is input. D2A is represented. In the nonlinear processing means 2A, the signal values of the coordinates P1 and P2 before and after (adjacent in the front and rear) of the zero cross point Z are amplified. Accordingly, in the image D2A, as shown in FIG. 17E, the magnitude of the signal value at the coordinates P1 and P2 is larger than the other values, and the position where the local minimum value appears in the vicinity of the zero cross point Z is shown. The position where the local maximum value changes from the coordinate P3 to the coordinate P1 closer to the zero cross point Z changes from the coordinate P4 to the coordinate P2 closer to the zero cross point Z. This means that the high-frequency component is generated by the nonlinear processing of amplifying the values of the pixels before and after the zero cross point Z in the nonlinear processing means 2A. In this way, it is possible to generate a high-frequency component by adaptively changing the amplification factor for each pixel or appropriately changing the content of processing according to the pixel. That is, the nonlinear processing means 2A has an effect of generating a high frequency component not included in the intermediate image D1, that is, a high frequency component corresponding to the region RH2 on the high frequency component side shown in FIG. is there.

図17(F)は図17(E)に示される信号の高周波数成分を表す信号、即ち高周波数成分画像生成手段2Bから出力される画像D2Bに相当する信号を示す。画像D2Bのより正確な形状については後述するが、図17(F)に示すとおり、画像D2Bにおいてゼロクロス点Zの近傍の局所的な最小値(負側のピーク)は座標P1に、最大値(正側のピーク)は座標P2に現れ、その様子は図15(C)に示した、ステップエッジをサンプリング間隔S1でサンプリングした信号から取り出した高周波数成分と一致する。これは非線形処理手段2Aにおいて生成された高周波数成分が高周波数成分画像生成手段2Bによって取り出され、画像D2Bとして出力されることを意味する。
また、取り出された画像D2Bはサンプリング間隔S1に対応した周波数成分を含む信号であるといえる。言い換えると、高周波数成分画像生成手段2Bには非線形処理手段2Aで生成された高周波数成分のみを取り出す効果がある。
FIG. 17F shows a signal representing the high frequency component of the signal shown in FIG. 17E, that is, a signal corresponding to the image D2B output from the high frequency component image generating means 2B. The more accurate shape of the image D2B will be described later. As shown in FIG. 17F, the local minimum value (negative peak) in the vicinity of the zero-cross point Z in the image D2B is the maximum value ( The positive side peak) appears at the coordinate P2, and this state coincides with the high frequency component extracted from the signal obtained by sampling the step edge at the sampling interval S1, as shown in FIG. This means that the high frequency component generated in the nonlinear processing means 2A is taken out by the high frequency component image generating means 2B and output as an image D2B.
Further, it can be said that the extracted image D2B is a signal including a frequency component corresponding to the sampling interval S1. In other words, the high frequency component image generation means 2B has an effect of extracting only the high frequency component generated by the nonlinear processing means 2A.

以上が第2の中間画像生成処理手段2の効果であり、まとめると、第2の中間画像生成処理手段2内の非線形処理手段2Aには高周波数成分側の領域RH2に相当する高周波数成分を生成する効果があり、第2の中間画像生成処理手段2内の高周波数成分画像生成手段2Bには非線形処理手段2Aで生成された高周波数成分のみを取り出す効果がある。そして画像D2Bが中間画像D2として出力されるので、第2の中間画像生成手段2は、サンプリング間隔S1に対応した高周波数成分を持った中間画像D2を出力することができる。   The above is the effect of the second intermediate image generation processing means 2. To summarize, the non-linear processing means 2A in the second intermediate image generation processing means 2 has a high frequency component corresponding to the region RH2 on the high frequency component side. The high frequency component image generation means 2B in the second intermediate image generation processing means 2 has the effect of extracting only the high frequency component generated by the nonlinear processing means 2A. Since the image D2B is output as the intermediate image D2, the second intermediate image generating means 2 can output the intermediate image D2 having a high frequency component corresponding to the sampling interval S1.

ここで中間画像D1及び中間画像D2を入力輝度画像YINに加算することで画像の強調処理を行うことが可能である。
本発明では、第1及び第2の中間画像D1及びD2を入力画像YINに加算するわけではないが、以下、仮に第1及び第2の中間画像を加算をした場合に得られる効果について説明し、その後で、第1及び第2の中間画像D1及びD2の代わりに、第3及び第4の中間画像D3M及びD3Hを加算することによる効果について説明する。
Here, it is possible to perform image enhancement processing by adding the intermediate image D1 and the intermediate image D2 to the input luminance image YIN.
In the present invention, the first and second intermediate images D1 and D2 are not added to the input image YIN, but the effects obtained when the first and second intermediate images are added will be described below. After that, the effect obtained by adding the third and fourth intermediate images D3M and D3H instead of the first and second intermediate images D1 and D2 will be described.

まず、中間画像D1を加算することの効果について述べる。先に述べたとおり中間画像D1は入力輝度画像YINの持つ高周波数成分から折り返し成分を取り除いたものであり、図13(E)に示すように原画DORGのナイキスト周波数の近傍の高周波数成分に対応している。図12(D)で説明したとおり、原画DORGのナイキスト周波数の近傍のスペクトル強度は画像拡大手段U1での拡大処理によって弱められているので、中間画像D1を加算することで、拡大処理によって弱められたスペクトル強度を補うことができる。また、中間画像D1から、折り返し成分は取り除かれているので、オーバーシュートやジャギーあるいはリンギングといった偽の信号を強調することはない。   First, the effect of adding the intermediate image D1 will be described. As described above, the intermediate image D1 is obtained by removing the aliasing component from the high frequency component of the input luminance image YIN, and corresponds to the high frequency component near the Nyquist frequency of the original image DORG as shown in FIG. is doing. As described with reference to FIG. 12D, the spectral intensity in the vicinity of the Nyquist frequency of the original picture DORG is weakened by the enlargement process in the image enlargement means U1, and therefore is weakened by the enlargement process by adding the intermediate image D1. Spectrum intensity can be compensated. Further, since the aliasing component is removed from the intermediate image D1, a false signal such as overshoot, jaggy, or ringing is not emphasized.

次に中間画像D2を加算することの効果について述べる。先に述べたとおり中間画像D2はサンプリング間隔S1に対応した高周波数成分である。したがって画像D2を加算することで原画DORGのナイキスト周波数以上の帯域の高周波数成分を与えることができ、従って、画像の解像感を増すことができる。   Next, the effect of adding the intermediate image D2 will be described. As described above, the intermediate image D2 is a high-frequency component corresponding to the sampling interval S1. Therefore, by adding the image D2, it is possible to give a high frequency component in a band equal to or higher than the Nyquist frequency of the original image DORG, and therefore, it is possible to increase the resolution of the image.

まとめると中間画像D1と画像D2を入力輝度画像YINに加算することで、折り返し成分を強調することなく高周波数成分を加算することが可能となり、画像の解像感を高めることが可能となる。   In summary, by adding the intermediate image D1 and the image D2 to the input luminance image YIN, it is possible to add a high frequency component without enhancing the aliasing component, and it is possible to improve the resolution of the image.

ところで、上記の説明の様にして生成した高周波数成分を入力画像に加算することで画像の鮮鋭感を増し、画質を向上することが可能であるが、高周波数成分の加算を過度に行うとかえって画質の低下を招くことがある。   By the way, it is possible to increase the sharpness of the image and improve the image quality by adding the high frequency component generated as described above to the input image. However, if the high frequency component is excessively added, On the contrary, the image quality may be degraded.

図18(A)及び(B)は高周波数成分の加算による画質の低下について説明するための図であり、図18(A)は高周波数成分の加算に適度に行うことによって、画像の鮮鋭感を増した場合を、図18(B)は高周波数成分の加算を過度に行った結果、画質の低下を招いた場合を表す。   FIGS. 18A and 18B are diagrams for explaining the deterioration of image quality due to the addition of high frequency components. FIG. 18A shows the sharpness of an image by appropriately performing the addition of high frequency components. FIG. 18B shows a case where image quality is deteriorated as a result of excessive addition of high frequency components.

図18(A)は、図17(B)に示された入力輝度画像YINに対して図17(D)に示した中間画像D1及び図17(F)に示した中間画像D2を加算した結果を示す図であり、図17(A)において座標P3で表されたステップエッジの低輝度側の境界部分が、図18(A)では座標P1で表される位置へと修正され、図17(A)において座標P4で表されたエッジ信号の高輝度側の境界部分が、図18(A)では座標P2で表される位置へと修正され、その結果、図17(A)と図18(B)を比較すると、図18(A)の方が図16(A)に示すステップエッジへと近づいていることがわかる。これは高周波数成分の加算に適度に行うことによってステップエッジを再現し、画像の鮮鋭感を増したことを表す。   FIG. 18A shows the result of adding the intermediate image D1 shown in FIG. 17D and the intermediate image D2 shown in FIG. 17F to the input luminance image YIN shown in FIG. The boundary portion on the low luminance side of the step edge represented by the coordinate P3 in FIG. 17A is corrected to the position represented by the coordinate P1 in FIG. 18A, and FIG. The boundary portion on the high luminance side of the edge signal represented by the coordinate P4 in A) is corrected to the position represented by the coordinate P2 in FIG. 18A, and as a result, FIG. 17A and FIG. Comparing B), it can be seen that FIG. 18A is closer to the step edge shown in FIG. This represents that the step edge was reproduced by appropriately performing the addition of the high frequency component, and the sharpness of the image was increased.

一方、図18(B)も、図17(B)に示された入力輝度画像YINに対して図17(D)に示した中間画像D1及び図17(F)に示した中間画像D2を加算した結果を示す図であるが、図18(A)の場合とは異なり、高周波数成分の加算が過度に行われた場合を表している。図18(A)と比較すると座標P1、P3で表される位置の輝度がその周辺と比べて不自然に低くなったり(アンダーシュート)、座標P2、P4で表される位置の輝度がその周辺と比べて不自然に高くなったり(オーバーシュート)して、画質が低下していることがわかる。オーバーシュートが発生するのは中間画像D1や中間画像D2の画素値の符号が正の場合であり、アンダーシュートが発生するのは中間画像D1や中間画像D2の画素値の符号が負の場合である。   18B also adds the intermediate image D1 shown in FIG. 17D and the intermediate image D2 shown in FIG. 17F to the input luminance image YIN shown in FIG. 17B. Unlike the case of FIG. 18A, it shows a case where high frequency components are added excessively. Compared with FIG. 18A, the luminance at the positions represented by the coordinates P1 and P3 is unnaturally lower than the surroundings (undershoot), or the luminance at the positions represented by the coordinates P2 and P4 is the surroundings. It can be seen that the image quality is degraded due to an unnatural increase (overshoot). Overshoot occurs when the sign of the pixel value of the intermediate image D1 or intermediate image D2 is positive, and undershoot occurs when the sign of the pixel value of the intermediate image D1 or intermediate image D2 is negative. is there.

以下、オーバーシュートが発生した場合の不具合、アンダーシュートが発生した場合の不具合を個別に考えるとともに、本発明によってそれを如何に防止するかについて述べる。
まず、オーバーシュートに関して述べる。
In the following, a problem when an overshoot occurs and a problem when an undershoot occur are considered separately, and how to prevent them according to the present invention will be described.
First, overshoot will be described.

入力輝度画像YINにおいてオーバーシュートが発生すると輝度信号が必要以上に大きくなる。式(3)から、輝度信号(Y)の値が大きくなるとRGB形式へ変換した場合、R、G、Bを表す各式の右辺の第1項が大きくなるので、結果的にR、G、Bともに大きな値になることがわかる。   When overshoot occurs in the input luminance image YIN, the luminance signal becomes larger than necessary. If the value of the luminance signal (Y) is increased from the equation (3), the first term on the right side of each equation representing R, G, B is increased when converted to the RGB format, so that R, G, It can be seen that both B values are large.

R、G、Bともに大きな値になるということは白色に近づくことを意味する。白色に近づくとは言い換えれば色が薄くなるということである。もともと無彩色に近い部分で色が薄くなっても相対的に目立たないが、有彩色のエッジ付近で色が薄くなると、エッジの周りのみ色が薄くなり、不自然な感じを与える。   Large values for R, G, and B mean that the color approaches white. In other words, getting closer to white means that the color becomes lighter. Originally, it is relatively inconspicuous even if the color is lightened in a portion close to an achromatic color, but if the color is lightened near the edge of a chromatic color, the color is lightened only around the edge, giving an unnatural feeling.

言い換えると、中間画像D1や中間画像D2の画素値の符号が正の場合、有彩色の部分に中間画像D1や中間画像D2によって加算される輝度の大きさ(以下、補正量)が必要以上に大きくなると、これら画質の低下が発生しやすくなると考えられる。そこで有彩色の部分において中間画像D1や中間画像D2による補正量が必要以上に大きくならないよう調整すればよいと考えられる。   In other words, when the sign of the pixel value of the intermediate image D1 or the intermediate image D2 is positive, the magnitude of luminance (hereinafter referred to as a correction amount) added to the chromatic portion by the intermediate image D1 or the intermediate image D2 is more than necessary. If it is increased, it is considered that the deterioration of the image quality is likely to occur. Therefore, it is considered that adjustment should be made so that the correction amount by the intermediate image D1 and the intermediate image D2 does not become larger than necessary in the chromatic color portion.

その方法として例えば中間画像D1や中間画像D2の画素値の符号が正の場合、有彩色かつ中間画像D1や中間画像D2によって与えられる補正量が大きくなる部分を検出し、検出された箇所では、中間画像D1や中間画像D2による補正量が小さくなるよう適宜ゲインをかけることで、補正量が必要以上に大きくならないようにする方法が考えられる。   As the method, for example, when the sign of the pixel value of the intermediate image D1 or the intermediate image D2 is positive, a portion having a chromatic color and a correction amount given by the intermediate image D1 or the intermediate image D2 is detected. A method is conceivable in which the correction amount is not increased more than necessary by appropriately applying a gain so that the correction amount by the intermediate image D1 or the intermediate image D2 is reduced.

有彩色であるかどうかは彩度(Cr、Cbの2乗和の平方根で表すことができる)で判定することができる。即ち、有彩色では彩度は大きな値となる。またCr、Cbの2乗和の平方根はCr、Cbの絶対値の和で近似することが出来る。CrあるいはCbの絶対値が大きくなればCr、Cbの2乗和の平方根も大きくなるからである。また、2乗和の平方根を計算するより、絶対値の和を計算する方が簡単であるため、回路規模も小さくて済む。   Whether it is a chromatic color or not can be determined by saturation (which can be expressed by the square root of the sum of squares of Cr and Cb). That is, the saturation is a large value in the chromatic color. The square root of the sum of squares of Cr and Cb can be approximated by the sum of absolute values of Cr and Cb. This is because as the absolute value of Cr or Cb increases, the square root of the square sum of Cr and Cb also increases. Further, since it is easier to calculate the sum of absolute values than to calculate the square root of the sum of squares, the circuit scale can be reduced.

中間画像D1や中間画像D2によって与えられる補正量が大きくなるかどうかは入力輝度画像YINの画素値に基づいてある程度判断することが可能である。理由を以下に述べる。   Whether or not the correction amount given by the intermediate image D1 or the intermediate image D2 becomes large can be determined to some extent based on the pixel value of the input luminance image YIN. The reason is described below.

中間画像D1は入力輝度画像YINに対してハイパスフィルタ処理を行った後、ローパスフィルタ処理を行うことで生成される。ローパスフィルタ処理は入力されるデータの局所的な平均値を求めることと同じである。したがってハイパスフィルタ処理の出力値が大きな正の値になっているとローパスフィルタ処理の出力値も大きな正の値となる可能性が高く、中間画像D1によって与えられる補正量も大きな値となりやすい。   The intermediate image D1 is generated by performing high-pass filter processing on the input luminance image YIN and then performing low-pass filter processing. The low-pass filter process is the same as obtaining a local average value of input data. Therefore, if the output value of the high-pass filter process is a large positive value, the output value of the low-pass filter process is likely to be a large positive value, and the correction amount given by the intermediate image D1 tends to be a large value.

一方、ハイパスフィルタ処理は入力輝度画像YINの各画素値から局所的な平均値を引くことに相当する。したがって、入力輝度画像YINにおいて注目する画素の画素値が大きな値を持っており、その周辺の画素の画素値が小さいと、その画素に対して与えられるハイパスフィルタ処理後の出力値も大きな正の値となる。   On the other hand, the high-pass filter process corresponds to subtracting a local average value from each pixel value of the input luminance image YIN. Therefore, if the pixel value of the pixel of interest in the input luminance image YIN has a large value and the pixel value of the surrounding pixels is small, the output value after high-pass filter processing given to that pixel is also a large positive value. Value.

逆に入力輝度画像YINにおいて注目する画素の画素値が小さな値を持っていると、ハイパスフィルタ処理後の出力値が大きな正の値にはならない。   Conversely, if the pixel value of the pixel of interest in the input luminance image YIN has a small value, the output value after the high-pass filter process does not become a large positive value.

したがって入力輝度画像YINにおいて注目する画素の画素値が大きいと、その画素に対して与えられるハイパスフィルタ処理後の出力値も大きな正の値となる可能性が高い。   Therefore, if the pixel value of the pixel of interest in the input luminance image YIN is large, the output value after high-pass filter processing given to the pixel is likely to be a large positive value.

一方、ローパスフィルタ処理は入力されるデータの局所的な平均値を求めることと同じである。したがってハイパスフィルタ処理の出力値が大きな正の値になっているとローパスフィルタ処理の出力値も大きな正の値となる可能性が高い。   On the other hand, the low-pass filter process is the same as obtaining a local average value of input data. Therefore, if the output value of the high-pass filter process is a large positive value, the output value of the low-pass filter process is likely to be a large positive value.

以上をまとめると、入力輝度画像YINにおいて注目する画素の画素値が大きいと、中間画像D1によって与えられる補正量も大きな値となりやすい。   In summary, when the pixel value of the pixel of interest in the input luminance image YIN is large, the correction amount given by the intermediate image D1 tends to be a large value.

また、中間画像D2は中間画像D1に対し、非線形処理手段2Aで非線形処理を行った後、高周波数成分画像生成手段2Bにおいてハイパスフィルタ処理を行うことで得られる。非線形処理手段2Aではゼロクロス点の近傍のみ中間画像D1を増幅させるので、基本的に中間画像D1が大きな正の値を持っていると非線形処理手段2Aの出力する画像D2Aも大きな正の値を持っていると考えられる。画像D2Aが大きな正の値を持っている場合、画像D2Aに対するハイパスフィルタ処理結果である中間画像D2も大きな正の値をもつ可能性が高い。   The intermediate image D2 is obtained by performing non-linear processing on the intermediate image D1 by the non-linear processing means 2A and then performing high-pass filter processing in the high-frequency component image generating means 2B. Since the non-linear processing means 2A amplifies the intermediate image D1 only in the vicinity of the zero cross point, basically, if the intermediate image D1 has a large positive value, the image D2A output from the non-linear processing means 2A also has a large positive value. It is thought that. When the image D2A has a large positive value, there is a high possibility that the intermediate image D2 that is the result of the high-pass filter processing for the image D2A also has a large positive value.

以上をまとめると、入力輝度画像YINの画素値が大きい場合、中間画像D1や中間画像D2の画素値も大きな正の値となる可能性が高い。言い換えると入力輝度画像YINの画素値が大きい場合、中間画像D1や中間画像D2によって与えられる補正量が大きくなるとある程度判断することが可能である。   In summary, when the pixel value of the input luminance image YIN is large, the pixel values of the intermediate image D1 and the intermediate image D2 are likely to be large positive values. In other words, when the pixel value of the input luminance image YIN is large, it can be determined to some extent that the correction amount given by the intermediate image D1 or the intermediate image D2 increases.

上記の理由から入力輝度画像YINの画素値、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値のいずれかが大きい画素では、補正量が大きくなり、RGB形式に直した場合に色が薄くなるという不具合が起きうると考えられる。   For the reasons described above, the correction amount is large and the RGB format is increased in a pixel having any one of the pixel value of the input luminance image YIN, the absolute value of the pixel value of the input CR image CRIN, and the absolute value of the pixel value of the input CB image CBIN It is thought that the problem that the color becomes light when it is corrected.

また、入力輝度画像YINの画素値、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値のいずれかが大きい場合、その加重加算値も大きな値となる。   When any one of the pixel value of the input luminance image YIN, the absolute value of the pixel value of the input CR image CRIN, and the absolute value of the pixel value of the input CB image CBIN is large, the weighted addition value is also a large value.

そこで本発明は、式(1)により入力輝度画像YINの画素値、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値を加重加算し、輝度色差加算画像YCを生成し、中間画像D1や中間画像D2の画素値の符号が正の場合、輝度色差加算画像YCの画素値が大きくなるほど中間画像D1や中間画像D2にかける増幅率を小さくすることで、有彩色のエッジ付近で色が薄くなるという不具合を回避することとしたものである。   Therefore, the present invention weights and adds the pixel value of the input luminance image YIN, the absolute value of the pixel value of the input CR image CRIN, and the absolute value of the pixel value of the input CB image CBIN according to the equation (1) to obtain the luminance / color difference addition image YC. If the sign of the pixel values of the intermediate image D1 and the intermediate image D2 is positive, the amplification factor applied to the intermediate image D1 and the intermediate image D2 decreases as the pixel value of the luminance / color difference addition image YC increases. This is to avoid the problem that the color becomes light in the vicinity of the coloring edge.

このような、増幅率(GAIN)と輝度色差加算画像YCの画素値(L)の関係は例えば

Figure 0004994407
と表される。 Such a relationship between the amplification factor (GAIN) and the pixel value (L) of the luminance color difference addition image YC is, for example,
Figure 0004994407
It is expressed.

図19(A)は、式(4)で表される増幅率(GAIN)と輝度色差加算画像YCの画素値(L)の関係を示す図である。輝度色差加算画像YCの画素値が0の場合はある所定の値pBをとり、画素値が0からある値pA1の間は傾きpk1で減少していき、画素値がpA1からある値pA2の間は傾きpk2で減少していき、画素値がpA2以上の場合は傾きpk3で減少していく。   FIG. 19A is a diagram showing the relationship between the amplification factor (GAIN) represented by Expression (4) and the pixel value (L) of the luminance / color difference addition image YC. When the pixel value of the luminance / chrominance-added image YC is 0, it takes a predetermined value pB, decreases between 0 and a certain value pA1 with a slope pk1, and between the pixel value pA1 and a certain value pA2. Decreases at a slope pk2, and decreases at a slope pk3 when the pixel value is greater than or equal to pA2.

要するに、図19(A)あるいは式(4)に示すような、輝度色差加算画像YCの画素値が大きくなるほど増幅率が減少するような単調減少の関数に基づいて、増幅率D3MAあるいは増幅率D3HAを決定することで、有彩色のエッジ付近で色が薄くなるという不具合を防止する処理が可能となる。   In short, the amplification factor D3MA or the amplification factor D3HA is based on a monotonically decreasing function in which the amplification factor decreases as the pixel value of the luminance / color difference addition image YC increases, as shown in FIG. 19A or Equation (4). By determining, it is possible to perform processing for preventing a problem that the color becomes light near the edge of the chromatic color.

次に、アンダーシュートに関して述べる。
入力輝度画像YINにアンダーシュートが発生すると輝度信号が必要以上に小さくなる。式(3)から、輝度信号(Y)の値が小さくなるとRGB形式へ変換した場合、R、G、Bを表す各式の右辺の第1項が小さくなるので、結果的にR、G、Bともに小さな値になることがわかる。
Next, the undershoot will be described.
When undershoot occurs in the input luminance image YIN, the luminance signal becomes smaller than necessary. If the value of the luminance signal (Y) is reduced from the equation (3), the first term on the right side of each equation representing R, G, B is reduced when converted to the RGB format, and as a result, R, G, It can be seen that both B values are small.

R、G、Bともに小さな値になるということは黒色に近づくことを意味する。エッジ付近で色が黒くなると、エッジを縁取るような黒い偽の輪郭が現れ、不自然な感じを与える。   When R, G, and B are small values, it means that the color approaches black. When the color becomes black near the edge, a black false contour appears that borders the edge, giving an unnatural feeling.

言い換えると、中間画像D1や中間画像D2の画素値の符号が負の場合、中間画像D1や中間画像D2によって減算される輝度の大きさ(以下、補正量)が必要以上に大きな値になると、これら画質の低下が発生しやすくなると考えられる。そこで中間画像D1や中間画像D2の画素値の符号が負の場合、補正量が必要以上に大きくならないよう調整すればよいと考えられる。   In other words, when the sign of the pixel value of the intermediate image D1 or the intermediate image D2 is negative, the magnitude of luminance (hereinafter referred to as a correction amount) subtracted by the intermediate image D1 or the intermediate image D2 becomes a value larger than necessary. It is considered that these deteriorations in image quality are likely to occur. Therefore, when the sign of the pixel value of the intermediate image D1 or the intermediate image D2 is negative, it may be necessary to adjust so that the correction amount does not become larger than necessary.

その方法として例えば中間画像D1や中間画像D2の画素値の符号が負の場合、補正量が大きくなる部分を検出し、検出された箇所では、中間画像D1や中間画像D2による補正量が小さくなるよう適宜ゲインをかけることで、補正量が必要以上に大きくならないようにする方法が考えられる。   For example, when the sign of the pixel value of the intermediate image D1 or the intermediate image D2 is negative, a portion where the correction amount is increased is detected, and the correction amount by the intermediate image D1 or the intermediate image D2 is reduced at the detected location. A method of preventing the correction amount from becoming unnecessarily large by appropriately applying a gain can be considered.

中間画像D1や中間画像D2によって与えられる補正量が大きくなる(絶対値の大きな負の値になる)かどうかは入力輝度画像YINの画素値に基づいてある程度判断することが可能である。理由を以下に述べる。   Whether the correction amount given by the intermediate image D1 or the intermediate image D2 becomes large (becomes a negative value having a large absolute value) can be determined to some extent based on the pixel value of the input luminance image YIN. The reason is described below.

中間画像D1は入力輝度画像YINに対してハイパスフィルタ処理を行った後、ローパスフィルタ処理を行うことで生成される。ここでハイパスフィルタ処理は入力輝度画像YINの各画素値から局所的な平均値を引くことに相当する。したがって入力輝度画像YINにおいて注目する画素の画素値が小さいと、その画素に対して与えられるハイパスフィルタ処理後の出力値は絶対値の大きな負の値となる可能性が高い。   The intermediate image D1 is generated by performing high-pass filter processing on the input luminance image YIN and then performing low-pass filter processing. Here, the high-pass filter processing corresponds to subtracting a local average value from each pixel value of the input luminance image YIN. Therefore, if the pixel value of the pixel of interest in the input luminance image YIN is small, the output value after high-pass filter processing given to that pixel is likely to be a negative value having a large absolute value.

一方、ローパスフィルタ処理は入力されるデータの局所的な平均値を求めることと同じである。したがってハイパスフィルタ処理の出力値が絶対値の大きな負の値になっているとローパスフィルタ処理の出力値も絶対値の大きな負の値となる可能性が高い。   On the other hand, the low-pass filter process is the same as obtaining a local average value of input data. Therefore, if the output value of the high-pass filter process is a negative value having a large absolute value, the output value of the low-pass filter process is likely to be a negative value having a large absolute value.

また、中間画像D2は中間画像D1に対し、非線形処理手段2Aで非線形処理を行った後、高周波数成分画像生成手段2Bにおいてハイパスフィルタ処理を行うことで得られる。非線形処理手段2Aではゼロクロス点の近傍のみ中間画像D1を増幅させるので、基本的に中間画像D1が絶対値の大きな負の値を持っていると非線形処理手段2Aの出力する画像D2Aも絶対値の大きな負の値を持っていると考えられる。画像D2Aが絶対値の大きな負の値を持っている場合、画像D2Aに対するハイパスフィルタ処理結果である中間画像D2も絶対値の大きな負の値をもつ可能性が高い。   The intermediate image D2 is obtained by performing non-linear processing on the intermediate image D1 by the non-linear processing means 2A and then performing high-pass filter processing in the high-frequency component image generating means 2B. Since the non-linear processing means 2A amplifies the intermediate image D1 only in the vicinity of the zero cross point, basically, if the intermediate image D1 has a negative value with a large absolute value, the image D2A output from the non-linear processing means 2A also has an absolute value. It is considered to have a large negative value. When the image D2A has a negative value with a large absolute value, there is a high possibility that the intermediate image D2 that is the result of the high-pass filter processing for the image D2A also has a negative value with a large absolute value.

以上をまとめると、入力輝度画像YINの画素値が小さい場合、中間画像D1や中間画像D2の画素値も小さな負の値となる可能性が高い。言い換えると入力輝度画像YINの画素値が小さい場合、中間画像D1や中間画像D2によって与えられる補正量が大きな値になるとある程度判断することが可能である。   In summary, when the pixel value of the input luminance image YIN is small, the pixel values of the intermediate image D1 and the intermediate image D2 are likely to be small negative values. In other words, when the pixel value of the input luminance image YIN is small, it can be determined to some extent that the correction amount given by the intermediate image D1 or the intermediate image D2 becomes a large value.

上記の理由から入力輝度画像YINの画素値が小さい画素では、補正量が大きな値になり、RGB形式に直した場合に黒色になるという不具合が起きうると考えられる。   For the reasons described above, it is considered that the pixel having a small pixel value of the input luminance image YIN has a large correction amount, and may be black when converted to the RGB format.

本発明では、中間画像D1や中間画像D2の画素値の符号が負の場合、入力輝度画像YINの画素値の代わりに輝度色差加算画像YCの画素値が小さくなるほど中間画像D1や中間画像D2にかける増幅率を小さくすることで、エッジ付近に偽の輪郭が現れるという不具合を回避することとしたものである。(なお、入力輝度画像YINの代わりに輝度色差加算画像YCを使っても良い理由については後に述べる。)   In the present invention, when the sign of the pixel value of the intermediate image D1 or the intermediate image D2 is negative, the intermediate color D1 or the intermediate image D2 is reduced as the pixel value of the luminance color difference addition image YC decreases instead of the pixel value of the input luminance image YIN. By reducing the applied amplification factor, the problem that a false contour appears near the edge is avoided. (The reason why the luminance color difference addition image YC may be used instead of the input luminance image YIN will be described later.)

このような、増幅率(GAIN)と輝度色差加算画像YCの画素値(L)の関係は例えば

Figure 0004994407
と表される。 Such a relationship between the amplification factor (GAIN) and the pixel value (L) of the luminance color difference addition image YC is, for example,
Figure 0004994407
It is expressed.

図19(B)は、式(5)で表される増幅率(GAIN)と輝度色差加算画像YCの画素値(L)の関係を示す図である。輝度色差加算画像YCの画素値が0の場合はある所定の値mBをとり、画素値が0からある値mA1の間は傾きmk1で増加していき、画素値がmA1からある値mA2の間は傾きmk2で増加していき、画素値がmA2以上の場合は傾きmk3で増加していく。   FIG. 19B is a diagram illustrating a relationship between the amplification factor (GAIN) expressed by the equation (5) and the pixel value (L) of the luminance / color difference addition image YC. When the pixel value of the luminance / chrominance-added image YC is 0, a certain predetermined value mB is taken, and the pixel value increases from 0 to a certain value mA1 with a slope mk1, and the pixel value ranges from mA1 to a certain value mA2. Increases at a slope mk2, and increases at a slope mk3 when the pixel value is greater than or equal to mA2.

上記のような処理を行うことによって、無彩色のエッジ付近では、エッジ付近で色が黒色に近づくという不具合を防止する処理が可能となる。なぜなら無彩色の場合、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値はゼロに近いため、輝度加算画像YCの画素値の大小関係はそのまま入力輝度画像YINの画素値の大小関係を表していると考えられるからである。したがって無彩色のエッジ付近では入力輝度画像YINの代わりに輝度色差加算画像YCを使うことに問題はないと考えられる。   By performing the processing as described above, it is possible to prevent the problem that the color approaches black in the vicinity of the achromatic edge. Because, in the case of an achromatic color, the absolute value of the pixel value of the input CR image CRIN and the absolute value of the pixel value of the input CB image CBIN are close to zero, the magnitude relationship between the pixel values of the luminance added image YC remains as it is. This is because it is considered that it represents the magnitude relationship of the pixel values. Therefore, it is considered that there is no problem in using the luminance color difference addition image YC instead of the input luminance image YIN in the vicinity of the achromatic edge.

一方、有彩色のエッジ付近では、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値は大きな値を取り得るため、必ずしも輝度加算画像YCの画素値の大小関係がそのまま入力輝度画像YINの画素値の大小関係を表しているとは限らない。例えば入力輝度画像YINの画素値が小さくても入力CR画像CRINの画素値の絶対値あるいは入力CB画像CBINの画素値が大きいと、入力輝度画像YINの画素値は小さな値なのに輝度色差加算画像YCの画素値が大きな値となる。   On the other hand, in the vicinity of the edge of the chromatic color, the absolute value of the pixel value of the input CR image CRIN and the absolute value of the pixel value of the input CB image CBIN can take a large value. Does not necessarily represent the magnitude relationship between the pixel values of the input luminance image YIN. For example, even if the pixel value of the input luminance image YIN is small, if the absolute value of the pixel value of the input CR image CRIN or the pixel value of the input CB image CBIN is large, the pixel value of the input luminance image YIN is small but the luminance color difference addition image YC. The pixel value of becomes a large value.

しかしながら、自然画像では輝度が小さい場合、色差の絶対値も小さい場合が多いので、入力輝度画像YINの画素値が小さくても入力CR画像CRINの画素値の絶対値あるいは入力CB画像CBINの画素値が大きい場合は稀である。したがって、上述のように入力輝度画像YINの画素値の代わりに輝度色差加算画像YCの画素値を用いて中間画像D1や中間画像D2に対する増幅率を制御することに事実用上問題は少ないと考えられる。   However, since the natural image often has a small luminance and the absolute value of the color difference is also small, the absolute value of the pixel value of the input CR image CRIN or the pixel value of the input CB image CBIN even if the pixel value of the input luminance image YIN is small. It is rare if is large. Therefore, it is considered that there are practically no problems in controlling the amplification factor for the intermediate image D1 and the intermediate image D2 using the pixel value of the luminance / color difference addition image YC instead of the pixel value of the input luminance image YIN as described above. It is done.

要するに、図19(B)あるいは式(5)に示すような、輝度色差加算画像YCの画素値が大きくなるほど増幅率が増加するような単調増加の関数に基づいて、増幅率D3MAあるいは増幅率D3HAを決定することで、エッジ付近で色が黒色に近づくという不具合を防止する処理が可能となる。   In short, the amplification factor D3MA or the amplification factor D3HA is based on a monotonically increasing function in which the amplification factor increases as the pixel value of the luminance color difference addition image YC increases as shown in FIG. 19B or Equation (5). By determining the above, it becomes possible to perform processing for preventing a problem that the color approaches black in the vicinity of the edge.

以上のように本発明の実施の形態1による画像処理装置では、エッジ付近で色が薄くなるあるいは黒色に近づくという不具合の発生を抑えつつ、画像の強調処理を行うことができる。エッジ付近で色が薄くなるあるいは黒色に近づくと視覚特性上不自然に感じられるので、本発明の実施の形態1による画像処理装置では、視覚特性上も非常に好ましいものである。   As described above, in the image processing apparatus according to the first embodiment of the present invention, it is possible to perform the image enhancement processing while suppressing the occurrence of a problem that the color becomes light or near black at the edge. When the color becomes light or close to black near the edge, it feels unnatural in terms of visual characteristics. Therefore, the image processing apparatus according to Embodiment 1 of the present invention is also very favorable in terms of visual characteristics.

また、本発明の実施の形態1による画像処理装置では、第1の中間画像処理手段3M及び第2の中間画像処理手段3Hにおいて、中間画像D1及び中間画像D2に対する増幅率を決定しているが、その際必要になる情報は入力輝度画像YINの画素値、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値の加重加算値および中間画像D1もしくは中間画像D2の画素値の符号のみである。したがって簡単な回路で増幅率を決定することが可能であり、回路規模の増加も少なくて済む。   In the image processing apparatus according to the first embodiment of the present invention, the first intermediate image processing unit 3M and the second intermediate image processing unit 3H determine the amplification factors for the intermediate image D1 and the intermediate image D2. The information required at this time includes the pixel value of the input luminance image YIN, the absolute value of the pixel value of the input CR image CRIN, and the weighted addition value of the absolute value of the pixel value of the input CB image CBIN and the intermediate image D1 or intermediate image D2. This is only the sign of the pixel value. Therefore, the amplification factor can be determined with a simple circuit, and the increase in circuit scale can be reduced.

例えば式(4)と式(5)を比較すると両者はその中で用いている係数、閾値等のパラメータが異なるだけである。すなわち、係数k1、k2、k3、閾値A1、A2および数値Bを用いて表される以下の計算

Figure 0004994407
を行える演算手段と、演算手段に対して与える係数k1、k2、k3、閾値A1、A2および数値Bの値を中間画像D1もしくは中間画像D2の画素値の符号に応じて変化させる係数切替手段で、増幅率決定手段3MAもしくは増幅率決定手段3MBを構成することができる。
即ち、切替手段により、画素値の符号が正のときは、−pk1、−pk2、−pk3、pA1、pA2、pBを、画素値の符号が負のときは、mk1、mk2、mk3、mA1、mA2、mBを選択し、それぞれk1、k2、k3、A1、A2、Bとして用いて、式(6)による演算を行うこととすれば良い。 For example, when Equation (4) and Equation (5) are compared, they differ only in parameters such as coefficients and thresholds used therein. That is, the following calculation expressed using coefficients k1, k2, k3, threshold values A1, A2 and numerical value B
Figure 0004994407
And a coefficient switching means for changing the values of the coefficients k1, k2, k3, thresholds A1, A2 and numerical value B given to the calculation means according to the sign of the pixel value of the intermediate image D1 or the intermediate image D2. The amplification factor determining means 3MA or the amplification factor determining means 3MB can be configured.
That is, when the sign of the pixel value is positive by the switching means, -pk1, -pk2, -pk3, pA1, pA2, pB, and when the sign of the pixel value is negative, mk1, mk2, mk3, mA1, It is only necessary to select mA2 and mB and use them as k1, k2, k3, A1, A2, and B, respectively, to perform the calculation according to equation (6).

なお、上記の実施の形態では、第1の中間画像処理手段3Mにおいて、輝度色差加算手段5の出力YCと第1の中間画像D1の画素値の符号sD1に基づいて増幅率D3MAを決定するとともに、第2の中間画像処理手段3Hにおいて、輝度色差加算手段5の出力YCと第2の中間画像D2の画素値の符号sD2に基づいて増幅率D3HAを決定することとしているが、第1の中間画像処理手段3M及び第2の中間画像処理手段3Hの一方においてのみ、上記の方法で増幅率を決定することとし、他方においては他の方法で増幅率を決定することとしても良い。   In the above embodiment, the first intermediate image processing unit 3M determines the amplification factor D3MA based on the output YC of the luminance / color difference addition unit 5 and the code sD1 of the pixel value of the first intermediate image D1. In the second intermediate image processing means 3H, the amplification factor D3HA is determined based on the output YC of the luminance / color difference addition means 5 and the sign sD2 of the pixel value of the second intermediate image D2. Only in one of the image processing means 3M and the second intermediate image processing means 3H, the amplification factor may be determined by the above method, and in the other, the amplification factor may be determined by another method.

さらに、本発明における画像処理装置では、第1の中間画像生成手段1及び第2の中間画像生成手段2において、画像の水平方向に関する処理及び垂直方向に関する処理を並列に行っているので、画像の水平方向のみ、あるいは垂直方向のみに限らず任意の方向に関して上記の効果を得ることができる。   Furthermore, in the image processing apparatus according to the present invention, the first intermediate image generation unit 1 and the second intermediate image generation unit 2 perform the processing relating to the horizontal direction and the processing relating to the vertical direction of the image in parallel. The above-described effects can be obtained not only in the horizontal direction or in the vertical direction but also in any direction.

また、本発明における画像処理装置では周波数空間で考えて原点からFnに渡る周波数帯域のうち、原画DORGのナイキスト周波数±Fn/2の近傍(あるいは特定の周波数帯域)に入力輝度画像YINが持っている成分をもとに、入力輝度画像YINのナイキスト周波数±Fnの近傍の高周波数成分に対応した画像D2Bを生成している。したがってなんらかの理由で、入力輝度画像YIN(あるいは入力画像IMGIN)において、ナイキスト周波数±Fnの近傍の周波数成分が失われていたとしても、画像D2Bにより、ナイキスト周波数±Fnの近傍の周波数成分を与えることが可能になる。言い換えると、入力輝度画像YINに対し、より高周波数成分側の周波数成分を与えられることになるので、出力輝度画像YOUT(あるいは出力画像IMGOUT)の解像感を増すことができる。   In the image processing apparatus according to the present invention, the input luminance image YIN has a frequency band from the origin to Fn in the vicinity of the Nyquist frequency ± Fn / 2 of the original image DORG (or a specific frequency band) in the frequency space. The image D2B corresponding to the high frequency component in the vicinity of the Nyquist frequency ± Fn of the input luminance image YIN is generated based on the components that are present. Therefore, for some reason, even if the frequency component near the Nyquist frequency ± Fn is lost in the input luminance image YIN (or the input image IMGIN), the frequency component near the Nyquist frequency ± Fn is given by the image D2B. Is possible. In other words, since a higher frequency component side frequency component is given to the input luminance image YIN, the resolution of the output luminance image YOUT (or the output image IMGOUT) can be increased.

なお、特定の周波数帯域として用いる箇所は、±Fn/2の近傍に限定されるものではない。即ち高周波数成分画像生成手段1A及び低周波数成分画像生成手段1Bの周波数応答を適宜変更することで、利用する周波数帯域を変更することができる。   In addition, the location used as a specific frequency band is not limited to the vicinity of ± Fn / 2. That is, the frequency band to be used can be changed by appropriately changing the frequency response of the high-frequency component image generating unit 1A and the low-frequency component image generating unit 1B.

上記の説明ではナイキスト周波数Fnの近傍の周波数成分が失われる例として画像の拡大処理を挙げたが、入力輝度画像YINに対してナイキスト周波数Fnの近傍の周波数成分が失われる原因はそれに限らず、他にもノイズ除去処理等が考えられる。したがって本発明における画像処理装置の用途は画像拡大処理後に限定されるものではない。   In the above description, the image enlargement process is given as an example in which the frequency component near the Nyquist frequency Fn is lost. However, the cause of the loss of the frequency component near the Nyquist frequency Fn with respect to the input luminance image YIN is not limited thereto. In addition, noise removal processing can be considered. Therefore, the application of the image processing apparatus in the present invention is not limited after the image enlargement process.

また、第1の中間画像処理手段3M及び第2の中間画像処理手段3Hで決定される増幅率と輝度色差加算画像YCの画素値の関係は本実施の形態で説明したものに留まらず、中間画像D1あるいはD2の符号が正の場合、輝度色差加算画像YCの画素値が大きくなるほど増幅率が減少するものであればよく、中間画像D1あるいはD2の符号が負の場合、輝度色差加算画像YCの画素値が小さくなるほど増幅率が減少するものであればよい。   In addition, the relationship between the amplification factor determined by the first intermediate image processing unit 3M and the second intermediate image processing unit 3H and the pixel value of the luminance / color difference addition image YC is not limited to that described in the present embodiment. When the sign of the image D1 or D2 is positive, it is sufficient that the amplification factor decreases as the pixel value of the luminance / color difference addition image YC increases. When the sign of the intermediate image D1 or D2 is negative, the luminance / color difference addition image YC It suffices if the amplification factor decreases as the pixel value decreases.

実施の形態2.
実施の形態1では、本発明をハードウエアにより実現するものとして説明したが、図1に示される構成の一部又は全部をソフトウエアにより実現することも可能である。その場合の処理を図20、並びに図21〜図27を参照して説明する。
Embodiment 2. FIG.
In the first embodiment, the present invention has been described as being realized by hardware, but part or all of the configuration shown in FIG. 1 can also be realized by software. Processing in that case will be described with reference to FIG. 20 and FIGS.

図20は、実施の形態2の画像処理装置を示す。図示の画像処理装置は、CPU11と、プログラムメモリ12と、データメモリ13と、第1のインターフェース14と、第2のインターフェース15と、これらを接続するバス16を有し、例えば図1に示す画像処理装置の代わりに、例えば図9に示す表示装置内の画像処理部U1として用いることができる。   FIG. 20 shows an image processing apparatus according to the second embodiment. The illustrated image processing apparatus includes a CPU 11, a program memory 12, a data memory 13, a first interface 14, a second interface 15, and a bus 16 that connects them. For example, the image processing apparatus illustrated in FIG. Instead of the processing device, for example, it can be used as the image processing unit U1 in the display device shown in FIG.

CPU11は、プログラムメモリ12に記憶されたプログラムに従って動作する。動作の過程で種々のデータをデータメモリ13に記憶させる。例えば、図9に示されるカラー画像拡大手段U1から出力される画像IMGU1が入力画像IMGINとしてインターフェース14を介して供給され、CPU11において、図1の画像処理装置と同様の処理を行ない、処理の結果生成される出力画像IMGOUTが、インターフェース15を介して例えば図9に示す画像表示装置内のモニタU3に画像DU2として供給され、モニタ9による表示に用いられる。
以下、CPU11により行なわれる処理を、図21〜図27を参照して説明する。
The CPU 11 operates according to a program stored in the program memory 12. Various data are stored in the data memory 13 in the course of operation. For example, the image IMGU1 output from the color image enlarging means U1 shown in FIG. 9 is supplied as the input image IMGIIN through the interface 14, and the CPU 11 performs the same processing as the image processing apparatus in FIG. The generated output image IMGOUT is supplied as an image DU2 to the monitor U3 in the image display device shown in FIG. 9 through the interface 15, and used for display by the monitor 9.
Hereinafter, processing performed by the CPU 11 will be described with reference to FIGS.

図21は、図20の画像処理装置で実施される画像処理方法のフローを表す図であり、図示の画像処理方法は、輝度色差信号加算ステップST0、第1の中間画像生成ステップST1、第2の中間画像生成ステップST2、第1の中間画像処理ステップST3M、第2の中間画像処理ステップST3H、及び加算ステップST4を含む。   FIG. 21 is a diagram illustrating a flow of an image processing method performed by the image processing apparatus of FIG. 20, and the illustrated image processing method includes a luminance / color difference signal addition step ST0, a first intermediate image generation step ST1, and a second step. Intermediate image generation step ST2, first intermediate image processing step ST3M, second intermediate image processing step ST3H, and addition step ST4.

なお、実施の形態2による画像処理方法も実施の形態1と同様YCbCr形式で入力される入力画像IMGINに対して画像処理を行う。即ち、図示しない画像入力ステップで入力される入力画像IMGINはカラー画像であり、輝度成分を表す信号YIN(以下、入力輝度画像YINと呼ぶ)と色差成分を表す信号CRIN及びCBINとから成る。信号CRIN(以下、入力CR画像CRINと呼ぶ)は色差成分のうちCr成分を表し、信号CBIN(以下、入力CB画像CBINと呼ぶ)は色差成分のうちCb成分を表す。   Note that the image processing method according to the second embodiment also performs image processing on the input image IMGIN input in the YCbCr format as in the first embodiment. That is, the input image IMGIN input in an image input step (not shown) is a color image, and includes a signal YIN representing a luminance component (hereinafter referred to as an input luminance image YIN) and signals CRIN and CBIN representing color difference components. A signal CRIN (hereinafter referred to as an input CR image CRIN) represents a Cr component of the color difference components, and a signal CBIN (hereinafter referred to as an input CB image CBIN) represents a Cb component of the color difference components.

第1の中間画像生成ステップST1は、図22に示すように、高周波数成分画像生成ステップST1A、及び低周波数成分画像生成ステップST1Bを含む。   As shown in FIG. 22, the first intermediate image generation step ST1 includes a high frequency component image generation step ST1A and a low frequency component image generation step ST1B.

高周波数成分画像生成ステップST1Aは、水平方向高周波数成分画像生成ステップST1Ah、及び垂直方向高周波数成分画像生成ステップST1Avを含み、低周波数成分画像生成ステップST1Bは水平方向低周波数成分画像生成ステップST1Bh、及び垂直方向高周波巣成分画像ST1Bvを含む。   The high frequency component image generation step ST1A includes a horizontal direction high frequency component image generation step ST1Ah and a vertical direction high frequency component image generation step ST1Av. The low frequency component image generation step ST1B includes a horizontal direction low frequency component image generation step ST1Bh, And a vertical high-frequency nest component image ST1Bv.

第2の中間画像生成ステップST2は、図23に示すように、非線形処理ステップST2A、及び高周波数成分画像生成ステップST2Bを含む。   As shown in FIG. 23, the second intermediate image generation step ST2 includes a non-linear processing step ST2A and a high frequency component image generation step ST2B.

非線形処理ステップST2Aは、水平方向非線形処理ステップST2Ah、及び垂直方向非線形処理ステップST2Avを含み、高周波数成分画像生成ステップST2Bは、水平方向高周波数成分通過ステップST2Bh、及び垂直方向高周波数成分通過ステップST2Bvを含む。   The non-linear processing step ST2A includes a horizontal non-linear processing step ST2Ah and a vertical non-linear processing step ST2Av, and the high frequency component image generation step ST2B includes a horizontal high frequency component passing step ST2Bh and a vertical high frequency component passing step ST2Bv. including.

水平方向非線形処理ステップST2Ahは、図24に示すように、ゼロクロス判定ステップST311h、及び信号増幅ステップST312hを含み、垂直方向非線形処理ステップST2Avは、図25に示すように、ゼロクロス判定ステップST311v、及び信号増幅ステップST312vを含む。   As shown in FIG. 24, the horizontal direction nonlinear processing step ST2Ah includes a zero cross determination step ST311h and a signal amplification step ST312h. The vertical direction nonlinear processing step ST2Av includes a zero cross determination step ST311v and a signal as shown in FIG. An amplification step ST312v is included.

第1の中間画像処理ステップST3Mは、図26に示すように、増幅率決定ステップST3MA、及び画素値変更ステップST3MBを含む。   As shown in FIG. 26, the first intermediate image processing step ST3M includes an amplification factor determining step ST3MA and a pixel value changing step ST3MB.

第2の中間画像処理ステップST3Hは、図27に示すように、増幅率決定ステップST3HA、及び画素値変更ステップST3HBを含む。   As shown in FIG. 27, the second intermediate image processing step ST3H includes an amplification factor determining step ST3HA and a pixel value changing step ST3HB.

まず、輝度色差信号加算ステップST0の動作について説明する。輝度色差加算ステップST0は各画素について入力輝度画像YINの画素値、入力CR画像CRINの画素値の絶対値、及び入力CB画像CBINの画素値の絶対値を加重加算し、輝度色差加算画像YCを生成する。輝度色差加算画像YCと入力輝度画像YIN、入力CR画像CRIN、及び入力CB画像CBINの関係は式(1)で表される。この動作は輝度色差加算手段5と同等である。   First, the operation of the luminance / color difference signal addition step ST0 will be described. In the luminance color difference addition step ST0, the pixel value of the input luminance image YIN, the absolute value of the pixel value of the input CR image CRIN, and the absolute value of the pixel value of the input CB image CBIN are weighted and added for each pixel, and the luminance color difference addition image YC is obtained. Generate. The relationship between the luminance color difference addition image YC, the input luminance image YIN, the input CR image CRIN, and the input CB image CBIN is expressed by Expression (1). This operation is equivalent to the luminance color difference adding means 5.

次に、図22のフローに従って第1の中間画像生成ステップST1の動作について説明する。
高周波数成分画像生成ステップST1Aでは、入力輝度画像YINに対し、以下のような処理が行われる。
まず、水平方向高周波数成分画像生成ステップST1Ahでは、水平方向のハイパスフィルタ処理によって、入力輝度画像YINから水平方向の高周波数成分を取り出した画像D1Ahを生成する。
垂直方向高周波数成分画像ステップST1Avでは、垂直方向のハイパスフィルタ処理によって、入力輝度画像YINから垂直方向の高周波数成分を取り出した画像D1Avを生成する。
即ち、高周波数成分画像生成ステップST1Aは、高周波数成分画像生成手段1Aと同様の処理を行い、入力輝度画像YINから、画像D1Ah及び画像D1Avから成る画像D1Aを生成する。この動作は高周波数成分画像生成手段1Aと同等である。
Next, the operation of the first intermediate image generation step ST1 will be described according to the flow of FIG.
In the high frequency component image generation step ST1A, the following processing is performed on the input luminance image YIN.
First, in the horizontal high-frequency component image generation step ST1Ah, an image D1Ah obtained by extracting the high-frequency component in the horizontal direction from the input luminance image YIN is generated by the high-pass filter processing in the horizontal direction.
In the vertical high-frequency component image step ST1Av, an image D1Av obtained by extracting the high-frequency component in the vertical direction from the input luminance image YIN is generated by high-pass filtering in the vertical direction.
That is, the high frequency component image generation step ST1A performs the same processing as the high frequency component image generation unit 1A, and generates an image D1A composed of the image D1Ah and the image D1Av from the input luminance image YIN. This operation is equivalent to the high frequency component image generating means 1A.

低周波数成分画像生成ステップST1Bでは、画像D1Aに対し、以下のような処理が行われる。まず、水平方向低周波数成分画像生成ステップST1Bhでは、水平方向のローパスフィルタ処理によって、画像D1Ahから水平方向の低周波数成分を取り出した画像D1Bhを生成する。
垂直方向低周波数成分画像生成ステップST1Bvでは、垂直方向のローパスフィルタ処理によって、画像D1Avから垂直方向の低周波数成分を取り出した画像D1Bvを生成する。
即ち、低周波数成分画像生成ステップST1Bは、低周波数成分画像生成手段1Bと同様の処理を行い、画像D1Aから、画像D1Bh及び画像D1Bvから成る画像D1Bを生成する。この動作は低周波数成分画像生成手段1Bと同等である。
In the low frequency component image generation step ST1B, the following processing is performed on the image D1A. First, in the horizontal direction low frequency component image generation step ST1Bh, an image D1Bh obtained by extracting a horizontal low frequency component from the image D1Ah is generated by a horizontal low-pass filter process.
In the vertical direction low frequency component image generation step ST1Bv, an image D1Bv obtained by extracting the low frequency component in the vertical direction from the image D1Av is generated by the low pass filter processing in the vertical direction.
That is, the low frequency component image generation step ST1B performs the same processing as the low frequency component image generation means 1B, and generates an image D1B composed of the image D1Bh and the image D1Bv from the image D1A. This operation is equivalent to the low frequency component image generation means 1B.

以上が第1の中間画像生成ステップST1の動作であり、第1の中間画像生成ステップST1は画像D1Bhを画像D1hとし、画像D1Bvを画像D1vとし、画像D1h及び画像D1vから成る中間画像D1を出力する。以上の動作は第1の中間画像生成手段1と同等である。   The above is the operation of the first intermediate image generation step ST1, and the first intermediate image generation step ST1 outputs the image D1Bh as the image D1h, the image D1Bv as the image D1v, and the intermediate image D1 composed of the image D1h and the image D1v. To do. The above operation is the same as that of the first intermediate image generating means 1.

次に図23〜図25のフローに従って第2の中間画像生成ステップST2の動作について説明する。
まず、非線形処理ステップST2Aでは中間画像D1に対し、以下のような処理を行う。
Next, the operation of the second intermediate image generation step ST2 will be described according to the flow of FIGS.
First, in the nonlinear processing step ST2A, the following processing is performed on the intermediate image D1.

まず、水平方向非線形処理ステップST2Ahでは、図24に示すフローに従った処理で画像D1hから画像D2Ahを生成する。図24に示すフローでの処理は以下の通りである。まず、ゼロクロス判定ステップST311hでは、画像D1hにおける画素値の変化を水平方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、ゼロクロス点の左右に位置する画素を信号増幅ステップST312hに通知する。信号増幅ステップST312hでは画像D1hについて、ゼロクロス点の左右に位置すると通知された画素の画素値を増幅し、その画像を画像D2Ahとして出力する。即ち、非線形処理ステップST2Ahは、画像D1hに対し、水平方向非線形処理手段2Ahと同様の処理を行い、画像D2Ahを生成する。   First, in the horizontal non-linear processing step ST2Ah, an image D2Ah is generated from the image D1h by processing according to the flow shown in FIG. The processing in the flow shown in FIG. 24 is as follows. First, in the zero cross determination step ST311h, a change in pixel value in the image D1h is confirmed along the horizontal direction. Then, a point where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero cross point, and the pixels located to the left and right of the zero cross point are notified to the signal amplification step ST312h. In the signal amplification step ST312h, for the image D1h, the pixel value of the pixel notified to be positioned on the left and right of the zero cross point is amplified, and the image is output as the image D2Ah. That is, the nonlinear processing step ST2Ah performs the same process as the horizontal nonlinear processing means 2Ah on the image D1h to generate the image D2Ah.

次に、垂直方向非線形処理ステップST2Avでは、図25に示すフローに従った処理で画像D1vから画像D2Avを生成する。図25に示すフローでの処理は以下の通りである。まず、ゼロクロス判定ステップST311vでは、画像D1vにおける画素値の変化を垂直方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、ゼロクロス点の上下に位置する画素を信号増幅ステップST312vに通知する。信号増幅ステップST312vでは画像D1vについて、ゼロクロス点の上下に位置すると通知された画素の画素値を増幅し、その画像を画像D2Avとして出力する。即ち、非線形処理ステップST2Avは、画像D1vに対し、垂直方向非線形処理手段2Avと同様の処理を行い、画像D2Avを生成する。   Next, in the vertical nonlinear processing step ST2Av, an image D2Av is generated from the image D1v by processing according to the flow shown in FIG. The processing in the flow shown in FIG. 25 is as follows. First, in the zero cross determination step ST311v, a change in pixel value in the image D1v is confirmed along the vertical direction. A portion where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero cross point, and the pixels located above and below the zero cross point are notified to the signal amplification step ST312v. In the signal amplification step ST312v, the pixel value of the pixel notified to be positioned above and below the zero cross point is amplified for the image D1v, and the image is output as the image D2Av. That is, in the nonlinear processing step ST2Av, the image D1v is subjected to the same processing as the vertical nonlinear processing means 2Av to generate the image D2Av.

以上が非線形処理ステップST2Aの動作であり、非線形処理ステップST2Aは画像D2Ah及び画像D2Avから成る画像D2Aを生成する。その動作は非線形処理手段2Aと同等である。   The above is the operation of the non-linear processing step ST2A, and the non-linear processing step ST2A generates an image D2A composed of the image D2Ah and the image D2Av. The operation is equivalent to the nonlinear processing means 2A.

次に、高周波数成分画像生成ステップST2Bでは画像D2Aに対し、以下の様な処理を行う。
まず、水平方向高周波数成分画像生成ステップST2Bhでは、画像D2Ahに対し水平方向のハイパスフィルタ処理を行った画像D2Bhを生成する。即ち、水平方向高周波数成分画像生成ステップST2Bhは、水平方向高周波数成分画像生成手段2Bhと同様の処理を行う。
Next, in the high frequency component image generation step ST2B, the following processing is performed on the image D2A.
First, in the horizontal high-frequency component image generation step ST2Bh, an image D2Bh is generated by performing a high-pass filter process in the horizontal direction on the image D2Ah. That is, the horizontal direction high frequency component image generation step ST2Bh performs the same processing as the horizontal direction high frequency component image generation means 2Bh.

次に、垂直方向高周波数成分画像生成ステップST2Bvでは、画像D2Avに対し垂直方向のハイパスフィルタ処理を行った画像D2Bvを生成する。即ち、垂直方向高周波数成分画像生成ステップST2Bvは、垂直方向高周波数成分画像生成手段2Bvと同様の処理を行う。   Next, in the vertical direction high-frequency component image generation step ST2Bv, an image D2Bv obtained by performing vertical high-pass filter processing on the image D2Av is generated. That is, the vertical high frequency component image generation step ST2Bv performs the same processing as the vertical high frequency component image generation means 2Bv.

以上が高周波数成分画像生成ステップST2Bの動作であり、高周波数成分画像生成ステップST2Bは画像D2Bh及び画像D2Bvから成る画像D2Bを生成する。その動作は高周波数成分画像生成手段2Bと同等である。   The above is the operation of the high frequency component image generation step ST2B, and the high frequency component image generation step ST2B generates an image D2B composed of the image D2Bh and the image D2Bv. The operation is the same as that of the high frequency component image generating means 2B.

以上が第2の中間画像生成ステップST2の動作であり、第2の中間画像生成ステップST2は画像D2Bを中間画像D2として出力する。即ち、画像D2Bhを画像D2hとし、画像D2Bvを画像D2vとした中間画像D2を出力する。この動作は第2の中間画像生成手段2と同等である。   The above is the operation of the second intermediate image generation step ST2, and the second intermediate image generation step ST2 outputs the image D2B as the intermediate image D2. That is, an intermediate image D2 is output in which the image D2Bh is the image D2h and the image D2Bv is the image D2v. This operation is equivalent to the second intermediate image generating means 2.

次に図26のフローに従って第1の中間画像処理ステップST3Mの動作について説明する。
まず、第1の中間画像処理ステップST3Mは、増幅率決定ステップST3MAにおいて、中間画像D1の各画素がもつ画素値に対する増幅率を決定する。ここで中間画像D1は画像D1h及び画像D1vから成るので、増幅率の決定は、画像D1hと画像D1vの各画素について行われる。即ち、画像D1hに対しては水平方向増幅率決定ステップST3MAhにおいて各画素に対する増幅率が決定され、画像D1vに対しては垂直方向増幅率決定ステップST3MAvにおいて各画素に対する増幅率が決定される。ここで水平方向増幅率決定ステップST3MAhの動作は水平方向増幅率決定手段3MAhと、垂直方向増幅率決定ステップST3MAvの動作は垂直方向増幅率決定手段3MAvと同様であるのでその説明は省略する。
Next, the operation of the first intermediate image processing step ST3M will be described according to the flow of FIG.
First, in the first intermediate image processing step ST3M, the amplification factor for the pixel value of each pixel of the intermediate image D1 is determined in the amplification factor determination step ST3MA. Here, since the intermediate image D1 includes the image D1h and the image D1v, the amplification factor is determined for each pixel of the image D1h and the image D1v. That is, for the image D1h, the amplification factor for each pixel is determined in the horizontal direction amplification factor determination step ST3MAh, and for the image D1v, the amplification factor for each pixel is determined in the vertical direction amplification factor determination step ST3MAv. Here, the operation of the horizontal direction gain determination step ST3MAh is the same as that of the horizontal direction gain determination unit 3MAh, and the operation of the vertical direction gain determination step ST3MAv is the same as that of the vertical direction gain determination unit 3MAv.

次に画素値変更ステップST3MBでは、増幅率決定ステップST3MAにおいて決定された増幅率に基づいて中間画像D1の各画素がもつ画素値を増幅する。ここで中間画像D1は画像D1h及び画像D1vから成るので、画素値の増幅は、画像D1hと画像D1vの各々について行われる。即ち、水平方向増幅率決定ステップST3MAhで決定された増幅率に基づいて画像D1hの各画素値が増幅され、画像D3MBhが生成される。また、垂直方向増幅率決定ステップST3MAvで決定された増幅率に基づいて画像D1vの各画素値が増幅され、画像D3MBvが生成される。この動作は画素値変更手段3MBの動作と同じである。   Next, in the pixel value changing step ST3MB, the pixel value of each pixel of the intermediate image D1 is amplified based on the amplification factor determined in the amplification factor determination step ST3MA. Here, since the intermediate image D1 includes the image D1h and the image D1v, the amplification of the pixel value is performed for each of the image D1h and the image D1v. That is, each pixel value of the image D1h is amplified based on the amplification factor determined in the horizontal direction amplification factor determination step ST3MAh, and an image D3MBh is generated. Further, each pixel value of the image D1v is amplified based on the amplification factor determined in the vertical direction amplification factor determination step ST3MAv, and an image D3MBv is generated. This operation is the same as that of the pixel value changing means 3MB.

そして画像D3MBhに相当する画像D3Mhと画像D3MBvに相当する画像D3Mvから成る中間画像D3Mが、第1の中間画像処理ステップST3Mによって生成される。以上が第1の中間画像処理ステップST3Mの動作であり、その動作は、第1の中間画像処理手段3Mと同じである。   Then, an intermediate image D3M composed of an image D3Mh corresponding to the image D3MBh and an image D3Mv corresponding to the image D3MBv is generated by the first intermediate image processing step ST3M. The above is the operation of the first intermediate image processing step ST3M, and the operation is the same as that of the first intermediate image processing means 3M.

次に図27のフローに従って第2の中間画像処理ステップST3Hの動作について説明する。
まず、第2の中間画像処理ステップST3Hは、増幅率決定ステップST3HAにおいて、中間画像D2の各画素がもつ画素値に対する増幅率を決定する。ここで中間画像D2は画像D2h及び画像D2vから成るので、増幅率の決定は、画像D2hと画像D2vの各画素について行われる。即ち、画像D2hに対しては水平方向増幅率決定ステップST3HAhにおいて各画素に対する増幅率が決定され、画像D2vに対しては垂直方向増幅率決定ステップST3HAvにおいて各画素に対する増幅率が決定される。ここで水平方向増幅率決定ステップST3HAhの動作は水平方向増幅率決定手段3HAhと、垂直方向増幅率決定ステップST3HAvの動作は垂直方向増幅率決定手段3HAvと同様であるのでその説明は省略する。
Next, the operation of the second intermediate image processing step ST3H will be described according to the flow of FIG.
First, in the second intermediate image processing step ST3H, in the amplification factor determination step ST3HA, the amplification factor for the pixel value of each pixel of the intermediate image D2 is determined. Here, since the intermediate image D2 includes the image D2h and the image D2v, the amplification factor is determined for each pixel of the image D2h and the image D2v. That is, for the image D2h, the amplification factor for each pixel is determined in the horizontal direction amplification factor determination step ST3HAh, and for the image D2v, the amplification factor for each pixel is determined in the vertical direction amplification factor determination step ST3HAv. Here, the operation of the horizontal direction gain determination step ST3HAh is the same as that of the horizontal direction gain determination unit 3HAh, and the operation of the vertical direction gain determination step ST3HAv is the same as that of the vertical direction gain determination unit 3HAv.

次に画素値変更ステップST3HBでは、増幅率決定ステップST3HAにおいて決定された増幅率に基づいて中間画像D2の各画素がもつ画素値を増幅する。ここで中間画像D2は画像D2h及び画像D2vから成るので、画素値の増幅は、画像D2hと画像D2vの各々について行われる。即ち、水平方向増幅率決定ステップST3HAhで決定された増幅率に基づいて画像D2hの各画素値が増幅され、画像D3HBhが生成される。また、垂直方向増幅率決定ステップST3HAvで決定された増幅率に基づいて画像D2vの各画素値が増幅され、画像D3HBvが生成される。この動作は画素値変更手段3HBの動作と同じである。   Next, in the pixel value changing step ST3HB, the pixel value of each pixel of the intermediate image D2 is amplified based on the amplification factor determined in the amplification factor determination step ST3HA. Here, since the intermediate image D2 includes the image D2h and the image D2v, the amplification of the pixel value is performed for each of the image D2h and the image D2v. That is, each pixel value of the image D2h is amplified based on the amplification factor determined in the horizontal direction amplification factor determination step ST3HAh, and an image D3HBh is generated. Also, each pixel value of the image D2v is amplified based on the amplification factor determined in the vertical direction amplification factor determination step ST3HAv, and an image D3HBv is generated. This operation is the same as that of the pixel value changing means 3HB.

そして画像D3HBhに相当する画像D3Hhと画像D3HBvに相当する画像D3Hvから成る中間画像D3Hが、第2の中間画像処理ステップST3Hによって生成される。以上が第2の中間画像処理ステップST3Hの動作であり、その動作は、第2の中間画像処理手段3Hと同じである。   Then, an intermediate image D3H composed of an image D3Hh corresponding to the image D3HBh and an image D3Hv corresponding to the image D3HBv is generated by the second intermediate image processing step ST3H. The above is the operation of the second intermediate image processing step ST3H, and the operation is the same as that of the second intermediate image processing means 3H.

加算ステップST4は入力輝度画像YIN、中間画像D3M、及び中間画像D3Hを加算し、出力輝度画像YOUTを生成する。中間画像D3Mは画像D3Mh及び画像D3Mvから成り、中間画像D3Hは画像D3Hh及び画像D3Hvから成るので、加算ステップST4では画像D3Mh、D3Hv、D3Mh、及びD3Hvの全てが入力輝度画像YINに加算される。この際画像D3Mh、D3Hv、D3Mh、及びD3Hvを入力輝度画像YINに単純に加算してもよいし、重み付け加算してもよい。そして出力輝度画像YOUTが本発明における画像処理方法の最終出力画像として出力される。以上が加算ステップST4の動作であり、この動作は加算手段4の動作と同等である。
以上が本発明における画像処理方法の動作である。
In the addition step ST4, the input luminance image YIN, the intermediate image D3M, and the intermediate image D3H are added to generate an output luminance image YOUT. Since the intermediate image D3M is composed of the image D3Mh and the image D3Mv, and the intermediate image D3H is composed of the image D3Hh and the image D3Hv, all of the images D3Mh, D3Hv, D3Mh, and D3Hv are added to the input luminance image YIN in the addition step ST4. At this time, the images D3Mh, D3Hv, D3Mh, and D3Hv may be simply added to the input luminance image YIN or may be weighted. The output luminance image YOUT is output as the final output image of the image processing method according to the present invention. The above is the operation of the adding step ST4, and this operation is equivalent to the operation of the adding means 4.
The above is the operation of the image processing method according to the present invention.

本発明における画像処理方法の動作はその説明から明らかなように、本発明の実施の形態1における画像処理装置と同等である。したがって本発明における画像処理方法は、本発明の実施の形態1における画像処理装置と同様の効果を持つ。また、図9に示す画像表示装置において、例えば画像処理装置U2内部で上記の画像処理方法を実施することで、上記の画像処理方法で処理された画像を、図9に示す画像表示装置で表示することもできる。   As is apparent from the description, the operation of the image processing method according to the present invention is equivalent to that of the image processing apparatus according to the first embodiment of the present invention. Therefore, the image processing method according to the present invention has the same effect as the image processing apparatus according to the first embodiment of the present invention. Further, in the image display device shown in FIG. 9, for example, the image processing method is performed inside the image processing device U2, so that the image processed by the image processing method is displayed on the image display device shown in FIG. You can also

1 第1の中間画像生成手段、 2 第2の中間画像生成手段、 3M 第1の中間画像処理手段、 3H 第2の中間画像処理手段、 4 加算手段、 5 輝度色差加算手段、 IMGIN 入力画像、 YIN 入力輝度画像、 CRIN 入力CR画像、 CBIN 入力CB画像、 D1 中間画像、 D2 中間画像、 D3M 中間画像、 D3H 中間画像、 IMGOUT 出力画像、 YOUT 出力輝度画像、 CROUT 出力CR画像、 CBOUT 出力CB画像。   DESCRIPTION OF SYMBOLS 1 1st intermediate image generation means, 2 2nd intermediate image generation means, 3M 1st intermediate image processing means, 3H 2nd intermediate image processing means, 4 Addition means, 5 Luminance color difference addition means, IMGIN input image, YIN input luminance image, CRIN input CR image, CBIN input CB image, D1 intermediate image, D2 intermediate image, D3M intermediate image, D3H intermediate image, IMGOUT output image, YOUT output luminance image, CROUT output CR image, CBOUT output CB image.

Claims (9)

輝度信号と色差信号から成る入力画像の輝度信号から特定の周波数帯域の成分を取り出した第1の中間画像を生成する第1の中間画像生成手段と、
前記第1の中間画像をもとに第2の中間画像を生成する第2の中間画像生成手段と、
前記入力画像の輝度信号と色差信号の絶対値を加重加算する輝度色差加算手段と、
前記第1の中間画像の画素値を第1の増幅率に従って増幅した第3の中間画像を生成する第1の中間画像処理手段と、
前記第2の中間画像の画素値を第2の増幅率に従って増幅した第4の中間画像を生成する第2の中間画像処理手段と、
前記入力画像の輝度信号と前記第3の中間画像と前記第4の中間画像を加算する加算手段を有する画像処理装置において、
前記第2の中間画像生成手段は、
前記第1の中間画像の画素値が正の値から負の値あるいは負の値から正の値へと変化する箇所をゼロクロス点と捉えるゼロクロス判定手段と、
前記第1の中間画像を構成する画素のうち、前記ゼロクロス点の近傍にある画素の画素値を1より大きい増幅率で増幅した非線形処理画像を生成する信号増幅手段と、
前記非線形処理画像の高周波数成分のみを取り出した高周波数成分画像を生成する高周波数成分画像生成手段を有し、
前記高周波数成分画像を前記第2の中間画像として出力し、
前記第1の増幅率は、
前記第1の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が大きい場合、小さな値になり、
前記第1の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が小さい場合、小さな値になるよう決定され、
前記第2の増幅率は、
前記第2の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が大きい場合、小さな値になり、
前記第2の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が小さい場合、小さな値になるよう決定される
ことを特徴とする画像処理装置。
First intermediate image generation means for generating a first intermediate image obtained by extracting a component of a specific frequency band from a luminance signal of an input image composed of a luminance signal and a color difference signal;
Second intermediate image generation means for generating a second intermediate image based on the first intermediate image;
Luminance color difference addition means for weighted addition of absolute values of the luminance signal and color difference signal of the input image;
First intermediate image processing means for generating a third intermediate image obtained by amplifying the pixel value of the first intermediate image according to a first amplification factor;
Second intermediate image processing means for generating a fourth intermediate image obtained by amplifying the pixel value of the second intermediate image according to a second amplification factor;
In an image processing apparatus having addition means for adding the luminance signal of the input image, the third intermediate image, and the fourth intermediate image,
The second intermediate image generating means includes
A zero-cross determining means for capturing a point where the pixel value of the first intermediate image changes from a positive value to a negative value or from a negative value to a positive value as a zero-cross point;
Signal amplifying means for generating a nonlinear processed image obtained by amplifying a pixel value of a pixel in the vicinity of the zero-cross point among the pixels constituting the first intermediate image at an amplification factor greater than 1,
High-frequency component image generation means for generating a high-frequency component image obtained by extracting only the high-frequency component of the nonlinear processed image;
Outputting the high-frequency component image as the second intermediate image;
The first amplification factor is:
If the sign of the pixel value of the first intermediate image is positive and the output value of the luminance color difference adding means is large, it becomes a small value,
When the sign of the pixel value of the first intermediate image is negative and the output value of the luminance color difference adding means is small, it is determined to be a small value,
The second amplification factor is
If the sign of the pixel value of the second intermediate image is positive and the output value of the luminance color difference adding means is large, it becomes a small value,
The image processing apparatus, wherein when the sign of the pixel value of the second intermediate image is negative and the output value of the luminance / color difference adding means is small, it is determined to be a small value.
前記第1の増幅率は、
前記第1の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が第1の所定の値より大きい場合、前記輝度色差加算手段の出力値が増加するにつれて減少し、
前記第1の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が第2の所定の値より小さい場合、前記輝度色差加算手段の出力値が減少するにつれて減少するよう決定され、
前記第2の増幅率は、
前記第2の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が第3の所定の値より大きい場合、前記輝度色差加算手段の出力値が増加するにつれて減少し、
前記第2の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が第4の所定の値より小さい場合、前記輝度色差加算手段の出力値が減少するにつれて減少するよう決定される
ことを特徴とする請求項1記載の画像処理装置。
The first amplification factor is:
If the sign of the pixel value of the first intermediate image is positive and the output value of the luminance / color difference adding means is larger than a first predetermined value, the output value of the luminance / color difference adding means decreases as the output value increases,
When the sign of the pixel value of the first intermediate image is negative and the output value of the luminance color difference adding means is smaller than a second predetermined value, it is determined to decrease as the output value of the luminance color difference adding means decreases. ,
The second amplification factor is
If the sign of the pixel value of the second intermediate image is positive and the output value of the luminance / color difference adding means is greater than a third predetermined value, the output value of the luminance / color difference adding means decreases as the output value increases,
When the sign of the pixel value of the second intermediate image is negative and the output value of the luminance color difference adding means is smaller than a fourth predetermined value, it is determined to decrease as the output value of the luminance color difference adding means decreases. The image processing apparatus according to claim 1, wherein:
前記第1の増幅率は、
前記第1の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が第5の所定の値より大きく第6の所定値より小さい場合、前記輝度色差加算手段の出力値が増加するにつれて減少し、
前記第1の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が第7の所定の値より大きく第8の所定値より小さい場合、前記輝度色差加算手段の出力値が減少するにつれて減少するよう決定され、
前記第2の増幅率は、
前記第2の中間画像の画素値の符号が正で前記輝度色差加算手段の出力値が第9の所定の値より大きく第10の所定値より小さい場合、前記輝度色差加算手段の出力値が増加するにつれて減少し、
前記第2の中間画像の画素値の符号が負で前記輝度色差加算手段の出力値が第11の所定の値より大きく第12の所定値より小さい場合、前記輝度色差加算手段の出力値が減少するにつれて減少するよう決定される
ことを特徴とする請求項1記載の画像処理装置。
The first amplification factor is:
When the sign of the pixel value of the first intermediate image is positive and the output value of the luminance / color difference adding means is larger than the fifth predetermined value and smaller than the sixth predetermined value, the output value of the luminance / color difference adding means increases. Decreases as you do,
When the sign of the pixel value of the first intermediate image is negative and the output value of the luminance / color difference adding means is larger than the seventh predetermined value and smaller than the eighth predetermined value, the output value of the luminance / color difference adding means decreases. Decided to decrease with time,
The second amplification factor is
When the sign of the pixel value of the second intermediate image is positive and the output value of the luminance / color difference adding means is larger than the ninth predetermined value and smaller than the tenth predetermined value, the output value of the luminance / color difference adding means increases. Decreases as you do,
When the sign of the pixel value of the second intermediate image is negative and the output value of the luminance color difference adding means is larger than the eleventh predetermined value and smaller than the twelfth predetermined value, the output value of the luminance color difference adding means decreases. The image processing apparatus according to claim 1, wherein the image processing apparatus is determined to decrease as the time increases.
前記加算手段は、前記入力画像の輝度信号と前記第3の中間画像と前記第4の中間画像を重み付け加算することを特徴とする請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the adding unit weights and adds the luminance signal of the input image, the third intermediate image, and the fourth intermediate image. 前記第1の中間画像生成手段は、
前記入力画像の輝度信号から第1の水平方向周波数以上の高周波数成分を取り出した第1の水平方向高周波数成分画像を生成する第1の水平方向高周波数成分画像生成手段と、
前記第1の水平方向高周波数成分画像から第2の水平方向周波数以下の低周波数成分のみを取り出した第1の水平方向中間画像を生成する水平方向低周波数成分画像生成手段を有し、
前記第1の中間画像が、前記第1の水平方向中間画像を含み、
前記ゼロクロス判定手段は、前記第1の水平方向中間画像の画素値が水平方向にそって正から負へ、もしくは負から正へと変化する箇所をゼロクロス点として判定する水平方向ゼロクロス判定手段を有し、
前記信号増幅手段は、前記第1の水平方向中間画像を構成する画素のうち、前記ゼロクロス点の近傍に存在する画素の画素値を1より大きな増幅率で増幅した水平方向非線形処理画像を生成する水平方向信号増幅手段を有し、
前記高周波数成分画像生成手段は、前記水平方向非線形処理画像の第3の水平方向周波数以上の高周波数成分のみを取り出した第2の水平方向高周波数成分画像を生成する第2の水平方向高周波数成分画像生成手段を有し、
前記第2の中間画像は前記第2の水平方向高周波数成分画像を含む
ことを特徴とする請求項1に記載の画像処理装置。
The first intermediate image generating means includes
First horizontal high-frequency component image generation means for generating a first horizontal high-frequency component image obtained by extracting a high-frequency component equal to or higher than the first horizontal frequency from the luminance signal of the input image;
Horizontal low frequency component image generation means for generating a first horizontal intermediate image obtained by extracting only low frequency components equal to or lower than a second horizontal frequency from the first horizontal high frequency component image;
The first intermediate image includes the first horizontal intermediate image;
The zero-cross determining means has a horizontal zero-cross determining means for determining, as a zero-cross point, a point where the pixel value of the first horizontal intermediate image changes from positive to negative or from negative to positive along the horizontal direction. And
The signal amplifying unit generates a horizontal non-linearly processed image obtained by amplifying a pixel value of a pixel existing in the vicinity of the zero cross point among the pixels constituting the first horizontal intermediate image with an amplification factor larger than 1. Having horizontal signal amplification means;
The high frequency component image generation means generates a second horizontal high frequency component image that extracts only a high frequency component equal to or higher than a third horizontal frequency of the horizontal nonlinear processed image. Having component image generation means;
The image processing apparatus according to claim 1, wherein the second intermediate image includes the second horizontal high-frequency component image.
前記第1の中間画像生成手段は、
前記入力画像の輝度信号から第1の垂直方向周波数以上の高周波数成分を取り出した第1の垂直方向高周波数成分画像を生成する第1の垂直方向高周波数成分画像生成手段と、
前記第1の垂直方向高周波数成分画像から第2の垂直方向周波数以下の低周波数成分のみを取り出した第1の垂直方向中間画像を生成する垂直方向低周波数成分画像生成手段を有し、
前記第1の中間画像が、前記第1の垂直方向中間画像を含み、
前記ゼロクロス判定手段は、前記第1の垂直方向中間画像の画素値が垂直方向にそって正から負へ、もしくは負から正へと変化する箇所をゼロクロス点として判定する垂直方向ゼロクロス判定手段を有し、
前記信号増幅手段は、前記第1の垂直方向中間画像を構成する画素のうち、前記ゼロクロス点の近傍に存在する画素の画素値を1より大きな増幅率で増幅した垂直方向非線形処理画像を生成する垂直方向信号増幅手段を有し、
前記高周波数成分画像生成手段は、前記垂直方向非線形処理画像の第3の垂直方向周波数以上の高周波数成分のみを取り出した第2の垂直方向高周波数成分画像を生成する第2の垂直方向高周波数成分画像生成手段を有し、
前記第2の中間画像は前記第2の垂直方向高周波数成分画像を含む
ことを特徴とする請求項1に記載の画像処理装置。
The first intermediate image generating means includes
First vertical high frequency component image generation means for generating a first vertical high frequency component image obtained by extracting a high frequency component equal to or higher than the first vertical frequency from the luminance signal of the input image;
Vertical low frequency component image generation means for generating a first vertical intermediate image obtained by extracting only a low frequency component equal to or lower than a second vertical frequency from the first vertical high frequency component image;
The first intermediate image includes the first vertical intermediate image;
The zero-cross determining unit includes a vertical zero-cross determining unit that determines, as a zero-cross point, a portion where the pixel value of the first vertical intermediate image changes from positive to negative or from negative to positive along the vertical direction. And
The signal amplifying unit generates a vertical nonlinear processed image obtained by amplifying a pixel value of a pixel existing in the vicinity of the zero-cross point among the pixels constituting the first vertical intermediate image with an amplification factor larger than 1. Having vertical signal amplification means;
The high-frequency component image generation means generates a second vertical high-frequency component image by extracting only a high-frequency component equal to or higher than a third vertical frequency of the vertical non-linear processing image. Having component image generation means;
The image processing apparatus according to claim 1, wherein the second intermediate image includes the second vertical high-frequency component image.
請求項1乃至のいずれかに記載の画像処理装置を備えたことを特徴とする画像表示装置。 The image display apparatus comprising the image processing apparatus according to any one of claims 1 to 6. 輝度信号と色差信号から成る入力画像の輝度信号から特定の周波数帯域の成分を取り出した第1の中間画像を生成する第1の中間画像生成ステップと、
前記第1の中間画像をもとに第2の中間画像を生成する第2の中間画像生成ステップと、
前記入力画像の輝度信号と色差信号の絶対値を加重加算する輝度色差加算ステップと、
前記第1の中間画像の画素値を第1の増幅率に従って増幅した第3の中間画像を生成する第1の中間画像処理ステップと、
前記第2の中間画像の画素値を第2の増幅率に従って増幅した第4の中間画像を生成する第2の中間画像処理ステップと、
前記入力画像の輝度信号と前記第3の中間画像と前記第4の中間画像を加算する加算ステップを有する画像処理方法において、
前記第2の中間画像生成ステップは、
前記第1の中間画像の画素値が正の値から負の値あるいは負の値から正の値へと変化する箇所をゼロクロス点と捉えるゼロクロス判定ステップと、
前記第1の中間画像を構成する画素のうち、前記ゼロクロス点の近傍にある画素の画素値を1より大きい増幅率で増幅した非線形処理画像を生成する信号増幅ステップと、
前記非線形処理画像の高周波数成分のみを取り出した高周波数成分画像を生成する高周波数成分画像生成ステップを有し、
前記高周波数成分画像を前記第2の中間画像として出力し、
前記第1の増幅率は、
前記第1の中間画像の画素値の符号が正で前記輝度色差加算ステップの出力値が大きい場合、小さな値になり、
前記第1の中間画像の画素値の符号が負で前記輝度色差加算ステップの出力値が小さい場合、小さな値になるよう決定され、
前記第2の増幅率は、
前記第2の中間画像の画素値の符号が正で前記輝度色差加算ステップの出力値が大きい場合、小さな値になり、
前記第2の中間画像の画素値の符号が負で前記輝度色差加算ステップの出力値が小さい場合、小さな値になるよう決定される
ことを特徴とする画像処理方法。
A first intermediate image generation step of generating a first intermediate image obtained by extracting a component of a specific frequency band from a luminance signal of an input image composed of a luminance signal and a color difference signal;
A second intermediate image generating step for generating a second intermediate image based on the first intermediate image;
Luminance color difference addition step for weighted addition of absolute values of the luminance signal and color difference signal of the input image;
A first intermediate image processing step of generating a third intermediate image obtained by amplifying the pixel value of the first intermediate image according to a first amplification factor;
A second intermediate image processing step of generating a fourth intermediate image obtained by amplifying the pixel value of the second intermediate image according to a second amplification factor;
In an image processing method including an addition step of adding the luminance signal of the input image, the third intermediate image, and the fourth intermediate image,
The second intermediate image generation step includes
A zero-cross determination step in which a point where the pixel value of the first intermediate image changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero-cross point;
A signal amplification step for generating a non-linearly processed image obtained by amplifying a pixel value of a pixel in the vicinity of the zero-cross point among the pixels constituting the first intermediate image with an amplification factor greater than 1,
A high-frequency component image generation step for generating a high-frequency component image obtained by extracting only the high-frequency component of the nonlinear processed image;
Outputting the high-frequency component image as the second intermediate image;
The first amplification factor is:
When the sign of the pixel value of the first intermediate image is positive and the output value of the luminance color difference addition step is large, it becomes a small value,
When the sign of the pixel value of the first intermediate image is negative and the output value of the luminance color difference addition step is small, it is determined to be a small value,
The second amplification factor is
When the sign of the pixel value of the second intermediate image is positive and the output value of the luminance color difference addition step is large, it becomes a small value,
When the sign of the pixel value of the second intermediate image is negative and the output value of the luminance color difference addition step is small, the image processing method is determined to be a small value.
請求項記載の画像処理方法により処理された画像を表示することを特徴とする画像表示装置。 An image display apparatus that displays an image processed by the image processing method according to claim 8 .
JP2009066630A 2008-12-22 2009-03-18 Image processing apparatus and method, and image display apparatus Active JP4994407B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2009066630A JP4994407B2 (en) 2009-03-18 2009-03-18 Image processing apparatus and method, and image display apparatus
US12/810,448 US8249379B2 (en) 2008-12-22 2009-11-25 Image processing apparatus and method and image display apparatus
CN200980151958.8A CN102265305B (en) 2008-12-22 2009-11-25 Image processing apparatus and method, and image displaying apparatus
EP09834301A EP2362347A4 (en) 2008-12-22 2009-11-25 Image processing apparatus and method, and image displaying apparatus
PCT/JP2009/006356 WO2010073485A1 (en) 2008-12-22 2009-11-25 Image processing apparatus and method, and image displaying apparatus
EP12162488.6A EP2472850B1 (en) 2008-12-22 2009-11-25 Image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009066630A JP4994407B2 (en) 2009-03-18 2009-03-18 Image processing apparatus and method, and image display apparatus

Publications (2)

Publication Number Publication Date
JP2010220063A JP2010220063A (en) 2010-09-30
JP4994407B2 true JP4994407B2 (en) 2012-08-08

Family

ID=42978385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009066630A Active JP4994407B2 (en) 2008-12-22 2009-03-18 Image processing apparatus and method, and image display apparatus

Country Status (1)

Country Link
JP (1) JP4994407B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177386A (en) * 1993-12-21 1995-07-14 Matsushita Electric Ind Co Ltd Image control emphasizing device
JPH08111792A (en) * 1994-10-13 1996-04-30 Matsushita Electric Ind Co Ltd Image contour emphasis device
JPH0946576A (en) * 1995-07-28 1997-02-14 Sony Corp Digital signal processing camera
JP4383581B2 (en) * 1998-05-22 2009-12-16 パナソニック株式会社 Block noise detecting device and block noise removing device
CN101686306A (en) * 2003-09-11 2010-03-31 松下电器产业株式会社 Visual processing device, visual processing method, visual processing program, integrated circuit, display device, imaging device, and mobile information terminal
JP4577565B2 (en) * 2005-03-03 2010-11-10 ソニー株式会社 Image processing method, image processing apparatus, program, and photographing apparatus
JP2006340006A (en) * 2005-06-01 2006-12-14 Sony Corp Imaging device, video image signal processing device and method, and program
JP4437150B2 (en) * 2005-10-12 2010-03-24 パナソニック株式会社 Visual processing device, display device, visual processing method, program, and integrated circuit

Also Published As

Publication number Publication date
JP2010220063A (en) 2010-09-30

Similar Documents

Publication Publication Date Title
KR101311817B1 (en) Image detail enhancement
EP2390837B1 (en) Image processing device and method, and image display device
KR20010075557A (en) Video signal enhancement
WO2010073485A1 (en) Image processing apparatus and method, and image displaying apparatus
JP4994355B2 (en) Image processing apparatus and method, and image display apparatus
JP4994407B2 (en) Image processing apparatus and method, and image display apparatus
JP5247632B2 (en) Image processing apparatus and method, and image display apparatus and method
JP4994354B2 (en) Image processing apparatus and method, and image display apparatus
JP5300656B2 (en) Image processing apparatus and method, and image display apparatus
JP5247634B2 (en) Image processing apparatus and method, and image display apparatus and method
JP4994409B2 (en) Image processing apparatus and method, and image display apparatus
JP5383385B2 (en) Image processing apparatus and method, and image display apparatus and method
JP4912418B2 (en) Image processing apparatus and method, and image display apparatus
JP5349204B2 (en) Image processing apparatus and method, and image display apparatus and method
JP4994353B2 (en) Image processing apparatus and method, and image display apparatus
JP4610642B2 (en) Image processing apparatus and method, and image display apparatus
JP5247627B2 (en) Image processing apparatus and method, and image display apparatus
JP4958876B2 (en) Image processing apparatus and method, and image display apparatus
JP5984480B2 (en) Image processing apparatus and method, and image display apparatus

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120410

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120508

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150518

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4994407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250