JP2008021219A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
JP2008021219A
JP2008021219A JP2006194057A JP2006194057A JP2008021219A JP 2008021219 A JP2008021219 A JP 2008021219A JP 2006194057 A JP2006194057 A JP 2006194057A JP 2006194057 A JP2006194057 A JP 2006194057A JP 2008021219 A JP2008021219 A JP 2008021219A
Authority
JP
Japan
Prior art keywords
image
pixel
signal
edge enhancement
target pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006194057A
Other languages
Japanese (ja)
Inventor
渉 ▲高▼柳
Wataru Takayanagi
Kengo Masaoka
賢悟 正岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2006194057A priority Critical patent/JP2008021219A/en
Publication of JP2008021219A publication Critical patent/JP2008021219A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To suppress unnatural edge enhancement likely to occur near the angle of an image. <P>SOLUTION: In this image processing apparatus for using an edge enhancement signal created by a two-dimensional filter or the like to execute edge enhancement processing, whether there is a corner of an image around the target pixel of the edge enhancement processing is determined on the basis of the pixel signal of pixels around the target pixel, and an edge enhancement gain to be multiplied by the edge enhancement signal is determined on the basis of the determination result. Corner determination values are calculated as an index corresponding to the presence of the corner of the image for each of the upper left, lower left, upper right and lower right of the target pixel to calculate an edge enhancement gain on the basis of the corner determination values. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、入力画像に対してエッジ強調処理を施す画像処理装置及びそれに用いられる画像処理方法に関する。また、本発明は、その画像処理装置を備えた、撮像装置及び表示装置などの電気機器に関する。   The present invention relates to an image processing apparatus that performs edge enhancement processing on an input image and an image processing method used therefor. The present invention also relates to an electrical apparatus such as an imaging apparatus and a display apparatus that includes the image processing apparatus.

画像の輪郭(エッジ)を強調するエッジ強調処理が古くから知られている(例えば、下記非特許文献1参照)。エッジ強調処理では、一般的に、所定のマトリクスサイズを有する二次元フィルタを用いてエッジ強調信号を作成し、そのエッジ強調信号をエッジ強調処理の対象信号(輝度信号など)に付加する。   Edge enhancement processing for enhancing the contour (edge) of an image has been known for a long time (for example, see Non-Patent Document 1 below). In the edge enhancement processing, an edge enhancement signal is generally generated using a two-dimensional filter having a predetermined matrix size, and the edge enhancement signal is added to a target signal (luminance signal or the like) for edge enhancement processing.

末松良一(他1名)著,「画像処理工学」,初版,株式会社コロナ社,平成12年10月26日,p.100−103Ryoichi Suematsu (1 other), “Image Processing Engineering”, first edition, Corona Inc., October 26, 2000, p. 100-103

通常、二次元フィルタを用いて作成されるエッジ強調信号に一定のゲインを乗じたものが、エッジ強調処理の対象信号に付加される。このような処理によって画像の輪郭が強調されるわけであるが、画像によっては、このような一律の処理により不自然なエッジ強調が施されてしまう場合もある。   Usually, a signal obtained by multiplying an edge enhancement signal created using a two-dimensional filter by a certain gain is added to a target signal for edge enhancement processing. The outline of the image is enhanced by such processing, but depending on the image, unnatural edge enhancement may be performed by such uniform processing.

そこで本発明は、不自然なエッジ強調の抑制に寄与する画像処理装置及び画像処理方法並びに電気機器を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an image processing apparatus, an image processing method, and an electrical apparatus that contribute to suppression of unnatural edge enhancement.

上記の目的を達成するために、本発明に係る第1の画像処理装置は、入力画像に対してエッジ強調処理を施す画像処理装置において、前記エッジ強調処理の対象画素の周辺に画像の角が存在しているかを、その対象画素の周辺画素の画素信号に基づいて判断し、その判断結果に基づいて、その対象画素に対するエッジ強調度合いを決定することを特徴とする。   In order to achieve the above object, according to a first image processing apparatus of the present invention, an image processing apparatus that performs edge enhancement processing on an input image has an image corner around a target pixel of the edge enhancement processing. Whether or not the pixel is present is determined based on pixel signals of peripheral pixels of the target pixel, and the edge enhancement degree for the target pixel is determined based on the determination result.

エッジ強調処理の対象画素の周辺に画像の角が存在する場合、その対象画素の画素信号に対して一律のエッジ強調を施すと、その部位に不自然なエッジ強調が付加されることがある。これを考慮し、画像の角の存在に応じてエッジ強調度合い(例えば、エッジ強調信号に乗じるエッジ強調ゲイン)を決定する。これにより、不自然なエッジ強調を抑制することが可能となる。尚、画像の角とは、例えば、画像の濃淡が水平方向にも垂直方向にも急峻に変化している画像部位である。   When corners of an image exist around the target pixel of the edge enhancement processing, if uniform edge enhancement is performed on the pixel signal of the target pixel, unnatural edge enhancement may be added to the part. Considering this, the degree of edge enhancement (for example, edge enhancement gain multiplied by the edge enhancement signal) is determined according to the presence of the corner of the image. This makes it possible to suppress unnatural edge enhancement. Note that the corner of the image is, for example, an image portion where the shading of the image changes steeply both in the horizontal direction and in the vertical direction.

具体的には例えば、上記第1の画像処理装置は、前記対象画素の前記周辺画素の画素信号に基づいて算出した、前記対象画素の周辺の水平エッジ成分及び垂直エッジ成分に基づいて、前記対象画素の周辺に画像の角が存在しているかを判断する。   Specifically, for example, the first image processing apparatus is configured to calculate the target based on a horizontal edge component and a vertical edge component around the target pixel calculated based on a pixel signal of the peripheral pixel of the target pixel. It is determined whether or not an image corner exists around the pixel.

また、上記の目的を達成するために、本発明に係る第2の画像処理装置は、入力画像を形成する複数の画素の夫々を対象画素として取り扱い、各対象画素の画素信号に対するエッジ強調信号を生成するエッジ強調信号生成手段と、前記対象画素の周辺画素の画素信号に基づいて、その対象画素の周辺の水平エッジ成分及び垂直エッジ成分を算出し、算出した前記水平エッジ成分及び前記垂直エッジ成分の双方に基づいて、前記エッジ強調信号を前記対象画素の画素信号に反映させる度合いを表す強調信号寄与度を算出する寄与度算出手段と、前記エッジ強調信号と前記強調信号寄与度に基づいて、前記対象画素の画素信号にエッジ強調処理を施すエッジ強調手段と、を備えたことを特徴とする。   In order to achieve the above object, the second image processing apparatus according to the present invention treats each of a plurality of pixels forming an input image as a target pixel and outputs an edge enhancement signal for the pixel signal of each target pixel. Based on the edge enhancement signal generating means to be generated and the pixel signals of the peripheral pixels of the target pixel, the horizontal edge component and the vertical edge component around the target pixel are calculated, and the calculated horizontal edge component and the vertical edge component are calculated Based on both, a contribution degree calculating means for calculating an enhancement signal contribution degree representing a degree of reflecting the edge enhancement signal in the pixel signal of the target pixel, and based on the edge enhancement signal and the enhancement signal contribution degree, Edge enhancement means for performing edge enhancement processing on the pixel signal of the target pixel.

対象画素の周辺の水平エッジ成分と垂直エッジ成分の双方を用いることにより、対象画素の周辺に画像の角のようなものが存在しているかなどを評価することができる。そして、この評価結果を反映させた強調信号寄与度(例えば、エッジ強調ゲイン)と、エッジ強調信号と、基づいてエッジ強調処理を実施することにより、不自然なエッジ強調を抑制することが可能となる。   By using both the horizontal edge component and the vertical edge component around the target pixel, it is possible to evaluate whether a corner of the image exists around the target pixel. Then, it is possible to suppress unnatural edge enhancement by performing edge enhancement processing based on the enhancement signal contribution degree (for example, edge enhancement gain) reflecting the evaluation result and the edge enhancement signal. Become.

具体的には例えば、上記第2の画像処理装置において、前記エッジ強調手段は、前記エッジ強調信号と前記強調信号寄与度とから算出される信号に従って、前記対象画素の画素信号に前記エッジ強調処理を施す。   Specifically, for example, in the second image processing apparatus, the edge enhancement unit performs the edge enhancement process on the pixel signal of the target pixel according to a signal calculated from the edge enhancement signal and the enhancement signal contribution degree. Apply.

また具体的には例えば、上記第2の画像処理装置において、前記寄与度算出手段は、前記対象画素を含む所定の画像エリア内に複数の検出エリアを定義し、各検出エリア内の画素の画素信号に基づく評価値を、前記検出エリアごとに算出する評価値算出手段と、水平方向に互いに隣接する検出エリアに対応する評価値から、その隣接する検出エリア間のエッジ成分を前記水平エッジ成分として算出する一方で、垂直方向に互いに隣接する検出エリアに対応する評価値から、その隣接する検出エリア間のエッジ成分を前記垂直エッジ成分として算出するエッジ成分算出手段と、を備える。   More specifically, for example, in the second image processing apparatus, the contribution calculation means defines a plurality of detection areas in a predetermined image area including the target pixel, and pixels of the pixels in each detection area An evaluation value calculation unit that calculates an evaluation value based on a signal for each detection area and an evaluation value corresponding to a detection area adjacent to each other in the horizontal direction, an edge component between the adjacent detection areas is used as the horizontal edge component. On the other hand, it comprises edge component calculation means for calculating an edge component between adjacent detection areas as the vertical edge component from evaluation values corresponding to detection areas adjacent to each other in the vertical direction.

これに代えて具体的には例えば、上記第2の画像処理装置において、前記寄与度算出手段は、前記対象画素を含む所定の画像エリア内に複数の検出エリアを定義し、前記対象画素から見て第1、第2、第3及び第4方向に位置する、互いに異なる検出エリアを、それぞれ第1検出エリア、第2検出エリア、第3検出エリア及び第4検出エリアとした場合、各検出エリア内の画素の画素信号に基づく評価値を、前記検出エリアごとに算出する評価値算出手段と、k=1、k=2、k=3及びk=4の夫々に関し、第k検出エリアに対応する評価値と第k検出エリアの水平方向に隣接する検出エリアの評価値との差分に応じた第k水平エッジ成分を前記水平エッジ成分として算出する一方で、第k検出エリアに対応する評価値と第k検出エリアの垂直方向に隣接する検出エリアの評価値との差分に応じた第k垂直エッジ成分を前記垂直エッジ成分として算出するエッジ成分算出手段と、第1水平エッジ成分と第1垂直エッジ成分とに応じた候補寄与度と、第2水平エッジ成分と第2垂直エッジ成分とに応じた候補寄与度と、第3水平エッジ成分と第3垂直エッジ成分とに応じた候補寄与度と、第4水平エッジ成分と第4垂直エッジ成分とに応じた候補寄与度と、を比較して、それらの4つの候補寄与度から1つの候補寄与度を択一的に選択する選択手段と、を備え、前記選択手段によって選択した候補寄与度に基づいて、前記強調信号寄与度を算出する。   Instead of this, specifically, for example, in the second image processing apparatus, the contribution degree calculation means defines a plurality of detection areas in a predetermined image area including the target pixel, and sees from the target pixel. In the case where the different detection areas located in the first, second, third, and fourth directions are the first detection area, the second detection area, the third detection area, and the fourth detection area, respectively, each detection area Corresponding to the kth detection area with respect to each of the evaluation value calculation means for calculating the evaluation value based on the pixel signal of each of the pixels for each detection area, and k = 1, k = 2, k = 3, and k = 4 While calculating the kth horizontal edge component according to the difference between the evaluation value to be detected and the evaluation value of the detection area adjacent in the horizontal direction of the kth detection area as the horizontal edge component, the evaluation value corresponding to the kth detection area And the kth detection area Edge component calculating means for calculating the k-th vertical edge component corresponding to the difference between the evaluation values of the detection areas adjacent in the straight direction as the vertical edge component, and depending on the first horizontal edge component and the first vertical edge component Candidate contributions, candidate contributions according to the second horizontal edge component and second vertical edge component, candidate contributions according to the third horizontal edge component and third vertical edge component, and fourth horizontal edge component And a candidate contribution degree according to the fourth vertical edge component, and a selection means for selectively selecting one candidate contribution degree from the four candidate contribution degrees, the selection means The enhancement signal contribution degree is calculated on the basis of the candidate contribution degree selected by (1).

また、上記の目的を達成するために、本発明に係る第1の画像処理方法は、入力画像に対してエッジ強調処理を施す画像処理方法において、前記エッジ強調処理の対象画素の周辺に画像の角が存在しているかを、その対象画素の周辺画素の画素信号に基づいて判断し、その判断結果に基づいて、その対象画素に対するエッジ強調度合いを決定することを特徴とする。   In order to achieve the above object, a first image processing method according to the present invention is an image processing method for performing edge enhancement processing on an input image. Whether a corner exists is determined based on pixel signals of peripheral pixels of the target pixel, and an edge enhancement degree for the target pixel is determined based on the determination result.

また、上記の目的を達成するために、本発明に係る第2の画像処理方法は、入力画像を形成する複数の画素の夫々を対象画素として取り扱い、各対象画素の画素信号に対するエッジ強調信号を生成する第1ステップと、前記対象画素の周辺画素の画素信号に基づいて、その対象画素の周辺の水平エッジ成分及び垂直エッジ成分を算出し、算出した前記水平エッジ成分及び前記垂直エッジ成分の双方に基づいて、前記エッジ強調信号を前記対象画素の画素信号に反映させる度合いを表す強調信号寄与度を算出する第2ステップと、前記エッジ強調信号と前記強調信号寄与度に基づいて、前記対象画素の画素信号にエッジ強調処理を施す第3ステップと、を実行することを特徴とする。   In order to achieve the above object, the second image processing method according to the present invention treats each of a plurality of pixels forming an input image as a target pixel and outputs an edge enhancement signal for the pixel signal of each target pixel. Based on the first step to be generated and the pixel signals of the peripheral pixels of the target pixel, the horizontal edge component and the vertical edge component around the target pixel are calculated, and both the calculated horizontal edge component and the vertical edge component are calculated. A second step of calculating an enhancement signal contribution representing the degree to which the edge enhancement signal is reflected in the pixel signal of the target pixel, and the target pixel based on the edge enhancement signal and the enhancement signal contribution And a third step of performing edge emphasis processing on the pixel signal.

また、上記の目的を達成するために、本発明に係る電気機器は、上記第1又は第2の画像処理装置と、撮影によって得られた画像を前記入力画像として前記画像処理装置に出力する撮像部、及び、前記画像処理装置によるエッジ強調処理後の画像を表示する表示部の少なくとも一方と、を備えたことを特徴とする。   In order to achieve the above object, an electrical apparatus according to the present invention includes the first or second image processing device and an imaging device that outputs an image obtained by photographing to the image processing device as the input image. And at least one of a display unit that displays an image after the edge enhancement processing by the image processing device.

本発明は、不自然なエッジ強調の抑制に寄与する。   The present invention contributes to suppression of unnatural edge enhancement.

以下、本発明の実施の形態につき、図面を参照して具体的に説明する。参照される各図において、同一の部分には同一の符号を付し、同一の部分に関する重複する説明を原則として省略する。   Hereinafter, embodiments of the present invention will be specifically described with reference to the drawings. In each of the drawings to be referred to, the same part is denoted by the same reference numeral, and redundant description regarding the same part is omitted in principle.

<<第1実施形態>>
図1は、本発明の第1実施形態に係る撮像装置1の概略的な全体構成ブロック図である。撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラである。撮像装置1は、撮像部2と、画像処理部3と、表示部4と、記録媒体5と、を有して構成される。
<< First Embodiment >>
FIG. 1 is a schematic block diagram of the overall configuration of an imaging apparatus 1 according to the first embodiment of the present invention. The imaging device 1 is, for example, a digital still camera or a digital video camera. The imaging device 1 includes an imaging unit 2, an image processing unit 3, a display unit 4, and a recording medium 5.

撮像部2は、CCD(Charge Coupled Devices)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等から成る撮像素子、光学系、増幅器及びA/D変換器などから構成され(全て不図示)、撮影によって得られた画像(以下、撮影画像という)を表す撮影画像データを、画像処理部3に送る。   The imaging unit 2 includes an imaging device such as a charge coupled device (CCD) and a complementary metal oxide semiconductor (CMOS) image sensor, an optical system, an amplifier, an A / D converter, and the like (all not shown), and is obtained by photographing. Captured image data representing the received image (hereinafter referred to as a captured image) is sent to the image processing unit 3.

画像処理部3は、撮影画像データに基づき、撮影画像を表す映像信号を生成する。映像信号は、撮影画像の輝度を表す輝度信号(Y)と、撮影画像の色を表す色差信号(U及びV)と、から構成される。画像処理部3は、生成した映像信号に、エッジ強調処理などを含む必要な映像処理を施し、その映像処理後の映像信号を表示部4に出力する。表示部4は、液晶ディスプレイパネルなどから成り、与えられた映像信号を画像として表示する。   The image processing unit 3 generates a video signal representing a captured image based on the captured image data. The video signal is composed of a luminance signal (Y) that represents the luminance of the captured image and a color difference signal (U and V) that represents the color of the captured image. The image processing unit 3 performs necessary video processing including edge enhancement processing on the generated video signal, and outputs the video signal after the video processing to the display unit 4. The display unit 4 includes a liquid crystal display panel and the like, and displays a given video signal as an image.

また、画像処理部3は、映像処理後の映像信号を、必要に応じて圧縮してから、記録媒体5に送る。記録媒体5は、メモリカードなどから成り、与えられた映像信号を記録する。尚、図示していないが、撮像装置1には、更に、CPU(Central Processing Unit)、マイク、音声信号処理部、スピーカ、操作部などが、必要に応じて、搭載されうる。   Further, the image processing unit 3 compresses the video signal after the video processing as necessary, and then sends it to the recording medium 5. The recording medium 5 is composed of a memory card or the like and records a given video signal. Although not shown, the imaging device 1 may further include a CPU (Central Processing Unit), a microphone, an audio signal processing unit, a speaker, an operation unit, and the like as necessary.

上記の如く、画像処理部3は、エッジ強調処理を実施する機能を備える。このエッジ強調処理は、例えば、図2に示すようなエッジ強調処理部(エッジ強調処理装置)10によって実現される。図2はエッジ強調処理部10の内部ブロック図であり、エッジ強調処理部10は図1の画像処理部3に備えられる。エッジ強調処理部10は、エッジ強調信号生成部11と、エッジ強調ゲイン算出部(寄与度算出手段)12と、エッジ強調部13と、を有する。エッジ強調部13は、乗算器14と加算器15を有する。   As described above, the image processing unit 3 has a function of performing edge enhancement processing. This edge enhancement processing is realized by, for example, an edge enhancement processing unit (edge enhancement processing device) 10 as shown in FIG. FIG. 2 is an internal block diagram of the edge enhancement processing unit 10, and the edge enhancement processing unit 10 is provided in the image processing unit 3 of FIG. The edge enhancement processing unit 10 includes an edge enhancement signal generation unit 11, an edge enhancement gain calculation unit (contribution degree calculation unit) 12, and an edge enhancement unit 13. The edge enhancement unit 13 includes a multiplier 14 and an adder 15.

画像処理部3にて生成された映像信号によって表される入力画像データがエッジ強調処理部10に与えられる。エッジ強調処理部10は、与えられた入力画像データに対してエッジ強調処理を施し、そのエッジ強調処理後の画像データを、出力画像データとして出力する。   Input image data represented by the video signal generated by the image processing unit 3 is given to the edge enhancement processing unit 10. The edge enhancement processing unit 10 performs edge enhancement processing on the given input image data, and outputs the image data after the edge enhancement processing as output image data.

入力画像データ又は出力画像データによって表される画像を形成する各画素の配列を図3に示す。各画素は、マトリクス状に配列されている。この配列を、画像の原点Xを基準としたM行N列の行列として捉え、各画素をP(m,n)で表す。ここで、mは、画像内における画素の垂直位置を表し、1〜Mの間の各整数をとる。nは、画像内における画素の水平位置を表し、1〜Nの間の各整数をとる。以下、入力画像データによって表される画像を入力画像と呼び、出力画像データによって表される画像を出力画像と呼ぶ。   FIG. 3 shows an arrangement of each pixel that forms an image represented by input image data or output image data. Each pixel is arranged in a matrix. This array is regarded as a matrix of M rows and N columns with the origin X of the image as a reference, and each pixel is represented by P (m, n). Here, m represents the vertical position of the pixel in the image, and takes an integer between 1 and M. n represents the horizontal position of the pixel in the image, and takes an integer between 1 and N. Hereinafter, an image represented by input image data is referred to as an input image, and an image represented by output image data is referred to as an output image.

本実施形態の説明では、エッジ強調処理の対象信号が、輝度を表す輝度信号であるとする。或る画素P(m,n)に関し、その画素P(m,n)の輝度信号の値が増加するに従って、その画素P(m,n)の輝度は増加するものとする。輝度信号の値を、以下、単に、輝度値と呼ぶ。説明の具体化のため、以下、輝度値が、0〜255の範囲内のデジタル値をとるものと仮定する。   In the description of the present embodiment, it is assumed that the target signal for edge enhancement processing is a luminance signal representing luminance. With respect to a certain pixel P (m, n), the luminance of the pixel P (m, n) increases as the value of the luminance signal of the pixel P (m, n) increases. Hereinafter, the value of the luminance signal is simply referred to as a luminance value. In the following description, it is assumed that the luminance value takes a digital value within a range of 0 to 255 for the sake of concrete description.

図2のエッジ強調処理部10では、入力画像を形成する複数の画素P(m,n)の夫々が、エッジ強調処理の対象画素として取り扱われる。但し、エッジ強調信号生成部11にて用いられるエッジ強調フィルタのマトリクスサイズに応じて、入力画像の端部に位置する画素は、エッジ強調処理の対象画素とならない。   In the edge enhancement processing unit 10 in FIG. 2, each of the plurality of pixels P (m, n) forming the input image is handled as a target pixel for edge enhancement processing. However, according to the matrix size of the edge enhancement filter used in the edge enhancement signal generation unit 11, the pixel located at the end of the input image is not a target pixel for edge enhancement processing.

図2のエッジ強調信号生成部11は、対象画素ごとに、エッジ強調信号Eを生成する。エッジ強調信号生成部11は、例えば、図4に示すような、3×11のマトリクスサイズ(垂直方向に3画素、水平方向に11画素のマトリクスサイズ)を有するエッジ強調フィルタを用いて、エッジ強調信号Eを生成する。   The edge enhancement signal generation unit 11 in FIG. 2 generates an edge enhancement signal E for each target pixel. The edge enhancement signal generation unit 11 uses, for example, an edge enhancement filter having a 3 × 11 matrix size (a matrix size of 3 pixels in the vertical direction and 11 pixels in the horizontal direction) as shown in FIG. A signal E is generated.

図5は、図4のエッジ強調フィルタによる演算に使用される画像データのエリアを示している。図5では、各画素の輝度値として輝度値a(0)〜a(32)が表記されている。尚、図5では、輝度値a(16)が、エッジ強調処理の対象画素の輝度値である。   FIG. 5 shows an area of image data used for calculation by the edge enhancement filter of FIG. In FIG. 5, luminance values a (0) to a (32) are shown as the luminance values of each pixel. In FIG. 5, the luminance value a (16) is the luminance value of the target pixel for edge enhancement processing.

輝度値a(16)に対応する対象画素がP(m0,n0)であるとすると、
iを0以上10以下の各整数とした場合、輝度値a(i)は、画素P(m0−1,(n0−5)+i)の輝度値を表し、
iを11以上21以下の各整数とした場合、輝度値a(i)は、画素P(m0,(n0−5)+(i−11))の輝度値を表し、
iを22以上32以下の各整数とした場合、輝度値a(i)は、画素P(m0+1,(n0−5)+(i−22))の輝度値を表す。
ここで、m0は、1≦m0≦(M−1)の間の各整数をとり、n0は、5≦n0≦(N−5)の間の各整数をとる。
If the target pixel corresponding to the luminance value a (16) is P (m 0 , n 0 ),
When i is an integer of 0 to 10, the luminance value a (i) represents the luminance value of the pixel P (m 0 -1, (n 0 -5) + i),
When i is an integer of 11 to 21, the luminance value a (i) represents the luminance value of the pixel P (m 0 , (n 0 −5) + (i−11)).
When i is an integer between 22 and 32, the luminance value a (i) represents the luminance value of the pixel P (m 0 +1, (n 0 −5) + (i−22)).
Here, m 0 takes each integer between 1 ≦ m 0 ≦ (M−1), and n 0 takes each integer between 5 ≦ n 0 ≦ (N−5).

エッジ強調信号生成部11は、輝度値a(0)〜a(32)に対して、図4に示すエッジ強調フィルタを適用することにより、着目している対象画素に対するエッジ強調信号Eを算出する。エッジ強調信号Eは、下記式(1)によって表される。ここで、kiはフィルタ係数である。例えば、33個のフィルタ係数k0〜k32の内、k16のみが32であって、その他は全て−1とされる。 The edge enhancement signal generation unit 11 calculates the edge enhancement signal E for the target pixel of interest by applying the edge enhancement filter shown in FIG. 4 to the luminance values a (0) to a (32). . The edge enhancement signal E is expressed by the following formula (1). Here, k i is a filter coefficient. For example, among the 33 pieces of filter coefficients k 0 to k 32, only k 16 is a 32, others are all -1.

図2のエッジ強調ゲイン算出部12は、着目している対象画素に関し、エッジ強調信号Eに対するエッジ強調ゲインGを算出する。エッジ強調ゲイン(強調信号寄与度)Gは、エッジ強調部13におけるエッジ強調処理にて、エッジ強調信号Eを対象画素の輝度値に反映させる度合いを表す。エッジ強調ゲインGの算出法については後述する。   The edge enhancement gain calculation unit 12 in FIG. 2 calculates an edge enhancement gain G for the edge enhancement signal E for the target pixel of interest. The edge enhancement gain (enhancement signal contribution degree) G represents the degree to which the edge enhancement signal E is reflected in the luminance value of the target pixel in the edge enhancement processing in the edge enhancement unit 13. A method for calculating the edge enhancement gain G will be described later.

乗算器14は、エッジ強調信号Eとエッジ強調ゲインGの積を算出する。加算器15は、対象画素の輝度値に対して乗算器14にて算出された積(E×G)を加算し、その積が加算された輝度値をエッジ強調処理後の対象画素の輝度値として出力する。加算器15の出力値は、エッジ強調処理部10の出力画像データを形成する輝度値となる。各対象画素に対して上述のようなエッジ強調処理を施すことによって得られた出力画像では、周知の如く、画像の輪郭が強調される。   The multiplier 14 calculates the product of the edge enhancement signal E and the edge enhancement gain G. The adder 15 adds the product (E × G) calculated by the multiplier 14 to the luminance value of the target pixel, and the luminance value obtained by adding the product is the luminance value of the target pixel after the edge enhancement processing. Output as. The output value of the adder 15 is a luminance value that forms the output image data of the edge enhancement processing unit 10. In the output image obtained by performing the edge enhancement processing as described above on each target pixel, the contour of the image is enhanced as is well known.

エッジ強調ゲイン算出部12は、対象画素の周辺画素の輝度値に基づいて、対象画素ごとに、適切なエッジ強調ゲインGを逐次算出するが、エッジ強調ゲイン算出部12の意義の理解を容易にするために、まず、乗算器14に与えられるエッジ強調ゲインGが常に一定であると仮定し、その場合に生じうる問題点について説明する。   The edge enhancement gain calculation unit 12 sequentially calculates an appropriate edge enhancement gain G for each target pixel based on the luminance values of the surrounding pixels of the target pixel. However, the significance of the edge enhancement gain calculation unit 12 can be easily understood. In order to do this, first, it is assumed that the edge enhancement gain G given to the multiplier 14 is always constant, and problems that may occur in that case will be described.

図6は、入力画像内に存在しうる一部画像の濃淡を模式的に表したものである。入力画像内に、垂直方向に5画素及び水平方向に20画素の、長方形状の画像領域101が存在している場合を想定する。更に、同じ入力画像内に、画像領域101の四方を取り囲む四角枠状(ドーナツ状)の画像領域102と、その画像領域102の四方を取り囲む四角枠状(ドーナツ状)の画像領域103と、が存在しているものとする。画像領域102は、垂直方向に7画素及び水平方向に22画素の長方形状の画像領域から画像領域101を取り除いた画像領域に相当する。画像領域103は、垂直方向に9画素及び水平方向に24画素の長方形状の画像領域から画像領域101及び102を取り除いた画像領域に相当する。   FIG. 6 schematically shows the shading of a partial image that may exist in the input image. Assume that a rectangular image region 101 having 5 pixels in the vertical direction and 20 pixels in the horizontal direction exists in the input image. Further, in the same input image, there are a rectangular frame-shaped (doughnut-shaped) image region 102 that surrounds the four sides of the image region 101, and a square-framed (doughnut-shaped) image region 103 that surrounds the four sides of the image region 102. Suppose it exists. The image area 102 corresponds to an image area obtained by removing the image area 101 from a rectangular image area having 7 pixels in the vertical direction and 22 pixels in the horizontal direction. The image area 103 corresponds to an image area obtained by removing the image areas 101 and 102 from a rectangular image area having 9 pixels in the vertical direction and 24 pixels in the horizontal direction.

そして、今、画像領域101内の各画素の輝度値が全てY1であり、画像領域102内の各画素の輝度値が全てY2であり、画像領域103内の各画素の輝度値が全てY3であるものとする。Y1=0であり、Y1<Y2<Y3、が成立するものとする。また、同じ入力画像内において、画像領域101、102及び103以外の画像領域の各画素の輝度値は、全て、255であるとする。   Now, the luminance values of the pixels in the image area 101 are all Y1, the luminance values of the pixels in the image area 102 are all Y2, and the luminance values of the pixels in the image area 103 are all Y3. It shall be. It is assumed that Y1 = 0 and Y1 <Y2 <Y3. In the same input image, it is assumed that the luminance values of the pixels in the image areas other than the image areas 101, 102, and 103 are all 255.

つまり、輝度に着目した場合、入力画像内に、画像領域101に対応する黒い四角形が存在し、その黒い四角形の周囲が白となっている。但し、画像領域101に対応する黒の画像領域と、白の画素領域との間には、画像領域102及び103に対応するグラデーション領域が存在する。グラデーション領域とは、濃淡が段階的に変化する領域を意味する。   That is, when attention is focused on luminance, a black square corresponding to the image area 101 exists in the input image, and the periphery of the black square is white. However, gradation areas corresponding to the image areas 102 and 103 exist between the black image area corresponding to the image area 101 and the white pixel area. The gradation area means an area where the gradation changes stepwise.

図7(a)、(b)、(c)及び(d)は、図6に示す一部画像部位に、図4に示す3×11のエッジ強調フィルタを重ね合わせて表記した図である。今、輝度値a(16)に対応する対象画素を画像領域102内の画素とした状態で、エッジ強調フィルタの適用エリアを水平方向(紙面左方向)に移動させていく場合を考える。図7(a)〜(d)において、110は、エッジ強調フィルタの適用エリア、即ち、着目している対象画素についての輝度値a(0)〜a(32)に対応する画像エリアを表し、111は、着目している対象画素の位置を表す。   7A, 7B, 7C, and 7D are diagrams in which the 3 × 11 edge enhancement filter illustrated in FIG. 4 is superimposed on the partial image portion illustrated in FIG. Now, consider a case where the application area of the edge enhancement filter is moved in the horizontal direction (left direction in the drawing) in a state where the target pixel corresponding to the luminance value a (16) is the pixel in the image region 102. 7A to 7D, reference numeral 110 denotes an application area of the edge enhancement filter, that is, an image area corresponding to the luminance values a (0) to a (32) for the target pixel of interest. 111 represents the position of the target pixel of interest.

対象画素が図7(a)に示す位置にある場合、a(0)〜a(10)は全てY3、a(11)〜a(21)は全てY2、且つ、a(22)〜a(32)は全てY1、となる。つまり、エッジ強調フィルタ内には垂直方向のエッジ成分のみが存在し、そのエッジ成分に応じたエッジ強調信号Eが対象画素の輝度値に加算されて垂直方向の輪郭が適切に強調される。対象画素が図7(b)に示す位置にある場合も同様である。   When the target pixel is at the position shown in FIG. 7A, a (0) to a (10) are all Y3, a (11) to a (21) are all Y2, and a (22) to a ( 32) are all Y1. That is, only the edge component in the vertical direction exists in the edge enhancement filter, and the edge enhancement signal E corresponding to the edge component is added to the luminance value of the target pixel, so that the vertical contour is appropriately enhanced. The same applies when the target pixel is located at the position shown in FIG.

しかし、対象画素が図7(c)に示す位置にある場合、a(0)〜a(10)は全てY3、且つ、a(11)〜a(21)は全てY2であるものの、a(22)〜a(32)に対応する画素の一部が水平方向のグラデーション領域に入る。このため、そのグラデーションの程度、エッジ強調フィルタのフィルタ係数などに応じて、対象画素のエッジ強調信号Eが、図7(a)及び(b)における場合と比較して過度に大きくなったり過度に小さくなったりしうる。この結果、乗算器14に与えられるエッジ強調ゲインGを一定とした場合、エッジ強調処理後の対象画素が、図7(a)及び(b)における場合と比較して不自然に黒くなったり不自然に白くなったりする問題が生じる。対象画素が図7(d)に示す位置にある場合も同様である。   However, if the target pixel is at the position shown in FIG. 7C, a (0) to a (10) are all Y3 and a (11) to a (21) are all Y2, Part of the pixels corresponding to 22) to a (32) enter the horizontal gradation region. For this reason, the edge enhancement signal E of the target pixel becomes excessively large or excessive as compared with the case in FIGS. 7A and 7B, depending on the gradation level, the filter coefficient of the edge enhancement filter, and the like. It can be smaller. As a result, when the edge emphasis gain G given to the multiplier 14 is constant, the target pixel after the edge emphasis process becomes unnaturally black or uncomparable as compared with the cases in FIGS. 7 (a) and 7 (b). The problem of natural whitening arises. The same applies when the target pixel is at the position shown in FIG.

このような問題の発生は、主として、エッジ強調フィルタの適用エリア内に画像の角112が含まれることに由来する(図7(a)参照)。輝度に着目した場合、「画像の角」とは、画像の濃淡が水平方向にも垂直方向にも急峻に変化している画像部位を意味する。   The occurrence of such a problem mainly stems from the fact that the corner 112 of the image is included in the application area of the edge enhancement filter (see FIG. 7A). When attention is paid to the luminance, the “image corner” means an image portion where the shading of the image changes steeply both in the horizontal direction and in the vertical direction.

図2のエッジ強調ゲイン算出部12は、上記のような問題が生じることを考慮し、画像の角の周辺画像部位に対するエッジ強調度合いが抑制されるように、具体的には、画像の角の周辺画像部位に対するエッジ強調ゲインGが比較的低くなるように、エッジ強調ゲインGを動的に変更する。   Specifically, the edge enhancement gain calculation unit 12 in FIG. 2 considers the occurrence of the above-described problem so that the degree of edge enhancement with respect to the peripheral image portion of the corner of the image is suppressed. The edge enhancement gain G is dynamically changed so that the edge enhancement gain G for the peripheral image region is relatively low.

図8に、図2のエッジ強調ゲイン算出部12の内部ブロック図の一例を示す。図8のエッジ強調ゲイン算出部12は、4つの候補ゲイン算出部21、22、23及び24と、ゲイン選択部(選択手段)25と、乗算器26と、を備える。   FIG. 8 shows an example of an internal block diagram of the edge enhancement gain calculation unit 12 of FIG. The edge enhancement gain calculation unit 12 in FIG. 8 includes four candidate gain calculation units 21, 22, 23 and 24, a gain selection unit (selection means) 25, and a multiplier 26.

以下、説明の便宜上、特に記述しない限り、輝度値a(16)に対応する対象画素として1つの対象画素に着目し、その1つの対象画素についての動作を説明する。勿論、上述したように、入力画像を形成する各画素が対象画素となり、各対象画素の輝度値に対してエッジ強調処理が施されることにより、出力画像データが生成される。   Hereinafter, for convenience of explanation, unless otherwise specified, attention is paid to one target pixel as a target pixel corresponding to the luminance value a (16), and the operation for the one target pixel will be described. Of course, as described above, each pixel forming the input image is a target pixel, and output image data is generated by performing edge enhancement processing on the luminance value of each target pixel.

候補ゲイン算出部21、22、23及び24には、夫々、入力画像データに含まれる輝度値a(0)〜a(32)が与えられる(図5参照)。着目した対象画素の輝度値は、上述したように、a(16)である。輝度値a(0)〜a(15)及びa(17)〜a(32)に対応する画素は、対象画素の周辺画素と呼べる。   Candidate gain calculation units 21, 22, 23, and 24 are respectively given luminance values a (0) to a (32) included in the input image data (see FIG. 5). The luminance value of the target pixel of interest is a (16) as described above. Pixels corresponding to the luminance values a (0) to a (15) and a (17) to a (32) can be called peripheral pixels of the target pixel.

候補ゲイン算出部21は、対象画素の左上に存在しうる画像の角に応じた候補ゲイン(候補寄与度)GAIN_aを算出する。対象画素の左上とは、対象画素を基準とした、輝度値a(0)〜a(4)に対応する画素の位置を表す。   The candidate gain calculation unit 21 calculates a candidate gain (candidate contribution) GAIN_a corresponding to the corner of the image that may exist at the upper left of the target pixel. The upper left of the target pixel represents the position of the pixel corresponding to the luminance values a (0) to a (4) with respect to the target pixel.

同様に、候補ゲイン算出部22、23、24は、それぞれ、対象画素の左下に存在しうる画像の角に応じた候補ゲインGAIN_bを算出し、対象画素の右上に存在しうる画像の角に応じた候補ゲインGAIN_cを算出し、対象画素の右下に存在しうる画像の角に応じた候補ゲインGAIN_dを算出する。対象画素を基準として、対象画素の左下、右上、右下とは、それぞれ、輝度値a(22)〜a(26)に対応する画素の位置を表し、輝度値a(6)〜a(10)に対応する画素の位置を表し、輝度値a(28)〜a(32)に対応する画素の位置を表す。   Similarly, each of the candidate gain calculation units 22, 23, and 24 calculates a candidate gain GAIN_b corresponding to the corner of the image that can exist at the lower left of the target pixel, and according to the corner of the image that can exist at the upper right of the target pixel. The candidate gain GAIN_c is calculated, and the candidate gain GAIN_d corresponding to the corner of the image that may exist at the lower right of the target pixel is calculated. With reference to the target pixel, the lower left, upper right, and lower right of the target pixel represent the positions of the pixels corresponding to the luminance values a (22) to a (26), and the luminance values a (6) to a (10 ) And the pixel positions corresponding to the luminance values a (28) to a (32).

候補ゲイン算出部21、22、23及び24の詳細な動作を説明する前に、各候補ゲイン算出部で共通して定義される事項などを説明する。まず、着目している対象画素を含む角検出用画像エリアを定義する。本実施形態では、エッジ強調フィルタと同じマトリクスサイズ(即ち、3×11)を有する角検出用画像エリアを定義する。エッジ強調処理部10を集積回路化した時におけるコストを考慮すれば、エッジ強調フィルタと角検出用画像エリアのマトリクスサイズを同じにした方が有利である。勿論、両者のマトリクスサイズを異ならせることは可能であり、両者のマトリクスサイズとも独立して任意に設定することが可能である。   Before describing the detailed operation of the candidate gain calculation units 21, 22, 23, and 24, items that are commonly defined in each candidate gain calculation unit will be described. First, an angle detection image area including a target pixel of interest is defined. In the present embodiment, a corner detection image area having the same matrix size as the edge enhancement filter (that is, 3 × 11) is defined. Considering the cost when the edge enhancement processing unit 10 is integrated, it is advantageous that the edge enhancement filter and the corner detection image area have the same matrix size. Of course, both matrix sizes can be made different, and both matrix sizes can be arbitrarily set independently.

角検出用画像エリアは、エッジ強調フィルタの適用エリアと同じく、輝度値a(0)〜a(32)に対応する3×11の画素から構成され、輝度値a(16)は、着目している対象画素の輝度値である。そして、角検出用画像エリアを、図9(a)に示す如く、6の検出エリアAREA(0)〜AREA(5)と、残部エリアと、に分割して考える。   The corner detection image area is composed of 3 × 11 pixels corresponding to the luminance values a (0) to a (32) as in the application area of the edge enhancement filter, and the luminance value a (16) is focused on. This is the luminance value of the target pixel. Then, the corner detection image area is divided into six detection areas AREA (0) to AREA (5) and a remaining area as shown in FIG. 9A.

検出エリアAREA(0)は、輝度値a(0)〜a(4)に対応する5つの画素から構成される。検出エリアAREA(1)は、輝度値a(11)〜a(15)に対応する5つの画素から構成される。検出エリアAREA(2)は、輝度値a(22)〜a(26)に対応する5つの画素から構成される。検出エリアAREA(3)は、輝度値a(6)〜a(10)に対応する5つの画素から構成される。検出エリアAREA(4)は、輝度値a(17)〜a(21)に対応する5つの画素から構成される。検出エリアAREA(5)は、輝度値a(28)〜a(32)に対応する5つの画素から構成される。残部エリアは、輝度値a(5)、a(16)及びa(27)に対応する3つの画素から構成される。   The detection area AREA (0) is composed of five pixels corresponding to the luminance values a (0) to a (4). The detection area AREA (1) is composed of five pixels corresponding to the luminance values a (11) to a (15). The detection area AREA (2) is composed of five pixels corresponding to the luminance values a (22) to a (26). The detection area AREA (3) is composed of five pixels corresponding to the luminance values a (6) to a (10). The detection area AREA (4) is composed of five pixels corresponding to the luminance values a (17) to a (21). The detection area AREA (5) is composed of five pixels corresponding to the luminance values a (28) to a (32). The remaining area is composed of three pixels corresponding to the luminance values a (5), a (16) and a (27).

各候補ゲイン算出部(候補ゲイン算出部21など)は、下記の6つの等式から成る式(2)に従って、図9(b)に示すごとく、各検出エリアの輝度値の平均値Bave(j)を算出可能である(ここで、jは、0〜5の各整数)。   Each candidate gain calculation unit (candidate gain calculation unit 21 and the like) performs an average value Bave (j of luminance values in each detection area, as shown in FIG. 9B, according to equation (2) consisting of the following six equations: ) Can be calculated (where j is an integer from 0 to 5).

また、検出エリアAREA(0)、AREA(2)、AREA(3)及びAREA(5)における輝度値の平均偏差値を、図9(c)に示すごとく、夫々、Basc(0)、Basc(2)、Basc(3)及びBasc(5)と表記する。それらは、下記の4つの等式から成る式(3)に従って、算出される。   In addition, the average deviation values of the luminance values in the detection areas AREA (0), AREA (2), AREA (3), and AREA (5) are represented by Basc (0), Basc ( 2), expressed as Basc (3) and Basc (5). They are calculated according to equation (3) consisting of the following four equations:

次に、候補ゲイン算出部21、22、23及び24の詳細な動作について説明する。図10は、候補ゲイン算出部21、22、23及び24の夫々として用いることが可能な候補ゲイン算出部の内部ブロック図である。   Next, detailed operations of the candidate gain calculation units 21, 22, 23, and 24 will be described. FIG. 10 is an internal block diagram of a candidate gain calculation unit that can be used as each of the candidate gain calculation units 21, 22, 23, and 24.

候補ゲイン算出部21、22、23及び24の機能は、互いに類似しており、候補ゲイン算出部21、22、23及び24の夫々の内部ブロック図は共通している。以下、説明の具体化のため、候補ゲイン算出部21、22、23及び24の内、対象画素の右下に対応する候補ゲイン算出部24の動作に特に注目して説明を行うこととする。即ち、図10の内部ブロック図が候補ゲイン算出部24の内部ブロック図であるとして、以下の説明を行う。各候補ゲイン算出部間に存在する、若干の相違点についての説明は後述する。   The functions of the candidate gain calculators 21, 22, 23, and 24 are similar to each other, and the internal block diagrams of the candidate gain calculators 21, 22, 23, and 24 are common. Hereinafter, for the sake of specific description, the description will be given with particular attention to the operation of the candidate gain calculation unit 24 corresponding to the lower right of the target pixel among the candidate gain calculation units 21, 22, 23, and 24. That is, the following description will be made on the assumption that the internal block diagram of FIG. 10 is an internal block diagram of the candidate gain calculation unit 24. A description of some differences that exist between the candidate gain calculation units will be given later.

また、図6に示すような画像の黒い角を検出し、その黒い角の周辺画像部位に対するエッジ強調度合いを抑制するような機能を実現する場合を例示するものとする。   In addition, a case where a black corner of an image as shown in FIG. 6 is detected and a function of suppressing the degree of edge enhancement with respect to the peripheral image portion of the black corner is exemplified.

図10の候補ゲイン算出部は、平均値算出部(評価値算出部)31と、差分値算出部32と、エッジ値変換部33と、角判定値算出部34と、候補ゲイン変換部35と、を備える。尚、図10中の“*”は、何らかの整数を意図している。   The candidate gain calculation unit in FIG. 10 includes an average value calculation unit (evaluation value calculation unit) 31, a difference value calculation unit 32, an edge value conversion unit 33, an angle determination value calculation unit 34, and a candidate gain conversion unit 35. . Note that “*” in FIG. 10 is intended to be an integer.

平均値算出部(評価値算出部)31は、輝度値a(0)〜a(32)を参照し、上記式(2)に従って、評価値としての平均値Bave(j)を算出する(ここで、jは、0〜5の各整数)。   The average value calculation unit (evaluation value calculation unit) 31 refers to the luminance values a (0) to a (32), and calculates the average value Bave (j) as the evaluation value according to the equation (2) (here) And j is an integer of 0 to 5).

差分値算出部32は、下記式(4a)及び(4b)に従って、水平差分値DIF1及び垂直差分値DIF2を算出する。式(4a)にて表される水平差分値DIF1は、検出エリア(5)とそれに水平方向に隣接する検出エリア(2)との間における水平エッジ成分を表し、それは、両者間における水平方向のエッジらしさを表す。式(4b)にて表される垂直差分値DIF2は、検出エリア(5)とそれに垂直方向に隣接する検出エリア(4)との間における垂直エッジ成分を表し、それは、両者間における垂直方向のエッジらしさを表す。このため、差分値算出部32は、エッジ成分算出手段として機能する、とも言える。   The difference value calculation unit 32 calculates the horizontal difference value DIF1 and the vertical difference value DIF2 according to the following equations (4a) and (4b). The horizontal difference value DIF1 represented by the equation (4a) represents a horizontal edge component between the detection area (5) and the detection area (2) adjacent to the detection area (5) in the horizontal direction. Expresses the edge. The vertical difference value DIF2 represented by the equation (4b) represents a vertical edge component between the detection area (5) and the detection area (4) adjacent to the detection area (5) in the vertical direction. Expresses the edge. For this reason, it can be said that the difference value calculation unit 32 functions as an edge component calculation unit.

エッジ値変換部33は、図11(a)及び(b)に示されるような関数又はテーブルデータに従って、水平差分値DIF1及び垂直差分値DIF2を、夫々、水平エッジ値EDGE_VALUE1及び垂直エッジ値EDGE_VALUE2に変換する。   The edge value conversion unit 33 converts the horizontal difference value DIF1 and the vertical difference value DIF2 into the horizontal edge value EDGE_VALUE1 and the vertical edge value EDGE_VALUE2, respectively, according to the function or table data as shown in FIGS. 11 (a) and 11 (b). Convert.

水平差分値DIF1が0から増加するに従って水平エッジ値EDGE_VALUE1は0から増加してゆき(上限は1)、DIF1≧DIF_TH1において、水平エッジ値EDGE_VALUE1は1とされる。垂直差分値DIF2が0から増加するに従って垂直エッジ値EDGE_VALUE2は0から増加してゆき(上限は1)、DIF2≧DIF_TH2において、垂直エッジ値EDGE_VALUE2は1とされる。DIF_TH1及びDIF_TH2は、所定の閾値であり、0より大きく且つ255以下の間の値に設定される。   As the horizontal difference value DIF1 increases from 0, the horizontal edge value EDGE_VALUE1 increases from 0 (upper limit is 1). When DIF1 ≧ DIF_TH1, the horizontal edge value EDGE_VALUE1 is set to 1. As the vertical difference value DIF2 increases from 0, the vertical edge value EDGE_VALUE2 increases from 0 (upper limit is 1), and when DIF2 ≧ DIF_TH2, the vertical edge value EDGE_VALUE2 is set to 1. DIF_TH1 and DIF_TH2 are predetermined threshold values, and are set to a value between 0 and 255 or less.

角判定値算出部34は、EDGE_VALUE1とEDGE_VALUE2の積を、角判定値COR_VALUEとして算出する。角判定値COR_VALUEは、0以上1以下の値となり、検出エリアAREA(5)を基準とした水平エッジ成分と垂直エッジ成分の双方が増加すれば増加するほど、その値は増加する。角判定値COR_VALUEを、検出エリアAREA(5)に画像の角が存在している確率と捉えることも可能である。   The angle determination value calculation unit 34 calculates the product of EDGE_VALUE1 and EDGE_VALUE2 as the angle determination value COR_VALUE. The angle determination value COR_VALUE is a value between 0 and 1, and the value increases as both the horizontal edge component and the vertical edge component with reference to the detection area AREA (5) increase. The corner determination value COR_VALUE may be regarded as a probability that an image corner exists in the detection area AREA (5).

候補ゲイン変換部35は、図12に示されるような関数又はテーブルデータに従って、角判定値COR_VALUEを、候補ゲインに変換する。今は、図8の候補ゲイン算出部24の動作について説明しているため、角判定値COR_VALUEは、候補ゲインGAIN_dに変換される。   The candidate gain conversion unit 35 converts the angle determination value COR_VALUE into a candidate gain according to a function or table data as shown in FIG. Since the operation of the candidate gain calculation unit 24 in FIG. 8 is now described, the angle determination value COR_VALUE is converted into the candidate gain GAIN_d.

候補ゲイン(今の場合、候補ゲインGAIN_d)は、COR_VALUE=0の時にGAINREF1とされ、COR_VALUE=1の時にGAINREF2とされ、且つ、COR_VALUEが0から1に増加するに従ってGAINREF1からGAINREF2に向かって減少する。 The candidate gain (in this case, candidate gain GAIN_d) is GAIN REF1 when COR_VALUE = 0, GAIN REF2 when COR_VALUE = 1, and from GAIN REF1 to GAIN REF2 as COR_VALUE increases from 0 to 1 It decreases toward.

GAINREF1は、エッジ強調を抑制しない通常ゲインであり、GAINREF2は、エッジ強調を最大限に抑制する最大抑制ゲインである。GAINREF1及びGAINREF2は、GAINREF1>GAINREF2、を成立させる、任意の値に設定される。図8のエッジ強調ゲイン算出部12が最終的にGAINREF1に対応するエッジ強調ゲインGを算出し、それを図2のエッジ強調部13に与えたならば、エッジ強調度合いは抑制されない。他方、GAINREF2に対応するエッジ強調ゲインGを図2のエッジ強調部13に与えたならば、エッジ強調度合いは最大限に抑制される。 GAIN REF1 is a normal gain that does not suppress edge enhancement, and GAIN REF2 is a maximum suppression gain that suppresses edge enhancement to the maximum. GAIN REF1 and GAIN REF2 are set to arbitrary values that satisfy GAIN REF1 > GAIN REF2 . If the edge enhancement gain calculation unit 12 in FIG. 8 finally calculates the edge enhancement gain G corresponding to GAIN REF1 , and gives it to the edge enhancement unit 13 in FIG. 2, the edge enhancement degree is not suppressed. On the other hand, if the edge emphasis gain G corresponding to GAIN REF2 is given to the edge emphasis unit 13 in FIG. 2, the edge emphasis degree is suppressed to the maximum.

上述のようにして、候補ゲイン算出部24は、候補ゲインGAIN_dを算出する。候補ゲイン算出部21、22及び23においても、同様にして、候補ゲインGAIN_a、GAIN_b及びGAIN_cが算出される。   As described above, the candidate gain calculation unit 24 calculates the candidate gain GAIN_d. The candidate gain calculation units 21, 22 and 23 similarly calculate the candidate gains GAIN_a, GAIN_b and GAIN_c.

但し、対象画像の左上に対応する候補ゲイン算出部21の場合は、下記式(5a)及び(5b)に従ってDIF1及びDIF2を算出し、それらの算出値に基づいて候補ゲインGAIN_aを算出する。
対象画像の左下に対応する候補ゲイン算出部22の場合は、下記式(6a)及び(6b)に従ってDIF1及びDIF2を算出し、それらの算出値に基づいて候補ゲインGAIN_bを算出する。
対象画像の右上に対応する候補ゲイン算出部23の場合は、下記式(7a)及び(7b)に従ってDIF1及びDIF2を算出し、それらの算出値に基づいて候補ゲインGAIN_cを算出する。
However, in the case of the candidate gain calculation unit 21 corresponding to the upper left of the target image, DIF1 and DIF2 are calculated according to the following formulas (5a) and (5b), and the candidate gain GAIN_a is calculated based on the calculated values.
In the case of the candidate gain calculation unit 22 corresponding to the lower left of the target image, DIF1 and DIF2 are calculated according to the following equations (6a) and (6b), and the candidate gain GAIN_b is calculated based on these calculated values.
In the case of the candidate gain calculation unit 23 corresponding to the upper right of the target image, DIF1 and DIF2 are calculated according to the following equations (7a) and (7b), and the candidate gain GAIN_c is calculated based on the calculated values.

尚、候補ゲイン算出部21〜24を構成する各部の内、候補ゲイン算出部21〜24間で共通化できるものは、適宜、共通化される。例えば、図10の平均値算出部31は、図8のエッジ強調ゲイン算出部12内に1つ設ければ足りる。   In addition, among each part which comprises the candidate gain calculation parts 21-24, what can be shared between the candidate gain calculation parts 21-24 is shared suitably. For example, it is sufficient to provide one average value calculation unit 31 in FIG. 10 in the edge enhancement gain calculation unit 12 in FIG.

図8のゲイン選択部25は、候補ゲイン算出部21〜24から算出される4つの候補ゲインGAIN_a、GAIN_b、GAIN_c、GAIN_dの内、最小の候補ゲインを選択し、選択した候補ゲインを選択ゲインSEL_GAINとして出力する。上述の候補ゲイン算出法から理解されるように、最小の候補ゲインに対応する検出エリア(例えば、図9(a)のAREA(5))には、画像の角が存在している可能性が高い。   The gain selection unit 25 in FIG. 8 selects the minimum candidate gain among the four candidate gains GAIN_a, GAIN_b, GAIN_c, and GAIN_d calculated from the candidate gain calculation units 21 to 24, and selects the selected candidate gain as the selection gain SEL_GAIN. Output as. As understood from the above-described candidate gain calculation method, there is a possibility that corners of an image exist in the detection area corresponding to the minimum candidate gain (for example, AREA (5) in FIG. 9A). high.

このようにして、候補ゲイン算出部21、22、23及び24並びにゲイン選択部25は、画像の角を検出する。より具体的には、着目している対象画素が画像の角の周りに存在しているかを検出する。このため、画像の角の周りを検出していると考えることもできる。そして、その検出結果を選択ゲインSEL_GAINに反映させる。   In this way, the candidate gain calculators 21, 22, 23, and 24 and the gain selector 25 detect the corners of the image. More specifically, it is detected whether the target pixel of interest exists around the corner of the image. For this reason, it can be considered that the periphery of the corner of the image is detected. Then, the detection result is reflected in the selection gain SEL_GAIN.

図8の乗算器26は、ゲイン選択部25から出力される選択ゲインSEL_GAINと所定の係数Kとの積を算出する。乗算器26にて算出された積は、エッジ強調ゲインGとして、図2の乗算器14に与えられる。そして、図2のエッジ強調部13において、着目している対象画素の輝度値に、エッジ強調信号Eとエッジ強調ゲインGとの積が加算され、エッジ強調がなされる。   The multiplier 26 in FIG. 8 calculates the product of the selected gain SEL_GAIN output from the gain selector 25 and a predetermined coefficient K. The product calculated by the multiplier 26 is given to the multiplier 14 of FIG. Then, the edge enhancement unit 13 in FIG. 2 adds the product of the edge enhancement signal E and the edge enhancement gain G to the luminance value of the target pixel of interest, thereby performing edge enhancement.

図7(a)〜(d)を示して説明したように、エッジ強調ゲインGを常に一定としていたならば、画像の角付近に不自然なエッジ強調が施されてしまう。しかしながら、本実施形態では、画像の角の存在に応じたエッジ強調ゲインGがエッジ強調処理の対象画素ごとに算出され、このエッジ強調ゲインGにより、画像の角の周辺画像部位に対するエッジ強調度合いが抑制される。このため、画像の角付近の不自然なエッジ強調が抑制され、良好な解像感及び鮮鋭感が得られる。   As described with reference to FIGS. 7A to 7D, if the edge emphasis gain G is always constant, unnatural edge emphasis is performed near the corners of the image. However, in the present embodiment, the edge enhancement gain G corresponding to the presence of the corner of the image is calculated for each target pixel of the edge enhancement process, and the edge enhancement degree for the peripheral image portion of the corner of the image is determined by the edge enhancement gain G. It is suppressed. For this reason, unnatural edge enhancement near the corners of the image is suppressed, and a good resolution and sharpness can be obtained.

図13に、本実施形態の手法によるエッジ強調処理結果を示す。図13において、121は、入力画像である。122は、入力画像121の各画素に対応するエッジ強調信号Eを、濃淡画像として表現したものである。123は、エッジ強調ゲインGを一定とした場合における出力画像であり、124は、本実施形態の手法を用いた場合における出力画像である。   FIG. 13 shows the result of edge enhancement processing by the method of this embodiment. In FIG. 13, reference numeral 121 denotes an input image. Reference numeral 122 represents the edge enhancement signal E corresponding to each pixel of the input image 121 as a grayscale image. Reference numeral 123 denotes an output image when the edge enhancement gain G is constant, and reference numeral 124 denotes an output image when the method of this embodiment is used.

仮に、エッジ強調ゲインGを一定にした状態で、入力画像121に符号122にて表されるエッジ強調信号(濃淡画像)を重ね合わせると、出力画像123の如く、画像の角付近に不自然なエッジ強調が加わってしまう。一方、本実施形態の手法を用いた場合、画像の角付近の画素に対するエッジ強調ゲインGは比較的小さなゲインに設定されるため、出力画像124の如く、画像の角付近の不自然なエッジ強調は適切に抑制される。   If the edge emphasis signal (grayscale image) represented by reference numeral 122 is superimposed on the input image 121 with the edge emphasis gain G kept constant, an unnatural area near the corner of the image as in the output image 123 is obtained. Edge enhancement is added. On the other hand, when the method of the present embodiment is used, the edge enhancement gain G for the pixels near the corners of the image is set to a relatively small gain, so that an unnatural edge enhancement near the corners of the image as in the output image 124 is performed. Is appropriately suppressed.

尚、上記の式(3)にて表される平均偏差値Basc(0)、Basc(2)、Basc(3)及びBasc(5)を考慮して、エッジ強調ゲインGを決定するようにしてもよい。   Note that the edge enhancement gain G is determined in consideration of the average deviation values Basc (0), Basc (2), Basc (3), and Basc (5) expressed by the above equation (3). Also good.

例えば、Basc(0)≧Basc_TH、が成立する場合は、GAIN_aをSEL_GAINとして選択しないようにする、或いは、強制的にGAIN_a=GAINREF1、とする。
同様に、Basc(2)≧Basc_TH、が成立する場合は、GAIN_bをSEL_GAINとして選択しないようにする、或いは、強制的にGAIN_b=GAINREF1、とする。
同様に、Basc(3)≧Basc_TH、が成立する場合は、GAIN_cをSEL_GAINとして選択しないようにする、或いは、強制的にGAIN_c=GAINREF1、とする。
同様に、Basc(5)≧Basc_TH、が成立する場合は、GAIN_dをSEL_GAINとして選択しないようにする、或いは、強制的にGAIN_d=GAINREF1、とする。
For example, when Basc (0) ≧ Basc_TH is satisfied, GAIN_a is not selected as SEL_GAIN, or GAIN_a = GAIN REF1 is forcibly set.
Similarly, when Basc (2) ≧ Basc_TH is satisfied, GAIN_b is not selected as SEL_GAIN, or GAIN_b = GAIN REF1 is forcibly set.
Similarly, when Basc (3) ≧ Basc_TH is satisfied, GAIN_c is not selected as SEL_GAIN, or GAIN_c = GAIN REF1 is forcibly set.
Similarly, when Basc (5) ≧ Basc_TH is satisfied, GAIN_d is not selected as SEL_GAIN, or GAIN_d = GAIN REF1 is forcibly set.

Basc_THは、平均偏差値に対する所定の閾値である。平均偏差値が比較的大きい場合、その平均偏差値に対応する検出エリアの輝度値のばらつきは大きい。このような検出エリアには、画像の角が存在しているとは考えにくく、また、そのような検出エリア付近に多少の余計なエッジ強調が加わったとしても、生じうる視覚的な不自然さは少ない。このため、上記の如く、平均偏差値を考慮してエッジ強調ゲインGを決定するようにしても構わない。   Basc_TH is a predetermined threshold for the average deviation value. When the average deviation value is relatively large, the luminance value variation in the detection area corresponding to the average deviation value is large. Such detection areas are unlikely to have image corners, and visual unnaturalness that may occur even if some extra edge enhancement is added in the vicinity of such detection areas. There are few. For this reason, as described above, the edge enhancement gain G may be determined in consideration of the average deviation value.

ここで、「画像の角」についての説明を補足する。上述したように、輝度に着目した場合、「画像の角」とは、画像の濃淡が水平方向にも垂直方向にも急峻に変化している画像部位を意味する。画像の濃淡の水平方向における不連続点と画像の濃淡の垂直方向における不連続点との交点を、「画像の角」と表現することもできる。   Here, a supplementary explanation of “corner of image” is provided. As described above, when attention is focused on the luminance, the “image corner” means an image portion where the shading of the image changes sharply both in the horizontal direction and in the vertical direction. The intersection of the discontinuous point in the horizontal direction of the image and the discontinuous point in the vertical direction of the image can also be expressed as an “image corner”.

本実施形態では、画像の角の周辺画像部位に対するエッジ強調度合いが抑制されるようにエッジ強調ゲインGを変化させる。ここで、エッジ強調度合いを抑制するとは、エッジ強調を抑制しない通常ゲインGAINREF1よりも、エッジ強調ゲインGを小さくすることに対応する(図12参照)。「画像の角」が画素P(m,n)にある場合、例えば、画素P(m−1,n−1)(並びにP(m−1,n−2)及びP(m−1,n−3)、・・・)に対するエッジ強調ゲインGが抑制される。従って、この場合、上記の「周辺画像部位」には、画素P(m−1,n−1)(並びにP(m−1,n−2)及びP(m−1,n−3)、・・・)が含まれる。尚、上述してきたエッジ強調ゲインGの算出法から明らかなように、上記の「周辺画像部位」の大きさ(「周辺画像部位」に含まれる画素数)は、図8の候補ゲイン算出部21等にて定義される上記の角検出用画像エリアのマトリクスサイズに応じて変化する。本実施形態において、角検出用画像エリアのマトリクスサイズは、図4に示すエッジ強調フィルタのそれと同じであるため、上記の「周辺画像部位」の大きさは、エッジ強調フィルタのマトリクスサイズに応じて変化する、とも言える。 In the present embodiment, the edge emphasis gain G is changed so that the degree of edge emphasis on the peripheral image portion of the corner of the image is suppressed. Here, suppressing the degree of edge enhancement corresponds to making the edge enhancement gain G smaller than the normal gain GAIN REF1 that does not suppress edge enhancement (see FIG. 12). When the “image corner” is in the pixel P (m, n), for example, the pixel P (m−1, n−1) (and P (m−1, n−2) and P (m−1, n) -3), ...), the edge enhancement gain G is suppressed. Therefore, in this case, the “peripheral image portion” includes the pixels P (m−1, n−1) (and P (m−1, n−2) and P (m−1, n−3), ...) is included. As is clear from the above-described method of calculating the edge enhancement gain G, the size of the “peripheral image region” (the number of pixels included in the “peripheral image region”) is the candidate gain calculation unit 21 in FIG. It changes according to the matrix size of the image area for angle detection defined by the above. In the present embodiment, since the matrix size of the corner detection image area is the same as that of the edge enhancement filter shown in FIG. 4, the size of the “peripheral image region” depends on the matrix size of the edge enhancement filter. It can be said that it changes.

また、上述の手法では、エッジ強調処理の対象画素の周辺に「画像の角」が存在しているか及び該角の急峻さを、対象画素の周辺画素の輝度値に基づく角判定値COR_VALUEという指標を以って判断し、その角判定値COR_VALUEに基づいて、その対象画素に対するエッジ強調度合い(エッジ強調ゲインG)を決定する。   Further, in the above-described method, the “image corner” around the target pixel of the edge enhancement process and the sharpness of the corner are an index called a corner determination value COR_VALUE based on the luminance value of the peripheral pixel of the target pixel. The edge enhancement degree (edge enhancement gain G) for the target pixel is determined based on the angle determination value COR_VALUE.

これに代えて例えば、エッジ強調ゲイン算出部12にて、以下のような処理を実行するようにしてもよい。まず、Bave(0)〜Bave(5)の内の最小値MINを特定する。   Instead, for example, the edge enhancement gain calculation unit 12 may execute the following processing. First, the minimum value MIN among Bave (0) to Bave (5) is specified.

最小値MINがBave(0)である場合、「式(5a)及び(5b)にて表されるDIF1及びDIF2が、共に、所定の差分閾値よりも大きい」という第1条件を満たすかを判断する。この第1条件が満たされる場合、AREA(0)に画像の角が存在していると判断し、満たされない場合、AREA(0)に画像の角が存在していないと判断する。尚、第1条件が満たされていても、Basc(0)≧Basc_TH、が成立する場合にあっては、AREA(0)に画像の角が存在していないと判断するようにしてもよい(この判断の付加は任意)。
最小値MINがBave(2)である場合、「式(6a)及び(6b)にて表されるDIF1及びDIF2が、共に、所定の差分閾値よりも大きい」という第2条件を満たすかを判断する。この第2条件が満たされる場合、AREA(2)に画像の角が存在していると判断する。尚、第2条件が満たされていても、Basc(2)≧Basc_TH、が成立する場合にあっては、AREA(2)に画像の角が存在していないと判断するようにしてもよい(この判断の付加は任意)。
最小値MINがBave(3)である場合、「式(7a)及び(7b)にて表されるDIF1及びDIF2が、共に、所定の差分閾値よりも大きい」という第3条件を満たすかを判断する。この第3条件が満たされる場合、AREA(3)に画像の角が存在していると判断する。尚、第3条件が満たされていても、Basc(3)≧Basc_TH、が成立する場合にあっては、AREA(3)に画像の角が存在していないと判断するようにしてもよい(この判断の付加は任意)。
最小値MINがBave(5)である場合、「式(4a)及び(4b)にて表されるDIF1及びDIF2が、共に、所定の差分閾値よりも大きい」という第4条件を満たすかを判断する。この第4条件が満たされる場合、AREA(5)に画像の角が存在していると判断する。尚、第4条件が満たされていても、Basc(5)≧Basc_TH、が成立する場合にあっては、AREA(5)に画像の角が存在していないと判断するようにしてもよい(この判断の付加は任意)。
尚、DIF1と比較される差分閾値とDIF2と比較される差分閾値は、同じであってもよいし異なっていても良い。
When the minimum value MIN is Bave (0), it is determined whether or not the first condition that “DIF1 and DIF2 represented by the expressions (5a) and (5b) are both greater than a predetermined difference threshold” is satisfied. To do. If the first condition is satisfied, it is determined that the corner of the image exists in AREA (0), and if it is not satisfied, it is determined that the corner of the image does not exist in AREA (0). Even if the first condition is satisfied, if Basc (0) ≧ Basc_TH is satisfied, it may be determined that the corner of the image does not exist in AREA (0) ( This decision is optional.
When the minimum value MIN is Bave (2), it is determined whether the second condition that “DIF1 and DIF2 represented by the expressions (6a) and (6b) are both greater than a predetermined difference threshold” is satisfied. To do. When this second condition is satisfied, it is determined that the corner of the image exists in AREA (2). Even if the second condition is satisfied, if Basc (2) ≧ Basc_TH is satisfied, it may be determined that the corner of the image does not exist in AREA (2) ( This decision is optional.
When the minimum value MIN is Bave (3), it is determined whether or not the third condition that “DIF1 and DIF2 represented by equations (7a) and (7b) are both greater than a predetermined difference threshold” is satisfied. To do. When this third condition is satisfied, it is determined that the corner of the image exists in AREA (3). Even if the third condition is satisfied, if Basc (3) ≧ Basc_TH is satisfied, it may be determined that no corner of the image exists in AREA (3) ( This decision is optional.
When the minimum value MIN is Bave (5), it is determined whether the fourth condition that “DIF1 and DIF2 represented by the expressions (4a) and (4b) are both greater than a predetermined difference threshold” is satisfied. To do. When the fourth condition is satisfied, it is determined that the corner of the image exists in AREA (5). Even when the fourth condition is satisfied, if Basc (5) ≧ Basc_TH is satisfied, it may be determined that the corner of the image does not exist in AREA (5) ( This decision is optional.
In addition, the difference threshold value compared with DIF1 and the difference threshold value compared with DIF2 may be the same, and may differ.

そして、AREA(0)、AREA(2)、AREA(2)又はAREA(5)に画像の角が存在していると判断された場合、エッジ強調ゲインGとして、所定の基準ゲインよりも小さなゲインを図2の乗算器14に与えるようする。そうでない場合は、エッジ強調ゲインGとして上記基準ゲインを図2の乗算器14に与えるようにする。この処理によっても、画像の角の周辺画像部位に対するエッジ強調度合いが抑制される。   When it is determined that the corner of the image exists in AREA (0), AREA (2), AREA (2), or AREA (5), the edge enhancement gain G is smaller than a predetermined reference gain. Is provided to the multiplier 14 of FIG. Otherwise, the reference gain is given to the multiplier 14 in FIG. This processing also suppresses the degree of edge enhancement with respect to the peripheral image portion of the corner of the image.

<<第2実施形態>>
次に、図8のエッジ強調ゲイン算出部12で定義される、図9(a)に示されるような角検出用画像エリアの他の分割例を示す。この他の分割例を第2実施形態として説明する。第2実施形態は、角検出用画像エリアの分割の仕方が第1実施形態と異なるだけであり、その他の点において、第1実施形態と同様である。
<< Second Embodiment >>
Next, another example of division of the image area for corner detection as shown in FIG. 9A, which is defined by the edge enhancement gain calculation unit 12 of FIG. Another example of division will be described as a second embodiment. The second embodiment is different from the first embodiment only in the way of dividing the corner detection image area, and is the same as the first embodiment in other points.

第2実施形態では、角検出用画像エリアにて定義される検出エリア(ARER(0)など)が、図8の候補ゲイン算出部21、22、23、24間で、一部、異なる。図14(a)、(b)、(c)及び(d)は、夫々、候補ゲイン算出部21、22、23及び24にて定義される検出エリアを表す。   In the second embodiment, a detection area (ALER (0) or the like) defined in the corner detection image area is partially different between the candidate gain calculation units 21, 22, 23, and 24 in FIG. FIGS. 14A, 14 </ b> B, 14 </ b> C, and 14 </ b> D represent detection areas defined by the candidate gain calculation units 21, 22, 23, and 24, respectively.

まず、ゲイン算出部21、22、23及び24の全てにおいて、共通して、
検出エリアAREA(0)は輝度値a(0)〜a(4)に対応する画素を含み、
検出エリアAREA(1)は輝度値a(11)〜a(15)に対応する画素を含み、
検出エリアAREA(2)は輝度値a(22)〜a(26)に対応する画素を含み、
検出エリアAREA(3)は輝度値a(6)〜a(10)に対応する画素を含み、
検出エリアAREA(4)は輝度値a(17)〜a(21)に対応する画素を含み、
検出エリアAREA(5)は輝度値a(28)〜a(32)に対応する画素を含む。
First, in all of the gain calculation units 21, 22, 23 and 24,
The detection area AREA (0) includes pixels corresponding to the luminance values a (0) to a (4),
The detection area AREA (1) includes pixels corresponding to the luminance values a (11) to a (15),
The detection area AREA (2) includes pixels corresponding to the luminance values a (22) to a (26),
The detection area AREA (3) includes pixels corresponding to the luminance values a (6) to a (10),
The detection area AREA (4) includes pixels corresponding to the luminance values a (17) to a (21),
The detection area AREA (5) includes pixels corresponding to the luminance values a (28) to a (32).

候補ゲイン算出部21及び22では、更に、検出エリアAREA(3)が輝度値a(5)に対応する画素を含むと共に検出エリアAREA(5)が輝度値a(27)に対応する画素を含む。候補ゲイン算出部23及び24では、更に、検出エリアAREA(0)が輝度値a(5)に対応する画素を含むと共に検出エリアAREA(2)が輝度値a(27)に対応する画素を含む。   In the candidate gain calculation units 21 and 22, the detection area AREA (3) further includes a pixel corresponding to the luminance value a (5), and the detection area AREA (5) includes a pixel corresponding to the luminance value a (27). . In candidate gain calculation units 23 and 24, detection area AREA (0) further includes a pixel corresponding to luminance value a (5), and detection area AREA (2) includes a pixel corresponding to luminance value a (27). .

このため、第2実施形態に係る候補ゲイン算出部21及び22では、下記の6つの等式から成る式(8)に従って、各検出エリアの輝度値の平均値Bave(j)を算出し、(jは、0〜5の各整数)、それらに基づいて候補ゲインGAIN_a及びGAIN_bを算出する。   For this reason, the candidate gain calculation units 21 and 22 according to the second embodiment calculate the average value Bave (j) of the luminance values of each detection area according to the equation (8) including the following six equations, j is an integer of 0 to 5), and candidate gains GAIN_a and GAIN_b are calculated based on them.

一方、第2実施形態に係る候補ゲイン算出部23及び24では、下記の6つの等式から成る式(9)に従って、各検出エリアの輝度値の平均値Bave(j)を算出し(jは、0〜5の各整数)、それらに基づいて候補ゲインGAIN_c及びGAIN_dを算出する。   On the other hand, the candidate gain calculation units 23 and 24 according to the second embodiment calculate the average value Bave (j) of the luminance values of the respective detection areas according to the equation (9) including the following six equations (j is , And 0 to 5), candidate gains GAIN_c and GAIN_d are calculated based on them.

第1実施形態では、対象画素の垂直方向に隣接する2つの画素の輝度値a(5)及びa(27)が、候補ゲインの算出に当たって考慮されないが、第2実施形態では、これらの輝度値も候補ゲインの算出に考慮される。このため、より決め細やかな角検出が行われ、不自然なエッジ強調の抑制の適正化が図られる。   In the first embodiment, the luminance values a (5) and a (27) of two pixels adjacent in the vertical direction of the target pixel are not considered in calculating the candidate gain. In the second embodiment, these luminance values are not considered. Is also taken into account in calculating the candidate gain. For this reason, more precise corner detection is performed, and suppression of unnatural edge enhancement is optimized.

尚、第1及び第2実施形態にて示した、角検出用画像エリアの分割の手法はあくまで例示であり、他の分割の手法を採用することも可能である。   It should be noted that the method of dividing the corner detection image area shown in the first and second embodiments is merely an example, and other division methods may be employed.

上述した各実施形態は、本発明の実施形態の例に過ぎず、本発明は、様々な変形例を含む。以下に、本発明に適用可能な変形例として、変形例1〜変形例4を例示する。各変形例に記載した内容は、矛盾なき限り、任意に組み合わせることが可能である。   Each embodiment mentioned above is only an example of an embodiment of the present invention, and the present invention includes various modifications. Below, the modification 1-the modification 4 are illustrated as a modification applicable to this invention. The contents described in each modification can be arbitrarily combined as long as there is no contradiction.

[変形例1]
上述の各実施形態では、図6に示すような画像の黒い角を検出し、その黒い角の周辺画像部位に対するエッジ強調度合いを抑制する機能を説明した。しかしながら、それを画像の白い角に適用することも可能である。白い角に適用する場合は、勿論、上述の各式などは、適宜、変更されうる。
[Modification 1]
In each of the above-described embodiments, the function of detecting a black corner of an image as shown in FIG. 6 and suppressing the degree of edge enhancement for a peripheral image portion of the black corner has been described. However, it can also be applied to the white corners of the image. In the case of applying to the white corner, of course, the above-described formulas and the like can be appropriately changed.

[変形例2]
また、エッジ強調処理を用いた輪郭補正は、輝度信号に対してだけでなく、色の境目を強調すべく色信号に対しても一般的に行われる。上述した各実施形態では、エッジ強調の対象信号として輝度信号(輝度値)を例示したが、各実施形態にて説明した手法を、色信号(例えば、色差信号)に対して適用することも可能である。つまり、各実施形態におけるエッジ強調の対象の画素信号を、輝度信号または色信号(例えば、色差信号)とすることが可能である。
[Modification 2]
In addition, the contour correction using the edge enhancement processing is generally performed not only on the luminance signal but also on the color signal in order to enhance the color boundary. In each of the above-described embodiments, the luminance signal (luminance value) is exemplified as the target signal for edge enhancement. However, the method described in each embodiment can also be applied to a color signal (for example, a color difference signal). It is. That is, the pixel signal to be edge-enhanced in each embodiment can be a luminance signal or a color signal (for example, a color difference signal).

[変形例3]
各実施形態では、図2のエッジ強調処理部10を搭載する電気機器として図1の撮像装置1を取り扱った。撮像装置1において、撮像部2は、撮影によって得られた画像をエッジ強調処理部10を含む画像処理部3に出力する。そして、エッジ強調処理部10によるエッジ強調処理が施された後の画像が表示部4にて表示される。但し、撮像装置1から、この表示部4を省略することも可能である。
[Modification 3]
In each embodiment, the imaging apparatus 1 in FIG. 1 is handled as an electrical device on which the edge enhancement processing unit 10 in FIG. 2 is mounted. In the imaging apparatus 1, the imaging unit 2 outputs an image obtained by shooting to the image processing unit 3 including the edge enhancement processing unit 10. Then, the image after the edge enhancement processing by the edge enhancement processing unit 10 is displayed on the display unit 4. However, the display unit 4 can be omitted from the imaging apparatus 1.

また、エッジ強調処理部10は、撮像装置1以外の様々な電気機器に搭載可能である。例えば、エッジ強調処理部10を、液晶ディスプレイテレビ等の表示装置(不図示)に搭載することもできる。この場合、例えば、表示装置には、表示部4と同様の表示部とエッジ強調処理部10を含む画像処理部3とが搭載され、このエッジ強調処理部10には、放送による映像信号や記録媒体からの映像信号などが供給される。   Further, the edge enhancement processing unit 10 can be mounted on various electric devices other than the imaging device 1. For example, the edge enhancement processing unit 10 can be mounted on a display device (not shown) such as a liquid crystal display television. In this case, for example, the display device includes a display unit similar to the display unit 4 and the image processing unit 3 including the edge enhancement processing unit 10, and the edge enhancement processing unit 10 includes a video signal or recording by broadcasting. A video signal from the medium is supplied.

[変形例4]
また、図1の撮像装置1は、ハードウェア、或いは、ハードウェアとソフトウェアの組み合わせによって実現可能である。特に、図1の画像処理部3の機能、及び/又は、図2のエッジ強調処理部10の機能は、ハードウェア、ソフトウェア、またはハードウェアとソフトウェアの組み合わせによって実現可能である。
[Modification 4]
In addition, the imaging apparatus 1 in FIG. 1 can be realized by hardware or a combination of hardware and software. In particular, the function of the image processing unit 3 in FIG. 1 and / or the function of the edge enhancement processing unit 10 in FIG. 2 can be realized by hardware, software, or a combination of hardware and software.

ソフトウェアを用いてエッジ強調処理部10の機能を実現する場合、図2、図8及び図10は、それらの機能ブロック図を表すことになる。また、エッジ強調処理部10にて実現される機能の全部または一部を、プログラムとして記述し、該プログラムをコンピュータ上で実行することによって、その機能の全部または一部を実現するようにしてもよい。   When the functions of the edge emphasis processing unit 10 are realized using software, FIGS. 2, 8, and 10 represent those functional block diagrams. Further, all or part of the functions realized by the edge enhancement processing unit 10 are described as a program, and the program is executed on the computer so that all or part of the functions are realized. Good.

<<注記>>
各実施形態において、図2及び図8のエッジ強調ゲイン算出部12は、強度信号寄与度としてのエッジ強調ゲインGを算出する寄与度算出手段として機能する。図10の平均値算出部31は、評価値としての平均値Bave(j)を算出する評価値算出手段として機能する。図10の差分値算出部32は、水平エッジ成分及び垂直エッジ成分としての水平差分値DIF1及び垂直差分値DIF2を算出するエッジ成分算出手段として機能する。
<< Note >>
In each embodiment, the edge enhancement gain calculation unit 12 in FIGS. 2 and 8 functions as a contribution calculation unit that calculates the edge enhancement gain G as the intensity signal contribution. The average value calculation unit 31 in FIG. 10 functions as an evaluation value calculation unit that calculates an average value Bave (j) as an evaluation value. The difference value calculation unit 32 in FIG. 10 functions as an edge component calculation unit that calculates the horizontal difference value DIF1 and the vertical difference value DIF2 as the horizontal edge component and the vertical edge component.

本発明の第1実施形態に係る撮像装置の概略的な全体構成ブロック図である。1 is a block diagram schematically illustrating the overall configuration of an imaging apparatus according to a first embodiment of the present invention. 図1の画像処理部に搭載されるエッジ強調処理部の内部ブロック図である。FIG. 2 is an internal block diagram of an edge enhancement processing unit mounted on the image processing unit of FIG. 1. 図2のエッジ強調処理部の入出力画像の画素配列を示す図である。It is a figure which shows the pixel arrangement | sequence of the input-output image of the edge emphasis processing part of FIG. 図2のエッジ強調信号生成部にて用いられるエッジ強調フィルタを示す図である。It is a figure which shows the edge emphasis filter used in the edge emphasis signal generation part of FIG. 図4のエッジ強調フィルタを用いた演算と、図2のエッジ強調ゲイン算出部の演算と、に使用されるデータを表す図である。FIG. 5 is a diagram illustrating data used for the calculation using the edge enhancement filter of FIG. 4 and the calculation of the edge enhancement gain calculation unit of FIG. 2. 図2のエッジ強調ゲイン算出部の意義を説明するための図であり、図2のエッジ強調処理部への入力画像内に存在しうる一部画像部位の濃淡を模式的に表した図である。FIG. 3 is a diagram for explaining the significance of the edge enhancement gain calculation unit of FIG. 2, schematically showing the shade of a partial image portion that may exist in the input image to the edge enhancement processing unit of FIG. 2. . 図2のエッジ強調ゲイン算出部の意義を説明するための図である。It is a figure for demonstrating the significance of the edge emphasis gain calculation part of FIG. 図2のエッジ強調ゲイン算出部の内部ブロック図である。It is an internal block diagram of the edge emphasis gain calculation part of FIG. 図8のエッジ強調ゲイン算出部にて定義される各検出エリア(a)、各検出エリアに対応して算出される平均値(b)及び平均偏差値(c)を模式的に示した図である。FIG. 9 is a diagram schematically showing each detection area (a) defined by the edge enhancement gain calculation unit in FIG. 8, an average value (b) and an average deviation value (c) calculated corresponding to each detection area. is there. 図8の各候補ゲイン算出部の夫々として用いることが可能な候補ゲイン算出部の内部ブロック図である。FIG. 9 is an internal block diagram of a candidate gain calculation unit that can be used as each of the candidate gain calculation units of FIG. 8. 図10のエッジ値変換部の機能を説明するための図である。It is a figure for demonstrating the function of the edge value conversion part of FIG. 図10の候補ゲイン変換部の機能を説明するための図である。It is a figure for demonstrating the function of the candidate gain conversion part of FIG. 図2のエッジ強調処理部を用いたエッジ強調処理結果を示す図である。It is a figure which shows the edge enhancement process result using the edge enhancement process part of FIG. 本発明の第2実施形態に係る、角検出用画像エリアの分割法を示す図である。It is a figure which shows the division | segmentation method of the image area for angle detection based on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 撮像装置
2 撮像部
3 画像処理部
4 表示部
5 記録媒体
10 エッジ強調処理部
11 エッジ強調信号生成部
12 エッジ強調ゲイン算出部
13 エッジ強調部
21、22、23、24 候補ゲイン算出部
25 ゲイン選択部
31 平均値算出部(評価値算出手段)
32 差分値算出部(エッジ成分算出手段)
33 エッジ値変換部
34 角判定値算出部
35 候補ゲイン変換部
DESCRIPTION OF SYMBOLS 1 Imaging device 2 Imaging part 3 Image processing part 4 Display part 5 Recording medium 10 Edge emphasis processing part 11 Edge emphasis signal generation part 12 Edge emphasis gain calculation part 13 Edge emphasis part 21, 22, 23, 24 Candidate gain calculation part 25 Gain Selection unit 31 Average value calculation unit (evaluation value calculation means)
32 Difference value calculation unit (edge component calculation means)
33 Edge value converter 34 Angle determination value calculator 35 Candidate gain converter

Claims (9)

入力画像に対してエッジ強調処理を施す画像処理装置において、
前記エッジ強調処理の対象画素の周辺に画像の角が存在しているかを、その対象画素の周辺画素の画素信号に基づいて判断し、その判断結果に基づいて、その対象画素に対するエッジ強調度合いを決定する
ことを特徴とする画像処理装置。
In an image processing apparatus that performs edge enhancement processing on an input image,
It is determined whether there is a corner of the image around the target pixel of the edge enhancement processing based on the pixel signal of the peripheral pixel of the target pixel, and based on the determination result, the degree of edge enhancement for the target pixel is determined. An image processing apparatus characterized by determining.
前記対象画素の前記周辺画素の画素信号に基づいて算出した、前記対象画素の周辺の水平エッジ成分及び垂直エッジ成分に基づいて、前記対象画素の周辺に画像の角が存在しているかを判断する
ことを特徴とする請求項1に記載の画像処理装置。
Based on the horizontal edge component and the vertical edge component around the target pixel calculated based on the pixel signal of the peripheral pixel of the target pixel, it is determined whether an image corner exists around the target pixel. The image processing apparatus according to claim 1.
入力画像を形成する複数の画素の夫々を対象画素として取り扱い、各対象画素の画素信号に対するエッジ強調信号を生成するエッジ強調信号生成手段と、
前記対象画素の周辺画素の画素信号に基づいて、その対象画素の周辺の水平エッジ成分及び垂直エッジ成分を算出し、算出した前記水平エッジ成分及び前記垂直エッジ成分の双方に基づいて、前記エッジ強調信号を前記対象画素の画素信号に反映させる度合いを表す強調信号寄与度を算出する寄与度算出手段と、
前記エッジ強調信号と前記強調信号寄与度に基づいて、前記対象画素の画素信号にエッジ強調処理を施すエッジ強調手段と、を備えた
ことを特徴とする画像処理装置。
Edge enhancement signal generation means for treating each of a plurality of pixels forming an input image as a target pixel and generating an edge enhancement signal for the pixel signal of each target pixel;
Based on the pixel signal of the surrounding pixel of the target pixel, the horizontal edge component and the vertical edge component around the target pixel are calculated, and the edge enhancement is performed based on both the calculated horizontal edge component and the vertical edge component. Contribution degree calculating means for calculating an enhancement signal contribution degree representing a degree of reflecting a signal in the pixel signal of the target pixel;
An image processing apparatus comprising: an edge enhancement unit that performs an edge enhancement process on a pixel signal of the target pixel based on the edge enhancement signal and the enhancement signal contribution degree.
前記エッジ強調手段は、前記エッジ強調信号と前記強調信号寄与度とから算出される信号に従って、前記対象画素の画素信号に前記エッジ強調処理を施す
ことを特徴とする請求項3に記載の画像処理装置。
The image processing according to claim 3, wherein the edge enhancement unit performs the edge enhancement processing on a pixel signal of the target pixel according to a signal calculated from the edge enhancement signal and the enhancement signal contribution. apparatus.
前記寄与度算出手段は、
前記対象画素を含む所定の画像エリア内に複数の検出エリアを定義し、
各検出エリア内の画素の画素信号に基づく評価値を、前記検出エリアごとに算出する評価値算出手段と、
水平方向に互いに隣接する検出エリアに対応する評価値から、その隣接する検出エリア間のエッジ成分を前記水平エッジ成分として算出する一方で、垂直方向に互いに隣接する検出エリアに対応する評価値から、その隣接する検出エリア間のエッジ成分を前記垂直エッジ成分として算出するエッジ成分算出手段と、を備える
ことを特徴とする請求項3または請求項4に記載の画像処理装置。
The contribution calculation means
Defining a plurality of detection areas within a predetermined image area including the target pixel;
Evaluation value calculation means for calculating an evaluation value based on a pixel signal of a pixel in each detection area for each detection area;
From the evaluation value corresponding to the detection areas adjacent to each other in the horizontal direction, while calculating the edge component between the adjacent detection areas as the horizontal edge component, from the evaluation value corresponding to the detection area adjacent to each other in the vertical direction, The image processing apparatus according to claim 3, further comprising an edge component calculation unit that calculates an edge component between adjacent detection areas as the vertical edge component.
前記寄与度算出手段は、
前記対象画素を含む所定の画像エリア内に複数の検出エリアを定義し、
前記対象画素から見て第1、第2、第3及び第4方向に位置する、互いに異なる検出エリアを、それぞれ第1検出エリア、第2検出エリア、第3検出エリア及び第4検出エリアとした場合、
各検出エリア内の画素の画素信号に基づく評価値を、前記検出エリアごとに算出する評価値算出手段と、
k=1、k=2、k=3及びk=4の夫々に関し、第k検出エリアに対応する評価値と第k検出エリアの水平方向に隣接する検出エリアの評価値との差分に応じた第k水平エッジ成分を前記水平エッジ成分として算出する一方で、第k検出エリアに対応する評価値と第k検出エリアの垂直方向に隣接する検出エリアの評価値との差分に応じた第k垂直エッジ成分を前記垂直エッジ成分として算出するエッジ成分算出手段と、
第1水平エッジ成分と第1垂直エッジ成分とに応じた候補寄与度と、第2水平エッジ成分と第2垂直エッジ成分とに応じた候補寄与度と、第3水平エッジ成分と第3垂直エッジ成分とに応じた候補寄与度と、第4水平エッジ成分と第4垂直エッジ成分とに応じた候補寄与度と、を比較して、それらの4つの候補寄与度から1つの候補寄与度を択一的に選択する選択手段と、を備え、
前記選択手段によって選択した候補寄与度に基づいて、前記強調信号寄与度を算出する
ことを特徴とする請求項3または請求項4に記載の画像処理装置。
The contribution calculation means
Defining a plurality of detection areas within a predetermined image area including the target pixel;
Different detection areas located in the first, second, third, and fourth directions when viewed from the target pixel are defined as a first detection area, a second detection area, a third detection area, and a fourth detection area, respectively. If
Evaluation value calculation means for calculating an evaluation value based on a pixel signal of a pixel in each detection area for each detection area;
For each of k = 1, k = 2, k = 3, and k = 4, depending on the difference between the evaluation value corresponding to the kth detection area and the evaluation value of the detection area adjacent to the kth detection area in the horizontal direction While calculating the kth horizontal edge component as the horizontal edge component, the kth vertical according to the difference between the evaluation value corresponding to the kth detection area and the evaluation value of the detection area adjacent in the vertical direction of the kth detection area Edge component calculating means for calculating an edge component as the vertical edge component;
Candidate contributions according to the first horizontal edge component and the first vertical edge component, candidate contributions according to the second horizontal edge component and the second vertical edge component, the third horizontal edge component and the third vertical edge The candidate contribution degree according to the component and the candidate contribution degree according to the fourth horizontal edge component and the fourth vertical edge component are compared, and one candidate contribution degree is selected from the four candidate contribution degrees. And a selection means for selecting one,
The image processing apparatus according to claim 3, wherein the enhancement signal contribution degree is calculated based on the candidate contribution degree selected by the selection unit.
入力画像に対してエッジ強調処理を施す画像処理方法において、
前記エッジ強調処理の対象画素の周辺に画像の角が存在しているかを、その対象画素の周辺画素の画素信号に基づいて判断し、その判断結果に基づいて、その対象画素に対するエッジ強調度合いを決定する
ことを特徴とする画像処理方法。
In an image processing method for performing edge enhancement processing on an input image,
It is determined whether there is a corner of the image around the target pixel of the edge enhancement processing based on the pixel signal of the peripheral pixel of the target pixel, and based on the determination result, the degree of edge enhancement for the target pixel is determined. An image processing method characterized by determining.
入力画像を形成する複数の画素の夫々を対象画素として取り扱い、各対象画素の画素信号に対するエッジ強調信号を生成する第1ステップと、
前記対象画素の周辺画素の画素信号に基づいて、その対象画素の周辺の水平エッジ成分及び垂直エッジ成分を算出し、算出した前記水平エッジ成分及び前記垂直エッジ成分の双方に基づいて、前記エッジ強調信号を前記対象画素の画素信号に反映させる度合いを表す強調信号寄与度を算出する第2ステップと、
前記エッジ強調信号と前記強調信号寄与度に基づいて、前記対象画素の画素信号にエッジ強調処理を施す第3ステップと、を実行する
ことを特徴とする画像処理方法。
A first step of treating each of a plurality of pixels forming an input image as a target pixel and generating an edge enhancement signal for the pixel signal of each target pixel;
Based on the pixel signal of the surrounding pixel of the target pixel, the horizontal edge component and the vertical edge component around the target pixel are calculated, and the edge enhancement is performed based on both the calculated horizontal edge component and the vertical edge component. A second step of calculating an enhancement signal contribution representing a degree of reflecting the signal in the pixel signal of the target pixel;
And a third step of applying an edge enhancement process to the pixel signal of the target pixel based on the edge enhancement signal and the contribution level of the enhancement signal.
請求項1〜請求項6の何れかに記載の画像処理装置と、
撮影によって得られた画像を前記入力画像として前記画像処理装置に出力する撮像部、及び、前記画像処理装置によるエッジ強調処理後の画像を表示する表示部の少なくとも一方と、を備えた
ことを特徴とする電気機器。
An image processing device according to any one of claims 1 to 6,
An image pickup unit that outputs an image obtained by photographing to the image processing device as the input image and at least one of a display unit that displays an image after edge enhancement processing by the image processing device. And electrical equipment.
JP2006194057A 2006-07-14 2006-07-14 Image processing apparatus and method Withdrawn JP2008021219A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006194057A JP2008021219A (en) 2006-07-14 2006-07-14 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006194057A JP2008021219A (en) 2006-07-14 2006-07-14 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
JP2008021219A true JP2008021219A (en) 2008-01-31

Family

ID=39077091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006194057A Withdrawn JP2008021219A (en) 2006-07-14 2006-07-14 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP2008021219A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183471A (en) * 2008-02-06 2009-08-20 Daito Giken:Kk Game machine
JP2012110763A (en) * 2012-03-19 2012-06-14 Daito Giken:Kk Game machine
JP2014027403A (en) * 2012-07-25 2014-02-06 Toshiba Corp Image processor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009183471A (en) * 2008-02-06 2009-08-20 Daito Giken:Kk Game machine
JP2012110763A (en) * 2012-03-19 2012-06-14 Daito Giken:Kk Game machine
JP2014027403A (en) * 2012-07-25 2014-02-06 Toshiba Corp Image processor

Similar Documents

Publication Publication Date Title
US7844127B2 (en) Edge mapping using panchromatic pixels
US8594451B2 (en) Edge mapping incorporating panchromatic pixels
KR102474715B1 (en) Parallax Mask Fusion of Color and Mono Images for Macrophotography
JP4290193B2 (en) Image processing device
EP2164040B1 (en) System and method for high quality image and video upscaling
JP6623832B2 (en) Image correction apparatus, image correction method, and computer program for image correction
JP2008263475A (en) Image processing device, method, and program
KR20120112051A (en) Image processing device, image processing method, and program
JP2006115444A (en) Method, device, program for image processing, and electronic camera
JP2015062270A (en) Image processing apparatus
JP2007249436A (en) Image signal processor and processing method
JP4872508B2 (en) Image processing apparatus, image processing method, and program
JP7014158B2 (en) Image processing equipment, image processing method, and program
JP2008021219A (en) Image processing apparatus and method
JP6583008B2 (en) Image correction apparatus, image correction method, and computer program for image correction
KR102470242B1 (en) Image processing device, image processing method and program
US8335395B2 (en) Noise reduction apparatus having edge enhancement function and method thereof
JP5826980B1 (en) Image processing apparatus and image processing method
JP5178933B1 (en) Image processing device
JP2011151597A (en) Apparatus and program for processing image, and electronic camera
JP2010239600A (en) Brightness correction program, brightness correction method, and brightness correction device
JP4483407B2 (en) Video signal processing device
JP5201058B2 (en) Outline enhancement processing program, outline enhancement processing method, and outline enhancement processing apparatus
JP2002158892A (en) Picture processor, picture processing method and recording medium
JP5267277B2 (en) Range correction program, range correction method, and range correction apparatus

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090603