JP5810593B2 - Image processing apparatus, imaging apparatus, and program - Google Patents

Image processing apparatus, imaging apparatus, and program Download PDF

Info

Publication number
JP5810593B2
JP5810593B2 JP2011086489A JP2011086489A JP5810593B2 JP 5810593 B2 JP5810593 B2 JP 5810593B2 JP 2011086489 A JP2011086489 A JP 2011086489A JP 2011086489 A JP2011086489 A JP 2011086489A JP 5810593 B2 JP5810593 B2 JP 5810593B2
Authority
JP
Japan
Prior art keywords
saturation
luminance
color difference
change
smoothing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011086489A
Other languages
Japanese (ja)
Other versions
JP2012222616A (en
Inventor
英康 国場
英康 国場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011086489A priority Critical patent/JP5810593B2/en
Publication of JP2012222616A publication Critical patent/JP2012222616A/en
Application granted granted Critical
Publication of JP5810593B2 publication Critical patent/JP5810593B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像処理装置、撮像装置およびプログラムに関する。   The present invention relates to an image processing device, an imaging device, and a program.

従来から、画像の解像感を向上させるために、画像の色差成分に対して平滑化を行う技術が公知である。一例として、特許文献1には、画像データの色情報から局所的な変動成分を抽出し、この変動成分から擬似的に生成された輝度の質感成分を輝度情報に加えることで、平滑化を行いつつも画像の解像感を向上させる技術が開示されている。   2. Description of the Related Art Conventionally, a technique for performing smoothing on color difference components of an image in order to improve the resolution of the image is known. As an example, Patent Document 1 performs smoothing by extracting a local fluctuation component from color information of image data, and adding a luminance texture component artificially generated from the fluctuation component to the luminance information. However, a technique for improving the resolution of an image is disclosed.

特許第4595939号公報Japanese Patent No. 4595939

従来の画像処理では、人間の視覚特性を考慮して質感成分が生成されていないため、色差成分を平滑化した後の画像の質感になお改善の余地があった。   In the conventional image processing, since the texture component is not generated in consideration of human visual characteristics, there is still room for improvement in the texture of the image after smoothing the color difference component.

上記事情に鑑み、色差成分を平滑化しつつも、より自然な質感を有する画像を生成する手段を提供する。   In view of the above circumstances, there is provided means for generating an image having a more natural texture while smoothing color difference components.

本発明の一態様の画像処理装置は、滑化部と、抽出部と、演算部と、補正部とを備える。平滑化部は、入力画像の色差成分に平滑化を行う。抽出部は、平滑化前の色差成分と平滑化後の色差成分との差分を算出し、差分から彩度の変化量を算出する。演算部は、平滑化後の色差成分から彩度および色相角を算出し、彩度および色相角から彩度の変化量に対する輝度の変化量の比率を算出する。補正部は、抽出部で算出された彩度の変化量と、演算部で算出された彩度の変化量に対する輝度の変化量の比率とにより輝度の補正値を算出し、補正値により入力画像の輝度成分を補正する。 The image processing apparatus of one embodiment of the present invention includes a flat smoothing unit, an extraction unit, a calculation unit, a correction unit. The smoothing unit smoothes the color difference component of the input image. The extraction unit calculates a difference between the color difference component before smoothing and the color difference component after smoothing, and calculates the amount of change in saturation from the difference . The calculation unit calculates the saturation and the hue angle from the smoothed color difference component, and calculates the ratio of the luminance change amount to the saturation change amount from the saturation and the hue angle . The correction unit calculates a luminance correction value based on the saturation change amount calculated by the extraction unit and the ratio of the luminance change amount to the saturation change amount calculated by the calculation unit, and the input image is calculated using the correction value. The luminance component of is corrected.

上記の彩度の変化量に対する輝度の変化量の比率は、相角が90度から135度の範囲では他の範囲と比べて値が小さくなるものであってもよい。 The ratio of luminance variation with respect to the change amount of the saturation, the color phase angle may be those values as compared to other ranges is reduced in the range of 135 degrees from 90 degrees.

上記の彩度の変化量に対する輝度の変化量の比率は、平滑化後の色差成分の色差座標の正方向の彩度変化に対して正方向の輝度変化を与えるとともに、色差座標の負方向の彩度変化に対して負方向の輝度変化を与えるものであってもよい。 The ratio of the amount of change in luminance to the amount of change in saturation described above gives a change in luminance in the positive direction with respect to the change in saturation in the positive direction of the color difference coordinate of the color difference component after smoothing, and also in the negative direction of the color difference coordinate. it may be shall give brightness changes in the negative direction with respect to the saturation change.

ここで、上記の画像処理装置を含む撮像装置や、コンピュータを上記の画像処理装置として動作させるプログラムおよびプログラム記憶媒体や、上記の画像処理装置の動作を方法のカテゴリで表現したものも、本発明の具体的態様として有効である。   Here, an imaging apparatus including the above-described image processing apparatus, a program and a program storage medium that causes a computer to operate as the above-described image processing apparatus, and an operation of the above-described image processing apparatus expressed in a method category are also included in the present invention. This is effective as a specific embodiment.

差成分を平滑化しつつも、より自然な質感を有する画像を生成できる。 An image having a more natural texture can be generated while smoothing the color difference component.

一の実施形態での画像処理装置の構成例を示す図The figure which shows the structural example of the image processing apparatus in one Embodiment. Helmholtz-Kohlrausch効果を考慮したノイズの見えの説明図Illustration of noise appearance considering the Helmholtz-Kohlrausch effect 第1の実験の実験結果を示す図The figure which shows the experimental result of the 1st experiment 第2の実験の実験結果を示す図(C ab=10)The figure which shows the experimental result of 2nd experiment (C * ab = 10) 第2の実験の実験結果を示す図(C ab=20)The figure which shows the experimental result of 2nd experiment (C * ab = 20) 第2の実験の実験結果を示す図(C ab=30)The figure which shows the experimental result of 2nd experiment (C * ab = 30) 第1実施形態でのノイズ低減処理例を示す流れ図Flow chart showing an example of noise reduction processing in the first embodiment 第1実施形態でのノイズ低減処理例の概要図Overview of an example of noise reduction processing in the first embodiment 輝度勾配係数のデータテーブルの一例を模式的に示す図The figure which shows an example of the data table of a brightness | luminance gradient coefficient typically 輝度勾配における彩度と輝度との相関を示す図Diagram showing the correlation between saturation and luminance in the luminance gradient 輝度勾配における彩度と輝度との相関を示す図Diagram showing the correlation between saturation and luminance in the luminance gradient 第2実施形態でのノイズ低減処理例の概要図Overview of noise reduction processing example in the second embodiment 第3実施形態での撮像装置の構成例を示す図The figure which shows the structural example of the imaging device in 3rd Embodiment.

<第1実施形態の説明>
図1は、第1実施形態での画像処理装置の構成例を示す図である。第1実施形態での画像処理装置は、入力画像に対してノイズ低減処理を施す画像処理プログラムがインストールされたパーソナルコンピュータである。
<Description of First Embodiment>
FIG. 1 is a diagram illustrating a configuration example of an image processing apparatus according to the first embodiment. The image processing apparatus according to the first embodiment is a personal computer in which an image processing program for performing noise reduction processing on an input image is installed.

図1に示すコンピュータ11は、データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16、バス17を有している。データ読込部12、記憶装置13、CPU14、メモリ15および入出力I/F16は、バス17を介して相互に接続されている。さらに、コンピュータ11には、入出力I/F16を介して、入力デバイス18(キーボード、ポインティングデバイスなど)とモニタ19とがそれぞれ接続されている。なお、入出力I/F16は、入力デバイス18からの各種入力を受け付けるとともに、モニタ19に対して表示用のデータを出力する。   A computer 11 illustrated in FIG. 1 includes a data reading unit 12, a storage device 13, a CPU 14, a memory 15, an input / output I / F 16, and a bus 17. The data reading unit 12, the storage device 13, the CPU 14, the memory 15, and the input / output I / F 16 are connected to each other via a bus 17. Further, an input device 18 (keyboard, pointing device, etc.) and a monitor 19 are connected to the computer 11 via an input / output I / F 16. The input / output I / F 16 receives various inputs from the input device 18 and outputs display data to the monitor 19.

データ読込部12は、画像のデータや、プログラムを外部から読み込むときに用いられる。データ読込部12は、例えば、着脱可能な記憶媒体からデータを取得する読込デバイス(光ディスク、磁気ディスク、光磁気ディスクの読込装置など)や、公知の通信規格に準拠して外部の装置と通信を行う通信デバイス(USBインターフェース、有線/無線LANモジュールなど)である。   The data reading unit 12 is used when reading image data or a program from the outside. The data reading unit 12 communicates with, for example, a reading device (such as a reading device for an optical disk, a magnetic disk, or a magneto-optical disk) that acquires data from a removable storage medium, or an external device in accordance with a known communication standard. A communication device (USB interface, wired / wireless LAN module, etc.) to be performed.

記憶装置13は、例えば、ハードディスクや、不揮発性の半導体メモリなどの記憶媒体である。この記憶装置13には、上記の画像処理プログラムや、プログラムの実行に必要となる各種データ(後述する輝度勾配係数のデータテーブルなど)が記憶されている。なお、記憶装置13には、データ読込部12から読み込んだ画像のデータや、画像処理プログラムでノイズ低減処理が施された画像のデータを記憶しておくこともできる。   The storage device 13 is, for example, a storage medium such as a hard disk or a nonvolatile semiconductor memory. The storage device 13 stores the above-described image processing program and various data (such as a data table of luminance gradient coefficients described later) necessary for executing the program. The storage device 13 may store image data read from the data reading unit 12 and image data that has been subjected to noise reduction processing by an image processing program.

CPU14は、コンピュータ11の各部を統括的に制御するプロセッサである。このCPU14は、画像処理プログラムの実行によって、平滑化部21、抽出部22、演算部23、補正部24として動作する(平滑化部21、抽出部22、演算部23および補正部24の各動作については後述する)。   The CPU 14 is a processor that comprehensively controls each unit of the computer 11. The CPU 14 operates as a smoothing unit 21, an extraction unit 22, a calculation unit 23, and a correction unit 24 by executing the image processing program (the operations of the smoothing unit 21, the extraction unit 22, the calculation unit 23, and the correction unit 24). Will be described later).

メモリ15は、画像処理プログラムでの各種演算結果を一時的に記憶する。このメモリ15は、例えば揮発性のSDRAMである。   The memory 15 temporarily stores various calculation results in the image processing program. The memory 15 is, for example, a volatile SDRAM.

次に、第1実施形態での画像処理装置の動作例を説明する。   Next, an operation example of the image processing apparatus in the first embodiment will be described.

第1実施形態の画像処理装置は、入力画像の色差成分に平滑化を行うことで、画像の色ノイズを低減させる。一方で、第1実施形態の画像処理装置は、人間の視覚特性を考慮して質感成分を擬似的に生成するとともに、上記の質感成分を入力画像の輝度成分に加える補正を行う。   The image processing apparatus according to the first embodiment reduces color noise of an image by smoothing the color difference component of the input image. On the other hand, the image processing apparatus according to the first embodiment generates a texture component in a pseudo manner in consideration of human visual characteristics and performs correction for adding the texture component to the luminance component of the input image.

ここで、上記の処理を行う理由を説明する。一般的に、画像の輝度成分のノイズは、画像の解像感の向上や、フィルム撮影のような質感に寄与するなど、好ましい効果を生じさせることが知られている。一方、画像の色差成分のノイズ(色ノイズ)は、画像の解像感を大きく低下させるため、画像処理で抑制することが好ましい。   Here, the reason why the above processing is performed will be described. In general, it is known that noise in the luminance component of an image produces a favorable effect such as improving the resolution of the image and contributing to a texture such as film shooting. On the other hand, noise (color noise) of the color difference component of the image is preferably suppressed by image processing because it greatly reduces the resolution of the image.

しかし、人間の視覚特性上、明るさは色に応じて異なって知覚され、かつ同じ輝度値でも彩度が高いほど明るく知覚される(Helmholtz-Kohlrausch効果)。よって、単純に画像の色差成分のみを平滑化すると、補正後の画像は輝度成分による質感も低減するように看者に知覚されてしまう。   However, in terms of human visual characteristics, brightness is perceived differently depending on color, and even with the same luminance value, the higher the saturation, the brighter the perception (Helmholtz-Kohlrausch effect). Therefore, if only the color difference component of the image is simply smoothed, the image after correction is perceived by the viewer so as to reduce the texture due to the luminance component.

図2は、Helmholtz-Kohlrausch効果を考慮したノイズの見えの説明図である。図2(a)に示すように、輝度(L)が一定であるときに色差平面(a)で揺らぎ(ノイズ)があった場合を考える。このとき、色差平面での揺らぎが有ると看者の明るさの感覚も変化する。よって、画像の輝度は一定であるにも拘わらず、看者には明るさの揺らぎ(ノイズ)も知覚されるようになる(図2(b)参照)。 FIG. 2 is an explanatory view of the appearance of noise in consideration of the Helmholtz-Kohlrausch effect. As shown in FIG. 2A, consider a case where there is fluctuation (noise) on the color difference plane (a * b * ) when the luminance (L * ) is constant. At this time, if there is a fluctuation on the color difference plane, the viewer's sense of brightness also changes. Therefore, although the brightness of the image is constant, the viewer can also perceive brightness fluctuation (noise) (see FIG. 2B).

発明者は、上記の事項を確認するため、以下の2つの実験を行った。   The inventor conducted the following two experiments in order to confirm the above matters.

第1の実験では、それぞれ同じ大きさの色ノイズを含み、互いに色の異なる2つの色パッチをディスプレイ上に表示した。そして、被験者にノイズが大きいと感じる方を選択させる一対比較法の心理物理実験を行った。   In the first experiment, two color patches having the same magnitude of color noise and different colors were displayed on the display. And the psychophysical experiment of the one-pair comparison method which makes a test subject choose the direction which feels that noise is large.

図3は、第1の実験の実験結果を示す図である。図3は、CIE L表色系の色差平面(a)上の各位置におけるノイズの見え方を示している。図3において、十字の中心は色パッチの色差平面上の座標を示し、ノイズが大きいと感じる被験者が多いほど色パッチに対応する十字が大きく表記される。 FIG. 3 is a diagram showing an experimental result of the first experiment. FIG. 3 shows how noise appears at each position on the color difference plane (a * b * ) of the CIE L * a * b * color system. In FIG. 3, the center of the cross indicates the coordinates on the color difference plane of the color patch, and the cross corresponding to the color patch is shown larger as the subject who feels that the noise is large.

図3から、ノイズの見えやすさは背景色(色パッチ)によって異なることが分かる。また、図3から、無彩色(a=b=0)ではノイズは比較的知覚されにくく、有彩色(例えば青色(色差平面の第3象限)や赤紫色(色差平面の第4象限))ではノイズが知覚されやすいことも分かる。 It can be seen from FIG. 3 that the visibility of noise varies depending on the background color (color patch). Also, from FIG. 3, noise is relatively less perceivable in achromatic colors (a * = b * = 0), and chromatic colors (for example, blue (third quadrant of the color difference plane) or red purple (fourth quadrant of the color difference plane)). ) Also shows that noise is easily perceived.

第2の実験では、無彩色の基準パッチ(L=51.56)と、有彩色パッチとをディスプレイ上に表示した。そして、基準パッチと同じ明るさとなるように、被験者に有彩色パッチの輝度(L)を調整させる心理物理実験を行った。 In the second experiment, an achromatic reference patch (L * = 51.56) and a chromatic patch were displayed on the display. Then, a psychophysical experiment was performed in which the subject adjusted the luminance (L * ) of the chromatic color patch so as to have the same brightness as the reference patch.

図4〜図6は、第2の実験の実験結果を示す図である。図4は有彩色パッチの彩度C ab=10のときの実験結果であり、図5は有彩色パッチの彩度C ab=20のときの実験結果であり、図6は有彩色パッチの彩度C ab=30のときの実験結果である。図4〜図6において、縦軸は輝度(L)を示し、横軸は色相角を示す。また、図4〜図6では、基準パッチの輝度は実線で示し、被験者によって調整された有彩色パッチの輝度変化は破線で示す。 4-6 is a figure which shows the experimental result of 2nd experiment. 4 shows the experimental results when the saturation C * ab = 10 of the chromatic color patch, FIG. 5 shows the experimental results when the saturation C * ab = 20 of the chromatic color patch, and FIG. 6 shows the chromatic color patch. It is an experimental result when the saturation C * ab = 30. 4 to 6, the vertical axis represents luminance (L * ), and the horizontal axis represents hue angle. 4 to 6, the luminance of the reference patch is indicated by a solid line, and the luminance change of the chromatic color patch adjusted by the subject is indicated by a broken line.

図4〜図6から、基準パッチと同じ明るさと知覚される有彩色パッチの輝度Lは、色相角に応じて異なることが分かる。色相角90度〜135度の範囲においてHelmholtz-Kohlrausch効果の影響はいずれの彩度でも比較的少ない。しかし、他の色相角の範囲では、有彩色パッチの輝度Lを基準パッチよりも小さくしないと、両者を同じ明るさとして知覚できないことが分かる。また、図4〜図6から、一般的に、同じ色相角においても彩度が高くなると、有彩色パッチの輝度Lをより小さくしないと基準パッチと同じ明るさに知覚できないことも分かる。 4 to 6, it can be seen that the luminance L * of the chromatic color patch perceived to have the same brightness as the reference patch differs depending on the hue angle. In the hue angle range of 90 to 135 degrees, the influence of the Helmholtz-Kohlrausch effect is relatively small in any saturation. However, in other hue angle ranges, it can be seen that unless the luminance L * of the chromatic color patch is made smaller than that of the reference patch, they cannot be perceived as the same brightness. 4 to 6, it can be seen that, generally, when the saturation is increased even at the same hue angle, the brightness of the chromatic color patch cannot be perceived as the same brightness as the reference patch unless the luminance L * is reduced.

上記のように、彩度、色相によってHelmholtz-Kohlrausch 効果の程度は異なるため、ノイズにより彩度、色相が変化すると、看者の知覚する明度も変化する。この明度の大きさの違いが第1の実験でのノイズの知覚の差に影響していると考えられる。なぜならば、人間の視覚特性において、明るさの高周波成分の知覚感度は色差のそれよりも高いためである。例えば、色相90度〜135度の範囲ではHelmholtz-Kohlrausch効果がいずれの彩度でもほとんど見られない。そのため、この範囲に含まれる色はノイズで彩度や色相が変わったとしても、他の領域に比べノイズが知覚されにくいことが示唆される。このことは、第1の実験の実験結果とも整合する。   As described above, since the degree of the Helmholtz-Kohlrausch effect varies depending on the saturation and hue, when the saturation and hue change due to noise, the brightness perceived by the viewer also changes. It is considered that this difference in brightness affects the difference in noise perception in the first experiment. This is because, in human visual characteristics, the perception sensitivity of high frequency components of brightness is higher than that of color differences. For example, the Helmholtz-Kohlrausch effect is hardly seen in any saturation in the range of hue 90 ° to 135 °. Therefore, it is suggested that the colors included in this range are less likely to perceive noise than other regions even if the saturation and hue change due to noise. This is consistent with the experimental results of the first experiment.

以上の事項から、入力画像の色差成分に平滑化を行うときに、Helmholtz-Kohlrausch効果を考慮した輝度の補正を行うことで、画像の質感をより向上できることが分かる。   From the above, it can be seen that the image quality can be further improved by correcting the luminance in consideration of the Helmholtz-Kohlrausch effect when smoothing the color difference component of the input image.

次に、図面を参照しつつ、第1実施形態のノイズ低減処理の例を説明する。図7は、第1実施形態でのノイズ低減処理例を示す流れ図である。図8は、第1実施形態でのノイズ低減処理例の概要図である。なお、図7、図8の処理は、ユーザによるプログラム実行指示に応じて、CPU14がプログラムを実行することで開始される。   Next, an example of noise reduction processing according to the first embodiment will be described with reference to the drawings. FIG. 7 is a flowchart illustrating an example of noise reduction processing in the first embodiment. FIG. 8 is a schematic diagram of an example of noise reduction processing in the first embodiment. 7 and 8 are started when the CPU 14 executes a program in response to a program execution instruction from the user.

ステップ#101:CPU14は、ノイズ低減処理の対象となる入力画像のデータを、データ読込部12から取得する。#101で取得された入力画像のデータは、CPU14の制御によって、記憶装置13またはメモリ15に記録される。なお、入力画像のデータが予め記憶装置13に記憶されている場合には、CPU14は#101の処理を省略してもよい。   Step # 101: The CPU 14 acquires data of an input image to be subjected to noise reduction processing from the data reading unit 12. The input image data acquired in # 101 is recorded in the storage device 13 or the memory 15 under the control of the CPU. If input image data is stored in the storage device 13 in advance, the CPU 14 may omit the process of # 101.

ここで、第1実施形態の入力画像は、色補間処理が施された後のカラー画像であって、輝度成分および色差成分からなる色空間(YCbCr、CIE Lなど)で表現される。第1実施形態では、色空間がCIE Lである入力画像のデータの例を説明する。また、以下の説明では、入力画像の輝度チャンネルを輝度情報(L)と称し、入力画像の色差チャンネルを色差情報(a,b)と称する。なお、#101で取得した画像が他の色空間(例えばRGB)の場合、CPU14は色空間の変換処理を実行するものとする。 Here, the input image of the first embodiment is a color image that has been subjected to color interpolation processing, and is expressed in a color space (YCbCr, CIE L * a * b *, etc.) that includes a luminance component and a color difference component. Is done. In the first embodiment, an example of input image data whose color space is CIE L * a * b * will be described. In the following description, the luminance channel of the input image is referred to as luminance information (L * ), and the color difference channel of the input image is referred to as color difference information (a * , b * ). When the image acquired in # 101 is another color space (for example, RGB), the CPU 14 performs a color space conversion process.

ステップ#102:平滑化部21は、入力画像の色差情報(#101)に対して平滑化フィルタ(一例としてバイラテラルフィルタまたはイプシロンフィルタ)による平滑化処理を施す。   Step # 102: The smoothing unit 21 performs a smoothing process on the color difference information (# 101) of the input image using a smoothing filter (for example, a bilateral filter or an epsilon filter).

Figure 0005810593
Figure 0005810593

上記の色差の変動成分(da,db)は、平滑化によって画像から除去される色差のノイズ(揺らぎ)である。 The color difference fluctuation components (da * , db * ) are color difference noises (fluctuations) removed from an image by smoothing.

ステップ#104:演算部23は、#103で取得した色差の変動成分(da,db)を、カルテシアン座標系(Cartesian coordinates)から極座標系に変換する。#104の処理では、色差平面の座標で示された色差の変動成分(da,db)が、彩度および色相角(dC,dh)の形式に変換される。 Step # 104: The computing unit 23 converts the color difference variation component (da * , db * ) acquired in # 103 from a Cartesian coordinate system (Cartesian coordinates) to a polar coordinate system. In the process of # 104, the color difference variation components (da * , db * ) indicated by the coordinates of the color difference plane are converted into the saturation and hue angle (dC * , dh * ) formats.

Figure 0005810593
Figure 0005810593

上記の質感成分の輝度勾配は、Helmholtz-Kohlrausch効果に準拠して、等明度にするときの輝度の彩度依存性を示すパラメータである。一例として、質感成分の輝度勾配は、彩度の変化(ΔC ab)に対する輝度の変化(ΔL)として表現できる(ΔL/ΔC ab)。 The luminance gradient of the above-mentioned texture component is a parameter indicating the saturation dependency of luminance when the lightness is equal in accordance with the Helmholtz-Kohlrausch effect. As an example, the luminance gradient of the texture component can be expressed as a change in luminance (ΔL * ) with respect to a change in saturation (ΔC * ab ) (ΔL * / ΔC * ab ).

ここで、第1実施形態での演算部23は、予め記憶装置13に記憶されている輝度勾配係数のデータテーブルを用いて輝度勾配を求める。図9は、輝度勾配係数のデータテーブルの一例を模式的に示す図である。   Here, the calculation unit 23 in the first embodiment obtains the luminance gradient using the data table of the luminance gradient coefficient stored in advance in the storage device 13. FIG. 9 is a diagram schematically illustrating an example of a data table of luminance gradient coefficients.

上記の輝度勾配係数のデータテーブルは、等明度にするための輝度の係数と色相角との対応関係が記憶されている。上記のデータテーブルでは、色相角の45度刻みで輝度の係数が記憶されている。また、上記のデータテーブルでは、彩度0−10の範囲と、彩度10−20の範囲と、彩度20−30の範囲とで、それぞれ輝度の係数と色相角との対応関係が変化する。なお、図9のデータテーブルは、上記した第2の実験の実験結果(図4〜図6)に基づいて、L=51.56を基準として生成されている。 The luminance gradient coefficient data table stores the correspondence between the luminance coefficient and the hue angle for equal brightness. In the above data table, luminance coefficients are stored in increments of 45 degrees of hue angle. In the above data table, the correspondence relationship between the luminance coefficient and the hue angle changes in the range of saturation 0-10, the range of saturation 10-20, and the range of saturation 20-30, respectively. . The data table of FIG. 9 is generated based on L * = 51.56 based on the experimental results (FIGS. 4 to 6) of the second experiment described above.

図9における色相角が90−135度の範囲では、他の範囲と比べて輝度勾配(ΔL/ΔC ab)がいずれの彩度でも小さくなり、ほぼ0となる。また、輝度勾配(ΔL/ΔC ab)が負の値をとるときの値はいずれも小さい。そのため、ほぼ(ΔL/ΔC ab)≧0であるとみなすことができる。すなわち、輝度勾配では彩度が高くなると輝度が高くなる。 In the range where the hue angle in FIG. 9 is 90 to 135 degrees, the luminance gradient (ΔL * / ΔC * ab ) is smaller than any other range, and is almost zero. Further, the values when the luminance gradient (ΔL * / ΔC * ab ) takes a negative value are both small. Therefore, it can be considered that almost (ΔL * / ΔC * ab ) ≧ 0. That is, in the luminance gradient, the luminance increases as the saturation increases.

また、#106での演算部23は、以下の要領で輝度勾配(ΔL/ΔC ab)を求めればよい。 Further, the calculation unit 23 in # 106 may obtain the luminance gradient (ΔL * / ΔC * ab ) in the following manner.

Figure 0005810593
Figure 0005810593

Figure 0005810593
Figure 0005810593

なお、輝度勾配は、色差座標の正方向の彩度変化に対して正方向の輝度変化を与えるとともに、色差座標の負方向の彩度変化に対して負方向の輝度変化を与える。図10、図11は、輝度勾配における彩度と輝度との相関を示す図である。図10、図11において、縦軸は輝度を示し、横軸は彩度を示す。   Note that the luminance gradient gives a luminance change in the positive direction with respect to a saturation change in the positive direction of the color difference coordinates, and also gives a luminance change in the negative direction with respect to a saturation change in the negative direction of the color difference coordinates. 10 and 11 are diagrams showing the correlation between saturation and luminance in the luminance gradient. 10 and 11, the vertical axis represents luminance, and the horizontal axis represents saturation.

図10は、彩度の増加方向(正方向)に揺らぎを加えた状態を示している。この場合、彩度の増加に対して等明度の線は下降するため、看者には対象が暗く知覚されるようになる。よって、輝度勾配では正方向の輝度変化を与えることでバランスをとる。   FIG. 10 shows a state in which fluctuation is applied in the increasing direction (positive direction) of saturation. In this case, the line of equal lightness decreases with increasing saturation, so that the viewer perceives the object darkly. Therefore, the luminance gradient is balanced by giving a luminance change in the positive direction.

一方、図11は、彩度の減少方向(負方向)に揺らぎを加えた状態を示している。この場合、彩度の減少に対して等明度の線は上昇するため、看者には対象が明るく知覚されるようになる。よって、輝度勾配では負方向の輝度変化を与えることでバランスをとる。   On the other hand, FIG. 11 shows a state in which fluctuation is applied in the decreasing direction of the saturation (negative direction). In this case, the line of equal lightness rises as the saturation decreases, so that the viewer perceives the subject brightly. Therefore, the luminance gradient is balanced by giving a luminance change in the negative direction.

ステップ#107:演算部23は、彩度の揺らぎdC(#104)に輝度勾配(#106)を乗じて質感成分(dL)を求める。 Step # 107: The computing unit 23 obtains the texture component (dL * ) by multiplying the saturation fluctuation dC * (# 104) by the luminance gradient (# 106).

Figure 0005810593
Figure 0005810593

ステップ#108:演算部23は、#107で求めた質感成分(dL)に対して、キャリブレーション用の補正係数kを乗算する(ただし、0<k<1)。補正係数kは、質感成分の過補正を防ぐためのものであって、#107のdLの値を小さくするように補正する。例えば、補正係数kは、入力画像を撮影したカメラの機種や画像処理のモード等に応じてそれぞれ主観評価で決定された値が採用される。 Step # 108: The computing unit 23 multiplies the texture component (dL * ) obtained in # 107 by a calibration correction coefficient k (where 0 <k <1). The correction coefficient k is for preventing over-correction of the texture component, and is corrected so as to reduce the value of dL * of # 107. For example, as the correction coefficient k, a value determined by subjective evaluation according to the model of the camera that captured the input image, the image processing mode, or the like is employed.

ステップ#109:補正部24は、#101の入力画像の輝度情報(L)に、#108の調整後の質感成分(dL)を加算して補正する。なお、#109の補正後の輝度情報をL’と表記する。 Step # 109: The correction unit 24 corrects the luminance information (L * ) of the input image of # 101 by adding the texture component (dL * ) after adjustment of # 108. Note that the luminance information after the correction of # 109 is expressed as L * ′.

Figure 0005810593
Figure 0005810593

その後、CPU14は、出力画像のデータを記憶装置13に記憶してもよく、出力画像をモニタ19に表示させてもよい。以上で、図7、図8による説明を終了する。   Thereafter, the CPU 14 may store the output image data in the storage device 13 or may display the output image on the monitor 19. Above, description by FIG. 7, FIG. 8 is complete | finished.

以下、第1実施形態での作用効果を述べる。第1実施形態の画像処理装置は、色差情報に平滑化を行う(#102)とともに、入力画像の色再現で色差の変動成分(#103)が輝度に与える影響に相応する質感成分(#107)を求める。そして、画像処理装置は、上記の質感成分を用いて入力画像の輝度成分を補正する(#109)。   Hereinafter, the operational effects of the first embodiment will be described. The image processing apparatus according to the first embodiment performs smoothing on the color difference information (# 102), and at the same time, the texture component (# 107) corresponding to the influence of the color difference variation component (# 103) on the luminance in the color reproduction of the input image. ) Then, the image processing apparatus corrects the luminance component of the input image using the texture component (# 109).

これにより、ノイズ低減処理後の出力画像(#110)では、色差成分の平滑化によって色ノイズが抑制されるとともに、Helmholtz-Kohlrausch効果を考慮して輝度成分が補正されるので、より自然な質感を有する画像となる。   As a result, in the output image (# 110) after the noise reduction processing, the color noise is suppressed by smoothing the color difference component, and the luminance component is corrected in consideration of the Helmholtz-Kohlrausch effect. It becomes the image which has.

<第2実施形態の説明>
図12は、第2実施形態でのノイズ低減処理例の概要図である。第2実施形態は第1実施形態の変形例であって、図12は上記の図8に対応する。なお、以下の説明において、第1実施形態と共通する要素には同一符号を付して重複説明を省略する。
<Description of Second Embodiment>
FIG. 12 is a schematic diagram of an example of noise reduction processing in the second embodiment. The second embodiment is a modification of the first embodiment, and FIG. 12 corresponds to FIG. 8 described above. In the following description, elements common to the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

第2実施形態の画像処理装置では、それぞれ異なる輝度条件で生成された複数の輝度勾配係数のデータテーブルが予め記憶装置13に記憶されている。第2実施形態での演算部23は、上記の#106に対応する処理(図12の#106’)のときに、輝度情報(L)の値に応じて参照する輝度勾配係数のデータテーブルを変更する。かかる第2実施形態では、上記の第1実施形態と同様の効果に加えて、Lの値に応じてより細かく質感成分の調整が行われるので、出力画像の解像感をより向上させることができる。 In the image processing apparatus according to the second embodiment, a data table of a plurality of brightness gradient coefficients generated under different brightness conditions is stored in the storage device 13 in advance. The calculation unit 23 in the second embodiment uses a data table of luminance gradient coefficients to be referred to in accordance with the value of luminance information (L * ) in the process corresponding to # 106 (# 106 ′ in FIG. 12). To change. In the second embodiment, in addition to the same effects as in the first embodiment, the texture component is finely adjusted according to the value of L * , so that the resolution of the output image is further improved. Can do.

<第3実施形態の説明>
図13は、第3実施形態での撮像装置の構成例を示す図である。第3実施形態は、第1実施形態または第2実施形態の画像処理装置を電子カメラ31に実装した例であって、電子カメラ31の撮像部33から画像処理装置が入力画像を取得する。
<Description of Third Embodiment>
FIG. 13 is a diagram illustrating a configuration example of the imaging apparatus according to the third embodiment. The third embodiment is an example in which the image processing apparatus of the first embodiment or the second embodiment is mounted on the electronic camera 31, and the image processing apparatus acquires an input image from the imaging unit 33 of the electronic camera 31.

電子カメラ31は、撮影レンズ32と、撮像部33と、画像処理エンジン34と、第1メモリ35および第2メモリ36と、記録I/F37と、操作部38とを備えている。ここで、撮像部33、第1メモリ35、第2メモリ36、記録I/F37および操作部38は、それぞれ画像処理エンジン34と接続されている。   The electronic camera 31 includes a photographic lens 32, an imaging unit 33, an image processing engine 34, a first memory 35 and a second memory 36, a recording I / F 37, and an operation unit 38. Here, the imaging unit 33, the first memory 35, the second memory 36, the recording I / F 37, and the operation unit 38 are each connected to the image processing engine 34.

撮像部33は、撮影レンズ32によって結像された被写体の像を撮像(撮影)するモジュールである。例えば、撮像部33は、光電変換を行う撮像素子と、アナログ信号処理を行うアナログフロントエンド回路と、A/D変換およびデジタル信号処理を行うデジタルフロントエンド回路とを含んでいる。   The imaging unit 33 is a module that captures (captures) an image of a subject formed by the photographing lens 32. For example, the imaging unit 33 includes an imaging device that performs photoelectric conversion, an analog front-end circuit that performs analog signal processing, and a digital front-end circuit that performs A / D conversion and digital signal processing.

画像処理エンジン34は、電子カメラ31の動作を統括的に制御するプロセッサである。例えば、画像処理エンジン34は、撮影モードにおいて、ユーザの撮影指示入力に応じて、画像を撮像部33に撮影させる。また、画像処理エンジン34は、プログラムの実行により、一の実施形態のCPU14(平滑化部21、抽出部22、演算部23、補正部24)と同様に動作する。   The image processing engine 34 is a processor that comprehensively controls the operation of the electronic camera 31. For example, the image processing engine 34 causes the imaging unit 33 to capture an image in response to a user's shooting instruction input in the shooting mode. Further, the image processing engine 34 operates in the same manner as the CPU 14 (smoothing unit 21, extraction unit 22, calculation unit 23, correction unit 24) according to one embodiment by executing a program.

第1メモリ35は、画像のデータを一時的に記憶するメモリであって、例えば揮発性の記憶媒体であるSDRAMである。また、第2メモリ36は、画像処理エンジン34の実行するプログラムを記憶するメモリであって、例えばフラッシュメモリ等の不揮発性メモリである。   The first memory 35 is a memory that temporarily stores image data, and is, for example, an SDRAM that is a volatile storage medium. The second memory 36 is a memory that stores a program executed by the image processing engine 34, and is a non-volatile memory such as a flash memory.

記録I/F37は、不揮発性の記憶媒体39を接続するためのコネクタを有している。そして、記録I/F37は、コネクタに接続された記憶媒体39に対して画像のデータの書き込み/読み込みを実行する。上記の記憶媒体39は、例えば、ハードディスクや、半導体メモリを内蔵したメモリカードである。なお、図13では記憶媒体39の一例としてメモリカードを図示する。   The recording I / F 37 has a connector for connecting a nonvolatile storage medium 39. The recording I / F 37 writes / reads image data to / from the storage medium 39 connected to the connector. The storage medium 39 is, for example, a hard disk or a memory card incorporating a semiconductor memory. In FIG. 13, a memory card is illustrated as an example of the storage medium 39.

操作部38は、ユーザの操作を受け付ける複数のスイッチを有している。この操作部38は、例えば、記録用の静止画像の撮影指示を受け付けるレリーズ釦などを含む。   The operation unit 38 has a plurality of switches that accept user operations. The operation unit 38 includes, for example, a release button for receiving a recording still image shooting instruction.

以下、第3実施形態での電子カメラ31の動作例を簡単に説明する。第3実施形態の電子カメラ31では、ユーザの撮影指示入力に応じて、撮像部33が画像を撮影する。これにより、図7の#101の処理に相当する入力画像の取得が行われる。   Hereinafter, an operation example of the electronic camera 31 in the third embodiment will be briefly described. In the electronic camera 31 of the third embodiment, the imaging unit 33 captures an image in response to a user's shooting instruction input. Thereby, an input image corresponding to the process of # 101 in FIG. 7 is acquired.

そして、画像処理エンジン34は、図7の#103〜#110と同様の手法で画像のデータにノイズ低減処理を施す。その後、出力画像のデータは、記録I/F37を介して記憶媒体39に記録される。また、画像処理エンジン34は、不図示の表示部に出力画像を表示してもよい。かかる第3実施形態においても、第1実施形態または第2実施形態とほぼ同様の効果を得ることができる。   Then, the image processing engine 34 performs noise reduction processing on the image data by the same method as # 103 to # 110 in FIG. Thereafter, the output image data is recorded in the storage medium 39 via the recording I / F 37. The image processing engine 34 may display the output image on a display unit (not shown). In the third embodiment, substantially the same effect as that of the first embodiment or the second embodiment can be obtained.

<実施形態の補足事項>
(補足事項1):上記実施形態では、輝度勾配の係数と、変動成分の彩度(彩度の揺らぎ)とから質感成分を求める例を説明したが、さらに変動成分の色相(色相の揺らぎ)を考慮してもよい。
<Supplementary items of the embodiment>
(Supplementary item 1): In the above embodiment, the example in which the texture component is obtained from the coefficient of the luminance gradient and the saturation of the fluctuation component (saturation fluctuation) has been described, but the hue of the fluctuation component (hue fluctuation) is further described. May be considered.

ここで、彩度の揺らぎをdCとし、色相の揺らぎをdhとする。また、彩度による輝度勾配の係数をΔL とし、また、色相方向の輝度勾配の係数をΔL とする。なお、色相方向の輝度勾配の係数は、色差平面上の色相方向の距離に対する輝度の変化を示すものであり、色相角に対する明度の変化ではない。 Here, the saturation fluctuation is dC * , and the hue fluctuation is dh. Further, the coefficient of the luminance gradient due to saturation is ΔL * C, and the coefficient of the luminance gradient in the hue direction is ΔL * H. The coefficient of the luminance gradient in the hue direction indicates a change in luminance with respect to the distance in the hue direction on the color difference plane, and is not a change in brightness with respect to the hue angle.

このとき、彩度の揺らぎによる質感成分dL および色相の揺らぎによる質感成分dL は、下式(2)、(3)で求めることができる。そして、下式(4)のように、両者を統合することで最終的な質感成分dLを得ることができる。 At this time, the texture component dL * C due to saturation fluctuation and the texture component dL * H due to hue fluctuation can be obtained by the following equations (2) and (3). Then, the final texture component dL * can be obtained by integrating both as shown in the following equation (4).

Figure 0005810593
Figure 0005810593

(補足事項2):上記実施形態において、輝度勾配係数のデータテーブルは、カルテシアン座標系による色差平面の座標値と輝度勾配との対応関係を記憶したものであってもよい。この場合、演算部23は、色差の変動成分および平滑化後の色差成分の極座標への変換を省略できる。   (Supplementary item 2): In the above embodiment, the data table of the luminance gradient coefficient may store the correspondence between the coordinate value of the color difference plane in the Cartesian coordinate system and the luminance gradient. In this case, the calculation unit 23 can omit conversion of the color difference variation component and the smoothed color difference component into polar coordinates.

(補足事項3):上記実施形態において、出力画像の輝度ノイズを微調整するために、輝度情報Lまたは輝度情報L’に対して平滑化処理を施してもよい。 (Supplementary Item 3): In the above embodiment, in order to finely adjust the luminance noise of the output image, the luminance information L * or the luminance information L * ′ may be smoothed.

(補足事項4):上記の第1実施形態および第2実施形態では、画像処理装置がパーソナルコンピュータである例を説明した。しかし、本発明の画像処理装置は、プリンタ、フォトビューア等の電子機器であってもよい。   (Supplementary Item 4): In the first and second embodiments described above, the example in which the image processing apparatus is a personal computer has been described. However, the image processing apparatus of the present invention may be an electronic device such as a printer or a photo viewer.

(補足事項5):上記の第3実施形態では、撮像装置の一例として電子カメラの場合を説明した。しかし、本発明の撮像装置はスキャナであってもよい。また、本発明の撮像装置は、顕微鏡や望遠鏡の光学系を備えるものであってもよい。   (Supplementary item 5): In the third embodiment, the case of an electronic camera has been described as an example of an imaging apparatus. However, the imaging apparatus of the present invention may be a scanner. The imaging apparatus of the present invention may include a microscope or a telescope optical system.

(補足事項6):上記実施形態では、画像処理装置の各機能をプログラムによってソフトウエア的に実現する例を説明した。しかし、本発明では、ASICを用いて縮平滑化部21、抽出部22、演算部23、補正部24の各機能をハードウエア的に実現してもかまわない。   (Supplementary Item 6): In the above-described embodiment, the example in which each function of the image processing apparatus is realized by software by a program has been described. However, in the present invention, the functions of the reduced / smoothing unit 21, the extraction unit 22, the calculation unit 23, and the correction unit 24 may be realized in hardware using an ASIC.

(補足事項7):上記実施形態では、色差の変動成分(ハイパス成分)が明度に与える影響を考慮することで、画像の画像処理前後の質感を補正している。しかし、本発明は上記実施形態に限定されることなく、色差の変動成分を抽出し、抽出された色差の変動成分による明度への影響を考慮して、色補正後や階調補正後の画像の解像感を補正してもよい。   (Supplementary Item 7): In the above embodiment, the texture of the image before and after the image processing is corrected by taking into consideration the effect of the color difference variation component (high pass component) on the brightness. However, the present invention is not limited to the above-described embodiment, and a color difference variation component is extracted, and an image after color correction or tone correction is performed in consideration of the influence on brightness by the extracted color difference variation component. The resolution may be corrected.

すなわち、入力画像に含まれる色差の変動成分を抽出する抽出部と、入力画像の色再現で色差の変動成分が輝度に与える影響に相応する質感成分を求める演算部と、上記の質感成分を用いて、入力画像のエッジを強調する補正部とを備える画像処理装置および撮像装置(または画像処理プログラム)も本発明の技術的範囲に含まれる。かかる補足事項7によれば、人間の視覚特性を考慮して入力画像のエッジが強調されるので、エッジ強調後の画像の色再現や解像感をより自然に見せることが可能となる。   That is, an extraction unit that extracts a color difference variation component included in an input image, a calculation unit that obtains a texture component corresponding to the effect of the color difference variation component on luminance in color reproduction of the input image, and the above-described texture component are used. In addition, an image processing apparatus and an imaging apparatus (or an image processing program) including a correction unit that emphasizes the edge of the input image are also included in the technical scope of the present invention. According to Supplementary Item 7, since the edge of the input image is emphasized in consideration of human visual characteristics, it is possible to make the color reproduction and the sense of resolution of the image after edge enhancement more natural.

一例として、補足事項7の特徴を上記実施形態の構成に当てはめて説明する。抽出部22および演算部23は上記実施形態と同様に動作する。これにより、演算部23によって質感成分dLが求められる。そして、補正部24が公知のエッジ強調処理を実行する。このとき、補正部24は、上記の質感成分dLの影響が平準化されるように画像の各位置でエッジ強調の度合いを調整すればよい。かかるエッジ強調処理は、入力画像の一部または全てのチャネルを対象としてもよい。また、他の色空間に変換された入力画像にエッジ強調処理を施してもよい。なお、補足事項7において、色差の変動成分をハイパスフィルタなどで抽出すれば、入力画像の色差成分の平滑化は行わなくてもよい。 As an example, the feature of supplementary matter 7 will be described by applying it to the configuration of the above embodiment. The extraction unit 22 and the calculation unit 23 operate in the same manner as in the above embodiment. Thereby, the texture component dL * is obtained by the calculation unit 23. Then, the correction unit 24 performs a known edge enhancement process. At this time, the correction unit 24 may adjust the degree of edge enhancement at each position of the image so that the influence of the texture component dL * is leveled. Such edge enhancement processing may be performed on some or all channels of the input image. Further, edge enhancement processing may be performed on an input image converted into another color space. In Supplementary Item 7, if the color difference variation component is extracted by a high-pass filter or the like, the color difference component of the input image need not be smoothed.

(補足事項8):本明細書で開示した第1の実験及び第2の実験の実験結果は、22型LCDをsRGB規格に準拠して調整し、50cmの距離から観察した場合のものである。本発明を実施する場合において、異なる観察環境ではその環境に応じて実験して得られた値を使用してもよい。また、本発明を実施する場合において、画像の解像度、画素数や出力条件設定に応じて適切な値(データテーブル)を使用してもよい。   (Supplementary Item 8): The experimental results of the first experiment and the second experiment disclosed in this specification are obtained when a 22-type LCD is adjusted according to the sRGB standard and observed from a distance of 50 cm. . In the case of carrying out the present invention, values obtained through experiments according to the environment may be used in different observation environments. Further, when implementing the present invention, an appropriate value (data table) may be used according to the resolution of the image, the number of pixels, and the output condition setting.

以上の詳細な説明により、実施形態の特徴点および利点は明らかになるであろう。これは、特許請求の範囲が、その精神および権利範囲を逸脱しない範囲で前述のような実施形態の特徴点および利点にまで及ぶことを意図するものである。また、当該技術分野において通常の知識を有する者であれば、あらゆる改良および変更に容易に想到できるはずであり、発明性を有する実施形態の範囲を前述したものに限定する意図はなく、実施形態に開示された範囲に含まれる適当な改良物および均等物によることも可能である。   From the above detailed description, features and advantages of the embodiments will become apparent. It is intended that the scope of the claims extend to the features and advantages of the embodiments as described above without departing from the spirit and scope of the right. Further, any person having ordinary knowledge in the technical field should be able to easily come up with any improvements and modifications, and there is no intention to limit the scope of the embodiments having the invention to those described above. It is also possible to use appropriate improvements and equivalents within the scope disclosed in.

11…コンピュータ,12…データ読込部,13…記憶装置,14…CPU,21…平滑化部,22…抽出部,23…演算部,24…補正部,31…電子カメラ,33…撮像部,34…画像処理エンジン DESCRIPTION OF SYMBOLS 11 ... Computer, 12 ... Data reading part, 13 ... Memory | storage device, 14 ... CPU, 21 ... Smoothing part, 22 ... Extraction part, 23 ... Calculation part, 24 ... Correction part, 31 ... Electronic camera, 33 ... Imaging part, 34. Image processing engine

Claims (7)

入力画像の色差成分に平滑化を行う平滑化部と、
前記平滑化前の色差成分と前記平滑化後の色差成分との差分を算出し、前記差分から彩度の変化量を算出する抽出部と、
前記平滑化後の色差成分から彩度および色相角を算出し、前記彩度および前記色相角から彩度の変化量に対する輝度の変化量の比率を算出する演算部と、
前記抽出部で算出された彩度の前記変化量と、前記演算部で算出された彩度の変化量に対する輝度の変化量の前記比率とにより輝度の補正値を算出し、前記補正値により前記入力画像の輝度成分を補正する補正部と、
を備える画像処理装置。
A smoothing unit that smoothes the color difference component of the input image;
An extraction unit that calculates a difference between the color difference component before smoothing and the color difference component after smoothing, and calculates a change in saturation from the difference ;
Calculating a saturation and a hue angle from the smoothed color difference component, and calculating a ratio of a luminance change amount to a saturation change amount from the saturation and the hue angle ; and
A brightness correction value is calculated from the change amount of saturation calculated by the extraction unit and the ratio of the change amount of brightness to the change amount of saturation calculated by the calculation unit, and the correction value calculates the brightness correction value. A correction unit for correcting the luminance component of the input image;
An image processing apparatus comprising:
請求項に記載の画像処理装置において、
彩度の変化量に対する輝度の変化量の前記比率は、前記相角が90度から135度の範囲では他の範囲と比べて値が小さくなる画像処理装置。
The image processing apparatus according to claim 1 .
Wherein the luminance variation with respect to the amount of change in saturation ratio, the color phase angle image processing apparatus value compared with other ranges is reduced in the range of 135 degrees from 90 degrees.
請求項または請求項のいずれか1項に記載の画像処理装置において、
彩度の変化量に対する輝度の変化量の前記比率は、前記平滑化後の色差成分の色差座標の正方向の彩度変化に対して正方向の輝度変化を与えるとともに、前記色差座標の負方向の彩度変化に対して負方向の輝度変化を与える画像処理装置。
The image processing apparatus according to any one of claims 1 or claim 2,
The ratio of the change amount of luminance to the change amount of saturation gives a luminance change in the positive direction with respect to the saturation change in the positive direction of the color difference coordinate of the color difference component after the smoothing, and the negative direction of the color difference coordinate Image processing apparatus that gives a luminance change in the negative direction with respect to the saturation change of.
入力画像の色差成分に平滑化を行う平滑化部と、
前記平滑化前の色差成分と前記平滑化後の色差成分との差分を算出し、前記差分から彩度の変化量を算出する抽出部と、
前記平滑化後の色差成分から彩度および色相角を算出し、前記彩度および前記色相角から彩度の変化量に対する輝度の変化量の比率を算出する演算部と、
前記抽出部で算出された彩度の前記変化量と、前記演算部で算出された彩度の変化量に対する輝度の変化量の前記比率とにより輝度の補正値を算出し、前記補正値により前記入力画像のエッジ強調を行う補正部と、
を備える画像処理装置。
A smoothing unit that smoothes the color difference component of the input image;
An extraction unit that calculates a difference between the color difference component before smoothing and the color difference component after smoothing, and calculates a change in saturation from the difference ;
Calculating a saturation and a hue angle from the smoothed color difference component, and calculating a ratio of a luminance change amount to a saturation change amount from the saturation and the hue angle ; and
A brightness correction value is calculated from the change amount of saturation calculated by the extraction unit and the ratio of the change amount of brightness to the change amount of saturation calculated by the calculation unit, and the correction value calculates the brightness correction value. A correction unit for edge enhancement of the input image;
An image processing apparatus comprising:
入力画像を撮像する撮像部と、
請求項1から請求項のいずれか1項に記載の画像処理装置と、
を備える撮像装置。
An imaging unit that captures an input image;
An image processing apparatus according to any one of claims 1 to 4 ,
An imaging apparatus comprising:
コンピュータに、
入力画像の色差成分に平滑化を行う平滑化工程と、
前記平滑化前の色差成分と前記平滑化後の色差成分との差分を算出し、前記差分から彩度の変化量を算出する抽出工程と、
前記平滑化後の色差成分から彩度および色相角を算出し、前記彩度および前記色相角から彩度の変化量に対する輝度の変化量の比率を算出する演算工程と、
前記抽出工程で算出された彩度の前記変化量と、前記演算工程で算出された彩度の変化量に対する輝度の変化量の前記比率とにより輝度の補正値を算出し、前記補正値により前記入力画像の輝度成分を補正する補正工程と、
を実行させるプログラム。
On the computer,
A smoothing step for smoothing the color difference component of the input image;
An extraction step of calculating a difference between the color difference component before smoothing and the color difference component after smoothing, and calculating a change in saturation from the difference ;
Calculating a saturation and a hue angle from the smoothed color difference component, and calculating a ratio of a luminance change amount to a saturation change amount from the saturation and the hue angle ; and
A luminance correction value is calculated from the amount of change in saturation calculated in the extraction step and the ratio of the amount of change in luminance to the amount of change in saturation calculated in the calculation step, and the correction value calculates the luminance correction value. A correction process for correcting the luminance component of the input image;
A program that executes
コンピュータに、
入力画像の色差成分に平滑化を行う平滑化工程と、
前記平滑化前の色差成分と前記平滑化後の色差成分との差分を算出し、前記差分から彩度の変化量を算出する抽出工程と、
前記平滑化後の色差成分から彩度および色相角を算出し、前記彩度および前記色相角から彩度の変化量に対する輝度の変化量の比率を算出する演算工程と、
前記抽出工程で算出された彩度の前記変化量と、前記演算工程で算出された彩度の変化量に対する輝度の変化量の前記比率とにより輝度の補正値を算出し、前記補正値により前記入力画像のエッジ強調を行う補正工程と、
を実行させるプログラム。
On the computer,
A smoothing step for smoothing the color difference component of the input image;
An extraction step of calculating a difference between the color difference component before smoothing and the color difference component after smoothing, and calculating a change in saturation from the difference ;
Calculating a saturation and a hue angle from the smoothed color difference component, and calculating a ratio of a luminance change amount to a saturation change amount from the saturation and the hue angle ; and
A luminance correction value is calculated from the amount of change in saturation calculated in the extraction step and the ratio of the amount of change in luminance to the amount of change in saturation calculated in the calculation step, and the correction value calculates the luminance correction value. A correction process for edge enhancement of the input image;
A program that executes
JP2011086489A 2011-04-08 2011-04-08 Image processing apparatus, imaging apparatus, and program Active JP5810593B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011086489A JP5810593B2 (en) 2011-04-08 2011-04-08 Image processing apparatus, imaging apparatus, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011086489A JP5810593B2 (en) 2011-04-08 2011-04-08 Image processing apparatus, imaging apparatus, and program

Publications (2)

Publication Number Publication Date
JP2012222616A JP2012222616A (en) 2012-11-12
JP5810593B2 true JP5810593B2 (en) 2015-11-11

Family

ID=47273663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011086489A Active JP5810593B2 (en) 2011-04-08 2011-04-08 Image processing apparatus, imaging apparatus, and program

Country Status (1)

Country Link
JP (1) JP5810593B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6122716B2 (en) * 2013-07-11 2017-04-26 株式会社東芝 Image processing device
JP6413210B2 (en) * 2013-08-21 2018-10-31 株式会社ニコン Image processing apparatus, imaging apparatus, and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63244973A (en) * 1987-03-30 1988-10-12 Toshiba Corp Picture reader
JPH06292006A (en) * 1993-04-01 1994-10-18 Fuji Xerox Co Ltd Picture processing unit
JP3977170B2 (en) * 2002-07-02 2007-09-19 キヤノン株式会社 Signal processing apparatus, signal processing method, program, and storage medium
JP4187518B2 (en) * 2002-12-11 2008-11-26 オリンパス株式会社 camera
US7924288B2 (en) * 2004-06-22 2011-04-12 Nikon Corporation Image processing device emphasizing on texture, image processing program, electronic camera, and image processing method
JP2006180267A (en) * 2004-12-22 2006-07-06 Fujitsu General Ltd Picture quality correcting circuit
EP1991008A4 (en) * 2006-02-27 2012-04-18 Nikon Corp Image processing device for correcting image massive feeling, image processing program, image processing method, and electronic camera

Also Published As

Publication number Publication date
JP2012222616A (en) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5251637B2 (en) Noise reduction device, noise reduction method, noise reduction program, recording medium
EP2624204B1 (en) Image processing apparatus and method of controlling the same
JP4803284B2 (en) Image processing apparatus and image processing program
WO2018176925A1 (en) Hdr image generation method and apparatus
JP5457652B2 (en) Image processing apparatus and method
JP2010039758A (en) Image processor and image processing method
JP5211521B2 (en) Image processing apparatus, image processing method, image processing program, and camera
US10600211B2 (en) System and method for calculating image similarity and recording medium
JP5546166B2 (en) Imaging apparatus, signal processing method, and program
KR20120114899A (en) Image processing method and image processing apparatus
JP4924114B2 (en) Image processing program and image processing method
JP2006114005A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP2006115444A (en) Method, device, program for image processing, and electronic camera
US10757321B2 (en) Detection apparatus for detecting portion satisfying predetermined condition from image, image processing apparatus for applying predetermined image processing on image, detection method, and image processing method
JP2021043874A (en) Image processing apparatus, image processing method, and program
JP5810593B2 (en) Image processing apparatus, imaging apparatus, and program
JP2014192859A (en) Color correction method, program, and device
WO2007097125A1 (en) Image processing device for correcting image massive feeling, image processing program, image processing method, and electronic camera
JP2020145553A (en) Image processing apparatus, image processing method and program
JP2006114006A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP2011120299A (en) Gradation conversion apparatus, program, electronic camera, and method therefor
JP5743456B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP6413210B2 (en) Image processing apparatus, imaging apparatus, and program
JP5225491B2 (en) Image processing apparatus and image processing method
JP2021082211A (en) Image processing system, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150831

R150 Certificate of patent or registration of utility model

Ref document number: 5810593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250