WO2005125179A1 - 質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法 - Google Patents

質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法 Download PDF

Info

Publication number
WO2005125179A1
WO2005125179A1 PCT/JP2005/011327 JP2005011327W WO2005125179A1 WO 2005125179 A1 WO2005125179 A1 WO 2005125179A1 JP 2005011327 W JP2005011327 W JP 2005011327W WO 2005125179 A1 WO2005125179 A1 WO 2005125179A1
Authority
WO
WIPO (PCT)
Prior art keywords
image processing
component
texture
unit
smoothing
Prior art date
Application number
PCT/JP2005/011327
Other languages
English (en)
French (fr)
Inventor
Hideyasu Kuniba
Original Assignee
Nikon Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corporation filed Critical Nikon Corporation
Priority to US11/629,794 priority Critical patent/US7924288B2/en
Priority to EP05753504.9A priority patent/EP1775936A4/en
Priority to JP2006514831A priority patent/JP4595939B2/ja
Publication of WO2005125179A1 publication Critical patent/WO2005125179A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • G06T5/75Unsharp masking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Definitions

  • Image processing apparatus image processing program, electronic camera, and image processing method for enhancing texture
  • the present invention relates to an image processing technique for enhancing the texture of a subject in an image.
  • Patent Document 1 is known as a device for compensating for such a decrease in texture.
  • Patent Document 1 a minute amplitude component is extracted from image data, and the minute amplitude component is added to the image data.
  • this conventional technology it is possible to enhance the texture such as so-called “shortening”.
  • Patent document 1 Japanese Patent Application Laid-Open No. 2001-118064 (eg, FIG. 5)
  • an object of the present invention is to provide an image processing technique that emphasizes the texture of an image while preventing the noise feeling from deteriorating.
  • An image processing apparatus of the present invention is an image processing apparatus that performs image processing on image data including luminance information and color information, and includes the following fluctuation extracting unit, converting unit, and adding unit.
  • the fluctuation extracting unit extracts a local fluctuation component from the color information of the image data.
  • the conversion unit generates a texture component of the luminance information in a pseudo manner from the fluctuation component of the color information.
  • the adding unit adds the generated texture component to the luminance information.
  • the fluctuation extracting unit includes a smoothing unit and a difference unit.
  • the smoothing unit performs a smoothing process on the image data and extracts a smoothing component.
  • the difference unit obtains a local fluctuation component from the difference between the image data and the smoothed component.
  • the conversion unit converts the conversion unit
  • the texture component is generated by modulating the variation component according to the value of the smoothing component.
  • the conversion unit modulates the fluctuation component according to the random number value to generate the texture component.
  • the conversion unit generates a texture component of the luminance information in a pseudo manner by modulating the “variation component of the color information” according to the luminance information.
  • the variation extraction unit includes a first smoothing unit, a second smoothing unit, and a difference unit.
  • the first smoothing unit smoothes a spatial frequency band having high visual sensitivity.
  • the second smoothing unit smoothes a noise band.
  • the difference unit generates a fluctuation component by taking a difference before and after the smoothing by the first smoothing unit.
  • the adding unit adds the generated texture component to the output of the second smoothing unit.
  • An electronic camera includes the image processing device according to any one of the above ⁇ 1> to ⁇ 5>, and an imaging unit that captures an image of a subject and generates image data.
  • the image data generated by the imaging unit is processed by the image processing device.
  • the image processing program according to the present invention controls the computer according to any one of the above ⁇ 1> to ⁇ 5>. And a function as the fluctuation extracting unit, the converting unit, and the adding unit.
  • An image processing method is an image processing method for performing image processing on image data including luminance information and color information, and executes the following operation steps.
  • variation extracting step a local variation component of the color information power of the image data is extracted.
  • a texture component of luminance information is pseudo-generated from a variation component of color information.
  • the generated texture component is added to the luminance information.
  • a local fluctuation component is extracted from color information of image data.
  • This fluctuation component includes important detail information that determines the texture expression of the image. Therefore, a texture component of the luminance information is generated in a pseudo manner by using the variation component of the color information as a detail material. The pseudo texture component generated from the color information is added to the luminance information. Through such processing, it is possible to reflect the change in the color information on the texture component of the luminance information, and to enrich the texture expression of the luminance information.
  • the pseudo texture component generated by the color information force is increased or decreased according to the brightness of the luminance information.
  • this processing it is possible to increase the amount of addition of the pseudo texture component in the gradation region where noise is not conspicuous, and to reduce the addition amount of the pseudo texture component in the gradation region where noise is conspicuous. In this case, it is possible to generate an image with less noise and rich texture.
  • the pseudo texture component generated from the color information is increased or decreased according to the signal level of the color information.
  • this processing it is possible to increase the amount of pseudo texture components added in the low saturation region where the texture is not conspicuous, and to reduce the amount of pseudo texture components added in the high saturation region where the noise is conspicuous. . In this case, it is possible to generate an image with little color noise and rich texture.
  • the fluctuation component of the color information is subjected to random number modulation.
  • the frequency component of the fluctuation component can be frequency-spread (or the frequency can be converted to a higher frequency).
  • the texture included in the variation component of the color information changes randomly and finely, resulting in a grain close to the real thing. A small change in texture can be added to the output image.
  • this random number modulation it is possible to spread the frequency of low-frequency concentrated noise (so-called color spots) included in the fluctuation component of color information.
  • low-frequency concentrated noise such as spots is also eliminated from the pseudo-texture component, and the pseudo-texture component can be changed to a small-grain texture component. In this case, speckles and noticeable noise are reduced, and an image with a rich texture can be generated.
  • FIG. 1 is a flowchart illustrating an operation of the first embodiment.
  • FIG. 2 is a flowchart illustrating the operation of the second embodiment.
  • FIG. 3 is a block diagram showing a configuration of an electronic camera.
  • FIG. 1 is a flowchart illustrating an image processing program according to the first embodiment.
  • the computer captures the input image Vo to be processed.
  • the computer performs the following smoothing processing on the input image Vo to obtain a smoothed image VI.
  • (x, y) and (x ', y') in this expression are coordinates indicating the pixel position of the image.
  • ⁇ in this equation is a value that determines the amplitude range in which the smoothing is performed strongly, and It is preferable to set the amplitude to about the amplitude of the rule component.
  • R in the equation is a value that determines the radius of the smoothing, and it is preferable to set the radius to about the noise radius and the detail radius.
  • the weighting function W (d) does not have to be the above equation, but is preferably a monotonically decreasing function of the pixel difference
  • the computer obtains a fluctuation component Vh in the input image Vo by taking a difference between the input image Vo and the smoothing image VI.
  • Vh Vo (x, y) -Vl (x, y)... [2]
  • the computer branches the operation in accordance with the “variable component Vh processing modes 1 to 3” custom-set by the user in advance.
  • the computer multiplies the fluctuation component Vh by a proportional constant k smaller than 1 to generate a texture component Vh '.
  • Vh '(x, y) k-Vh (x, y)... [3]
  • the computer modulates the fluctuation component Vh in accordance with the global brightness indicated by the smoothed image VI using the following equation.
  • Step S7 is the upper limit of the pixel value, and is set to, for example, 255. After this processing, the computer shifts the operation to Step S8. [0024] Step S7:
  • the computer obtains the texture component V by multiplying the fluctuation component Vh by, for example, a random number S in the section [0, 1] or the section [ ⁇ 1, 1].
  • Vh '(x, y) S -Vh (x, y)... [5]
  • the random number S may be, for example, a random number such as white noise or a random number such as lZf noise.
  • the computer calo-calculates the processed texture component VI into the smoothed image VI according to the following formula to obtain an output image V2.
  • V2 (x, y) Vl (x, y) + Vh (x, y)... [6]
  • the fluctuation component is largely amplitude-modulated in the dark region of the smoothing image VI.
  • the texture is not conspicuous, and it is possible to obtain an output image V2 with a rich texture.
  • the fluctuation component is small and amplitude-modulated in the middle to bright regions where noise is noticeable. Therefore, an output image V2 with less noticeable noise can be obtained.
  • the fluctuation component is modulated by random numbers.
  • the spatial frequency of the fluctuation component can be spread.
  • the texture included in the fluctuation component changes randomly, and it is easy to give the output image V2 a randomly changed texture close to the real thing.
  • the noise contained in the fluctuation component is subjected to random number modulation to spread the spatial frequency component of the noise over a wide area.
  • noise that gives a noticeable impression is caused by noise biased to a specific spatial frequency band. Therefore, by using mode 3 to spread this noise in frequency, it is possible to eliminate noise concentration in a specific spatial frequency band, and to change the noise to small and less noticeable noise.
  • FIG. 2 is a flowchart illustrating an image processing program according to the second embodiment.
  • the operation of the second embodiment by the computer will be described along the step numbers shown in FIG.
  • the computer fetches an input image to be processed and obtains luminance information Lo and color information ao, bo of the input image.
  • the computer performs the following smoothing processing on the input image (Lo, ao, bo) to obtain a smoothed image (Ll, al, bl).
  • equations [9] and [11] may be implemented stepwise. In these equations [9] and [11], the smoothing process is executed in two stages of the horizontal and vertical directions of the screen.
  • the value der to determine the stronger subjected amplitude range blunt I spoon is, the amplitude of the noise amplitude to detail component It is preferable to set to about.
  • R in the formula is a value that determines the radius of the smoothing, and is preferably set to be about the noise radius or the detail radius.
  • weighting functions W, Wx, Wy do not have to be the above equations, but are preferably a monotonically decreasing function of the pixel difference
  • d a monotonically decreasing function of the weighting functions W, Wx, and Wy.
  • the computer takes the difference between the input image (Lo, ao, bo) and the smoothed image (Ll, al, bl) to calculate the fluctuation component (Lh , ah, bh).
  • ah (x, y) ao, x, y) —al, x, y)
  • the computer branches the operation in accordance with the “variable component (Lh, ah, bh) processing modes 1 to 3” which are custom-set by the user in advance.
  • the computer shifts the operation to step S25.
  • the computer shifts the operation to step S26.
  • the computer simulates the texture component Vh 'of the luminance information by weighted addition of the fluctuation component Lh of the luminance information and the fluctuation components ah and bh of the color information at a weight ratio (kl, ka, kb). Generated.
  • Vh '(x, y) klLh (x, y) + kaah (x, y) + kbbh (x, y)
  • the weighting ratio ka, kb of the color information can be determined by considering the visual effects of the fluctuation components ah, bh of the color information on the luminance (particularly the texture). It is preferable to make a decision through a subjective test or the like.
  • the computer performs modulation processing on the fluctuation component Lh of the luminance information and the fluctuation components ah and bh of the color information in accordance with the global brightness indicated by the luminance information L1 using the following equation.
  • Vh ' ⁇ x, y) t (Ll (x, y)) (Lh (x, y) + ah (x, y) + bh (x, y))
  • Vh '(x, y) t ⁇ L ⁇ ⁇ x, y)) Lh (x, nu) + tc (al (x, y), bl (x, j X "W, y) + bh ⁇ x , y)) ⁇ ⁇ ⁇ [18]
  • Amax and bmax in the equations are the upper limits of the color information al and bl.
  • step S28 After thus generating the texture component V of the luminance information in a pseudo manner, the computer shifts its operation to step S28.
  • the computer In this mode 3, the computer generates random numbers S 1 to S 3 in the section [0, 1] or the section [ ⁇ 1, 1] for the fluctuation component Lh of the luminance information and the fluctuation components ah, bh of the color information. Respectively By multiplying, the texture component VI of the luminance information is pseudo-generated.
  • Vh '(x, y) SILh (x, y) + S2ah (x, y) + S3bh (x, y)
  • the random numbers S1 to S3 may be random numbers such as white noise, or random numbers such as 1 Zf noise.
  • the computer adds the processed texture component VI to the luminance information L1 of the smoothed image according to the following equation to obtain an output image (L2, al, bl).
  • the texture component of the luminance information is pseudo-generated by multiplying the fluctuation components ah, bh of the color information al, bl by a predetermined ratio.
  • the change in color information can be reflected on the texture component of the luminance information, and the texture of the output image can be enriched.
  • the fluctuation component is largely amplitude-modulated in a dark region of the luminance information L1 after smoothing.
  • the texture can be particularly emphasized in a dark area where the texture is not conspicuous, and an output image with a rich texture can be obtained.
  • the amplitude of the fluctuation component is small-modulated in the middle to bright regions where noise is conspicuous. Therefore, an output image with less noticeable noise can be obtained.
  • the texture can be emphasized in a low-saturation area where the texture is not conspicuous, and an output image with a rich texture can be obtained.
  • the amplitude of the fluctuation component is small-modulated in the middle to high chroma region where noise is conspicuous. Therefore, an output image with less noticeable noise can be obtained.
  • the frequency component of the fluctuation component can be frequency-spread.
  • the texture included in the fluctuation component changes randomly and finely, and the texture that is randomly changed close to the real thing is added to the output image. It becomes possible to do.
  • a kind of dither effect can be added by adding the texture component Vh ′ that has been subjected to random number modulation. As a result, the gradation of the output image can be appropriately increased.
  • the variation component of the color information is converted into a texture component of the luminance information and added to the luminance information. Therefore, the color noise does not deviate.
  • the third embodiment is an embodiment of an electronic camera.
  • FIG. 3 is a block diagram showing the configuration of the present embodiment.
  • a photographing lens 12 is attached to an electronic camera 11.
  • the light receiving surface of the image sensor 13 is arranged in the image space of the taking lens 12.
  • the operation of the image sensor 13 is controlled by the output pulse of the timing generator 22b.
  • the image generated by the image sensor 13 is temporarily stored in the knocker memory 17 via the AZD converter 15 and the signal processor 16.
  • This buffer memory 17 is connected to a bus 18.
  • An image processing unit 19, a card interface 20, a microprocessor 22, a compression / decompression unit 23, and an image display unit 24 are connected to the bus 18.
  • the card interface 20 reads and writes data from and to the removable memory card 21.
  • the microprocessor 22 includes an electronic camera 11 A user operation signal is input from the switch group 22a. Further, the image display unit 24 displays an image on a monitor screen 25 provided on the back of the electronic camera 11.
  • the microprocessor 22 and the image processing unit 19 perform the texture enhancement (FIGS. 1 and 2 and the like) of the first and second embodiments.
  • Such texture enhancement may be performed on the image data at the time of imaging, or may be performed later on the image data recorded on the memory card 21.
  • an image processing server on the Internet may provide an image processing method as shown in FIGS. 1 and 2 as a service to image data transmitted from a user.
  • the texture enhancement is performed in the Lab color space.
  • the present invention is not limited to this.
  • similar texture enhancement may be performed in the HSV color space or other color spaces.
  • texture emphasis may be performed only on a part of the screen (a main subject, a person or a skin color region, a shaded portion, a trimming range, a background portion excluding a person or a skin color region, and the like).
  • a part of the screen a main subject, a person or a skin color region, a shaded portion, a trimming range, a background portion excluding a person or a skin color region, and the like.
  • the emphasis on the texture of the luminance is enhanced in the black and white portions and the low chroma portions.
  • the present invention is not limited to this. In general, it is preferable to determine a luminance region or a saturation region that enhances the texture while taking into account the adverse effect of an increase in noise.
  • one type of smoothing processing is performed.
  • a high-quality texture component can be generated by extracting the fluctuation component from the difference before and after the first smoothing process.
  • the texture component, for which the power of the fluctuation component is also obtained to the output of the second low-noise smoothing process, an output image with a high texture and a small noise can be obtained.
  • the present invention is a technique that can be used for an image processing program, an electronic camera, and the like.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

 本発明の画像処理装置は、画像データの色情報から局所的な変動成分を抽出する。この色情報の変動成分から、輝度情報の質感成分を擬似的に生成する。このように生成された質感成分を、輝度情報に加算する。この画像処理によって、質感を向上させた画像を生成する。                                                                             

Description

明 細 書
質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および 画像処理方法
技術分野
[0001] 本発明は、画像内の被写体の質感を強調する画像処理技術に関する。
背景技術
[0002] 従来、電子カメラを高感度 (例えば撮像素子の出力ゲインを上げる)に設定すると、 撮像画像のノイズが増し、ザヮザヮしたり、色斑のようなノイズが現れる。この種のノィ ズは、画像に平滑ィ匕処理を施すことによって軽減することができる。しかし、過度な平 滑化処理を行った場合、被写体の微細な画像構造が失われ、質感の乏しい画像に なる。
[0003] このような質感低下を補う装置として、下記の特許文献 1が知られている。
この特許文献 1では、画像データから微小振幅成分を抽出し、その微小振幅成分 を画像データに加算する。この従来技術により、いわゆる『シヮ強調』といった質感強 調が可能になる。
特許文献 1:日本出願の特開 2001— 118064号公報 (例えば図 5)
発明の開示
発明が解決しょうとする課題
[0004] ところで、特許文献 1の従来技術では、ノイズとして除去すべき微小振幅成分まで 画像データにそのまま加算する。そのため、被写体の表面がノイズによってザヮザヮ したり、色斑ノイズが現れると 、つた問題点があった。
そこで、本発明は、ノイズ感の悪化を防止しつつ、画像の質感を強調する画像処理 技術を提供することを目的とする。
課題を解決するための手段
[0005] 《1》
本発明の画像処理装置は、輝度情報および色情報を含む画像データに画像処理 を施す画像処理装置であって、下記の変動抽出部、変換部、および加算部を備える 変動抽出部は、画像データの色情報から局所的な変動成分を抽出する。
変換部は、色情報の変動成分から、輝度情報の質感成分を擬似的に生成する。 加算部は、生成された質感成分を、輝度情報に加算する。
[0006] 《2》
なお好ましくは、変動抽出部は、平滑ィ匕部および差分部を備える。この平滑ィ匕部は 、画像データに平滑化処理を行い、平滑化成分を抽出する。一方、差分部は、画像 データと平滑化成分の差分から、局所的な変動成分を求める。この場合、変換部は
、平滑化成分の値に応じて、変動成分を変調することにより、質感成分を生成する。
[0007] 《3》
また好ましくは、変換部は、乱数値に応じて変動成分を変調することにより、質感成 分を生成する。
[0008] 《4》
なお好ましくは、変換部は、輝度情報に応じて『色情報の変動成分』を変調すること により、輝度情報の質感成分を擬似的に生成する。
[0009] 《5》
また好ましくは、変動抽出部は、第 1平滑化部、第 2平滑化部、および差分部を備 える。
第 1平滑ィ匕部は、視覚感度の高い空間周波数帯域を平滑ィ匕する。
第 2平滑化部は、ノイズ帯域を平滑化する。
差分部は、第 1平滑ィ匕部による平滑ィ匕前後の差分を取って変動成分を生成する。 一方、加算部は、生成された質感成分を、第 2平滑ィ匕部の出力に加算する。
[0010] 《6》
本発明の電子カメラは、上記《1》ないし《5》のいずれか 1項に記載の画像処理装置 と、被写体を撮像して画像データを生成する撮像部とを備える。この場合、撮像部で 生成される画像データは、画像処理装置によって処理される。
[0011] 《7》
本発明の画像処理プログラムは、コンピュータを、上記《1》ないし《5》のいずれか 1 項に記載の前記変動抽出部、前記変換部、および前記加算部として機能させる。
[0012] 《8》
本発明の画像処理方法は、輝度情報および色情報を含む画像データに画像処理 を施す画像処理方法であって、下記の動作ステップを実行する。
変動抽出ステップでは、画像データの色情報力 局所的な変動成分を抽出する。 変換ステップでは、色情報の変動成分から、輝度情報の質感成分を擬似的に生成 する。
カロ算ステップでは、生成された質感成分を輝度情報に加算する。
発明の効果
[0013] 本発明では、まず、画像データの色情報から局所的な変動成分を抽出する。この 変動成分には、画像の質感表現を決定する重要なディテール情報が含まれる。そこ で、この色情報の変動成分をディテール素材として利用して、輝度情報の質感成分 を擬似的に生成する。このように色情報から生成された疑似質感成分を輝度情報に 加算する。このような処理により、色情報の変動を輝度情報の質感成分に反映させる ことが可能になり、輝度情報の質感表現を豊かにすることが可能になる。
[0014] なお好ましくは、輝度情報の明暗に応じて、色情報力 生成される擬似的な質感成 分を増減変調させる。この処理により、ノイズの目立ちにくい階調域において、擬似 的な質感成分の加算量を増やし、ノイズの目立ちやすい階調域において、擬似的な 質感成分の加算量を削減することが可能になる。この場合、ノイズ感が少なぐかつ 質感の豊カな画像を生成することが可能になる。
[0015] また好ましくは、色情報の信号レベルに応じて、色情報から生成される擬似的な質 感成分を増減変調させる。この処理により、質感の目立ちにくい低彩度域において、 擬似的な質感成分の加算量を増やし、ノイズの目立ちやすい高彩度域において、擬 似的な質感成分の加算量を削減することが可能になる。この場合、色ノイズが少なく 、かつ質感の豊かな画像を生成することが可能になる。
[0016] なお好ましくは、色情報の変動成分を乱数変調する。この処理により、変動成分の 周波数成分を周波数拡散 (もしくは周波数を高域に変換)させることができる。この場 合、色情報の変動成分に含まれる質感がランダムに細力べ変化し、実物に近い粒の 小さな質感変化を出力画像に付加することが可能になる。また、この乱数変調では、 色情報の変動成分に含まれる低域集中のノイズ (いわゆる色斑)を周波数拡散するこ とが可能になる。その結果、擬似的な質感成分にも、斑模様のような低域集中ノイズ が無くなり、粒の小さな質感成分に変化させることができる。この場合、斑模様といつ た目に付くノイズが少なくなり、かつ質感の豊かな画像を生成することが可能になる。 なお、本発明における上述した目的およびそれ以外の目的は、以下の説明と添付 図面とによって容易に確認することができる。
図面の簡単な説明
[0017] [図 1]第 1実施形態の動作を説明する流れ図である。
[図 2]第 2実施形態の動作を説明する流れ図である。
[図 3]電子カメラの構成を示すブロック図である。
発明を実施するための最良の形態
[0018] 《第 1実施形態》
図 1は、第 1実施形態における画像処理プログラムを説明する流れ図である。
以下、図 1に示すステップ番号に沿って、コンピュータによる第 1実施形態の動作を 説明する。
[0019] ステップ S1 :
コンピュータは、処理対象の入力画像 Voを取り込む。
ステップ S 2 :
コンピュータは、入力画像 Voに対して、下式の平滑ィ匕処理を実施し、平滑化画像 VIを得る。
[数 1]
∑ — - ϋ ( ') … ]
,y ∑ — Σ (。( ') - ))
ただし、
Figure imgf000006_0001
なお、この式中の (x,y)、(x',y')は、画像の画素位置を示す座標である。また、この式 中の σは、平滑ィ匕を強く施す振幅範囲を決定する値であり、ノイズ振幅ないしディテ ール成分の振幅程度に設定することが好ましい。さらに、式中の Rは、平滑化の半径 を決める値であり、ノイズ半径な ヽしディテール半径程度に設定することが好ま ヽ。 また、重み関数 W(d)は、上式でなくともよいが、画素差 |d|の単調減少関数であること が好ましい。例えば、 W(d)≡ l/ (d2/ σ 2+ 1)としてもよい。
[0020] ステップ S3 :
次に、コンピュータは、入力画像 Voと平滑ィ匕画像 VIとの差分をとつて、入力画像 V o中の変動成分 Vhを得る。
Vh=Vo(x,y)-Vl(x,y) … [2]
[0021] ステップ S4 :
ここで、コンピュータは、予めユーザーによりカスタム設定された『変動成分 Vhの処 理モード 1〜3』に応じ、動作を分岐する。
まず、モード 1の場合、コンピュータはステップ S5に動作を移行する。
また、モード 2の場合、コンピュータはステップ S6に動作を移行する。
さらに、モード 3の場合、コンピュータはステップ S7に動作を移行する。
[0022] ステップ S 5 :
このモード 1において、コンピュータは、変動成分 Vhに対して、 1より小さな比例定 数 kを乗じて、質感成分 Vh' を生成する。
Vh' (x,y) = k-Vh(x,y) … [3]
この処理後、コンピュータはステップ S8に動作を移行する。
[0023] ステップ S6 :
このモード 2において、コンピュータは、下式を用いて、平滑化画像 VIが示す大域 的な明暗に従って、変動成分 Vhに変調処理を施す。
[数 2]
vh\x,y) = ί ( 1( )) (ズ, ) … [4]
Figure imgf000007_0001
なお、式中の Vmaxは、画素値の上限値であり、例えば 255に設定される。 この処理後、コンピュータはステップ S8に動作を移行する。 [0024] ステップ S 7 :
このモード 3において、コンピュータは、変動成分 Vhに対して、例えば、区間 [0, 1] または区間 [— 1, 1]の乱数 Sを乗じて、質感成分 V を得る。
Vh' (x,y) = S -Vh(x,y) … [5]
なお、この乱数 Sとしては、例えば、ホワイトノイズのような乱数でもよいし、 lZfノィ ズのような乱数でもよい。
この処理後、コンピュータはステップ S8に動作を移行する。
[0025] ステップ S8 :
コンピュータは、下式に従って、処理済みの質感成分 VI を平滑化画像 VIにカロ 算し、出力画像 V2を得る。
V2(x,y)=Vl(x,y)+Vh (x,y) … [6]
[0026] 《第 1実施形態の効果など》
以下、第 1実施形態が奏する効果について説明する。
上述したモード 2では、平滑ィ匕画像 VIの暗い領域において、変動成分を大きく振 幅変調する。その結果、質感の目立ちにくい暗領域において質感を強調することが 可能になり、質感の豊かな出力画像 V2を得ることができる。
[0027] また、モード 2では、ノイズの目立ちやすい中〜明領域において、変動成分を小さく 振幅変調する。したがって、ノイズの目立たない出力画像 V2を得ることができる。
[0028] また一方、上述したモード 3では、変動成分を乱数によって変調する。その結果、変 動成分の空間周波数を周波数拡散させることができる。この場合、変動成分に含ま れる質感がランダムに変化し、実物に近いランダム変化した質感を出力画像 V2に付 カロすることがでさる。
[0029] また、このモード 3では、変動成分に含まれるノイズを乱数変調することにより、ノィ ズの空間周波数成分を広域に周波数拡散させる。通常、ザヮザヮした印象の目立つ ノイズは、特定の空間周波数帯域に偏ったノイズによって生じる。そこで、モード 3を 用いて、このノイズを周波数拡散させることで、特定の空間周波数帯域へのノイズ集 中を解消し、粒の小さな目立ちにくいノイズに変化させることが可能になる。
[0030] その上、乱数変調された質感成分 Vh' を画像データに加算することにより、一種 のディザ効果が得られる。このディザ効果によって出力画像 V2の階調感を適度に高 めることも可會 になる。
[0031] 特に、 lZfノイズで変調した場合には、特定の空間周波数に偏った不自然なノイズ を、自然界によく見られる周波数揺らぎに変調することが可能になる。その結果、不 自然で目立つノイズから、より自然な(例えば銀塩フィルムの粒状感に似た)ノイズに 変換することが可能になる。更にこの自然なディザ効果を画像データに付加すること で、出力画像 V2の階調感を、一段と自然な印象に近づけることが可能になる。 次に、別の実施形態について説明する。
[0032] 《第 2実施形態》
図 2は、第 2実施形態における画像処理プログラムを説明する流れ図である。 以下、図 2に示すステップ番号に沿って、コンピュータによる第 2実施形態の動作を 説明する。
[0033] ステップ S21 :
コンピュータは、処理対象の入力画像を取り込み、この入力画像の輝度情報 Loお よび色情報 ao,boを得る。
[0034] ステップ S22 :
コンピュータは、入力画像 (Lo,ao,bo)に対して、下式の平滑ィ匕処理を実施し、平滑 化画像 (Ll,al,bl)を得る。
[数 3]
Figure imgf000009_0001
••• [7]
ただし、 · ' · [8]
Figure imgf000009_0002
なお、上記の [7]式に代えて、 [9]式および [11]式を段階的に実施してもよい。こ れら [9]式および [11]式では、画面の水平方向および垂直方向の二段階に分けて 平滑化処理を実行して!/、る。
Figure imgf000010_0001
[数 5]
Figure imgf000010_0002
… [11]
ただし、
(A ^ ≡exp - 1 1 I - . - [12]
V. <^V ソ
かつ σχ≥σγ · · . [13] なお、これら式中の σ , σ χ, σ yは、平滑ィ匕を強く施す振幅範囲を決定する値であ り、ノイズ振幅ないしディテール成分の振幅程度に設定することが好ましい。さらに、 式中の Rは、平滑ィ匕の半径を決める値であり、ノイズ半径ないしディテール半径程度 に設定することが好ましい。
また、重み関数 W, Wx, Wyは、上式でなくともよいが、画素差 |d|の単調減少関数 であることが好ましい。例えば、下式の単調減少関数を、重み関数 W, Wx, Wyに使 用してちょい。 [数 6]
W{d\,d2,d )ョ广———— - ~ ^ · . . [14]
dl2 +d22 + d32 , なお、これら式中のパラメータについては、各成分のチャンネルごとに、視覚的な影 響を考慮して値を変更することが好ま 、。
[0035] ステップ S23 :
次に、コンピュータは、入力画像 (Lo,ao,bo)と平滑ィ匕画像 (Ll,al,bl)との差分をとつ て、入力画像 (Lo,ao,bo)中の変動成分 (Lh,ah,bh)を得る。
Lh(x,y)=Lo(x,y)-Ll(x,y)
ah(x,y)=ao、x,y)— al、x,y)
bh(x,y)=bo、x,y)- b l(x,y
•••[15]
[0036] ステップ S 24 :
ここで、コンピュータは、予めユーザーによりカスタム設定された『変動成分 (Lh,ah,b h)の処理モード 1〜3』に応じて、動作を分岐する。
まず、モード 1の場合、コンピュータはステップ S25に動作を移行する。 また、モード 2の場合、コンピュータはステップ S26に動作を移行する。
さらに、モード 3の場合、コンピュータはステップ S27に動作を移行する。
[0037] ステップ S25 :
このモード 1において、コンピュータは、輝度情報の変動成分 Lhと、色情報の変動 成分 ah,bhを加重比率 (kl,ka,kb)で加重加算することにより、輝度情報の質感成分 Vh ' を擬似的に生成する。
Vh' (x,y)=kl · Lh(x,y)+ka · ah(x,y)+kb · bh(x,y) · · · [ 16]
例えば、式中の加重比率は、
kl=ka=kb = 0. 5
に設定することが好ましい。
また例えば、式中の加重比率を、 kl=0. 35、
ka=0. 1、
kb = 0. 05
のように個別に決定してもよ!/、。
なお、色情報の加重比率 ka,kbについては、色情報の変動成分 ah,bhが、輝度 (特 に質感)に与える視覚的な影響を考慮して定めればよぐ具体的には画質の主観テ ストなどを経て決定することが好まし 、。
この処理後、コンピュータはステップ S 28に動作を移行する。
[0038] ステップ S 26 :
このモード 2において、コンピュータは、下式を用いて、輝度情報 L1が示す大域的 な明暗に従って、輝度情報の変動成分 Lhと、色情報の変動成分 ah,bhに変調処理を 施す。
[数 7]
Vh'{x, y) = t(Ll(x, y))(Lh(x, y) + ah(x, y) + bh(x, y)) · · · [17]
ί 1 L > 0.751 max
†-だし ヽ≡ <
" " ' (Lmax- L)/(0.25Lmax) L < 0.75Lmax 式中の Lmaxは、輝度情報 Lの上限値であり、例えば 255に設定される。 なお、色情報の変動成分 ah,bhについては、下式のように色情報 al,blで変調しても よい。
[数 8]
Vh'(x,y) = t{L\{x, y))Lh(x,ヌ) + tc(al(x, y),bl(x, j X"Wズ, y) + bh{x,y)) · · · [18]
I α I + 1 i |> (amax+ ¾max) / 4
たたし、 | a | + | 6 |< (απΐ3χ+ διη3χ)/ 4
Figure imgf000012_0001
式中の amax、 bmaxは、色情報 al、 blの上限値である。
このようにして、輝度情報の質感成分 V を擬似的に生成した後、コンピュータは ステップ S28に動作を移行する。
[0039] ステップ S27 :
このモード 3において、コンピュータは、輝度情報の変動成分 Lhと、色情報の変動 成分 ah,bhとに対して、区間 [0, 1]または区間 [― 1, 1]の乱数 S 1〜S3をそれぞれ 乗じて、輝度情報の質感成分 VI を擬似的に生成する。
Vh' (x,y) = SI · Lh(x,y)+S2 · ah(x,y)+S3 · bh(x,y) · · · [ 19]
なお、この乱数 S1〜S3としては、例えば、ホワイトノイズのような乱数でもよいし、 1 Zfノイズのような乱数でもよ 、。
この処理後、コンピュータはステップ S 28に動作を移行する。
[0040] ステップ S 28 :
コンピュータは、下式に従って、処理済みの質感成分 VI を平滑化画像の輝度情 報 L1に加算し、出力画像 (L2,al,bl)を得る。
L2(x,y) = Ll(x,y)+Vh (x,y) … [20]
[0041] 《第 2実施形態の効果など》
上述したモード 1では、色情報 al,blの変動成分 ah,bhに所定比率を乗算することに より、輝度情報の質感成分を擬似的に生成する。その結果、色情報の変動を輝度情 報の質感成分に反映することが可能になり、出力画像の質感を豊かにすることができ る。
[0042] また、上述したモード 2の [17]式では、平滑化後の輝度情報 L1の暗い領域におい て、変動成分を大きく振幅変調する。その結果、質感の目立ちにくい暗領域におい て質感を特に強調することが可能になり、質感の豊かな出力画像を得ることができる 。その一方、 [17]式では、ノイズの目立ちやすい中〜明領域において、変動成分を 小さく振幅変調する。したがって、ノイズの目立たない出力画像を得ることができる。
[0043] また、上述したモード 2の [18]式では、平滑化後の色情報 al,blの絶対値が小さい ほど、変動成分を大きく振幅変調する。その結果、質感の目立ちにくい低彩度の領 域において質感を強調することが可能になり、質感の豊かな出力画像を得ることがで きる。その一方、 [18]式では、ノイズの目立ちやすい中〜高彩度の領域において、 変動成分を小さく振幅変調する。したがって、ノイズの目立たない出力画像を得ること ができる。
[0044] さらに、上述したモード 3では、変動成分を乱数によって変調することにより、変動成 分の周波数成分を周波数拡散させることができる。この場合、変動成分に含まれる質 感がランダムに細力べ変化し、実物に近いランダム変動した質感を出力画像に付カロ することが可能になる。
[0045] また、変動成分に含まれるノイズについては、モード 3で乱数変調することにより、目 立ちやすい空間周波数低域のノイズ (色斑)を高域へ周波数拡散することが可能に なる。その結果、粒の小さな目立ちにくいノイズに変化させることが可能になる。
[0046] その上、乱数変調された質感成分 Vh' を加算することにより、一種のディザ効果を 付加することができる。その結果、出力画像の階調感を適度に高めることも可能にな る。
[0047] 特に、 lZfノイズで変調した場合には、特定の空間周波数に偏った不自然なノイズ を、自然界によく見られるノイズの周波数揺らぎに変調することが可能になる。その結 果、不自然で目立つノイズ (色斑ノイズ)から、より自然な (例えばフィルムの粒状感に 似た)輝度ノイズに変換することが可能になる。その上、この自然なディザ効果が付加 されることにより、出力画像の階調感を、更に自然な印象に近づけることが可能にな る。
[0048] また、第 2実施形態では、色情報の変動成分を、輝度情報の質感成分に変換して 輝度情報に加算する。したがって、色ノイズは悪ィ匕しない。
次に、別の実施形態について説明する。
[0049] 《第 3実施形態》
第 3実施形態は、電子カメラの実施形態である。
図 3は、本実施形態の構成を示すブロック図である。
図 3において、電子カメラ 11には、撮影レンズ 12が装着される。この撮影レンズ 12 の像空間には、撮像素子 13の受光面が配置される。この撮像素子 13は、タイミング ジェネレータ 22bの出力パルスによって動作が制御される。
[0050] この撮像素子 13で生成される画像は、 AZD変換部 15および信号処理部 16を介 して、ノッファメモリ 17に一時記憶される。
このバッファメモリ 17は、バス 18に接続される。このバス 18には、画像処理部 19、 カードインターフェース 20、マイクロプロセッサ 22、圧縮伸張部 23、および画像表示 部 24が接続される。この内、カードインターフェース 20は、着脱自在なメモリカード 2 1に対するデータの読み書きを行う。また、マイクロプロセッサ 22には、電子カメラ 11 のスィッチ群 22aからユーザー操作の信号が入力される。さらに、画像表示部 24は、 電子カメラ 11の背面に設けられたモニタ画面 25に画像を表示する。
[0051] このような構成の電子カメラ 11は、マイクロプロセッサ 22および画像処理部 19によ つて、第 1〜第 2の実施形態の質感強調(図 1〜図 2など)が実行される。
このような質感強調は、撮像時の画像データに対して実施してもよいし、メモリカー ド 21に記録された画像データに対して後から実施してもよい。
[0052] 《実施形態の補足事項》
なお、上述した実施形態では、ユーザーがコンピュータまたは電子カメラを用いて、 質感強調を実施する場合について説明した。しかしながら、本発明はこれに限定さ れるものではない。例えば、本発明を ASICその他のハードウェアで実現することもで きる。また例えば、インターネット上の画像処理サーバーにおいて、ユーザーから伝 送される画像データに対して、図 1〜図 2に示すような画像処理方法をサービスとし て提供してもよい。
[0053] また、上述した実施形態では、 Lab色空間にお 、て質感強調を実施するケースに ついて説明した。しかしながら、本発明はこれに限定されるものではない。例えば、 H SV色空間その他の色空間上において、同様の質感強調を実施してもよい。
[0054] なお、上述した実施形態では、定められた色域をはみ出さないよう、質感強調後に 各成分の信号レベルに対して制限処理を行うことが好ましい。
[0055] なお、上述した実施形態では、画面全体に対して質感強調を実施するケースにつ いて説明した。しかしながら、本発明はこれに限定されるものではない。
[0056] 例えば、画面の一部(主要被写体、人物や肌色領域、陰影部、トリミング範囲、人物 や肌色領域を除いた背景部分など)に限って、質感強調を実施してもよい。この場合 、画面全体におけるノイズ増加の悪影響を避けつつ、画面内の特定箇所の質感を効 果的に強調することが可能になる。
[0057] また、上述した実施形態では、喑 、部分や低彩度部分にっ 、て、輝度の質感強調 を強めている。しかしながら、本発明はこれに限定されるものではない。一般的には、 ノイズ増加の悪影響を勘案しながら、質感を高める輝度域や彩度域を決定することが 好ましい。 [0058] なお、上述した実施形態では、 1種類の平滑ィ匕処理を実施している。しかしながら、 本発明はこれに限定されるものではない。例えば、視覚感度の高い空間周波数の中 域を平滑ィ匕する第 1平滑ィ匕処理 (例えば、平滑ィ匕半径 R=8)と、ノイズ帯域を平滑化 する第 2平滑化処理 (例えば、平滑ィ匕半径 R=4)をそれぞれ実施してもよい。この場 合、第 1平滑化処理の前後差分から変動成分を抽出することで、良質な質感成分を 生成できる。また、この変動成分力も求めた質感成分を、低ノイズの第 2平滑化処理 の出力に加算することにより、質感が高ぐかつノイズ感の少ない出力画像を得ること ができる。
[0059] なお、本発明は、その精神または主要な特徴力 逸脱することなぐ他のいろいろ な形で実施することができる。そのため、前述の実施形態はあらゆる点で単なる例示 に過ぎず、限定的に解釈してはならない。本発明の範囲は、特許請求の範囲によつ て示すものであって、明細書本文には、なんら拘束されない。さら〖こ、特許請求の範 囲の均等範囲に属する変形や変更は、すべて本発明の範囲内のものである。
産業上の利用可能性
[0060] 以上説明したように、本発明は、画像処理プログラムや電子カメラなどに利用可能 な技術である。

Claims

請求の範囲
[1] 輝度情報および色情報を含む画像データに画像処理を施す画像処理装置であつ て、
前記画像データの前記色情報から局所的な変動成分を抽出する変動抽出部と、 前記色情報の変動成分から、輝度の質感成分を擬似的に生成する変換部と、 前記質感成分を、前記輝度情報に加算する加算部と
を備えたことを特徴とする画像処理装置。
[2] 請求項 1に記載の画像処理装置において、
前記変動抽出部は、
画像データに平滑化処理を行 ヽ、平滑化成分を抽出する平滑化部と、 前記画像データと前記平滑化成分の差分から、局所的な変動成分を求める差分 部とを備え、
前記変換部は、前記平滑化成分の値に応じて前記変動成分を変調することにより 、前記質感成分を生成する
ことを特徴とする画像処理装置。
[3] 請求項 1に記載の画像処理装置において、
前記変換部は、乱数値に応じて前記変動成分を変調することにより、前記質感成 分を生成する
ことを特徴とする画像処理装置。
[4] 請求項 1に記載の画像処理装置において、
前記変換部は、前記輝度情報に応じて、前記色情報の変動成分を変調することに より、前記輝度情報の質感成分を擬似的に生成する
ことを特徴とする画像処理装置。
[5] 請求項 1な!、し請求項 4の 、ずれか 1項に記載の画像処理装置にお!/、て、
前記変動抽出部は、
視覚感度の高い空間周波数帯域を平滑化する第 1平滑化部と、
ノイズ帯域を平滑化する第 2平滑化部と、
前記第 1平滑化部による平滑化前後の差分を取って変動成分を生成する差分部と を備え、
前記加算部は、
前記質感成分を、前記第 2平滑化部の出力に加算する
ことを特徴とする画像処理装置。
[6] 請求項 1な!、し請求項 5の 、ずれか 1項に記載の画像処理装置と、
被写体を撮像して画像データを生成する撮像部とを備え、
前記撮像部で生成される前記画像データを前記画像処理装置で処理する ことを特徴とする電子カメラ。
[7] コンピュータを、請求項 1ないし請求項 5のいずれ力 1項に記載の前記変動抽出部
、前記変換部、および前記加算部として機能させるための画像処理プログラム。
[8] 輝度情報および色情報を含む画像データに画像処理を施す画像処理方法であつ て、
前記画像データの前記色情報から局所的な変動成分を抽出する変動抽出ステツ プと、
前記色情報の変動成分から、前記輝度情報の質感成分を疑似的に生成する変換 ステップと、
前記質感成分を前記輝度情報に加算する加算ステップと
を備えたことを特徴とする画像処理方法。
PCT/JP2005/011327 2004-06-22 2005-06-21 質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法 WO2005125179A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US11/629,794 US7924288B2 (en) 2004-06-22 2005-06-21 Image processing device emphasizing on texture, image processing program, electronic camera, and image processing method
EP05753504.9A EP1775936A4 (en) 2004-06-22 2005-06-21 PICTURE PROCESSING DEVICE CONFIRMING TEXTURE, PICTURE PROCESSING PROGRAM, ELECTRONIC CAMERA AND PICTURE PROCESSING METHOD
JP2006514831A JP4595939B2 (ja) 2004-06-22 2005-06-21 質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004184208 2004-06-22
JP2004-184208 2004-06-22

Publications (1)

Publication Number Publication Date
WO2005125179A1 true WO2005125179A1 (ja) 2005-12-29

Family

ID=35510119

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/011327 WO2005125179A1 (ja) 2004-06-22 2005-06-21 質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法

Country Status (4)

Country Link
US (1) US7924288B2 (ja)
EP (1) EP1775936A4 (ja)
JP (1) JP4595939B2 (ja)
WO (1) WO2005125179A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007097125A1 (ja) 2006-02-27 2007-08-30 Nikon Corporation 画像の質感を補正する画像処理装置、画像処理プログラム、画像処理方法、および電子カメラ
JP2011022656A (ja) * 2009-07-13 2011-02-03 Nikon Corp 画像処理装置及び画像処理プログラム
JP2012222616A (ja) * 2011-04-08 2012-11-12 Nikon Corp 画像処理装置、撮像装置およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8254716B2 (en) * 2007-12-12 2012-08-28 Intel Corporation Method for adaptive image enhancement

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236675A (ja) * 1988-07-27 1990-02-06 Nec Corp 画像強調方法及び回路
JPH07170428A (ja) * 1993-01-19 1995-07-04 Matsushita Electric Ind Co Ltd 画像表示方法およびその装置
JPH09154044A (ja) * 1995-09-25 1997-06-10 Matsushita Electric Ind Co Ltd 画像表示方法及びその装置
JPH10210324A (ja) * 1997-01-20 1998-08-07 Olympus Optical Co Ltd 画像処理装置
JP2001245178A (ja) * 2000-03-01 2001-09-07 Nec Corp 画像信号処理装置及びその処理方法
JP2002044678A (ja) * 2000-07-19 2002-02-08 Sony Corp カラー映像信号変換装置
JP2002290772A (ja) * 2001-03-23 2002-10-04 Nec Viewtechnology Ltd 画質改善装置および画質改善方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0576034A (ja) 1991-09-10 1993-03-26 Toshiba Corp 画像信号処理装置
US5760843A (en) 1993-01-19 1998-06-02 Matsushita Electric Industrial Co., Ltd. Method and apparatus for contrast processing a video signal including brightness level compensation
JP3196423B2 (ja) 1993-06-03 2001-08-06 松下電器産業株式会社 高彩度画像ディテール補償回路
JP3381755B2 (ja) * 1994-10-11 2003-03-04 セイコーエプソン株式会社 画像の粒状性を減らすための改良された適応性のあるフィルタリングおよび閾値設定の方法及び装置
JPH11250246A (ja) * 1998-02-27 1999-09-17 Fuji Photo Film Co Ltd 画像処理方法および装置
US6667815B1 (en) * 1998-09-30 2003-12-23 Fuji Photo Film Co., Ltd. Method and apparatus for processing images
JP4626007B2 (ja) 1999-06-14 2011-02-02 株式会社ニコン 画像処理方法、画像処理プログラムを記録した機械読み取り可能な記録媒体、および画像処理装置
JP3319727B2 (ja) 1999-10-20 2002-09-03 日本放送協会 画像処理装置
JP4666274B2 (ja) * 2001-02-20 2011-04-06 日本電気株式会社 カラー画像処理装置及びその方法
JP2005508306A (ja) 2001-07-23 2005-03-31 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニバーシティ 哺乳類における遺伝子発現のRNAiによる阻害に関する方法および組成物
JP4197858B2 (ja) * 2001-08-27 2008-12-17 富士通株式会社 画像処理プログラム
US7292733B2 (en) 2002-10-16 2007-11-06 Matsushita Electric Industrial Co., Ltd. Image processing apparatus and image processing method
EP1708490B1 (en) 2003-12-03 2013-02-13 Nikon Corporation Image processing device for controlling intensity of noise removal in a screen, image processing program, image processing method, and electronic camera
JP4385748B2 (ja) 2003-12-05 2009-12-16 パナソニック株式会社 画像信号処理装置及び画像信号処理方法
US7382915B2 (en) 2004-03-16 2008-06-03 Xerox Corporation Color to grayscale conversion method and apparatus
JP4468734B2 (ja) 2004-04-27 2010-05-26 オリンパス株式会社 映像信号処理装置と映像信号処理プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0236675A (ja) * 1988-07-27 1990-02-06 Nec Corp 画像強調方法及び回路
JPH07170428A (ja) * 1993-01-19 1995-07-04 Matsushita Electric Ind Co Ltd 画像表示方法およびその装置
JPH09154044A (ja) * 1995-09-25 1997-06-10 Matsushita Electric Ind Co Ltd 画像表示方法及びその装置
JPH10210324A (ja) * 1997-01-20 1998-08-07 Olympus Optical Co Ltd 画像処理装置
JP2001245178A (ja) * 2000-03-01 2001-09-07 Nec Corp 画像信号処理装置及びその処理方法
JP2002044678A (ja) * 2000-07-19 2002-02-08 Sony Corp カラー映像信号変換装置
JP2002290772A (ja) * 2001-03-23 2002-10-04 Nec Viewtechnology Ltd 画質改善装置および画質改善方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1775936A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007097125A1 (ja) 2006-02-27 2007-08-30 Nikon Corporation 画像の質感を補正する画像処理装置、画像処理プログラム、画像処理方法、および電子カメラ
EP1991008A1 (en) * 2006-02-27 2008-11-12 Nikon Corporation Image processing device for correcting image massive feeling, image processing program, image processing method, and electronic camera
EP1991008A4 (en) * 2006-02-27 2012-04-18 Nikon Corp IMAGE PROCESSING DEVICE FOR CORRECTING MASSIVE IMAGE PERCEPTION, IMAGE PROCESSING PROGRAM AND METHOD, AND ELECTRONIC CAMERA
JP2011022656A (ja) * 2009-07-13 2011-02-03 Nikon Corp 画像処理装置及び画像処理プログラム
JP2012222616A (ja) * 2011-04-08 2012-11-12 Nikon Corp 画像処理装置、撮像装置およびプログラム

Also Published As

Publication number Publication date
JP4595939B2 (ja) 2010-12-08
EP1775936A4 (en) 2016-05-11
EP1775936A1 (en) 2007-04-18
US7924288B2 (en) 2011-04-12
JPWO2005125179A1 (ja) 2008-04-17
US20070252845A1 (en) 2007-11-01

Similar Documents

Publication Publication Date Title
JP4902837B2 (ja) モノクロ画像への変換方法
JP4831067B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム製品、および撮像装置
EP1302898B1 (en) System and method for digital image tone mapping using an adaptive sigmoidal function based on perceptual preference guidelines
KR100849845B1 (ko) 영상 보정 방법 및 장치
US7755670B2 (en) Tone-conversion device for image, program, electronic camera, and tone-conversion method
JP4479527B2 (ja) 画像処理方法、画像処理装置、画像処理プログラム、および電子カメラ
KR101700362B1 (ko) 영상 처리 방법 및 영상 처리 장치
JP2010039758A (ja) 画像処理装置及び画像処理方法
WO2005125174A1 (ja) 画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
JP2006114005A (ja) 階調変換装置、プログラム、電子カメラ、およびその方法
JP4992433B2 (ja) 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
CN102339461A (zh) 图像增强方法和设备
US6408103B1 (en) Method for preserving spatial detail and color content when adjusting the tone scale of a digital color image
JP2004326082A5 (ja)
JP2004326082A (ja) 表示制御装置及び表示装置
WO2005125179A1 (ja) 質感を強調する画像処理装置、画像処理プログラム、電子カメラ、および画像処理方法
JP4752912B2 (ja) 画像の質感を補正する画像処理装置、画像処理プログラム、画像処理方法、および電子カメラ
JP5234127B2 (ja) 階調変換装置、プログラム、電子カメラ、及びその方法
JPH06339017A (ja) カラー画像の彩度強調方法及び装置
JP2876934B2 (ja) 画像のコントラスト強調方法及び装置
Kerofsky et al. Improved adaptive video delivery system using a perceptual pre-processing filter
JP2006114006A (ja) 階調変換装置、プログラム、電子カメラ、およびその方法
JP7277156B2 (ja) 画像処理装置及び画像処理方法、プログラム
JP2012010227A (ja) 画像処理装置、画像処理方法
JP2708806B2 (ja) ノイズキャンセル回路

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2006514831

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 11629794

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

REEP Request for entry into the european phase

Ref document number: 2005753504

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2005753504

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005753504

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11629794

Country of ref document: US