WO2009093386A1 - 画像処理装置、画像処理プログラム、画像処理プログラムを記憶したコンピュータ読取り可能な記憶媒体、及び画像処理方法 - Google Patents

画像処理装置、画像処理プログラム、画像処理プログラムを記憶したコンピュータ読取り可能な記憶媒体、及び画像処理方法 Download PDF

Info

Publication number
WO2009093386A1
WO2009093386A1 PCT/JP2008/072358 JP2008072358W WO2009093386A1 WO 2009093386 A1 WO2009093386 A1 WO 2009093386A1 JP 2008072358 W JP2008072358 W JP 2008072358W WO 2009093386 A1 WO2009093386 A1 WO 2009093386A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
component
edge
component image
gain
Prior art date
Application number
PCT/JP2008/072358
Other languages
English (en)
French (fr)
Inventor
Hideya Aragaki
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Publication of WO2009093386A1 publication Critical patent/WO2009093386A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • H04N1/4092Edge or detail enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an image, and more particularly to an image w for improving the image quality.
  • This technique is widely used to improve image quality with high accuracy by separating an image signal into a plurality of frequency components, performing appropriate processing according to the characteristics of each component, and then combining the two. For example, if® image The resolution can be improved by separating the signal into high-frequency and low-frequency components and then performing enhancement processing on the high-frequency components. In addition, by performing gradation conversion processing on low-frequency components, it is possible to suppress noise amplification and perform transformations with the edge components in mind.
  • JP2003-337942 A a high-frequency component is obtained by subtracting a wave component created by applying the multi-ring bell transformation to a customer image from the image. It is disclosed that eleven sheep are sharpened by adding the high frequency components to the TO image.
  • J ⁇ 4-45486 A the degradation of is suppressed by combining the ⁇ E wave component of the gradation ⁇ signal that is ⁇ 3 ⁇ 4E with the input signal and the high frequency extracted from the input signal.
  • the correct method is disclosed.
  • JP2002-16804 A by combining the high-frequency component of the input signal, the correction signal corrected for the input signal, and the high-frequency component of the Pt M positive signal, P »ffiE ⁇ with reduced degradation is disclosed. Disclosure of the invention
  • JP 2003-337942 A simply emphasizes only the high-frequency component, and emphasizes not only the edge component that represents the ⁇ 3 ⁇ 4xious design of the image, but also the minute fluctuation component and noise component included in the high-frequency component. As a result, there is a problem that proper 3 ⁇ 4 ⁇ power cannot be obtained.
  • JP 4-45486 A the high-frequency components including edge components that greatly affect the resolution are not changed, but in the region where the luminance is amplified by the conversion, which is low (73 ⁇ 4 « There is a problem that i is inferior.
  • JP 2002-16804 A does not consider the influence of minute fluctuation components and noise components included in the high frequency components, and there is a problem that noise is increased at the same time by synthesizing the high frequency components. .
  • a first component image which is a skeleton component indicating a global structure of the image including a flat region divided by an image edge and an image edge
  • ⁇ Second component image calculated based on tfHSe image signal and first component image
  • ⁇ Image component for multiple component image
  • edge extraction means for extracting edge component from ⁇ ⁇ ⁇ first component image
  • edge enhancement means for performing edge enhancement processing for the first component image of the stitch based on the stitch edge component.
  • a first component image which is a skeleton component consisting of ⁇ 1 ⁇ minutes, obtained by extracting an original image signal from a portion other than the edge of the image, and 3 ⁇ 4 ⁇ 3 ⁇ 4® Image that contains multiple component images including the second component image calculated based on the image signal and the first component image Means for extracting edge components from the first component image, and: means for extracting, and edge means for performing edge enhancement processing based on the ine first component image based on the hate first edge component A device equipped with, is woven.
  • an image display program for causing a computer to make a kite corresponding to each means of the sickle, a computer-readable memory storing the kite, and each of the above sickles The engraved image »a ⁇ method corresponding to the means is performed.
  • FIG. 1 is a block diagram of a device including an image ⁇ »device according to the first actual application state.
  • 2A-2C are diagrams showing examples of the original image signal I, the first component image U, and the second component image V, respectively.
  • Fig. 2 D _ 2 F is a ⁇ T diagram showing an example of a direct destruction component, a long decay component, and a peripheral destruction component that are generated by performing separation based on the frequency i3 ⁇ 43 ⁇ 4 of the Fourier transform.
  • Figures 3A-3D are explanatory diagrams of wedge extraction.
  • Fig. 4 is a flowchart corresponding to ⁇ M from the image ⁇ ? Part to the image compositing part in the first state.
  • FIG. 5 is a configuration diagram of an image 8/3 apparatus according to the second 3D state.
  • FIG. 6 is a flowchart corresponding to the eyelid from the image collar to the image compositing section in the second embodiment.
  • FIG. 7 is a configuration diagram of a device including an image device according to the third actual contract status.
  • FIG. 8 is a block diagram of the gain calculation unit.
  • FIG. 9 is an explanatory diagram regarding the conversion curve.
  • FIG. 10 is a flowchart corresponding to the processing from the image collar part to the image composition part in the third embodiment.
  • FIG. 11 is a configuration diagram of a device including an image device according to the fourth embodiment.
  • FIG. 12 is a block diagram of the gain calculation unit.
  • FIG. 13 is a flowchart corresponding to the processing from the image ⁇ ? Part to the image composition part in the fourth H state.
  • FIG. 14 is a configuration diagram of an image including an image according to the fifth embodiment.
  • Fig. 15 is a block diagram of the gate section.
  • Fig. 16 A-1 16 C is an explanatory diagram of the curve.
  • Figure 17 is a graph showing the relationship between the maximum and minimum values of.
  • FIG. 18 is a flowchart corresponding to the processing from the image connection unit to the image composition unit in the fifth embodiment. Best Mode for Inventing »
  • FIG. 1 is a system configuration diagram of an imaging apparatus including an image display according to the first embodiment of the present invention.
  • the thigh image element 1 0 2 is a signal processing unit 1 0 4 ⁇ through AZD 1 0 3.
  • the signal part 1 0 4 is displayed as the image decoration part 1 0 5 ⁇ .
  • the image continuous part 1 0 5 includes an image composition part 1 0 8, an output part 1 0 6, and an edge enhancement part 1 0 7 ⁇ .
  • the 3 ⁇ 4 output part 1 0 6 is the edge enhancement part 1 0 7 ⁇ .
  • the edge emphasis unit 10 07 is an image composition unit 10.
  • the image synthesizing unit 1 0 8 is transferred to i 1 0 9, and J ⁇ 1 10 9 is stored as the storage medium 1 1 0 ⁇ 3. This part is disliked by the system controller 100 and is controlled by the system controller 100.
  • the solid-state imager 10 2 Under the control of the system controller 100, the solid-state imager 10 2 outputs an optical image formed on the surface of the solid-state element 102 through the optical system 100 as an analog m image signal.
  • m Analog S image signal is AZD 1 0 3 ⁇ 3 ⁇ 4.
  • the thigh image element 10 2 is a color »element having a color filter array arranged on the front surface, but may be any one of a fixed element 10 2 f,: and many.
  • the signal is converted to a digitalo K code by A / D 103, and is converted to a predetermined color image signal (hereinafter referred to as an image signal I) by a signal unit 104.
  • the image signal I is composed of R, G, and B color signals, and the following summary is entered independently by the color signal “ ⁇ .
  • the converted original image signal I is the image ⁇ 1 0 5 ⁇ 3 ⁇ 43 ⁇ 4.
  • the color credibility of the original image signal I is linked to the first component image U and the second component image V.
  • the first component image U is the skeletal component of the image signal I including the edge component extracted from the edge component and the part other than the edge (the component that changes to ⁇ ).
  • the second component image V has a texture component and noise. It is defined as the third part of the first component image 1;
  • Fig. 2B and 2C show the first component image U and the second component image V, which are components of the image signal I shown in Fig. 2A. (Here, it is a one-dimensional signal for simplicity of explanation.) Represents ⁇ -like ⁇ included in the image signal I: ⁇ The edge is included in the first component image U. The leakage component is included in the second component image V.
  • Fig. 2D-2F shows an example of a direct component, a low-frequency component, and a high-frequency component that are separated by a frequency component such as Fourier transform.
  • a frequency component such as Fourier transform.
  • the first component image U thus obtained is sent to the extraction unit 106 and the edge enhancement unit 107, and the second component image V is sent to the image composition unit 10.
  • the extraction unit 106 is a 3 X 3 pixel size target that covers the target pixel P11 as shown in Fig. 3A with respect to the first component image U from the image continuous unit 105.
  • the extraction filter need not be limited to the isotropic extraction filter as shown in Fig. 3B, for example, as shown in Fig. 3C and 3D.
  • Horizontal output filter output E h, vertical output A configuration is also possible in which the output Ew of the output filter is individually entered to obtain the edge component E as shown in Equation (1).
  • the edge enhancement unit 1 0 7 applies the edge component E from the output unit 1 0 6 to the target pixel value U—P 1 1 of the first component image U from the image appropriate unit 1 0 5.
  • the target pixel value U, – P 11 with edge enhancement is obtained.
  • C is a predetermined coefficient of 0.5 to 4.0 3 ⁇ 4g.
  • the first component image U after edge enhancement processing for all pixels, is transferred to the image composition unit 108.
  • the edge-enhanced first component image U and the second component image V are synthesized at a predetermined ratio, for example, a ratio of 1: 1, and edge enhancement is applied to the image signal I.
  • a predetermined ratio for example, a ratio of 1: 1
  • edge enhancement is applied to the image signal I.
  • the composite image is subjected to ⁇ processing at ⁇ ⁇ 09, and then fed to a storage medium 110 made up of a flash memory or the like.
  • the image signal I is expressed as the sum of the first component image U and the second component image V as shown in Equation (3).
  • the A 2 B C variation model (Aujol-Aubert-Blanc- Feraud-Chambolle model) described in the following document is used.
  • the 3 ⁇ 4 dynamic energy of the first component image U is defined by the TV (Total Variation) norm J (U) in equation (4).
  • the second component image V generated from the J3 ⁇ 4S image signal I is affected by noise, but the first component image U is hardly affected by noise and does not dull edges.
  • Skeletal component (geometrical image structure it) Force S is extracted. That is, it is possible to extract the first component image U with high accuracy according to the local difficulty of the image.
  • target smoothing may be performed by a median filter, a morphological filter, or the like.
  • the following is an example of the addition type ⁇ method that does not depend on the bounded variation function.
  • Example 1 Assume that the first component image U is the result of median filtering the application signal I and the second component image V is the first component image U with the image signal I ⁇
  • Example 2 A method in which the first component image U is the result of applying a direct morphology filter to the original image signal I, and the second component image V is the wisteria of the first component image U that is the image signal I
  • Example 3 The first component image U is the result of reducing the original image signal I and then the enlargement process, and the second component image V is the wisteria of the first component image U in the image signal I
  • Example 4 Method in which the first component image U is the result of applying Bilateral Filter to the image signal I, and the second component image V is the wisteria of the first component image U in the image signal I
  • the original image signal I is represented by the product of the first component image U and the second component image V. If the opposite image signal obtained by logarithmically converting the image signal I is expressed as f (8) ) Can be converted into an additive type problem.
  • Multiplicative separation problems can be solved by using the A 2 B C variation in the logarithmic domain and using the A 2 B C variation as in the case of the Calo arithmetic type.
  • a 2 B C variational model in the opposite region, with multiplication-type separation as «.
  • the function space of the log first component image U in Eq. (8) is the same as the first component image U of the additive separation model described above. It is modeled as a bounded variation function space (BV) composed of a small part of the ⁇ ⁇ 3 ⁇ 4 ”, and the total variation energy of the one-component image U is the TV (Total Variation) norm is defined by J (U).
  • J (u) j lHjdx dy
  • the second component image V which is affected by the original image signal I, is affected by noise.
  • the first component image U is hardly affected by noise and dulls the edges. Without the skeletal components (the aesthetic image structure it) force extraction. That is, it is possible to extract the first component image U with high accuracy according to local wrinkles of the image.
  • the fixed element 102 It is also possible to replace the fixed element 102 with a monochrome image sensor and configure processing based on the monochrome image signal. Therefore, the ira image signal I becomes a monochrome signal, and becomes each component U, V « ⁇ signal that is generated from the j image signal.
  • edge emphasis is performed against the typical effects and structures included in the first component image, so that the image is not affected by the minute fluctuation components included in the second component image.
  • High accuracy Di-emphasis ⁇ 0® is possible.
  • tfiS is defined as H3 ⁇ 4 by the hardware for the image heel portion 105 force and the heel up to the image composition portion 1008, but these processing may also be performed by software processing. Good.
  • FIG. 4 shows a flow of the process of obtaining the image from the image continuous part 105 force to the image compositing part 10 8 using software.
  • the software is stored in a computer-readable storage medium (hereinafter referred to as “recording body”) such as a magnetic disk, «Kiki disk, CD-ROM, DVD-ROM, semiconductor memory, etc., or via a communication line. be delivered.
  • the software is loaded into the computer's RAM and executed by the computer's CPU, making the above difficult.
  • step S 0 the image signal I is connected to the first component image U and the second component image V.
  • step S O 2 an edge component at the target pixel is extracted from the first component image U using an edge extraction filter.
  • step S 0 3 edge enhancement is performed on the first component image U using the edge component extracted in step S 0 2.
  • step S 04 the first component image U and the second component image V after the edge enhancement processing are synthesized to obtain a synthesized image I,.
  • the processing from the image unit 10 5 to the image composition unit 10 8 may be difficult by software processing, and the same effect as the age difficult by hardware is produced.
  • FIG. 5 is a system configuration diagram of an imaging apparatus according to the second actual riding state of the present invention.
  • the present embodiment has a configuration in which a separation unit 301 and a Y / C synthesis unit 700 force are added to the configuration of the first actual application state shown in FIG.
  • the image part 105 is designated YZC ⁇ l3 ⁇ 4301.
  • 3 ⁇ 4301 is provided in an extraction unit 106, an edge enhancement unit 107, and a Y / C synthesis unit 700.
  • Edge enhancement unit 107 is defeated by YC synthesis unit 700.
  • the Y / C composition unit 700 is assigned to the image composition unit 108.
  • the colors, edges, and edge enhancement processing were performed independently of coloration.
  • the component U Y and the color integrity component u c are determined from the first component image U, and the edge ⁇ ⁇ is applied to the component ⁇ ⁇ .
  • Luminance component U Y is input to the output 106, edge enhancement 107, and edge enhancement processing is performed in the same way as in the first opening, then Y / C composition Part 700.
  • edge enhancement processing is performed on each color signal of the first component image U.
  • the process corresponding to the bright component U Y is performed.
  • the color integrity U c UC r is sent to the Y / C compositing unit 70.
  • the synthesizing unit 7 0 0 the luminance component U Y after the edge emphasis processing, and the color ⁇ min U c have U C r, based on the equation (1 4), the first component image U of the edge enhancement processing is performed Calculate the R, G, and B color components.
  • the R, G, and B touches of the calculated first component image U are generated by the image composition unit 1 0 8 ⁇ 3 ⁇ 4.
  • the edge enhancement is performed on the bright ⁇ component U Y based on the edge component extracted from the ⁇ component U Y of the first component image
  • the R, G, and B color components of the 1-component image are calculated.
  • each R, G, and B of the 1-component image is extracted. It is also possible to perform edge enhancement based on the extracted edge component for the machine part.
  • edge enhancement is performed on the unique edge structure included in the first component image, it is not affected by the minute fluctuation component included in the second component image. Accurate edge enhancement is possible.
  • FIG. 6 shows a flow in the case where the software from the image screen 105 to the image composition unit 108 is used.
  • the software is stored on a storage medium or distributed via a communication line.
  • the software is loaded into the computer's RAM and renewed by the computer's CPU, making the above-mentioned 3 ⁇ 40 «difficult.
  • step SO 1 the image signal I is converted into a first component image U and a second component image V.
  • step SO 7 U Cr of 3 ⁇ 4 ⁇ component U Y and color ⁇ component U c is extracted from the first component image U based on the equation (13).
  • step SO2 an edge component at the target pixel is extracted from the luminance component U Y using an edge extraction filter.
  • step SO 3 edge enhancement is performed on the luminance component U Y using the edge component extracted in step SO 2.
  • step S 10 based on Equation (14), the first component image U, to which the edge enhancement key is applied, is calculated from the component U Y after edge enhancement processing and the color difference component U c or U Cr .
  • step S04 the first component image U after edge enhancement processing and the second component image V are synthesized to obtain a synthesized image ⁇ with an edge enhancement key.
  • FIG. 7 is a system configuration diagram of an imaging according to the third actual JS ⁇ state of the present invention.
  • This configuration is different from the configuration of the configuration shown in FIG. 13 ⁇ 4 1 ⁇ .1 in that the gain calculation unit 3 0 2, the edge 3 0 2, and the 5 5 conversion unit 3 0 3 are used. It has become.
  • the image edge portion 1 05 is made up of a gain calculation portion 3 0 2, an output portion 1 0 6, an edge enhancement portion 1 0 7, and an image composition portion 1 0 8.
  • the etching section 10 06 is sickled by the 3 ⁇ 4 straight section 2 0 1.
  • the gay ⁇ out part 3 0 2 is ⁇ : ⁇ t the normal part 2 0 1,, and the conversion part 3 0 3 is deceived.
  • the correction part 2 0 1 is deceived by the edge enhancement part 1 0 7.
  • the edge enhancement unit 1 0 7 is converted to the conversion unit 3 0 3.
  • 3 ⁇ 4 conversion unit 30 3 is an image composition unit 10 8.
  • a modification is provided to the structure in the first embodiment, and the edge component is corrected according to the gain related to the conversion.
  • FIG. 7 will be referred to.
  • the original image signal I is composed of R, G, and B color signals, and the subsequent signals are input independently to the color signal “ ⁇ ”.
  • the first component image U generated by the image sequence 1 0 5 is converted to the gain calculation unit 3 0 2, the output unit, ⁇ % output unit 1 0 6, and the edge enhancement unit 1 0 7, and the second component image V is combined with the image. Part 1 0 8 is sent to.
  • the gain calculation unit 30 2 calculates the gain g applied to each pixel of the first component image by changing the variable a.
  • the calculated gain g is processed by the edge correction unit 20 1 and the gradation conversion unit 30 3. The details of gay ⁇ out ⁇ «will come later.
  • the output part 10 06 extracts the edge component E from the first component image U from the image part 1 0 5 by the same method as in the first embodiment.
  • the extracted edge component E is Part 2 0.
  • a correction key using the gain g is applied to the edge component ⁇ based on the equation (1 5).
  • E is the corrected edge component, and k is a predetermined ( ⁇ number).
  • the wedge component E after 3 ⁇ 4E is the wedge bow steel part 1 0 7 ⁇ 3 ⁇ 43 ⁇ 4.
  • the edge enhancement unit 10 7 uses the same method as the first 3 ⁇ 4 ⁇
  • the edge correction processing is performed using the edge component E, 3 ⁇ 4 of the edge correction part 2 01 force.
  • the first component image U, after the edge enhancement process is sent to the gradation conversion unit 303.
  • the conversion unit 30 03 performs gradation conversion processing by multiplying the first component image U, by a gain g, as shown in Expression (16).
  • U is the first component image after gradation conversion processing, and U" is sent to the image composition unit 10.
  • the first component image U ”subjected to edge enhancement and gradation conversion processing and the second component image V are set at a predetermined ratio, for example, a ratio of 1: 1.
  • a ratio of 1: 1. Combining and obtaining a composite image with edge enhancement and transformation ⁇ a applied to the image signal I.
  • the composite image r is iM ⁇ io
  • FIG. 8 shows an example of the configuration of the gain calculation unit 30 2.
  • the gain calculation unit 3 202 includes an extraction unit 4 0 0, a buffer 4 0 1, standard and conversion curve examples 5 0 0, and an extraction unit 4 0 4 force.
  • Image ⁇ part 1 0 5 is a drawing
  • the extraction unit 400 has a buffer 4 0.
  • the buffer 4 0 1 and the standard gradation conversion curve 5 0 0 are the lock release part 4 0 4 ⁇ .
  • the engagement part 4 0 4 is a pg conversion part 3 0 3, an ET: 2 part 1 0 ⁇ ⁇ .
  • the extraction unit 400 is a ⁇ region having a predetermined size centered on the pixel of interest with respect to the first component image U formed from the image continuous unit 105, in this example, for example, a station of 16 ⁇ 16 pixels. Extract areas. The wake-up area extracted by the extraction unit 4 0 0 ( ⁇ sign is obtained through the buffer 4 0 1 and the engagement extraction unit 4 0 4 ⁇ 3.
  • a standard fixed conversion curve is set in ROM or the like, and in the urging unit 4 0 4 from standard conversion curve setting 3 ⁇ 43 ⁇ 4 5 0 0! Then, based on the tone conversion curve, the tone conversion gain (hereinafter referred to as gain) is calculated for the average signal level in the area.
  • the transformation curve has an input / output signal 14 as shown in FIG. 1 Knee processing or y conversion to convert 2 bit input signal to 8 bit output signal.
  • L (12) is the signal level before tone conversion
  • L (8) is after tone conversion Represents the signal level.
  • t () be the tone conversion curve from the standard tone conversion curve setting section 5 0
  • AV e be the average signal level obtained from the local signal level obtained from the buffer 4 0 1
  • edge emphasis is performed on the target and structure included in the first component image, so that it is not affected by minute fluctuation components included in the second component image.
  • Accurate edge enhancement ⁇ ⁇ is possible.
  • S is defined as H3 ⁇ 4 from the image sequence portion 10 5 to the image composition portion 1 0 8 by hardware air, but these processing is performed by software processing. Good.
  • Figure 1 0 is an image ⁇ ! The flow of 3 ⁇ 4 ⁇ that realizes the processing from the unit 1 0 5 to the image composition unit 1 0 8 by software processing is shown.
  • the software is stored in a storage medium or distributed via a communication line.
  • the software is loaded into the computer's RAM and executed by the computer's CPU to realize the above.
  • step S O 1 the image signal I is converted into a first component image U and a second component image V.
  • step S 08 a gain g related to the gradation conversion process is calculated based on the first component image U.
  • step S O 2 the edge component at the pixel of interest is extracted from the first component image U using the Etsu and ⁇ ft extraction filters.
  • step SO 6 gain g is used for the edge component extracted in step SO 2. Make corrections.
  • step S 03 the edge emphasis key is applied to the first component image U using the edge component corrected in step S 06.
  • step SO 9 the first component image U after the edge enhancement process is converted based on the gain g calculated in step SO 8.
  • step S 04 the first component image U and the second component image V that have been subjected to the edge enhancement process and the invariant process are synthesized to obtain a synthesized image.
  • FIG. 11 is a system configuration diagram of the ⁇ device according to the fourth embodiment of the present invention.
  • composition is the same as that of the third example, and the same name and number are assigned to the same structure. Only the differences will be described below.
  • the present cat form has a configuration in which the YZC component 301, the Y / C synthesis unit 700 are replaced with the i calculation unit, and the gain calculation unit 302 is replaced with the gain calculation unit 310, in contrast to the configuration of the third embodiment shown in FIG. It has become.
  • the image part 105 is sickled by YZC «301. 301 is deceived by a gain calculation unit 310, an edge extraction unit 106, and an edge enhancement unit 107.
  • the gain calculation unit 310 is input to an edge unit 201 and a conversion unit 303.
  • the gradation conversion unit 30 3 is deceived by the Y / C composition unit 700.
  • the Y / C composition unit 700 is connected to the image composition unit 108.
  • the machine decorations are independent and the edge emphasis process is performed. It was.
  • the linked ⁇ component image u is divided into YZC components gt3 ⁇ 4 3 0 1 ⁇ .
  • 3 ⁇ 4 3 0 1 is based on Eq. (1 3), and the first component image U is composed of R, G, B from each ⁇ ⁇ minute U Y , color 3 ⁇ 4 ⁇ minutes U C to extract the U CR.
  • the luminance component U Y is input to the gain calculation unit 3 1 0, the extraction unit 1 0 6, and the edge enhancement unit 1 0 7, and is subjected to the edge enhancement key and transformation by the same method as in the third embodiment, and processed.
  • the subsequent bright component U Y is generated by the Y / C synthesis unit 7 0 0 ⁇ .
  • the processing for each color signal of the first component image U was performed. The state is different from the first component image U by 3 ⁇ 4 ⁇ min U Y.
  • the gain calculation unit 30 2 calculates gain using a fixed conversion curve.
  • the gain calculation unit 3 10 Te bright ⁇ component U Y of the first component image U is divided into a station ⁇ are configured to calculate the application to gain for each region. It is possible to generate an image signal having a sickle-like tone characteristic that is similar to human visual ability by calculating the gain by the generation. Details of the gain calculation process will be described later.
  • the synthesizing unit 7 0 0, variable ⁇ i sense after bright ⁇ U Y ", and IroMakoto min U Cb, U C r force, et al., Based on the equation (1 4), edge enhancement, ⁇ Hi Komohen Yori Calculate the R, G, B machine parts of the first component image U that has been subjected to. The calculated R, G, B touch parts of the first component image U "are images. Synthesizer 1 0 8 ⁇ 3 ⁇ 4.
  • the first component image U ′′ and the second component image V are synthesized at a predetermined ratio, for example, a ratio of 1: 1, and the edge enhancement and transformation of the image signal I are performed.
  • a composite image ⁇ is obtained, and the composite image is transmitted to a storage medium 110 made up of a flash memory or the like through 13 ⁇ 43 ⁇ 41009.
  • Fig. 1 2 shows an example of the configuration of the gain calculation unit 3 1 0 ⁇ T.
  • the standard conversion curve setup 5 0 0 is deleted from the configuration of the gain calculation unit 3 0 2 shown in Fig. 8, and the histogram creation unit 4 0 2.
  • Cumulative normalization unit 4 0 3 is il3 ⁇ 4 ⁇ .
  • composition is the same as the gay section 30 shown in FIG. 8, and the same name and number are assigned to the same configuration. Only the differences will be described below.
  • the minutes 3 0 1 are input to the extraction unit 4 0 0.
  • the buffer 4 0 1 is divided into a histogram storage unit 4 0 2 and an output unit 4 0 4.
  • the histogram creation unit 4 0 2 is sickled by the accumulation normalization unit 4 0 3.
  • the accumulating section 4 0 3 is deceived as the refusal section 4 0 4.
  • the extraction unit 400 extracts a local area of a predetermined size centered on the pixel of interest for the luminance component U Y of the first component image U separated by the Y / C separation unit 30 1.
  • the local signal extracted by the extraction unit 400 is stored in the buffer 401.
  • the histogram generator 4 0 2 Based on the signal in the buffer 4 0 1, the histogram generator 4 0 2 generates a histogram for each local J fi area, and generates a cumulative part 4 0 3 ⁇ 3.
  • the cumulative E normalization unit 4 0 3 creates a cumulative histogram by accumulating the histogram, and normalizes it according to the width to generate a conversion curve.
  • the image signal output from Y / C min 81 ⁇ 3 0 1 Therefore, the width is 12 bits, so the above conversion curve is 12 bits input and 8 bits output.
  • the transformation curve is Keptou Debu 4 0 4 ⁇ .
  • the gain g is calculated by Expression (17) in the same manner as the gain calculating unit 30 2 in the third embodiment.
  • the calculated gain g is converted into a conversion unit 303, et 3 ⁇ 4E3 ⁇ 452 0 1 ⁇ 3 ⁇ 4, and is used for the mm and piei3 ⁇ 4E keys.
  • the expression (1 4) is used to calculate the R, G, and B touches of the first component image.
  • the edge component and gain g is also possible to adopt a configuration that performs edge enhancement based on the extracted edge component and gain g for each of R, G, and B in the one-component image.
  • edge enhancement is performed on the rough structure included in the first component image, so that it is affected by the minute fluctuation component included in the second component image. High-accuracy edge adjustment is possible.
  • the tone conversion curve is set based on the pixel of interest and the histogram of the neighboring region, it is possible to provide a high-level key for a large contrast ratio and scene.
  • the key from the image connection unit 105 to the image composition unit 108 is to be performed by hardware processing, but these processing may be performed by software processing. .
  • FIG. 13 shows an age flow in which the processing from the image unit 105 to the image composition unit 108 is realized by software processing.
  • the software is stored in a storage medium or distributed via a communication line.
  • the software is loaded into the computer's RAM and hi- ered by the computer's CPU to achieve the top effect.
  • step SO 1 ⁇ image signal I is converted into first component image U and second component image V.
  • step SO 7 based on the equation (13), extracts luminance components U Y from the first component image U, the color separation u c have U Cr.
  • step S 11 a histogram by dividing the luminance component upsilon gamma to station area, and ⁇ the conversion curve on the basis of this, to calculate the gain g for each region.
  • step SO 2 the edge component at the target pixel is extracted from the first component image using an isotropic extraction filter as shown in FIG. 3B.
  • step SO 6 correction using the gain g is performed on the edge component extracted in step S 02.
  • step S03 edge emphasis is performed on the first component image U using the edge component corrected in step SO6.
  • step S 09 the first component image U after the edge enhancement process is converted based on the gain g calculated in step S 08.
  • step S 10 edge enhancement processing and conversion processing are performed from the bright ⁇ component U Y after the edge enhancement processing and gradation conversion processing, and the color components U Cb and U Cr based on Equation (14). Is The first component image U is calculated.
  • step S O 4 the first component image U and the second component image V that have been subjected to edge enhancement and transformation are synthesized, and a synthesized image is obtained.
  • the processing from the image unit 1 0 5 to the image compositing unit 1 0 8 may be made difficult by software processing, and the same effect as that of # ⁇ that is performed by hardware ⁇ is produced. 5th 3 ⁇ 4 »state>
  • FIG. 14 is a system configuration diagram of the apparatus according to the fifth aspect of the invention.
  • composition is the same as that of the fourth embodiment, and the same name and number are assigned to the same configuration. Only the differences will be described below.
  • the gain calculation unit 3 1 0 is set to the gay output unit 8 0 0 in contrast to the configuration of the fourth real case shown in FIG.
  • ⁇ / 0 ⁇ ⁇ 3 ⁇ 43 0 1 is deceived by gay ⁇ 8 out part 8 0 0, eff out part 1 0 6 and edge emphasis part 1 0 7.
  • the gain calculation unit 80 0 0 is connected to the correction unit 2 0 1 and the conversion unit 3 0 3.
  • Luminance component U Y extracted by YZC separation unit 3 0 1 is gain calculation unit 8 0 0, edge extraction unit 1 0 6, edge enhancement unit 1 0 7 ⁇ ⁇ , edge enhancement by the same method as the 4th male form
  • the processed brightness components U Y are transferred to the YZC synthesis unit 700.
  • the gain calculation unit 31 in the fourth state the bright component U Y of the first component image U is divided into local regions and the gain is calculated for each region.
  • the fifth embodiment for each region, Calculate the maximum and minimum values of the minute, and Based on ⁇ , the transformation curve; The configuration is set to ⁇ ]. It is possible to generate an image signal with proper ⁇ ! Characteristics according to the contrast condition of the region by calculating the gain by the generation.
  • FIG. 15 shows an example of the configuration of the gain calculation unit 8 0 0.
  • the standard gradation conversion curve setting unit 5 0 0 is deleted from the configuration of the gain calculation unit 3 0 2 shown in FIG. Calculation unit 8 0 1, Difference calculation unit 8 0 2, Norec up table (LUT) 8 0 3, Tone conversion song ⁇ ! ⁇ Part 8
  • the configuration is equivalent to the gain calculation unit 300 shown in FIG. 8, and the same name and number are assigned to the same configuration. Only different parts will be described below.
  • the boat maximum / M straight calculation unit 8 0 1 is sickled by the scattering calculation unit 8 0 2.
  • the calculation unit 8 0 2 and LUT 8 0 3 are set as the P conversion song ⁇ ! ⁇ Unit 8 0 4.
  • the conversion music selection section 8 0 4 has a refusal section 4 0 4 ⁇ .
  • the extraction unit 400 extracts a local area of a predetermined size centered on the target pixel for the luminance component U Y of the first component image U separated by the YZC separation unit 3 0 1.
  • the local signal extracted by the extraction unit 400 is stored in the buffer 41.
  • the remote minimum 3 3 ⁇ 4 minimum value calculation unit 8 0 1 calculates the maximum luminance value and the maximum / W value for each local area, and outputs the result to the calculation unit 8 0 2. .
  • the difference between the maximum value and the minimum value d of the dripping degree value is calculated by the calculation unit 8 0 2, and the maximum value and the straight line are calculated!
  • a plurality of gradation conversion curves are set in ROM etc. in advance.
  • 51 ⁇ section 8 0 4 can read an arbitrary conversion curve from LUT 8 0 3.
  • a transformation curve as shown in Fig. 16 A-1 16 C is set.
  • the conversion curve unit 8 0 4 performs a conversion curve correction based on the maximum luminance value, the 1st / ”right 1 ⁇ , and the difference d obtained from the 3 ⁇ 4 ⁇ calculation unit 8 0 2. If the conversion curve is read out from the LUT 8 0 3 force, the # output part 4 0 4 is entered.
  • the 3 ⁇ 4 conversion curve is not performed, and the gradation change itself is skipped.
  • the calculated transformation curve is assigned to the engagement unit 40.
  • the gain g is calculated by Equation (17) by the same method as the gain calculating section 30 2 in the third male form.
  • the calculated gain g is converted into a ⁇ conversion unit 30 3, an ET unit, and a third unit unit 201, and is used for the second conversion unit and the correction.
  • edge emphasis is applied to the ⁇ -like image and ⁇ f structure contained in the first component image, so that it is affected by minute fluctuation components contained in the second component image. Therefore, highly accurate edge enhancement is possible.
  • FIG. 18 shows a flow of realizing the processing from the image decomposing unit 105 to the image synthesizing unit 108 by software processing.
  • Software is stored on a storage medium or distributed via a communication line.
  • the software is loaded into the computer's RAM and executed by the computer's CPU to achieve the above.
  • step SO 1 the application signal I is input to the first component image U and the second component image V.
  • step SO 7 the luminance component U Y and the color integrity U c , U C r, are extracted from the first component image U based on the equation (1 3).
  • step SI2 divide luminosity ⁇ Y into local regions, apply a transformation curve based on the maximum and minimum values for each region, and calculate the gain g for each eye.
  • step S 02 an edge component at the target pixel is extracted from the first component image U using an isotropic edge filter as shown in FIG.
  • step S 06 correction is performed using the gain g for the edge component extracted in step S 02.
  • step S 03 edge enhancement is performed on the first component image U using the edge component corrected in step S 06.
  • step S 09 gradation conversion based on the gain g calculated in step S 08 is performed on the first component image U after the edge enhancement processing.
  • step S 10 the edge emphasis processing is performed from the edge emphasis key, the « ⁇ min U Y after the gradation transformation, and the color integrity U Cb , U Cr based on Equation (14). Calculate the first component image U that has been processed.
  • step SO 4 the first component image U and the second component image V that have been subjected to the edge emphasis processing, ⁇ 3 ⁇ 4 transformation, and processing are synthesized to obtain a synthesized image I ′.
  • the processing from the image unit 105 force to the image composition unit 108 may be made difficult by software processing.
  • the embodiment of the present invention has been described, but only an application example of the male scalloped invention is shown, and the scope of the present invention is not intended to be limited to the specific embodiment of the embodiment.
  • This application claims priority based on Japanese Patent Application No. 2008-10536 filed with the Japan Patent Office on January 21, 2008, the entire contents of which are incorporated herein by reference.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

画像処理装置は、原画像信号を骨格成分である第1成分画像、および前記原画像信号と前記第1成分画像に基づき算出される第2成分画像を含む複数の成分画像に分解し、前記第1成分画像に対してエッジ成分を抽出し、前記エッジ成分に基づき前記第1成分画像に対するエッジ強調処理を行う。

Description

明 細 書 m u,画«¾プログラム、 画 »aプログラムを記憶したコンピュータ り 可能な記憶媒体、 Rxmm 擁
本発明は画^ に関し、 特に画像の を改善する画 wに関する。 背景謹
画像信号を複数の周波数成分に分離し、 成分毎の特徴に沿った適切な処理を行った後、 両者を合^ ることで、 高精度な画質改善を行う手法力 s広く用いられている。 例え if®像 信号を高周波成分と低周波成分に分離した後、 高周波成分に対する強調処理を行うこと で、 解像力を向上することができる。 また低周波成分に対して階調変換処理を行うこと で、 ノイズの増幅を抑え、 エッジ成分を膽した翻変^ Sを行うことが可能となる。
JP2003— 337942 Aでは、 顧像に対して多蘭鐘変換を適用することで 作成した觀波成分を、顾像から聽することで高周波成分を «する。 した高周 波成分を TO像に対して加算することで 11羊鋭化を行う が開示されている。
J Ρ4-45486 Aでは、入力信号に対して^ ¾Eされた階調 ϊΕ信号の ίδϋ波成 分と、入力信号から抽出した高周 分を合 J ^ることで、 の劣化を抑えた,補 正手法が開示されている。
JP2002-16804 Aでは、 入力信号の高周波成分と、 入力信号に対して翻補 正された |«補正信号と、 Pt M正信号の高周波成分とを合成することにより、角,の 劣化を抑えた P»ffiE雜が開示されてレ、る。 発明の開示
しかしながら、 J P2003— 337942 Aでは、 単純に高周波成分のみを強調し、 画像の λ¾的な謝可学隱造を表すエッジ成分のみならず、 高周波成分に含まれる微小な 変動成分、 ノイズ成分も強調されてしまうので、 適切 ¾^力を得ることができないとい つた問題がある。
また、 J P4— 45486 Aでは、 解像感に大きく影響するエツジ成分を含む高周波成 分は変わらず、 低周 分に る,変換により輝度が増幅された領域において、 見か け上 (7¾«i が劣ィ るという問題がある。
また、 J P2002— 16804 Aでは、 高周波成分に含まれる微小な変動成分、 ノィ ズ成分の影響を考慮しておらず、 高周波成分を合成することで、 同時にノイズも増加して しまうという問題がある。
本発明のある鎌によれば、 麵像信号を画像のェッジおよひ蕭己ェッジによって区分 された平坦領域を含む前記画像の大局的な構造を示す骨格成分である第 1成分画像、 およ ひ tfHSe像信号と 第 1成分画像に基づき算出される第 2成分画像^^む複数の成分 画像に する画像^?手段と、 ήίιϊ己第 1成分画像に対してェッジ成分を抽出するエツジ 抽出手段と、 編己ェッジ成分に基づき編己第 1成分画像に るェッジ強調処理を行うェ ッジ強調手段と、 を備える画»職置力 s撒される。
本発明の別の鎌によれば、 原画像信号を画像のエッジおょひ擺己エッジ以外の部分か ら抽出した平 ±1 ^分からなる骨格成分である第 1成分画像、 およひ ¾ΐηΒΐ¾®像信号と ήίπ己 第 1成分画像に基づき算出される第 2成分画像を含む複数の成分画像に ϋする画像 手段と、 廳己第 1成分画像に対してエッジ成分を抽出するエツ、:^出手段と、 嫌己エッジ 成分に基づき ine第 1成分画像に ¾~ るエツジ強調処理を行うエツジ¾^手段と、 を備え る 置が繊される。
本発明のさらに別の鎌によれば、 上記鎌の各手段に対応する麵をコンピュータに 菊亍させる画»理プログラム、 これを記憶したコンピュータ り可能な記'獻某体、 上 記鎌の各手段に対応する麵 む画 »a ^法が される。
本発明の 態、 本発明の利点については、 謝された図面を参照しながら以下に詳 細に説明する。
図面の簡単な説明
図 1は、 第 1の実請態に係る画像^ »置を含む 置の構成図である。
図 2 A—2 Cは、 それぞれ原画像信号 I、 第 1成分画像 U、 第 2成分画像 Vの一例を示 す図である。
図 2 D _ 2 Fは、 それぞれフーリェ変換等の周波 i¾¾分に基づく分離を行つた に生 成される直滅分、麵«分、 及ひ 周滅分の一例を^ T図である。
図 3 A— 3 Dはェッジ抽出に関する説明図である。
図 4は、 第 1の 態における、 画像^?部から画像合成部までの^ Mに対応するフ ローチャートである。
図 5は、 第 2の ¾^態に係る画»8¾置 置の構成図である。
図 6は、 第 2の¾«態における、 画像舊部から画像合成部までの麵に対応するフ ローチャートである。 図 7は、 第 3の実請$態に係る画像^ ¾置を含む 置の構成図である。 図 8は、 ゲイン算出部の構成図である。
図 9は、 ,変換曲線に関する説明図である。
図 1 0は、 第 3の¾»態における、 画像舊部から画像合成部までの処理に対応する フローチャートである。
図 1 1は、 第 4の実«態に係る画像 置を含む 置の構成図である。
図 1 2は、 ゲイン算出部の構成図である。
図 1 3は、 第 4の H»態における、 画像 ^?部から画像合成部までの処理に対応する フローチャートである。
図 1 4は、 第 5の実 態に係る画像^ «置を含む^^置の構成図である。
図 1 5は、 ゲイ 出部の構成図である。
図 1 6 A— 1 6 Cは、 翻纖曲線に関する説明図である。
図 1 7は、 の最大値、 最小値の関係を示すグラフである。
図 1 8は、 第 5の ¾ 態における、 画像連部から画像合成部までの処理に対応する フローチャートである。 発明を »するための最良の形態
<第 1の実賺態 >
図 1は本発明の第 1の実施形態に係る画像 ^¾置を含む撮像装置のシステム構成図で ある。 撮^ ¾置は、 光学系 1 0 1、 固^ i像素子 1 0 2、 AZD変換部 1 0 3 (以下、 A ZD 1 0 3) 、信号鍵部 1 0 4、画像 部 1 0 5、 エツ 出部 1 0 6、 エッジ強調 部 1 0 7、 画像合成部 1 0 8、 1±» 1 0 9、記憶メディア 1 1 0、 システムコントロー ラ 1 0 0からなる。 固腿像素子 1 0 2は AZD 1 0 3を介して信号処理部 1 0 4^^^されている。 信号 麵部 1 0 4は画像飾部 1 0 5 ^^されてレヽる。 画像連部 1 0 5は画像合成部 1 0 8、 エツ 出部 1 0 6、 エッジ強調部 1 0 7^^^されている。
ェッ、¾出部 1 0 6はェッジ強調部 1 0 7 ^^^されてレ、る。 ェッジ強調部 1 0 7は画 像合成部 1 0 されている。 画像合成部 1 0 8は i£» 1 0 9へ、 J±« 1 0 9は 記憶メディア 1 1 0^¾されている。 部はシステムコントローラ 1 0 0と双方向 に嫌され、 システムコントローラ 1 0 0により制御される。
次に、 図 1におレ、て麵の を説明する。
固体撮^子 1 0 2はシステムコントローラ 1 0 0の制御に基づき、 光学系 1 0 1を通 して固 素子 1 0 2面上に結像した光学像をアナログ m像信号として出力する。 m アナログS像信号は AZD 1 0 3^¾される。 この魏形態においては、 固腿像素子 1 0 2は色フィルタアレイを前面に配置したカラー用 »素子であるが、 固^ ¾素子 1 0 2 fま、 :、 多¾ ^のいずれでも良い。
その後、 A/D 1 0 3でデジタノ K言号に変換され、信号^ ¾部 1 0 4で所定の のカ ラー画像信号 (以下、 顾像信号 I ) に変換される。 麵像信号 Iは R, G, Bの各色信 号により構成されており、 以降の纏は色信 "^に独立に麵される。 変換後の原画像信 号 Iは画像^部 1 0 5^¾¾される。
画像 部 1 0 5では、 原画像信号 Iの色信雜に第 1成分画像 Uと第 2成分画像 Vに 連する。 第 1成分画像 Uはェッジ成分およびェッジ以外の部分から抽出した平職分 (^^かに変ィはる成分) を含む顾像信号 Iの骨格成分 (謝可学的画像構造) であり、 "願像信号 Iに含まれる なエッジ、 及びエッジによって区分され f »度変化の滑ら 力な平坦領域 ¾ ^み、顾像信号 Iの ^^的な構造を示す成分"、 または "麵像信号 I よりテクスチャの様な細カゝな構»;分 (以下、 テクスチャ成分) を除いた成分" として定 義される。 第 2成分画像 Vはテクスチャ成分とノイズ^^む、 麵像信号 Iに ¾~Τる第 1 成分画像 1;の¾ ^分として定義される。
例として、 図 2 Aに示す 像信号 Iに対して成分 した に される第 1成分 画像 U、 第 2成分画像 Vを図 2 B、 2 Cに示す。 (ここでは説明を簡単にするため 1次元 の信号としてレ、る。 ) 顾像信号 Iに含まれる ^^的な赚を表す: § なェッジは第 1成 分画像 Uに含まれ、 翻な漏成分は第 2成分画像 Vに含まれてレ、る。
比較のため、 図 2 D— 2 Fに、 フーリエ変換等の周波数成分に基づく分離を行った^^ に^^される直«分、 低周波成分、 及ひ 周波成分の例を示す。 β像信号 Iに含まれ る^¾的な霞を表す: § なエッジは、 各成分の線形和として表されるため、 特定の成分 のみに含まれることはなレ、。
なお、 ここでは、 説明を簡単にするために、 原画像信号 Iを 2成分に分解する場合につ いて説明するが、 3成分以上に することも可能である。 画像 のか法に ¾¾1算型分 離と乗算型儘があり、 その詳細にっレ、ては後财る。
された第 1成分画像 Uはェッ 出部 1 0 6、 エツジ強調部 1 0 7へ^ ¾され、 第 2成分画像 Vは画像合成部 1 0 される。
ェッ 出部 1 0 6は、 画像連部 1 0 5からの第 1成分画像 Uに対し、 図 3 Aに示さ れるような注目画素 P 1 1を包^ "る 3 X 3画素サイズの注目領域 P ij (i - 0〜 2, j = 0〜 2 ) を順次抽出し、 図 3 Bに示されるような等方的なエッ^出フィルタを用いて 注目画素 P 1 1におけるエッジ成分 Eを抽出する。 なお、 エッ^出フィルタとしては図 3 Bに示されるような等方的なェッ ^出フィルタに限定される必要はなレ、。 例えば、 図 3 C、 3 Dに示されるような水平方向のエツ^出フィルタの出力 E h、 垂直方向のエツ 出フィルタの出力 Ewを個別に麵し、 式 (1 ) 【 すようにエッジ成分 Eを求める 構成も可能である。
E = (Elf + E^) ' (1 / 2)
•••(1) この他にも、 のエツ 出法を用いる構成も可能である。 抽出されたエッジ成分 E は、 エッジ蛍調部 1 0 7^ ^される。
エッジ強調部 1 0 7は、 画像適部 1 0 5からの第 1成分画像 Uの注目画素値 U—P 1 1に対して、 エツ、;^ ft出部 1 0 6からのエッジ成分 Eを用いて式 (2) に示される処理を 行うことで、 エッジ強調がなされた注目画素値 U,— P 1 1を得る。 Cは、 0. 5〜4. 0 ¾gの所定の係数である。 ェッジ強調鍵をこのような簡単な加算麵により構^- る ことで、 鍵の高速化が可能となる。
U'—Pll = U_P11 + C-E
•••(2) 全画素に対してエッジ強調処理を行った後の第 1成分画像 U, は画像合成部 1 0 8へ転 送される。
画像合成部 1 0 8では、 エッジ強調がなされた第 1成分画像 U, と、 第 2成分画像 Vを 所定の比率、 例えば 1 : 1の比率で合成し、 願像信号 Iに対してエッジ強調がなされた 合成画像 I ' を得る。 合成画像 は、 ΕΕβ ΐ 0 9において赚処理がなされた後、 フ ラッシュメモリ等で構成される記憶メディア 1 1 0に fe¾される。
画像細羊細
次に画像分解部 1 0 5において行う原画像信号 Iの画像分解の詳細について説明する。 TO像信号 Iから第 1成分画像 Uを抽出するとき、 その として、 平 ±賊分 ( か に変ィ る成分) やエッジ成分を含む麵像信号 Iの骨格成分が麟されるような «を 用いる。 画像 の手法には、 上記の通り、カロ算型分離と乗算型分離があり、 以下各手法 について順に説明する。
加算型爐
加算型分離では、 顾像信号 Iが式 ( 3 ) で示すように、 第 1成分画像 Uと第 2成分画像 Vの和として表される。
I = U + V
••' (3) ここでは、 まず、 有界変動関数とノルムを用いた 施を説明する。
分解を行うために、 下記文献に記載の A 2 B C変分モデル (Aujol-Aubert-Blanc- Feraud-Chambolle model)を用いる。
Jean-Francois Aujol, Guy Gilboa, Tony Chan & ¾tan丄 ey Osher, Structure- lexture Image Decomposition ~ Modeling, Algorithms, and Parameter Selection, International Journal of Computer Vision, Volume り 7, Issue 1 (April 2006) Pages:
111 - 136 Year of Publication: 2006
として求められる第 1成分画像 Uの性質としては、 不^^界によって区分され た複数の "滑らかな輝度変化の小部分領域" から構成された有界変動関数空間 B V (Bounded Variation Function Space)としてモデル化され、 第 1成分画像 Uの^ ¾動エネ ルギ一は式(4 ) の TV (Total Variation)ノルム J(U)で定義される。
Figure imgf000010_0001
•••(4) 一方、 式(3 ) 中の第 2成分画像 Vの関輕間は漏関 # ^間 Gとモデル化される。 振 動関 間 Gは、 mmrnwi gi、 g2によって式 (5) のように表現された赚の空間で あり、 そのエネルギー f试 ( 6) の Gノルム II ν ΐι Gとして錢される。
•••(5)
Figure imgf000011_0001
•••(6) 願像信号 Iの 問題は、 エネルギー汎関数を最 匕する式 (7) の変分問題として ^ィ匕される。 この変分問題は、 Chambolleの Projection法によって解くことができる。
Figure imgf000011_0002
•••(7) これにより J¾S像信号 Iから^?される第 2成分画像 Vはノイズの影響を受けるが、 第 1成分画像 Uはノイズの影響をほとんど受けず、 エッジを鈍らせることなく骨格成分 (幾 何学的画像構 it) 力 S抽出される。 すなわち、 画像の局動な難に応じた高精度な第 1成 分画像 Uの抽出を行うことが可能である。
その他の加算型分^法の例としては、 メジアンフィルタ、 モホロジフィルタ等による 的平滑化を行うようにしてもよい。 以下、 有界変動関数によらない加算型儘の方法 の例を示す。
例 1 :第 1成分画像 Uを願像信号 Iにメジアンフィルタ処理した結果とし、 第 2成分 画像 Vを麵像信号 Iに る第 1成分画像 Uの とする^
例 2:第 1成分画像 Uを原画像信号 Iに 直モホロジフィルタを掛けた結果とし、 第 2 成分画像 Vを顾像信号 Iに る第 1成分画像 Uの藤とする方法 例 3: 第 1成分画像 Uを原画像信号 Iに縮小処理を施し、 さらに拡大処理を施した結 果とし、第 2成分画像 Vを顾像信号 Iに る第 1成分画像 Uの藤とする方法 例 4:第 1成分画像 Uを 像信号 Iに Bilateral Filterを施した結果とし、 第 2成 分画像 Vを麵像信号 Iに る第 1成分画像 Uの藤とする方法
乗算型爐
続いて乗算型分離の方法について説明する。 乗算型分離では、 原画像信号 Iが第 1成分 画像 Uと第 2成分画像 Vの積によって表されるが、 顾像信号 Iを対数変換した対麵画 像信号を f とすると、 式 (8) のように加算型適 題に変換することができる。
1 =ひ *V
f = u + v;
f = log/, u = logひ' v = logK
•••(8) ここでは、 前述と同様に有界変動関数とノルムを用いた售方法を説明する。 乗算型分 離問題は対数領域にぉレ、てカロ算型^ Ϊと同様に A 2 B C変 デルを用レ、て解くことがで きる。 以下では、乗算型分離を «として、 対麵域における A 2 B C変分モデルについ て簡単に述べる。
式 (8) 中の対数第 1成分画像 Uの関数空間は、 前述の加算型分離モデルの第 1成分画 像 Uと同様に不^^界によって区分された複数の "滑らカゝな纖変ィ匕の小部颁¾"か ら構成された有界変動関 間 B V (Bounded Variation Function Space)としてモデ'ノレ化 され、 対 1成分画像 Uの全変動エネルギーは式 (9 ) の TV (Total Variation)ノル ム J(U)で定義される。 J(u) = j lHjdx dy
•••(9) 一方、 式 (8) の对鶴 2成分画像 Vの関数空間は、 振動関数空間 G とモデル化され る。 攝関 間 Gは、 mrnm . gi、 G2によって式 (ι o) のように表現された関数 の空間であり、 そのエネルギーは式 (1 1 ) の Gノルム II V II Gとして定義される。
v(x,y) = d,Sx(x,y) +
Figure imgf000013_0001
e 2
(10)
HIg = inf |fe)2 + ) 1し; v = + d^2
(11) したがって、 対 画像信号 f の 問題は、 エネルギー汎関数を最小化する式 (1 2) の変分問題として 化される。
Figure imgf000013_0002
. · · (12) これにより原画像信号 I力ゝら される第 2成分画像 Vはノイズの影響を受けている 、 第 1成分画像 Uはノイズの影響をほとんど受けず、 エッジを鈍らせることなく骨格成 分 (謝可学的画像構 it) 力抽出される。 すなわち、 画像の局所的な赚に応じた高精度な 第 1成分画像 Uの抽出を行うこと力 S可能である。
なお、 固 ft«素子 1 0 2をモノクロ用撮像素子に置換し、 モノクロ画像信号に基づき 処理を構成することも可能である。 その 、 ira像信号 Iはモノクロ信号となり、 j 像信号から^ Ϊされる各成分 U、 V« ^信号となる。
続レ、て第 1の ^態の作用効果にっレ、て説明する。
第 1の ¾形態によれば、 第 1成分画像に含まれる^的なエツ、 造に对してエッジ 強調を行うので、 第 2成分画像に含まれる微小な変動成分の影響を受けなレ、高精度なェッ ジ強調 ^0®が可能となる。
なお、 第 1の ¾6¾形態では、 画像舊部 1 0 5力、ら画像合成部 1 0 8までの麵をハー ドウエア により H¾することを tfiSとしているが、 これらの処理をソフトウェア処理 により してもよい。
図 4は、 画像連部 1 0 5力ら画像合成部 1 0 8までの麵をソフトウェア麵により ¾mする^のフローを示している。 ソフトウェアは、磁気ディスク、 «気ディスク、 CD - ROM, DVD - ROM, 半導体メモリ等のコンピュータ読取り可能な記憶媒体 (以下、 「記鎌体」 という。 ) に欄され、 あるいは、 通信回線を介して配信される。 ソフトウェアは、 コンピュータの RAMに読み込まれてコンピュータの C PUによって実 行され、 上言 を難する。
ステップ S 0 1では、顾像信号 Iを第 1成分画像 Uと第 2成分画像 Vに連する。 ステップ S O 2では、 第 1成分画像 Uから、 エッジ抽出フィルタを用い、 注目画素にお けるエッジ成分を抽出する。
ステップ S 0 3では、 ステップ S 0 2で抽出したエッジ成分を用いて、 第 1成分画像 U に対しエッジ強調麵を行う。
ステップ S 0 4では、 エッジ強調処理後の第 1成分画像 Uと第 2成分画像 Vを合成し、 合成画像 I , を得る。
このように画像^!部 1 0 5から画像合成部 1 0 8までの処理をソフトウエア処理によ り難してもよく、ハードウヱァ纖により難する齢と同じ作用効果が奏される。 く第 2の^^態 >
図 5は本発明の第 2の実騎態に係る撮^ g置のシステム構成図である。
»t冓成は第 1の¾»態例と同等であり、 同一の構成には同一の名称と番号を割り当 てている。 以下、 異なる部分のみ説明する。
本実施形態は、 図 1に示す第 1の実請態の構成に対し、 丫 じ分離部301、 Y/C 合成部 700力 ¾i¾口された構成となっている。
画像 部 105は YZC^ l¾301に纖されている。 Y/C g|¾301はエツ 出部 106、 エッジ強調部 107、 Y/C合成部 700に されている。 エッジ強 調部 107は Y C合成部 700に赚されてレ、る。 Y/C合成部 700は画像合成部 1 08に赚されている。
第 1の魏形態においては、 色成 に独立にエツ、^ 出、 エッジ強調処理を行ってい た。 これに対し、 第 2の実施形態においては、 第 1成分画像 Uから) 分 UY、 色誠 分 ucを^^し、 分 υγに対してエッジ聽麵を行う。
次に、 図 5におレ、て鍵の を説明する。
画像連部 105において^!された第 1成分画像 Uは YZC分 ϋ¾30 され る。
YZC^I¾301では、 式 (13) に基づき、 第 1成分画像 Uを構 る R, G, B 各械分から ^^分 UYゝ 色誠分 Ucい UCrを抽出する。
UY = 0.299R + 0.587G + 0.114B
Ua - -ft 169R - 0.331G + 0.500B
Ua = 0.500R - 0.419G - 0.081B
• · · (13) 輝度成分 UYはェッ、^出部 106、 エツジ強調部 107へ^ Iされ、 第 1の 开態 と同様の手法によりエツジ強調処理がなされたのち、 Y/C合成部 700 される。 ただし、 第 1の雄形態では、 第 1成分画像 Uの各色信号に るエッジ強調処理を行つ たが、 本謹形態においては、 輝舰分 UYに财る処理を行う。 また、 色誠分 Ucい UC rは Y/C合成部 7 0 される。
丫 。合成部7 0 0では、 エッジ強調処理後の輝度成分 UY、 及び色^^分 Ucい UC r から、式 (1 4 ) に基づき、 エッジ強調処理が施された第 1成分画像 Uの R, G, B各色 成分を算出する。
R = UY + 1. 402U&
G ^ UY - 0. 344Ua - 0. 714UCr
B = UY + 1. 772Ua
. · · (14) 算出した第 1成分画像 Uの R, G, B各触分は画像合成部 1 0 8^¾される。
なお、 第 2の¾»態では、 第 1成分画像の赚成分 UYから抽出したエッジ成分に基 づき輝 ^^分 UYに対してエッジ強調を行った後、 式 (1 4 ) により第 1成分画像の R, G, B各色成分を算出する構成となっているが、 第 1成分画像の輝舰分 UYからエッジ 成分を抽出した後、 第 1成分画像の R, G, B各械分に対し、抽出したエッジ成分に基 づくエツジ強調 を行う構成としてもよレ、。
続レ、て第 2の« ^態の作用効果にっレ、て説明する。
第 2の 形態によれば、 第 1成分画像に含まれる «的なェッ ^造に対してェッジ 強調を行うので、 第 2成分画像に含まれる微小な変動成分の影響を受けなレ、高精度なェッ ジ強調 が可能となる。
また、 各^ gijではなく、 分〖こ対して麵を行うようにしたことで、 各 IJに処理 を行う に比べ高速な が可能となる。
なお、 第 2の雄形態では、 画像連部 1 0 5力ら画像合成部 1 0 8までの麵をハー ドウエア により H¾することを tfi#としているが、 これらの処理をソフトウェア処理 により難してもよい。
図 6は、 画像舊部 105から画像合成部 108までの麵をソフトウェア麵により する場合のフローを示している。 ソフトウェアは、 記憶媒体に され、 あるいは、 通信回線を介して配信される。 ソフトウェアは、 コンピュータの RAMに読み込まれてコ ンピュータの CPUによって新され、 上言 ¾0«を難する。
ステップ SO 1では、顾像信号 Iを第 1成分画像 Uと第 2成分画像 Vに する。 ステップ SO 7では、 式 (13) に基づき、 第 1成分画像 Uから ¾^成分 UY、 色^^ 分 Ucい UCrを抽出する。
ステップ SO 2では、輝度成分 UYから、 エッジ抽出フィルタを用い、 注目画素におけ るエッジ成分を抽出する。
ステップ SO 3では、 ステップ SO 2で抽出したエッジ成分を用いて、輝度成分 UYに 対しェッジ強調 理を行う。
ステップ S 10では、 式 (14) に基づき、 エッジ強調処理後の) 分 UYと、 色差 成分 Ucい UCrからエッジ強調鍵が施された第 1成分画像 U, を算出する。
ステップ S04では、 エッジ強調処理後の第 1成分画像 U, と第 2成分画像 Vを合成 し、 エッジ強調鍵がなされた合成画像 Γ を得る。
このように画像^?部 105から画像合成部 108までの処理をソフトウエア処理によ り親してもよく、 ノヽードウヱァ麵により魏する齢と同じ作用効果が奏される。 く第 3の ¾ί ^態〉
図 7は本発明の第 3の実 JS^態に係る撮 置のシステム構成図である。
Figure imgf000017_0001
同一の構成には同一の名称と番号を割り当 てている。 以下、異なる部分のみ説明する。
本¾»態は、 図 1〖 1^.1の¾¾態の構成に対し、 ゲイン算出部 3 0 2、 エッジ ¾£部2 0 1、 |5^¾換部 3 0 3力 された構成となっている。
画像舊部 1 0 5はゲイン算出部 3 0 2、 エツ^出部 1 0 6、 エッジ強調部 1 0 7、 画像合成部 1 0 8に されてレ、る。 エツ 出部 1 0 6はェッ、 ¾正部 2 0 1に鎌さ れている。 ゲイ ^^出部 3 0 2はェッ、:^ t正部 2 0 1、 ,変換部 3 0 3に纖されてレ、 る。 エツ 正部 2 0 1はエッジ強調部 1 0 7に赚されている。 エッジ強調部 1 0 7は ,変換部 3 0 3に^されている。 |¾変換部 3 0 3は画像合成部 1 0 8に されて いる。
第 3の鍾形態においては、 第 1の¾¾態における構成に対し、 変^ ¾が ϋ¾口 され、 変換に係るゲインに応じてエッジ成分を補正する構成となっている。
次に、 図 7におレヽて «の»を説明する。
第 3の実施形態にぉレ、ては、原画像信号 Iは R, G, Bの各色信号により構成されてお り、 以降の麵は色信 "^に独立に麵される。
画像連部 1 0 5で された第 1成分画像 Uはゲイン算出部 3 0 2、 エツ、^%出部 1 0 6、 エッジ強調部 1 0 7ヘ^され、 第 2成分画像 Vは画像合成部 1 0 8へ され る。
ゲイン算出部 3 0 2では、 変^ aにおレ、て第 1成分画像の各画素にかかるゲイン gを算出する。 算出したゲイン gはェッジ補正部 2 0 1、 階調変換部 3 0 3は され る。 ゲイ^^出^ «の詳細は後 る。
エツ、^出部 1 0 6は、 画像^?部 1 0 5からの第 1成分画像 Uに対し、 第 1の 形 態と同様の手法によりエッジ成分 Eを抽出する。 抽出されたエッジ成分 Eは、 エツ ¾正 部 2 0 される。
エツ ^¾ΙΕ部 2 0 1では、 式 (1 5 ) に基づき、 エッジ成分 Εに対してゲイン gを用い た補正鍵を行う。 E, は補正後のエッジ成分、 kは所定 (^数である。
E, = k-g-E
• · · (15)
¾E後のェッジ成分 E, はェッジ弓鋼部 1 0 7 ^¾¾される。
ェッジ強調部 1 0 7は、 第 1の ¾ ^態と同様の手法により、 画像^!部 1 0 5力らの 第 1成分画像 Uに対して、 ェッジ補正部 2 0 1力 らの ¾Eェッジ成分 E, を用レヽてェッジ 強調処理を行う。 エツジ強調処理後の第 1成分画像 U, は階調変換部 3 0 3へ^ ¾され る。
翻変換部 3 0 3では、 式 ( 1 6 ) に示すように、 第 1成分画像 U, に対してゲイン g を乗算することにより階調変換処理を行う。 U" は階調変換処理後の第 1成分画像であ り、 U" は画像合成部 1 0 される。
U" = gXU'
•••(16) 画像合成部 1 0 8では、 エッジ強調、 及び階調変換処理がなされた第 1成分画像 U" と、 第 2成分画像 Vを所定の比率、 例えば 1 : 1の比率で合成し、 願像信号 Iに対して エッジ強調、 翻変^ aがなされた合成画像 を得る。 合成画像 r は、 iM^i o
9を介して、 フラッシュメモリ等で構成される記憶メディア 1 1 0に^^される。
続レ、てゲイ ^^出麵につレ、て説明する。
図 8はゲイン算出部 3 0 2の構成の一例を示すもので、 抽出部 4 0 0、 バッファ 4 0 1、 標準,変換曲線設¾¾ 5 0 0、 係 出部 4 0 4力らなる。 画像^部 1 0 5は抽 出部 4 0 0へ、抽出部 4 0 0はバッファ 4 0 している。 バッファ 4 0 1、標準階 調変換曲線設 5 0 0は係鍵出部 4 0 4 ^^している。 係體出部 4 0 4は、 pg 変換部 3 0 3、 エツ、: ¾E部 2 0 1 ^^^している。
抽出部 4 0 0は画像連部 1 0 5から された第 1成分画像 Uに対し、 注目画素を中 心とする所定サイズの^^領域、本例では例えば 1 6 X 1 6画素単位の局薩域を抽出す る。 抽出部 4 0 0により抽出された局醒域 (^言号はバッファ 4 0 1を介して係聽出部 4 0 4^¾¾される。
標準^変換曲線設 5 0 0には標準的な固定の 変換曲線が ROM等に設定され ており、係 出部 4 0 4では、 標準 変換曲線設¾¾ 5 0 0から! ¾ 変換曲線を読み 込んだ後、 階調変換曲線に基づき、 領域の平均信号レベルに対する階調変換ゲイン (以 下、 ゲイン) を算出する。
第 3の¾ ^態にぉレ、て、 翻変換曲線は例えば図 9の様な入出力信^ 14を有してレ、 る。 1 2 b i tの入力信号を 8 b i t出力信号に階調変換する Knee処理、 または y変換 であり、 図中、 L (12)は階調変換前の信号レベル、 L(8)は階調変換後の信号レベルを表し ている。
いま、 標準階調変換曲線設定部 5 0 0からの階調変換曲線を t () 、 バッファ 4 0 1か ら^ ¾された局應域の信号レベルから求めた平均信号レベルを A V e、 ゲインを gとす ると、 ゲイン gは式(1 7 ) で与えられる。
g = t(Ave) / Ave
· · · (17) 算出したゲイン gは階調変換部 3 0 3、 エツジ補正部 2 0 1へ^ ¾され、 階調変換処 理、及びエツ に用いられる。 続レヽて第 3の 態による作用効果にっレ、て説明する。
第 3の雄形態によれば、 第 1成分画像に含まれる 的なェッ、 造に対してェッジ 強調を行うので、 第 2成分画像に含まれる微小な変動成分の影響を受けなレ、高精度なェッ ジ強調^ ^が可能となる。
また、 第 1成分画像に る階調変擁理により があがり、 見掛け上の 力 S劣 化する領域に関して、 ゲインに応じたェッジ強調処理を行うことで、 の低下を防ぐ ことができる。
また、 固定の標準的な 変換曲線を用いることで、 条 ί伸淀などの娜な麵を伴わ なレ、簡略な構成による高速な «が可能となる。
なお、 第 3の雄形態では、 画像連部 1 0 5から画像合成部 1 0 8までの麵をハー ドゥエア^ Μにより H¾することを Sとしているが、 これらの処理をソフトウェア処理 により してちよい。
図 1 0は、 画像^!部 1 0 5から画像合成部 1 0 8までの処理をソフトウェア処理によ り実現する ¾^のフローを示している。 ソフトウェアは、 記憶媒体に格納され、 あるい は、 通信回線を介して配信される。 ソフトウェアは、 コンピュータの RAMに読み込まれ てコンピュータの C PUによって実行され、 上言 を実現する。
ステップ S O 1では、 顾像信号 Iを第 1成分画像 Uと第 2成分画像 Vに^?する。 ステップ S 0 8では、 第 1成分画像 Uに基づき階調変換処理に係るゲイン gを算出す る。
ステップ S O 2では、 第 1成分画像 Uから、 エツ、^ ft出フィルタを用い、 注目画素にお けるエッジ成分を抽出する。
ステップ S O 6では、 ステップ S O 2で抽出したエッジ成分に対して、 ゲイン gを用い た補正麵を行う。
ステップ S 03では、 ステップ S 06で補正したエッジ成分を用いて、 第 1成分画像 U に対しェッジ強調鍵を行う。
ステップ SO 9では、 エッジ強調処理後の第 1成分画像 Uに対し、 ステップ SO 8で算 出したゲイン gに基づく ,変換 を行う。
ステップ S 04では、 ェッジ強調処理、 変難理が施された後の第 1成分画像 Uと 第 2成分画像 Vを合成し、合成画像 を得る。
このように画像^?部 105力ら画像合成部 108までの をソフトウェア処理によ り翔してもよく、ノ、一ドウヱァ麵により難する^^と同じ作用効果が奏される。 く第 4の¾»態 >
図 11は本発明の第 4の実 態に係る ^^置のシステム構成図である。
成は第 3の¾»態例と同等であり、 同一の構成には同一の名称と番号を割り当 てている。 以下、 異なる部分のみ説明する。
本猫形態は、 図 7に示 3の¾«態の構成に対し、 YZC分 301、 Y/C 合成部 700が i ¾口され、 ゲイン算出部 302がゲイン算出部 310に置換された構成と なっている。
画像 部 105は YZC分 «301に鎌されている。
Figure imgf000022_0001
301はゲイ ン算出部 310、 エッ^ ¾出部 106、 エッジ強調部 107に賺されている。 ゲイン算 出部 310はエッ^ ¾Ε部 201、 変換部 303に赚されている。 階調変換部 30 3は Y/C合成部 700に赚されてレ、る。 Y/C合成部 700は画像合成部 108に接 続されている。
第 3の魏形態にぉレ、ては、 械飾に独立にェッ ^出、 ェッジ強調処理を行ってレ、 た。 これに対し、 第 4の実施形態においては、 第 1成分画像 Uから輝度成分 UY、 色誠 分 UCを し、 分 UYに対して、 エッジ強調纏、 翻変^ を行う構成となつ ている。
次に、 図 1 1において鍵の»を説明する。
m mn 1 0 5にお 、て連された第 ι成分画像 uは YZC分 gt¾ 3 0 1 ^^され る。
Υ/C分 ¾|¾ 3 0 1では、 式 (1 3 ) に基づき、 第 1成分画像 Uを構^ Tる R, G, B 各^ ^分から 分 UY、 色 ¾ ^分 UCい UC Rを抽出する。
輝度成分 UYはゲイン算出部 3 1 0、 エッ^出部 1 0 6、 エッジ強調部 1 0 7へ^ され、 第 3の 形態と同様の手法によりエッジ強調鍵、 翻変 が施され、 処理 後の輝舰分 UY" は Y/C合成部 7 0 0 ^^される。 ただし、 第 3の雄形態では、 第 1成分画像 Uの各色信号に対する処理であつたが、 第 4の実 態は、 第 1成分画像 U の ¾ ^分 UYに る である点が異なる。
また、 第 3の¾»態におけるゲイン算出部 3 0 2では、 固定の翻変換曲線によりゲ ィンを算出してレ、たが、 第 4の 態ではゲイン算出部 3 1 0におレ、て、 第 1成分画像 Uの輝 ^^分 UYを局應域に分割し、 領域毎に適用的にゲインを算出する構成となって いる。 成によるゲイン算出により、 人の視観能に類似した鎌的により好ましい階 調特性をもつた画像信号を生成することが可能となる。 ゲイン算出処理の詳細は後述す る。
丫/。合成部7 0 0では、 変^ i理後の輝舰分 UY"、 及び色誠分 UCb、 UC r 力ら、式 (1 4) に基づき、 エッジ強調、 及ひ薦変擁理が施された第 1成分画像 Uの R, G, B各械分を算出する。 算出した第 1成分画像 U" の R, G, B各触分は画像 合成部 1 0 8^¾される。
画像合成部 1 0 8では、 第 1成分画像 U" と、 第 2成分画像 Vを所定の比率、 例えば 1 : 1の比率で合成し、顾像信号 Iに対してエッジ強調、 及び 変^ Mがなされた合 成画像 Γ を得る。 合成画像 は、 1¾¾ 1 0 9を介して、 フラッシュメモリ等で構成 される記憶メディア 1 1 0に伝 される。
続レ、てゲイン算出鍵にっレ、て説明する。
図 1 2はゲイン算出部 3 1 0の構成の一例を^ Tもので、 図 8に示すゲイン算出部 3 0 2の構成から標準翻変換曲線設 5 0 0を削除し、 ヒストグラム作成部 4 0 2、 累積 正規化部 4 0 3を il¾卩した構成となっている。
成は図 8に示すゲイ ^出部 3 0 2と同等であり、 同一の構成には同一の名称と 番号を割り当てている。 以下、 異なる部分のみ説明する。
/。分»3 0 1は抽出部4 0 0に賺されてぃる。 バッファ 4 0 1はヒストグラム ί乍成部 4 0 2、係 出部 4 0 4に^されている。 ヒストグラム作成部 4 0 2は累¾£ 規化部 4 0 3に鎌されている。 累 規化部 4 0 3は係難出部 4 0 4に纖されてい る。
抽出部 4 0 0は Y/C分離部 3 0 1で分離された第 1成分画像 Uの輝度成分 UYに対 し、 注目画素を中心とする所定サイズの局 貝域を抽出する。 抽出部 4 0 0により抽出さ れた局 域の信号はバッファ 4 0 1へ保存される。
ヒストグラム作成部 4 0 2は, バッファ 4 0 1内の信号に基づき、 局戸 J fi域毎にヒスト グラムを ί乍成し、 累 ¾Ε¾ィ匕部 4 0 3 ^¾する。 累 ¾E規化部 4 0 3は、 ヒストグラム を累針ることで累積ヒストグラムを作成し、 これを ^幅にあわせて正規化することで 変換曲線を^^する。 本 形態では Y/C分 81^3 0 1から出力される画像信号の ,幅を 1 2 b i tと膝するので、 上記 «変換曲線は 1 2 b i t入力、 8 b i t出力 になる。 変換曲線は係藤出部 4 0 4 ^^される。
係 出部 4 0 4では、 第 3の¾»態におけるゲイン算出部 3 0 2と同様の によ り、 式 (1 7) によりゲイン gを算出する。 算出したゲイン gは,変換部 3 0 3、 エツ ¾E¾52 0 1 ^¾され、 mm, 及ぴェッ i¾E鍵に用レ、られる。
なお、 第 4の実施形態では、 第 1成分画像の輝度成分 UYから抽出したエッジ成分、 及 びゲイン gに基づき輝度成分 UYに対してエッジ強調、 階調変換処理を行った後、 式 (1 4) により第 1成分画像の R, G, B各触分を算出する構成となっているが、 第 1成分 画像の輝度成分 UYからエッジ成分、 及びゲイン gを抽出した後、 第 1成分画像の R, G, B各械分に対して、 抽出したエッジ成分、 及びゲイン gに基づくエッジ強調麵、 を行う構成としてもよレ、。
続レヽて第 4の 態による作用効果にっレ、て説明する。
第 4の鍾形態によれば、 第 1の 態同様に第 1成分画像に含まれる^ なエツ 造に対してェッジ強調を行うので、 第 2成分画像に含まれる微小な変動成分の影響を 受けなレヽ高精度なェッジ 調麵が可能となる。
また、 各^ SiJではなく、 輝舰分に対して麵を行うようにしたことで、 各 feSUに処理 を行う に比べ高速な が可能となる。
また、 第 1成分画像に対する階調変換処理により輝度があがり、 見掛け上の解^ Sが劣 化する領域に関して、 ゲインに応じたェッジ強調処理を行うことで、 の低下を防ぐ ことができる。
また、 注目画素、 及び近傍領域のヒストグラムに基づき、 階調変換曲線を設定するの で、 明暗比の大きレ、シーンに対しても高ロ¾{立な鍵が可能となる。 なお、 第 4の魏形態では、 画像連部 105力ら画像合成部 108までの鍵をハー ドウヱァ 理により^;することを ft應としているが、 これらの処理をソフトウェア 理 により してもよレヽ。
図 13は、 画像^?部 105から画像合成部 108までの処理をソフトウエア処理によ り実現する齢のフローを示している。 ソフトウェアは、 記憶媒体に格納され、 あるい は、 通信回線を介して配信される。 ソフトウェアは、 コンピュータの RAMに読み込まれ てコンピュータの CPUによって Hi亍され、 上 ΙΞΜを実現する。
ステップ SO 1では、 β像信号 Iを第 1成分画像 Uと第 2成分画像 Vに^する。 ステップ SO 7では、 式 (13) に基づき、 第 1成分画像 Uから輝度成分 UY、 色 分 ucい UCrを抽出する。
ステップ S 11では、 輝度成分 υγを局 域に分割してヒストグラムを作成し、 これ に基づき 変換曲線を^^し、 領域毎にゲイン gを算出する。
ステップ SO 2では、 第 1成分画像しから、 図 3 Bに示されるような等方的なエツ 出フィルタを用レ、て注目画素におけるェッジ成分を抽出する。
ステップ SO 6では、 ステップ S02で抽出したエッジ成分に対して、 ゲイン gを用い た補正麵を行う。
ステップ S03では、 ステップ SO 6で補正したエッジ成分を用いて、 第 1成分画像 U に对しェッジ強調麵を行う。
ステップ S 09では、 ェッジ強調処理後の第 1成分画像 Uに対し、 ステップ S 08で算 出したゲイン gに基づく |¾ 変換を行う。
ステップ S 10では、 式 (14) に基づき、 エッジ強調処理、 階調変換処理が施された 後の輝 ^^分 UY、 及び色 分 UCb、 UCrからエッジ強調処理、 変換処理が施され た第 1成分画像 Uを算出する。
ステップ S O 4では、 エッジ強調処理、 変^理が施された後の第 1成分画像 Uと 第 2成分画像 Vを合成し、合成画像 を得る。
このように画像^?部 1 0 5から画像合成部 1 0 8までの処理をソフトウエア処理によ り難してもよく、ハードウェア麵により魏する # ^と同じ作用効果が奏される。 ぐ第 5の¾»態 >
図 1 4 ίίφ発明の第 5の^^態に係る 置のシステム構成図である。
成は第 4の¾»態例と同等であり、 同一の構成には同一の名称と番号を割り当 てている。 以下、 異なる部分のみ説明する。
第 5の実 JS^態は、 図 1 1 す第 4の実賺纖の構成に対し、 ゲイン算出部 3 1 0が ゲイ^出部 8 0 0に纖された構成となっている。
Υ/0^ϋ¾3 0 1はゲイ^^出部 8 0 0、 エッ^ ffi出部 1 0 6、 エッジ強調部 1 0 7 に赚されてレ、る。 ゲイン算出部 8 0 0はェッ 正部 2 0 1、 翻変換部 3 0 3に接続 されている。
次に、 図 1 4において麵の »を説明する。
YZC分離部 3 0 1により抽出した輝度成分 UYはゲイン算出部 8 0 0、 エツジ抽出部 1 0 6、 エッジ強調部 1 0 7^ ^され、 第 4の雄形態と同様の手法によりエッジ強調 処理、 階調変換処理が施された後、 処理後の輝舰分 UY, , は YZC合成部 7 0 0へ転 送される。
ここで、 第 4の 態におけるゲイン算出部 3 1。では、 第 1成分画像 Uの輝舰分 UYを局薩域に分割し、 領域毎に適用的にゲインを算出する構成となっていたが、 第 5 の¾»態においては、領域毎に 分の最大値と最小値を算出し、最大値と最小値の 隱に基づき、 翻変換曲線を;!^]に設定する構成となっている。 成によるゲイン 算出により、領域のコントラスト条件に応じた適正な^!特性をもった画像信号を生成す ることが可能となる。
続レ、てゲイ ^^出麵につレ、て説明する。
図 1 5はゲイン算出部 8 0 0の構成の一例を示すもので、 図 8に示すゲイン算出部 3 0 2の構成から標準階調変換曲線設定部 5 0 0を削除し、輝度最大最小値算出部 8 0 1、 差 分算出部 8 0 2、 ノレックアツプテーブル(以下、 L U T) 8 0 3、 階調変換曲^!^部 8
0 4を ϋ¾口した構成となってレ、る。
成は図 8に示すゲイン算出部 3 0 2と同等であり、 同一の構成には同一の名称と 番号を割り当てている。 以下、異なる部分のみ説明する。
バッファ 4 0 1 « ^最^^/ Jィ直算出部 8 0 1、係藤出部 4 0 4に赚されている。 艇最 / M直算出部 8 0 1は散算出部 8 0 2に鎌されている。 算出部 8 0 2、 LUT 8 0 3は P 変換曲^!^部 8 0 4に されている。 |¾ 変換曲 択部 8 0 4 は係難出部 4 0 4^^^されている。
抽出部 4 0 0は YZC分離部 3 0 1で分離された第 1成分画像 Uの輝度成分 UYに対 し、 注目画素を中心とする所定サイズの局薩域を抽出する。 抽出部 4 0 0により抽出さ れた局薩域の信号はバッファ 4 0 1へ保存される。 離最^ ¾小値算出部 8 0 1はバッ ファ 4 0 1内の信号に基づき、 局薩域毎に輝度値の最大値 、 及び最 /W直 を算出 し、 算出部 8 0 2へ する。 ^^算出部 8 0 2で〖滴度値の最大値 、 及び最小 値 の差 dを算出し、 最大値 、最 直 とともに! ¾ 変換曲 « ^部 8 0 する。
LUT 8 0 3には予め複数の階調変換曲線が ROM等に設定されており、 階調変換曲線 51^部 8 0 4は、 LUT 8 0 3から任意の,変換曲線を読み出すことが可能となってい る。 本 ¾W態においては、 例えば図 1 6 A—1 6 C〖 す翻変換曲線が設定されてい る。
変換曲 部 8 0 4は ¾ ^算出部 8 0 2から された輝度値の最大値 、 最 /』ィ直 1^、 差 dに基づき、 変換曲線の賺を行う。 舰した ,変換曲線は LUT 8 0 3力、ら読み出された後、係 # ^出部 4 0 4ϋされる。
次に 、 、 の隱を示相 1 7を用レヽて、 変換曲線の ¾ ^法を説明する。 図 1 7におレ、て ¾および ¾を赌の赚を示し、 値を 0〜4095としてレ、る。
まず、 0≤d且つ く ¾且つ ≤1¾の# ^は、繊 Aに当てはまり、鍵値の最大値 力 〜中靈領域にあり、 且つ最 /Jィ直 が暗い領域にあるので、領域が全体的 に比較的喑ぃ領域にあると考えられる。 そのため図 1 6 A :^すよう ¾H域の明るさを全 脑に上げるような! ¾ 変換曲線を藤する。
0≤d且つ く ¾且つ Tha<Inlll≤Thb
Figure imgf000029_0001
領域 Bに当てはまり、 値の最大値 およぴ最 /』ィ直 が中間^ S域にあり、 且つ贿値の最大値 と最 zJィ直 の差カ沘 較的小さいことから、領域全体でコントラストが弱いと考えられる。 そのため図 1 6 Bに ような、領域のコントラストを強めるような翻変換曲線を職する。
0 ^且つ く 4095且つ ¾く の は、領域 Cに当てはまり、讀値の駄値 が明るい領域にあり、 且つ最 /Jィ直 が中間〜高贿領域にあるので、領域が全働に 比較的明るレヽ領域にあると考えられる。 そのため図 1 6 C〖 すよう ¾ ^域の明るさを全 体的に下げるような,変換曲線を している。
また、 上記のどの条件にも当てはまらなレ、 は、 ¾ 変換曲線の を行わず、 階調 変 自体をスキッ,プする。 顧した Ρ¾ 変換曲線は係聽出部 4 0 される。 係贿出部 4 0 4では、 第 3の雄形態におけるゲイン算出部 3 0 2と同様の手法によ り、 式 (1 7) によりゲイン gを算出する。 算出したゲイン gは Ιβ変換部 3 0 3、 エツ 、:¾£部2 0 1 ^¾¾され、 ¾ 変^ «、及びエッ^ t正麵に用いられる。
続レヽて第 5の ^態による作用効果にっレ、て説明する。
第 5の難形態によれば、 第 1成分画像に含まれる ^^的なエツ、^ f造に对してエッジ 強調を行うので、 第 2成分画像に含まれる微小な変動成分の影響を受けなレ、高精度なェッ ジ強調 が可能となる。
また、 各 ^ではなく、輝舰分に対して麵を行うようにしたことで、 各^ SIJに処理 を行う に比べ高速な が可能となる。
また、 第 1成分画像に対する階調変換処理により輝度があがり、 見掛け上の解 が劣 化する領域に関して、 ゲインに応じたェッジ強調処理を行うことで、 の低下を防ぐ ことができる。
また、 注目画素、 及び近^ g域の輝度値の最大値と最 /Jィ直の隱を取り、 暗い ¾ ^は明 るくコントラストを強め、 白とぴしている^^には暗くコントラストを強める等、 状況に 応じた 変換を行うので、 ¾S的な翻変 m«が可能となる。
図 1 8は、 画像分解部 1 0 5から画像合成部 1 0 8までの処理をソフトウエア処理によ り実現する のフローを示している。 ソフトウェアは、 記憶媒体に され、 あるい は、 通信回線を介して配信される。 ソフトウェアは、 コンピュータの RAMに読み込まれ てコンピュータの C PUによって実行され、 上 を実現する。
ステップ S O 1では、願像信号 Iを第 1成分画像 Uと第 2成分画像 Vに舊する。 ステップ S O 7では、 式 (1 3 ) に基づき、 第 1成分画像 Uから輝度成分 UY、 色誠 分 Ucい UC rを抽出する。 ステップ SI 2では、 輝 ^^分 UYを局應域に分割し、 領域毎の最大値と最小値に基 づき翻変換曲線を藤し、娜毎にゲイン gを算出する。
ステップ S 02では、 第 1成分画像 Uから、 図 3 B〖 されるような等方的なェッ 出フィルタを用レ、て注目画素におけるェッジ成分を抽出する。
ステップ S 06では、 ステップ S 02で抽出したェッジ成分に対して、 ゲイン gを用レヽ た補正麵を行う。
ステップ S 03では、 ステップ S 06で補正したエッジ成分を用いて、 第 1成分画像 U に対しェッジ強調 理を行う。
ステップ S 09では、 ェッジ強調処理後の第 1成分画像 Uに対し、 ステップ S 08で算 出したゲイン gに基づく階調変換を行う。
ステップ S 10では、 式 (14) に基づき、 エッジ強調鍵、 階調変擦理が施された 後の « ^分 UY、及び色誠分 UCb、 UCrからエッジ強調処理、 変^ L理が施され た第 1成分画像 Uを算出する。
ステップ SO 4では、 エッジ強調処理、 β¾ 変 ,理が施された後の第 1成分画像 Uと 第 2成分画像 Vを合成し、 合成画像 I ' を得る。
このように画像 部 105力ら画像合成部 108までの処理をソフトウェア処理によ り難してもよく、ハードウェア麵により翔する^^と同じ作用効果が奏される。 以上、 本発明の « ^態について説明したが、 上記雄形態〖鉢発明の適用例を示した に過ぎず、本発明の 範囲を上記 ^態の具体 W«成に限定する趣旨ではない。 本願は 2008年 1月 21日に日本国特許庁に出願された特願 2008— 10536に 基づく優先権を主張し、 この離の全ての内容は参照により本明細書に組み込まれる。

Claims

請 求 の 範 囲
1. i^ii像信号を画像のエッジおよひ 己エッジによって区分された平坦領域を含む前記 画像の大局的な構造を示す骨格成分である第 1成分画像、 およひ 像信号と廳己第 1成分画像に基づき算出される第 2成分画像を含む複数の成分画像に する画像 ϋ手 段と、
ΜΪΒ第 1成分画像に対してェッジ成分を抽出するェッ ^出手段と、
tinsェッジ成分に基づき爾己第 1成分画像に财るェッジ強調処理を行うエツジ強調手 段と、
を備える]
2. 麵像信号を画像のェッジおよひ蕭己ェッジ以外の部分から抽出した平 ±滅分からな る骨格成分である第 1成分画像、 およひ nara像信号と tins第 1成分画像に基づき算出 される第 2成分画像 ¾r^tf複数の成分画像に する画像 手段と、
膽己第 1成分画像に対してェッジ成分を抽出するェッ 出手段と、
ήίΐ ェッジ成分に基づき嫌己第 1成分画像に m "るエツジ強調 を行うエツジ強調手 段と、
を備える画»«
3. 請求項 1または 2に記載の画像 W¾置であって、
tins第 1成分画像に対して 変換に関するゲインを設定するゲイ ^定手段と、
IfiiEゲインに基づき ήϋΐΕエッジ成分を補正する補正手段と、 ΗίίΙΒ^ッジ¾¾調処理後の第 1成分画像に対して l己ゲインに基づき 変 を行う 変換手段と、
を備え、
ΙΞ^ッジ強調手段は、 ΙίίΙΞΜ正手段により補正された «ΠΕエッジ成分に基づき、 tijfS エッジ強調麵を行う、
4. 請求項 3に纖の 置であって、
嫌己ゲイ ^定手段は、
所定の |«変換曲線を設定する! ¾»換曲鍵定手段と、
Silt己 変換曲線に基づき ttifSゲインを算出するゲイ ^^出手段と、
を備える画 氍
5. 請求項 3に言 の画 置であって、
廳己ゲイ ^定手段は、
tins第 1成分画像に対して注目画素^"む近f s域毎にヒストグラムを算出するヒスト グラム算出手段と、
MIEヒストグラムに基づき Ιβ変換曲線を設定する |¾変換曲^! ¾定手段と、
tina 変換曲線に基づき M ゲインを算出するゲイ 出手段と、
を備える画 齓
6. 請求項 3に言 2¾の画 置であって、 tinsゲイ 定手段は、
第 1成分画像に対して注目画素 ^む近 ί繊域毎に画素の輝度値の最大 び最小 値を算出する算出手段と、
^¾大«ぴ最 直の関係に応じて予め設定された!^変換曲線を舰する^ 変換 曲^ 手段と、
Ιϋΐ己^ 変換曲線に基づき l己ゲインを算出するゲイン算出手段と、
を備える画
7. 請求項 3に纖の 置であって、
Figure imgf000034_0001
第 1成分画像に対し嫌 2ffi正ェッジ成分を加算することで嫌己 エッジ強調麵を行う、
8. 請求項 1から 7のレ、ずれか一つに言 2¾の! |»3¾置であつて、
ΙίίΐΕ第 2成分画像は辦源画像信号から IE第 1成分画像を蘭することにより得られ る、
9. 請求項 1から 7のレヽずれか一つに記載の 置であって、
ΙίίΙΞ第 2成分画像は嫌己原画像信号を廳己第 1成分画像で隨することにより得られ る、
1 0. 請求項 1から 7のレ、f¾Xか一つに言 の 置であって、 漏己画像連手段は、
IS第 1成分画像に対して、 Total Variation ノルムを算出するエネルギー算出手段 と、
嫌己 Total Variation ノルムを最 /WtTることにより、 B^®像信号から膽己第 1成 分画像を抽出する第 1成分抽出手段と、
を備える 齓 1 1 . 請求項 1または 2に記載の画像 W¾置であって、
Mfam®像信号は、複数の械分から構成され、
tins画像 手段、謝己エッ^ ¾出手 ひ 己エッジ強調手段は、 嫌 E^B像信号の に される、
1 2. 請求項 3に識の画^ «置であって、
觸 E^®像信号は、 複数の械分から構成され、
嫌己画像連手段、 嫌己ゲイン設定手段、 謝己エッ^ 出手段、 謂 S lE手段、 觸己ェ ッジ強調手 ¾¾ひ¾12 変換手段は、 tirfsje像信号の触飾に適用される、 m ^m.
3. 請求項 1または 2に記載の画像 W¾置であって、 Εβ像信号は、 複数の 分から構成され、
faiM像信号の械 に謂己画像 手段を適用し した、 械飾の編己第 1 成分画像に基づき、 爾己第 1成分画像の^^分を^ る) 分 手段を備え、 嫌 ッ、: ¾出手厳 U¾filS^ッジ強調手段は、 ΜΙΞ¾¾ ^に対し翻される、
Figure imgf000036_0001
1 4. 請求項 3に識の画^ w¾置であって、
m m i 複数の械分から構成され、
謂源画像信号の械飾に編己画像 手段を適用し連した、 械 の嫌己第 1 成ゝ画像に基づき、 tin己第 1成分画像の iM^分を^ r る 分^^手段を備え、 廳己ゲイ 定手段、 嫌己エツ、: ¾出手段、 tat正手段、 tiifEエッジ強調手段及ひ 記!^変換手段は、 嫌 s¾¾ ^分に対して薩される、
1 5. 原画像信号を画像のエッジおよび肖!Ξエッジによって区分された平坦領域を含む前 記画像の^的な構造を示す骨格成分である第 1成分画像、 およひ窗 ara像信号と嫌己 第 1成分画像に基づき算出される第 2成分画像^む複数の成分画像に する画像^? ステップと、
tilt己第 1成分画像に対してェッジ成分を抽出するエツジ抽出ステップと、
爾 ッジ成分に基づき廳己第 1成分画像に ¾ "るエツジ強調処理を行うエツジ強調ス テツプと、
をコンピュータに節させる画^ プログラム。
1 6. 顾像信号を画像のエッジおよひ ¾ίί|Ξエッジ: Wの部分から抽出した平職分から なる骨格成分である第 1成分画像、 およひ蕭 ara像信号と is第 1成分画像に基づき算 出される第 2成分画像 ¾r ^む複数の成分画像に^する画像^?ステップと、
嫌己第 1成分画像に対してェッジ成分を抽出するェッ 出ステップと、
rn^-ッジ成分に基づき tin己第 1成分画像に るエツジ強調処理を行うエツジ強調ス テツプと、
をコンピュータに実 ί亍させる画^ プログラム。 1 7. 請求項 1 5または 1 6に記載の画像 プログラムであって、
嫌己第 1成分画像に対して 変換に関するゲインを設定するゲイ ^定ステップと、 fiilEゲインに基づき嫌己エッジ成分を補正する補正ステップと、
ΙίίΙΞェッジ強調鍵後の第 1成分画像に対して、 漏己ゲインに基づき翻変難理を行 う翻変換ステップと、
を備え、
ΙίίΙΕ^ッジ強調ステップは、 tii ffi正ステップにより補正された補正エッジ成分に基づ き ΙΒ^ッジ強調麵を行う、
画^ 0®プログラム。 1 8. 請求項 1 5から 1 7のレ、ずれか一つに |Ε¾の画»理プロダラムを記憶したコンビ ユータ蘇り可能な記灘体。
1 9. 原画像信号を画像のエッジおよび tinsエッジによって区分された平坦領域を含む前 記画像の^的な構造を示す骨格成分である第 1成分画像、 およひ窗 像信号と嫌己 第 1成分画像に基づき算出される第 2成分画像 む複数の成分画像に^?する画像^? ステップと、
tillH第 1成分画像に対してェッジ成分を抽出するェッ 出ステップと、
m&^ッ、ジ成分に基づき ΐϋΐΒ第 1成分画像に ¾~ るェッジ強調処理を行うエツジ強調ス テツプと、
2 0. 願像信号を画像のエッジおよ rmiaエッジ の部分から抽出した平 ί滅分から なる骨格成分である第 1成分画像、 およ tmtarai像信号と漏己第 ι成分画像に基づき算 出される第 2成分画像 む複数の成分画像に^?する画像^?ステップと、
ΙίίΙΒ第 1成分画像に対してェッジ成分を抽出するェッ 出ステップと、
tiff己ェッ、ジ成分に基づき tin己第 1成分画像に るエツジ強調処理を行うエツジ強調ス テツプと、
を含む あ
2 1 · 請求項 1 9または 2 0に言 の画^ であって、
己第 1成分画像に対して^変換に関するゲインを設定するゲイ ^定ステップと、 ΙίίΐΞゲインに基づき藤 ッジ成分を補正する補正ステップと、
編己ェッジ 調処理後の第 1成分画像に対して、 tinsゲインに基づき ι¾ 変^理を行 う 変換ステップと、 ¾r ^み、
Figure imgf000039_0001
鍵 正ステップにより補正された補正ェッジ成分に基づ き ΜΙΒ^ッジ強調鍵を行う、
PCT/JP2008/072358 2008-01-21 2008-12-03 画像処理装置、画像処理プログラム、画像処理プログラムを記憶したコンピュータ読取り可能な記憶媒体、及び画像処理方法 WO2009093386A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-010536 2008-01-21
JP2008010536 2008-01-21

Publications (1)

Publication Number Publication Date
WO2009093386A1 true WO2009093386A1 (ja) 2009-07-30

Family

ID=40900900

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/072358 WO2009093386A1 (ja) 2008-01-21 2008-12-03 画像処理装置、画像処理プログラム、画像処理プログラムを記憶したコンピュータ読取り可能な記憶媒体、及び画像処理方法

Country Status (1)

Country Link
WO (1) WO2009093386A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152583A (ja) * 2012-01-25 2013-08-08 Nagoya Institute Of Technology 画像処理装置

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04282689A (ja) * 1991-03-12 1992-10-07 Matsushita Electric Ind Co Ltd 階調補正装置
JPH04321379A (ja) * 1991-01-08 1992-11-11 Nec Corp 適応画像強調回路
JPH10178537A (ja) * 1996-10-16 1998-06-30 Canon Inc 画像処理装置及び方法
JPH10210323A (ja) * 1997-01-27 1998-08-07 Matsushita Electric Ind Co Ltd 階調補正装置ならびにそれを用いた映像信号処理装置
JPH10248024A (ja) * 1997-03-06 1998-09-14 Matsushita Electric Ind Co Ltd 映像輝度信号の階調補正装置
JP2001008038A (ja) * 1999-06-24 2001-01-12 Fuji Photo Film Co Ltd 画像処理方法および画像処理装置およびマルチバンドカラー写真システム
JP2003006636A (ja) * 2001-04-03 2003-01-10 Nikon Corp 画像処理装置、画像処理プログラムおよび電子カメラ
JP2004266757A (ja) * 2003-03-04 2004-09-24 Sony Corp 画像処理装置および方法
JP2006129105A (ja) * 2004-10-29 2006-05-18 Matsushita Electric Ind Co Ltd 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
JP2006128986A (ja) * 2004-10-28 2006-05-18 Matsushita Electric Ind Co Ltd 画像処理装置
WO2007114363A1 (ja) * 2006-03-31 2007-10-11 Nikon Corporation 画像処理方法
JP2007329619A (ja) * 2006-06-07 2007-12-20 Olympus Corp 映像信号処理装置と映像信号処理方法、および映像信号処理プログラム。

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04321379A (ja) * 1991-01-08 1992-11-11 Nec Corp 適応画像強調回路
JPH04282689A (ja) * 1991-03-12 1992-10-07 Matsushita Electric Ind Co Ltd 階調補正装置
JPH10178537A (ja) * 1996-10-16 1998-06-30 Canon Inc 画像処理装置及び方法
JPH10210323A (ja) * 1997-01-27 1998-08-07 Matsushita Electric Ind Co Ltd 階調補正装置ならびにそれを用いた映像信号処理装置
JPH10248024A (ja) * 1997-03-06 1998-09-14 Matsushita Electric Ind Co Ltd 映像輝度信号の階調補正装置
JP2001008038A (ja) * 1999-06-24 2001-01-12 Fuji Photo Film Co Ltd 画像処理方法および画像処理装置およびマルチバンドカラー写真システム
JP2003006636A (ja) * 2001-04-03 2003-01-10 Nikon Corp 画像処理装置、画像処理プログラムおよび電子カメラ
JP2004266757A (ja) * 2003-03-04 2004-09-24 Sony Corp 画像処理装置および方法
JP2006128986A (ja) * 2004-10-28 2006-05-18 Matsushita Electric Ind Co Ltd 画像処理装置
JP2006129105A (ja) * 2004-10-29 2006-05-18 Matsushita Electric Ind Co Ltd 視覚処理装置、視覚処理方法、視覚処理プログラムおよび半導体装置
WO2007114363A1 (ja) * 2006-03-31 2007-10-11 Nikon Corporation 画像処理方法
JP2007329619A (ja) * 2006-06-07 2007-12-20 Olympus Corp 映像信号処理装置と映像信号処理方法、および映像信号処理プログラム。

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Eizo Media Shori Symposium Dai 11 Kai Symposium Shiryo", 8 November 2006, article ISHII Y. ET AL.: "Jozangata Kokkaku/Texture Bunri ni Motozuku Gazo Kakudai", pages: 121, 122 *
"Eizo Media Shori Symposium Dai 11 Kai Symposium Shiryo", 8 November 2006, article ISHII Y. ET AL.: "Jozangata Kokkaku/Texture Bunri no Zatsuon Taisei to Gazo Zatsuon Jokyo eno Oyo", pages: 29, 30 *
ISHII Y. ET AL.: "Jozangata Kokkaku/Texture Gazo Bunri no Gazo Shori eno Oyo", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J90-D, no. 7, 1 July 2007 (2007-07-01), pages 1682 - 1685 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013152583A (ja) * 2012-01-25 2013-08-08 Nagoya Institute Of Technology 画像処理装置

Similar Documents

Publication Publication Date Title
KR101030872B1 (ko) 시각 처리 장치, 시각 처리 방법, 화상 표시 장치, 텔레비젼, 정보 단말 장치, 카메라, 집적회로 및 기록 매체
JP4526445B2 (ja) 撮像装置
TWI511559B (zh) 影像處理方法
EP2624204B1 (en) Image processing apparatus and method of controlling the same
JP4746575B2 (ja) 画像処理装置及びその方法
CN106664368A (zh) 图像处理装置、图像处理方法、记录介质以及程序
US8488899B2 (en) Image processing apparatus, method and recording medium
Hessel et al. An extended exposure fusion and its application to single image contrast enhancement
JP2009266233A (ja) 画像処理装置および画像処理方法
CN110246090B (zh) 一种图像处理的方法和设备
JP2006114005A (ja) 階調変換装置、プログラム、電子カメラ、およびその方法
JP2015056013A (ja) 画像処理装置
JP2010055410A (ja) 画像処理装置、画像処理方法、および画像処理プログラム
US8200038B2 (en) Image processing apparatus and image processing method
JP5810384B2 (ja) 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
CN103931198B (zh) 在交通摄影中进行动态范围压缩的方法
Krawczyk et al. Contrast restoration by adaptive countershading
JP2008011286A (ja) 画像処理プログラムおよび画像処理装置
WO2009093386A1 (ja) 画像処理装置、画像処理プログラム、画像処理プログラムを記憶したコンピュータ読取り可能な記憶媒体、及び画像処理方法
JP4742068B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2006114006A (ja) 階調変換装置、プログラム、電子カメラ、およびその方法
JP4768869B1 (ja) 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP2009050035A (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
JP2021082211A (ja) 画像処理装置、画像処理方法、及びプログラム
CN112184583B (zh) 一种图像降噪方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08871504

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08871504

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP