WO2007049418A1 - 画像処理システム、画像処理プログラム - Google Patents

画像処理システム、画像処理プログラム Download PDF

Info

Publication number
WO2007049418A1
WO2007049418A1 PCT/JP2006/318967 JP2006318967W WO2007049418A1 WO 2007049418 A1 WO2007049418 A1 WO 2007049418A1 JP 2006318967 W JP2006318967 W JP 2006318967W WO 2007049418 A1 WO2007049418 A1 WO 2007049418A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
signal
unit
noise
image processing
Prior art date
Application number
PCT/JP2006/318967
Other languages
English (en)
French (fr)
Inventor
Takao Tsuruoka
Original Assignee
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corporation filed Critical Olympus Corporation
Priority to JP2007542276A priority Critical patent/JPWO2007049418A1/ja
Priority to EP06798293A priority patent/EP1947840A4/en
Publication of WO2007049418A1 publication Critical patent/WO2007049418A1/ja
Priority to US12/107,157 priority patent/US8035705B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • H04N25/136Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements using complementary colours
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/142Edging; Contouring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an image processing system for extracting an edge signal from a video signal from an image sensor.
  • the present invention relates to an image processing program.
  • a digital imaging device such as a digital camera or a digital video camera generally includes an imaging device, an analog circuit that performs various analog processing on an analog signal output from the imaging device, and a signal of the analog circuit. And an AZD converter that converts the signal into a digital signal.
  • a digital signal obtained by such an AZD converter of a digital imaging device generally contains various noise components.
  • an edge signal is extracted from a video signal including such a noise component
  • the influence of the noise component is conventionally suppressed by performing a process called coring.
  • Japanese Patent Application Laid-Open No. 8-107565 describes a technique for extracting an edge component for each of R, G, and B signals and performing a coring process based on a predetermined noise discrimination reference value. Has been. As a result, the influence of thermal noise can be reduced and edge components can be extracted with higher accuracy.
  • Japanese Patent Application Laid-Open No. 2005-130297 describes a technique for dynamically controlling a coring process by dynamically estimating a noise component such as a video signal force. As a result, it is possible to extract edge components with high accuracy following the dynamically changing noise components.
  • Japanese Patent Application Laid-Open No. 2005-175718 describes a technique for performing a high-quality noise reduction process by dynamically estimating a noise amount related to a luminance signal and a color difference signal.
  • the technique described in Japanese Patent Laid-Open No. 8-107565 as described above is such that a noise identification reference value is statically given.
  • the noise caused by the image sensor changes dynamically depending on factors such as the video signal level, gain, and image sensor temperature at the time of shooting. Therefore, the technique described in the publication has a problem in that it cannot perform optimum noise estimation corresponding to the dynamic change of each factor, and the accuracy of the coring process may decrease.
  • the technique described in the publication corrects an edge signal by a noise component. However, since the noise component and the edge signal have different properties, they cannot always be corrected with high accuracy! / There is a problem!
  • the present invention has been made in view of the above circumstances, and is an image processing system capable of stably performing highly accurate edge component extraction even for a video signal in which various types of noise are mixed.
  • An object of the present invention is to provide an image processing program.
  • the present invention also provides a low-cost image processing system capable of obtaining a high-quality video signal.
  • An object of the present invention is to provide an image processing program.
  • an image processing system for processing a video signal from an imaging device, and extracts an edge signal from the video signal.
  • an image processing program is an image processing program for causing a computer to process a video signal from an imaging device, and for the computer to extract an edge signal from the video signal force. And an invalid edge estimation step for estimating an edge signal due to a noise component based on the video signal, and an edge correction step for correcting the edge signal based on an edge signal due to the noise component. It is a program to execute.
  • FIG. 1 is a block diagram showing a configuration of an image processing system in Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing a configuration of a region of interest consisting of 3 ⁇ 3 pixels used for edge extraction processing in the first embodiment.
  • FIG. 3 is a diagram showing a configuration of an isotropic edge extraction filter that can be applied to a 3 ⁇ 3 pixel attention area in the first embodiment.
  • FIG. 4 is a diagram showing a configuration of a horizontal edge extraction filter and a vertical edge extraction filter that can be applied to a 3 ⁇ 3 pixel attention area in the first embodiment.
  • FIG. 5 is a block diagram showing a configuration of an invalid edge estimation unit in the first embodiment.
  • FIG. 6 is a diagram showing the relationship between the noise level and the signal level in the first embodiment.
  • FIG. 7 is a diagram showing the relationship of the invalid edge signal to the noise amount in the first embodiment.
  • FIG. 8 is a diagram showing an edge model in the first embodiment.
  • FIG. 9 is a diagram for explaining a method for calculating an invalid edge signal based on an edge model in the first embodiment.
  • FIG. 10 is a block diagram showing a configuration of an edge correction unit in the first embodiment.
  • FIG. 11 shows a coring process response in the edge correction unit in the first embodiment. Diagram.
  • FIG. 12 is a block diagram showing another configuration example of the invalid edge estimation unit in the first embodiment.
  • FIG. 13 is a block diagram showing another configuration example of the image processing system in the first embodiment.
  • FIG. 14 is a flowchart showing the overall signal processing flow by the image processing program in the first embodiment.
  • FIG. 15 is a flowchart showing details of the invalid edge estimation process in step S4 of FIG.
  • FIG. 16 is a block diagram showing a configuration of an image processing system in Embodiment 2 of the present invention.
  • FIG. 17 is a block diagram showing a configuration of a noise processing unit in the second embodiment.
  • FIG. 18 is a block diagram showing a configuration example of an invalid edge estimation unit in the second embodiment.
  • FIG. 19 is a block diagram showing another configuration example of the invalid edge estimation unit in the second embodiment.
  • FIG. 20 is a block diagram showing a configuration of an edge correction unit in the second embodiment.
  • FIG. 21 is a diagram showing a coring process response in the edge correction unit in the second embodiment.
  • FIG. 22 is a flowchart showing the overall signal processing flow by the image processing program in the second embodiment.
  • FIG. 23 is a flowchart showing details of noise processing in step S30 of FIG.
  • FIG. 24 is a flowchart showing details of the invalid edge estimation process in step S31 of FIG.
  • FIG. 25 is a block diagram showing a configuration of an image processing system in Embodiment 3 of the present invention.
  • FIG. 26 is a diagram showing a configuration of a Bayer-type primary color filter in the third embodiment.
  • FIG. 27 is a diagram showing a configuration of a color difference line sequential complementary color filter in the third embodiment.
  • FIG. 28 is a block diagram showing a configuration example of an invalid edge estimation unit in the third embodiment.
  • FIG. 29 is a block diagram showing another configuration example of the invalid edge estimation unit in the third embodiment.
  • FIG. 30 is a block diagram showing a configuration of an edge correction unit in the third embodiment.
  • FIG. 31 is a diagram showing examples of responses in the coring process in the third embodiment.
  • FIG. 32 In the third embodiment, the flow of the entire signal processing by the image processing program is shown. The flowchart shown.
  • FIG. 33 is a flowchart showing details of the invalid edge estimation process in step S62 of FIG.
  • FIG. 34 is a block diagram showing a configuration of an image processing system in Embodiment 4 of the present invention.
  • FIG. 35 is a flowchart showing the overall signal processing flow by the image processing program in the fourth embodiment.
  • FIG. 36 is a block diagram showing a configuration of an image processing system in Embodiment 5 of the present invention.
  • FIG. 37 is a diagram showing an example of a method for YZC separation of a video signal obtained from an image sensor device in which a Bayer-type primary color filter is arranged on the front surface in the fifth embodiment.
  • FIG. 38 is a diagram showing a configuration of a horizontal edge extraction filter and a vertical edge extraction filter according to the color component of the target pixel in the fifth embodiment.
  • FIGS. 1 to 15 show Embodiment 1 of the present invention
  • FIG. 1 is a block diagram showing the configuration of an image processing system
  • FIG. 2 shows the configuration of a region of interest consisting of 3 ⁇ 3 pixels used for edge extraction processing.
  • Fig. 3 shows the configuration of an isotropic edge extraction filter that can be applied to a 3 x 3 pixel region of interest.
  • Fig. 4 shows a horizontal edge extraction filter that can be applied to a 3 x 3 pixel region of interest.
  • Fig. 5 is a block diagram showing the configuration of the invalid edge estimator
  • Fig. 6 is a diagram showing the relationship of the amount of noise to the signal level
  • Fig. 7 is a diagram of the invalid edge signal relative to the amount of noise.
  • FIG. 8 is a diagram showing the relationship
  • FIG. 8 is a diagram showing the edge model
  • FIG. 9 is a diagram for explaining the method of calculating the invalid edge signal based on the edge model
  • FIG. 10 is a block diagram showing the configuration of the edge correction unit.
  • Figure 11 shows the core in the edge correction unit.
  • FIG. 12 is a block diagram showing another configuration example of the invalid edge estimation unit
  • FIG. 13 is a block diagram showing another configuration example of the image processing system
  • FIG. 14 is based on the image processing program.
  • FIG. 15 is a flowchart showing details of the invalid edge estimation process in step S4 of FIG.
  • the image processing system is an example in which the image processing system of the present invention is applied to a digital camera.
  • This image processing system includes a lens system 100, an aperture 101, a CCD 102, a temperature sensor 117, an amplification unit 103, an AZD conversion unit 104, a buffer 105, a photometric evaluation unit 106, and a focal point.
  • the lens system 100 is for forming an optical image of a subject on the imaging surface of the CCD 102.
  • the stop 101 is for changing the brightness of the optical image formed on the imaging surface of the CCD 102 by defining the passing range of the subject light beam formed by the lens system 100.
  • the CCD 102 is an image sensor for photoelectrically converting an optical image to be formed and outputting it as an analog video signal.
  • a monochrome single-plate CCD is assumed as the CCD 102.
  • the image sensor is not limited to a CCD, and CMOS or other image sensors may be used.
  • the temperature sensor 117 is a collection unit and a noise estimation unit, and substantially measures the temperature of the CCD 102 and outputs it to the control unit 115.
  • the amplification unit 103 is for amplifying the video signal output from the CCD 102.
  • the amplification amount by the amplification unit 103 is set by the photometric evaluation unit 106 based on the control of the control unit 115.
  • the AZD conversion unit 104 is output from the CCD 102 based on the control of the control unit 115 and is amplified.
  • the analog video signal amplified by 103 is converted into a digital video signal.
  • the buffer 105 is for temporarily storing the digital video signal output from the AZD conversion unit 104.
  • the photometric evaluation unit 106 performs buffer 10 based on the control of the control unit 115 in the pre-photographing mode.
  • the in-focus detection unit 107 detects the edge strength in the video signal stored in the buffer 105 based on the control of the control unit 115 so that the edge strength becomes maximum.
  • the focus signal is obtained by controlling the AF motor 108.
  • the AF motor 108 is a drive source for driving the AF lens included in the lens system 100 under the control of the in-focus detection unit 107.
  • the edge extraction unit 109 sequentially extracts a 3 ⁇ 3 pixel size attention area as shown in FIG. 2 from the video signal stored in the buffer 105 based on the control of the control unit 115 during actual photographing.
  • the invalid edge estimation unit 110 sequentially selects a region of interest having the same 3 ⁇ 3 pixel size as that of the edge extraction unit 109 from the video signal stored in the buffer 105 based on the control of the control unit 115 during the actual photographing. Extracted and invalid edge signal IE due to noise component at target pixel P
  • the edge correction unit 111 Based on the control of the control unit 115, the edge correction unit 111 performs a coring process on the edge signal E from the edge extraction unit 109 using the invalid edge signal IE from the invalid edge estimation unit 110. Edge correction means.
  • the edge enhancement unit 112 is the same 3 X as the edge extraction unit 109 based on the control of the control unit 115.
  • the target pixel P within the three-pixel size is sequentially extracted and the coring process from the edge correction unit 111 is performed.
  • Edge enhancement means that performs edge enhancement processing using the processed edge signal E ′.
  • the signal processing unit 113 Based on the control of the control unit 115, the signal processing unit 113 performs a known compression process on the image signal after edge enhancement output from the edge enhancement unit 112, and outputs the processed signal. This is transferred to the part 114.
  • the output unit 114 records and stores the video signal output from the signal processing unit 113 in a recording medium such as a memory card.
  • the control unit 115 is configured by a microcomputer or the like, for example, and the amplification unit 103 , AZD conversion unit 104, photometric evaluation unit 106, in-focus detection unit 107, edge extraction unit 109, invalid edge estimation unit 110, edge correction unit 111, edge enhancement unit 112, signal processing unit 113, output unit 114, external IZF It is connected to the unit 116 in both directions, and is a control means for controlling the entire digital camera including them. Further, a signal from a temperature sensor 117 disposed in the vicinity of the CCD 102 is input to the control unit 115.
  • the control unit 115 also serves as a collection unit, a noise estimation unit, and a gain calculation unit.
  • the external IZF unit 116 is an interface for inputting from a user to the digital camera to which the image processing system is applied.
  • the external IZF unit 116 performs a power switch for turning the power on and off, and a photographing operation. It includes a shortcut button for starting, a mode switching button for switching shooting modes, and various other modes.
  • the user inputs pre-shooting start input by pressing the first step of the two-stage shirt button, and main shooting start input by pressing the second step of the shot button. It has become possible to do. Further, the user can set the ISO sensitivity through the external I / F unit 116.
  • the external IZF unit 116 outputs the input information to the control unit 115.
  • the user presets shooting conditions such as ISO sensitivity via the external IZF unit 116.
  • the subject image force CCD 102 imaged through the lens system 100 and the aperture 101 is subjected to photoelectric conversion and output as an analog video signal.
  • the analog video signal is amplified in consideration of the ISO sensitivity by the amplification unit 103, then converted into a digital video signal by the AZD conversion unit 104, and gcfed to the nota 105.
  • the video signal stored in the buffer 105 is a photometric evaluation unit 106 and a focus detection unit 1. 07 and are transferred respectively.
  • the photometric evaluation unit 106 controls the aperture value of the aperture 101, the electronic shutter speed of the CCD 102, the amplification rate of the amplifying unit 103, and the like based on the video signal so as to achieve appropriate exposure as described above.
  • the in-focus detection unit 107 detects the edge intensity as described above based on the video signal, and controls the AF motor 108 so as to maximize the edge intensity, thereby obtaining an in-focus signal.
  • the video signal in the buffer 105 obtained by the actual photographing is transferred to the edge extraction unit 109, the invalid edge estimation unit 110, and the edge enhancement unit 112, respectively.
  • the edge extraction unit 109 Based on the control of the control unit 115, the edge extraction unit 109 detects the pixel of interest P as shown in FIG.
  • the edge signal E in 11 is extracted.
  • the edge extraction filter shown in FIG. 3 is an example of an isotropic edge extraction filter. Note that the edge extraction filter is not limited to the isotropic edge extraction filter as shown in FIG. For example, a horizontal edge extraction filter Eh as shown in FIG. 4 (A) and a vertical edge extraction filter Ev as shown in FIG. As shown in Equation 1, the edge signal ⁇ can also be obtained.
  • edge extraction unit 109 transfers the extracted edge signal E to the edge correction unit 111.
  • the invalid edge estimation unit 110 Based on the control of the control unit 115, the invalid edge estimation unit 110 sequentially extracts the attention region P having the same 3 ⁇ 3 pixel size as the edge extraction unit 109, and the noise component ⁇ 11 in the attention pixel P
  • the invalid edge estimation unit 110 transfers the invalid edge signal IE caused by the noise component obtained by estimation to the edge correction unit 111.
  • the edge correction unit 111 Based on the control of the control unit 115, the edge correction unit 111 performs a coring process on the edge signal E from the edge extraction unit 109 using the invalid edge signal IE from the invalid edge estimation unit 110. . The edge correction unit 111 transfers the edge signal E, which has been subjected to the coring process, to the edge enhancement unit 112.
  • the edge enhancement unit 112 is the same 3 X as the edge extraction unit 109 based on the control of the control unit 115.
  • the target pixel P within the three-pixel size is sequentially extracted and the coring process from the edge correction unit 111 is performed.
  • g in Equation 2 means a predetermined gain value, and takes a value of about 0.5 to 4.0, for example. Then, the edge enhancement unit 112 transfers the video signal subjected to the edge enhancement process to the signal processing unit 113.
  • each processing of the edge extraction unit 109, the invalid edge estimation unit 110, the edge correction unit 111, and the edge enhancement unit 112 described above has a 3 ⁇ 3 pixel size based on the control of the control unit 115.
  • the attention area of the 3 ⁇ 3 pixel size as shown in FIG. It is set to overlap every other row or two columns (ie, one row or one column apart)!
  • the signal processing unit 113 Based on the control of the control unit 115, the signal processing unit 113 performs a known compression process or the like on the video signal after the edge enhancement processing output from the edge enhancement unit 112 as described above. The processed signal is transferred to the output unit 114.
  • the output unit 114 records and stores the video signal output from the signal processing unit 113 in a recording medium such as a memory card.
  • the invalid edge estimating unit 110 includes an average calculating unit 200, a gain calculating unit 201 that is a collecting unit and a gain calculating unit, a standard value adding unit 202 that is an adding unit, and a parameter ROM 203 that is a recording unit.
  • a parameter selection unit 204 serving as a parameter selection unit, an interpolation unit 205 serving as an interpolation unit, and a correction unit 206 serving as an interpolation unit.
  • the buffer 105 is connected to the average calculation unit 200.
  • the average calculation unit 200 is connected to the parameter selection unit 204.
  • the gain calculation unit 201, the standard value assigning unit 202, and the parameter ROM 203 are connected to the parameter selection unit 204, respectively.
  • the parameter selection unit 204 is connected to the interpolation unit 205 and the correction unit 206, respectively.
  • the interpolation unit 205 is connected to the edge correction unit 111 via the correction unit 206.
  • control unit 115 is connected to the average calculation unit 200, the gain calculation unit 201, the standard value assigning unit 202, the parameter selection unit 204, the interpolation unit 205, and the correction unit 206 in both directions, and these are connected. It comes to control.
  • the average calculation unit 200 reads the video signal of the attention area P as shown in FIG. 2 from the buffer 105, and calculates the average value AV of the video signal of the attention area P as follows. Calculate as shown in Equation 3.
  • the average calculation unit 200 transfers the calculated average value AV to the parameter selection unit 204.
  • the gain calculation unit 201 obtains the amplification amount in the amplification unit 103 based on at least one of the ISO sensitivity transferred from the control unit 115 and the information on the exposure condition, and calculates the obtained amplification amount. Transfer to parameter selection unit 204.
  • the control unit 115 acquires the temperature information of the CCD 102 from the temperature sensor 117 and transfers the acquired temperature information to the parameter selection unit 204.
  • the parameter selection unit 204, the interpolation unit 205, and the correction unit 206 are the average value of the attention area from the average calculation unit 200, the gain information from the gain calculation unit 201, and the temperature information from the control unit 115. Based on the above, the invalid edge signal IE caused by the noise component is estimated.
  • FIG. 6 is a plot of the relationship between the signal level L and the noise amount N.
  • the noise amount N shows a tendency to increase as the signal level L increases.
  • the increase is a quadratic curve increase with respect to the signal level L. Therefore, when the increase as shown in FIG. 6 is modeled by using a quadratic function as disclosed in Japanese Patent Laid-Open No. 2005-175718, the following equation 4 is obtained.
  • the noise amount ⁇ ⁇ ⁇ ⁇ does not change only by the change in the signal level L but also changes depending on the temperature of the imaging element and the gain for the video signal.
  • FIG. 6 is a plot of noise amount N for three ISO sensitivities 100 (gain X I), 200 (gain X 2), and 400 (gain X 4) related to gain at a certain temperature t.
  • the individual curves shown in FIG. 6 have a shape as shown in Equation 4 and their coefficients vary depending on the ISO sensitivity associated with the gain.
  • the noise amount N also changes depending on the temperature of the image sensor, and generally shows a tendency to increase as the temperature of the image sensor increases (the temperatures are 20 ° C, 50 ° C, 80 ° C). ° C is shown as an example).
  • N a L 2 + ⁇ L + y
  • a, j8, and ⁇ are constant terms determined depending on the gain g and the temperature t.
  • FIG. 7 shows a case where a noise amount N is added to a video signal in a flat area, and this is added to FIG. 3 or FIG.
  • This is a plot of the invalid edge signal IE caused by the noise component obtained by applying the edge extraction filter as shown in Fig. 4.
  • the invalid edge signal IE tends to increase as the noise amount N increases as shown in the figure.
  • the increase at this time is a cubic curve increase with respect to the noise amount N. Therefore, when the increase as shown in Fig. 7 is modeled using a cubic function, the following equation 6 is obtained.
  • ⁇ , ⁇ , ⁇ , and ⁇ are constant terms. If the edge extraction filter is fixed, it is unique.
  • Equation 5 the relationship between the signal level L and the invalid edge signal IE caused by the noise component can be formulated as an edge model.
  • the edge model shown in Fig. 8 is simplified. That is, in the simplified model as shown in FIG. 8, the function that gives the maximum invalid edge signal is selected as the reference edge model, and this reference edge model is represented by a broken line having a predetermined number of inflection points. Approximate.
  • the inflection point of the broken line is expressed by coordinate data (L, IE) composed of the signal level L and the invalid edge signal IE.
  • n indicates the inflection point number.
  • a correction coefficient k for deriving other edge models is prepared for the reference edge model force. This correction factor k is
  • signal level 1 belongs to which section of the reference edge model Search for.
  • nn n + 1 n + 1 belonging to the interval between signal level 1 force (L, IE) and (L, IE)
  • the coordinate data (L, IE) and the correction coefficient k of the inflection point of the reference edge model as described above are recorded in the parameter ROM 203.
  • the norm selection unit 204 uses the average value AV of the region of interest from the average calculation unit 200, the signal level 1, the gain g based on the gain information from the gain calculation unit 201, and the temperature from the control unit 115. Set the temperature t based on the information.
  • the parameter selection unit 204 searches the parameter ROM 203 for the coordinate data (L 1, IE 2) and (L 1, IE) of the section to which the signal level 1 belongs, and transfers this to the interpolation unit 205 n + 1 n + 1
  • the parameter selection unit 204 searches the parameter ROM 203 for the correction coefficient k.
  • the interpolation unit 205 uses the signal level 1 from the parameter selection unit 204 and the coordinate data (L, IE) and (L, IE) of the section to Based on nn n + 1 n + 1
  • the reference invalid edge signal IE in the edge model is calculated and transferred to the correction unit 206.
  • the correction unit 206 uses the correction coefficient k from the parameter selection unit 204 and the reference invalid edge signal IE from the interpolation unit 205 to invalidate based on Equation 8 gt 1
  • the edge signal IE is calculated, and this is used as the invalid edge signal IE of the target pixel P.
  • Correction unit 206
  • the edge correction unit 111 includes a switching unit 300, an adding unit 301 serving as a coring unit, a subtracting unit 302 serving as a coring unit, and a replacement unit 303 serving as a coring unit.
  • the edge extraction unit 109 is connected to the switching unit 300.
  • Switching unit 300 is connected to adding unit 301, subtracting unit 302, and replacing unit 303, respectively.
  • the adding unit 301, the subtracting unit 302, and the replacing unit 303 are connected to the edge enhancing unit 112, respectively.
  • the invalid edge estimation unit 110 is connected to the switching unit 300, the adding unit 301, and the subtracting unit 302, respectively.
  • the control unit 115 is bi-directionally connected to the switching unit 300, the addition unit 301, the subtraction unit 302, and the replacement unit 303, and controls them.
  • the switching unit 300 switches from the edge extraction unit 109 to the target pixel P.
  • the switching unit 300 sends the edge signal E to the adding unit 301 when IE> E, and ⁇ > 1
  • the edge signal E is transferred to the subtraction unit 302, and when IE ⁇ E ⁇ —IE, the edge signal E is transferred to the replacement unit 303.
  • the addition unit 301 reads the invalid edge signal IE from the invalid edge estimation unit 110 and transfers the edge signal E when the edge signal E is transferred from the switching unit 300.
  • the correction is performed by adding the invalid edge signal IE to E, and the corrected edge signal E is transferred to the edge enhancement unit 112.
  • the subtraction unit 302 reads the invalid edge signal IE from the invalid edge estimation unit 110 when the edge signal E is transferred from the switching unit 300, and the edge signal E In addition, correction is performed by subtracting the invalid edge signal IE, and the corrected edge signal E, is transferred to the edge enhancement unit 112.
  • the replacement unit 303 performs correction to replace the edge signal E with 0 when the edge signal E is transferred from the switching unit 300, and the corrected edge Transfer signal E to edge enhancement unit 112.
  • Fig. 11 illustrates the characteristics of Equation 9, and when the absolute value of the input edge signal E is less than or equal to the invalid edge signal IE, the output edge signal E ' The coring process in which becomes zero.
  • related information such as the temperature, ISO sensitivity, and exposure information of the image sensor is used to estimate the edge signal due to the noise component.
  • the present invention is not limited to such a configuration. For example, as shown in FIG. 12, an edge signal caused by a noise component can be estimated based only on the signal level.
  • the nota 105 is connected to the target pixel extraction unit 400.
  • the target pixel extraction unit 400 is connected to the parameter selection unit 204.
  • the parameter ROM 401 is connected to the parameter selection unit 204.
  • the parameter selection unit 204 is connected to the interpolation unit 205.
  • the interpolation unit 205 is connected to the edge correction unit 111!
  • control unit 115 is also connected to the target pixel extraction unit 400 in both directions, and controls this.
  • the pixel-of-interest extraction unit 400 reads the pixel-of-interest P as shown in FIG. 2 from the buffer 105 based on the control of the control unit 115 and transfers it to the parameter selection unit 204.
  • the meter selection unit 204 and the interpolation unit 205 receive the target pixel from the target pixel extraction unit 400. Based on the signal level of P, the invalid edge signal IE caused by the noise component is estimated.
  • the parameter ROM 401 only the coordinate data (L, IE) of the inflection point of a single edge model corresponding to a predetermined temperature and a predetermined gain value as shown in FIG. 8 is recorded.
  • the recorded edge model is treated as a reference edge model.
  • the parameter selection unit 204 reads the coordinate data of the section to which the signal level 1 of the target pixel P belongs (
  • L, IE) and (L, IE) are searched from the parameter ROM 401, and this is searched for by the interpolation unit 20 n n n + 1 n + 1
  • the interpolation unit 205 uses the signal level 1 from the parameter selection unit 204 and the coordinate data (L, IE) and (L, IE) of the section to Based on nn n + 1 n + 1
  • the interpolation unit 205 calculates
  • the reference invalid edge signal IE is transferred to the edge correction unit 111 as the invalid edge signal IE.
  • the configuration as shown in FIG. 12 is adopted, the configuration required for estimating the edge signal due to the noise component can be simplified, so that the cost of the image processing system is reduced. It becomes possible.
  • the image processing system includes the lens system 100, the aperture 101, and the CCD 102.
  • the imaging unit including the temperature sensor 117, the amplification unit 103, the AZD conversion unit 104, the photometric evaluation unit 106, the in-focus detection unit 107, and the AF motor 108 is configured integrally.
  • the image processing system is not necessarily limited to such a configuration.
  • the imaging unit may be a separate body. That is, the image processing system shown in FIG. 13 reads and processes a video signal recorded by a separate imaging unit and recorded on a recording medium such as a memory card in the form of unprocessed raw data. It is supposed to be. However, at this time, it is assumed that accompanying information such as an imaging condition related to the video signal is recorded on the recording medium as a header portion or the like.
  • the transmission of various information from a separate imaging unit to the image processing system is not limited to being performed via a recording medium, but may be performed via a communication line or the like!
  • the image processing system shown in FIG. 13 is different from the image processing system shown in FIG. 0, Iris 101, CCD102, Temperature sensor 117, Amplifier 103, AZD converter 104, Photometric evaluation unit 106, Focus detection unit 107, AF motor 108 are omitted, Input unit 500, Header information analysis unit 501 It has an additional configuration. Since the other basic configuration of the image processing system shown in FIG. 13 is the same as that shown in FIG. 1, the same name is assigned to the same configuration, and the description is omitted as appropriate. However, only the differences will be explained.
  • Input unit 500 is connected to buffer 105 and header information analysis unit 501.
  • control unit 115 is connected to the input unit 500 and the header information analysis unit 501 in both directions, and controls them.
  • a processing operation is started via the external IZF unit 116 such as a mouse or a keyboard
  • a video signal and header information stored in a recording medium such as a memory card are read via the input unit 500.
  • the video signal is transferred to the buffer 105, and the header information is transferred to the header information analysis unit 501.
  • the header information analysis unit 501 Based on the header information transferred from the input unit 500, the header information analysis unit 501 extracts and controls information at the time of shooting (that is, exposure conditions, ISO sensitivity, temperature of the image sensor, etc. as described above). Forward to part 115.
  • the force based on hardware processing is not limited to such a configuration.
  • the video signal from the CCD 102 is recorded as raw raw data on a recording medium such as a memory card, and accompanying information such as imaging conditions (for example, the temperature of the image sensor at the time of shooting from the control unit 115). And gain) are recorded on the recording medium as header information.
  • the computer executes an image processing program, which is separate software, and cause the computer to read the information on the recording medium for processing.
  • the imaging unit force may be transmitted not only via a recording medium but also via a communication line or the like to transmit various types of information to the computer. Referring to FIG. 14, the main routine of the processing by the image processing program will be described.
  • an edge signal at the target pixel is extracted using an isotropic edge extraction filter as shown in FIG. 3, for example (step S3).
  • an invalid edge signal due to the noise component in the target pixel is estimated (step S 4).
  • step S5 it is determined whether or not the absolute value of the edge signal is equal to or less than the invalid edge signal.
  • step S6 when the absolute value of the edge signal is larger than the invalid edge signal, it is further determined whether or not the edge signal is larger than the invalid edge signal (step S6).
  • the edge signal is equal to or less than the invalid edge signal in this step S6 (when —IE> E), the invalid edge signal is added to the edge signal (step S9).
  • step S8 If the edge signal is larger than the invalid edge signal in step S6 (E> IE), the invalid edge signal is subtracted from the edge signal (step S8).
  • step S7 when the absolute value of the edge signal is equal to or less than the invalid edge signal in step S5 (when IE ⁇ E ⁇ —IE), the edge signal is replaced with 0 (step S7).
  • edge enhancement processing is performed on the video signal using the edge signal corrected as shown in Equation 2 (step S10).
  • step S11 it is determined whether or not the processing has been completed for all regions of interest. If completed, if not, the process returns to step S2 to enter the next region of interest. Then, the above process is repeated.
  • Step S12 If it is determined that the processing for all the regions of interest has been completed, signal processing such as known compression processing is performed! (Step S12), and the processed video signal is output (Step S12).
  • step S4 the average value of the attention area is calculated as shown in Equation 3 (step S20).
  • step S21 based on the read header information, related information such as temperature and gain is set (step S21). However, if a necessary parameter does not exist in the header information, a process for assigning a predetermined standard value is performed.
  • step S23 the coordinate data of the section to which the average value of the region of interest belongs and the corresponding correction coefficient are selected.
  • an invalid edge signal is obtained by a correction process as shown in Equation 8 (step S 25).
  • step S26 the calculated invalid edge signal is output (step S26), and the process returns to the process shown in FIG.
  • various types of information related to the edge signal caused by the noise component is dynamically obtained for each shooting, and a standard value is set for information that cannot be obtained. It is possible to construct an image processing system that obtains an invalid edge signal due to a noise component by performing interpolation processing based on a video signal and a reference edge model, and performs correction processing using the invalid edge signal obtained from the edge signal. It becomes possible.
  • condition is dynamically adapted to different conditions for each photographing, it is possible to estimate the edge signal due to the noise component with high accuracy.
  • the edge signal can be estimated with high accuracy.
  • FIGS. 16 to 24 show the second embodiment of the present invention
  • FIG. 16 is a block diagram showing the configuration of the image processing system
  • FIG. 17 is a block diagram showing the configuration of the noise processing unit
  • FIG. 18 is invalid
  • FIG. 19 is a block diagram showing another configuration example of the invalid edge estimation unit
  • FIG. 20 is a block diagram showing the configuration of the edge correction unit
  • FIG. 21 is an edge correction unit.
  • FIG. 22 is a flowchart showing the overall signal processing flow by the image processing program
  • FIG. 23 is a flowchart showing details of the noise processing in step S30 of FIG. 22
  • FIG. 24 is a flowchart showing details of an invalid edge estimation process in step S31 of FIG.
  • the image processing system shown in FIG. 16 is an example in which the image processing system of the present invention is applied to a digital camera.
  • the image processing system shown in Fig. 16 is obtained by partially changing the image processing system shown in Fig. 1 of the first embodiment. That is, this image processing system replaces the invalid edge estimation unit 110 and the edge correction unit 111 shown in FIG. 1 with an invalid edge estimation unit 601 as an invalid edge estimation unit and an edge correction unit 602 as an edge correction unit.
  • the noise processing unit 600 which is a noise processing means, is added.
  • Other basic configurations are the same as those of the first embodiment, and the same components are denoted by the same names and reference numerals.
  • the buffer 105 includes a photometric evaluation unit 106, a focusing detection unit 107, a noise processing unit 600, and an edge. It is connected to the extraction unit 109. Noise processing unit 600 is connected to edge enhancement unit 112 and invalid edge estimation unit 601, respectively. The edge extraction unit 109 and the invalid edge estimation unit 6001 are connected to the edge correction unit 602, respectively. The edge correction unit 602 is connected to the edge enhancement unit 112.
  • control unit 115 is bi-directionally connected to the noise processing unit 600, the invalid edge estimation unit 601, and the edge correction unit 602 to control them.
  • the noise processing unit 600 Based on the control of the control unit 115, the noise processing unit 600 performs the target pixel P as shown in FIG.
  • the noise processing unit 600 estimates a noise amount N related to the target pixel P based on a noise model and performs a smoothing process.
  • the estimated noise amount N is sent to the invalid edge estimator 601 and the smoothed pixel of interest NRP 112 is
  • the invalid edge estimation unit 601 reads the noise amount N for the target pixel P from the noise processing unit 600 based on the control of the control unit 115, and is caused by the noise component in the target pixel P.
  • the invalid edge estimation unit 601 transfers the invalid edge signal IE caused by the estimated noise component to the edge correction unit 602.
  • the edge correction unit 602 uses the invalid edge signal IE from the invalid edge estimation unit 601 and a predetermined function for the edge signal E from the edge extraction unit 109. To perform the conversion process.
  • the edge correction unit 602 transfers the edge signal E that has been subjected to the conversion process to the edge enhancement unit 112.
  • the edge emphasizing unit 112 performs conversion processing from the edge correction unit 602 on the target pixel NR P subjected to smoothing processing from the noise processing unit 600 based on the control of the control unit 115.
  • Edge enhancement processing as shown in Equation 10 below is performed using the signal E ′.
  • Equation 10 means a predetermined gain value, and takes a value of about 0.5 to 4.0, for example. Then, the edge enhancement unit 112 transfers the video signal subjected to the edge enhancement process to the signal processing unit 113.
  • edge extraction unit 109 the noise processing unit 600, the invalid edge estimation unit 601, the edge correction unit 602, and the edge enhancement unit 112 described above are based on the control of the control unit 115.
  • X 3 pixel size area of interest It is now done in P units! /
  • the signal processing unit 113 Based on the control of the control unit 115, the signal processing unit 113 performs a known compression process or the like on the video signal after the edge emphasis process output from the edge emphasis unit 112, and outputs the processed signal. Transfer to output unit 114.
  • the output unit 114 records and stores the video signal output from the signal processing unit 113 in a recording medium such as a memory card.
  • the noise processing unit 600 includes an average calculation unit 700, a gain calculation unit 701 as noise estimation means, a standard value giving unit 702 as noise estimation means, a noise table unit 703 as noise estimation means, and a selection unit 704, a first smoothing unit 705 serving as noise reduction means, and a second smoothing unit 706 serving as noise reduction means.
  • the noffer 105 is connected to the average calculation unit 700 and the selection unit 704, respectively.
  • Average calculating section 700, gain calculating section 701, and standard value assigning section 702 are connected to noise table section 703, respectively.
  • the noise table unit 703 is connected to the selection unit 704, the first smoothing unit 700, the second smoothing unit 706, and the invalid edge estimation unit 601.
  • the selection unit 704 is connected to the first smoothing unit 705 and the second smoothing unit 706, respectively.
  • the first smoothing unit 705 and the second smoothing unit 706 are connected to the edge enhancement unit 112, respectively.
  • the control unit 115 is connected in two directions to the average calculation unit 700, the gain calculation unit 701, the standard value assigning unit 702, the noise table unit 703, the selection unit 704, the first smoothing unit 705, and the second smoothing unit 706. Being able to control these things.
  • the average calculation unit 700 starts from the buffer 105 as shown in FIG. 3 ⁇ 3 pixel size region of interest P, which contains the target pixel P
  • the average calculation unit 700 transfers the calculated average value AV to the noise table unit 703.
  • the gain calculation unit 701 obtains the amplification amount in the amplification unit 103 based on at least one of the ISO sensitivity transferred from the control unit 115 and the information related to the exposure condition, and the noise table unit 703 obtains the obtained amplification amount. Forward to.
  • control unit 115 acquires the temperature information of the CCD 102 from the temperature sensor 117, and transfers the acquired temperature information to the noise table unit 703.
  • the noise table unit 703 estimates the amount of noise based on the average value from the average calculation unit 700, the gain information from the gain calculation unit 701, and the temperature information from the control unit 115.
  • This noise table unit 703 is a look-up table in which the relationship among temperature, signal value level, gain, and noise amount is recorded.
  • the noise table unit 703 uses a technique disclosed in Japanese Patent Laid-Open No. 2005-175718. It was built.
  • the noise table unit 703 transfers the estimated noise amount N and the average value AV from the average calculation unit 700 to the selection unit 704, the first smoothing unit 700, and the second smoothing unit 706, respectively.
  • the noise table unit 703 also transfers the estimated noise amount N to the invalid edge estimation unit 601.
  • the selection unit 704 reads the average value AV and the noise amount N from the noise table unit 703 based on the control of the control unit 115. Thereafter, the selection unit 704 sets the upper limit Noise-Up and the lower limit Noise-Low as allowable ranges regarding the noise amount as shown in the following Expression 11.
  • the selection unit 704 receives the pixel of interest P from the noiser 105 based on the control of the control unit 115.
  • the selection unit 704 transfers the pixel of interest P to the first smoothing unit 7005 when it is determined that “belonging to the noise range”, and to the second smoothing unit 706 otherwise.
  • the first smoothing unit 705 performs noise processing as the target pixel NR P subjected to smoothing processing.
  • the average value AV from the table unit 703 is used as it is as shown in the following equation 12 and output.
  • the second smoothing unit 706 uses the smoothing process as the target pixel NR—P.
  • a correction process is performed using N.
  • the second smoothing unit 706 corrects as shown in the following Equation 13 when “beyond the noise range”.
  • NR_P n Pn ⁇ ⁇
  • the second smoothing unit 706 corrects as shown in the following Equation 14 when “below the noise range”.
  • This invalid edge estimation unit 601 includes a parameter selection unit 800 serving as a meter selection unit, a parameter ROM 801 serving as a recording unit, and an interpolation unit 802 serving as an interpolation unit.
  • the noise processing unit 600 and the parameter ROM 801 are sent to the parameter selection unit 800, respectively. Are connected.
  • the parameter selection unit 800 is connected to the interpolation unit 802. Interpolator 8
  • control unit 115 is bi-directionally connected to the parameter selection unit 800 and the interpolation unit 802, and controls them.
  • the parameter selection unit 800 and the interpolation unit 802 are the pixel of interest P from the noise processing unit 600.
  • the relationship of the invalid edge signal IE to the noise amount N is modeled as an edge model using a cubic function. Furthermore, this cubic function is approximated by a polygonal line having a predetermined number of inflection points.
  • the inflection point of the broken line is expressed by coordinate data (N 1, IE) composed of the noise amount N and the invalid edge signal IE.
  • n indicates the inflection point number.
  • the invalid edge signal IE in this case is obtained by linear interpolation as shown in Equation 15 below.
  • the parameter selection unit 800 reads the noise amount N related to the target pixel p from the noise processing unit 600 based on the control of the control unit 115. Next, the parameter selection unit 800 determines the amount of noise.
  • the coordinate data (N, IE) and (N, IE) of the section to which N belongs are used as parameters ROM80 n n n + 1 n + 1
  • the interpolation unit 802 uses the noise amount N from the parameter selection unit 800 and the coordinate data (N, IE) and (N, IE) of the section, based on Equation 15. No nn n + 1 n + 1
  • the effective edge signal IE is calculated, and the calculated invalid edge signal IE is transferred to the edge correction unit 602.
  • the force for estimating the edge signal due to the noise component by the interpolation operation based on the model need not be limited to such a configuration.
  • it may be configured to estimate an edge signal caused by a noise component using a table.
  • the invalid edge estimation unit 601 includes an invalid edge table unit 803 serving as recording means.
  • the noise processing unit 600 is connected to the invalid edge table unit 803.
  • the invalid edge table unit 803 is connected to the edge correction unit 602.
  • control unit 115 is bidirectionally connected to the invalid edge table unit 803, and controls this.
  • the invalid edge table unit 803 is a table recording the relationship of the invalid edge signal IE with respect to the noise amount N as shown in FIG.
  • the invalid edge table unit 803 reads the noise amount N related to the target pixel P from the noise processing unit 600 and sets the corresponding invalid edge signal IE as an edge.
  • the edge correction unit 602 includes a switching unit 900, a constant calculation unit 901 that is a constant calculation unit, and a conversion unit 902 that is a function conversion unit.
  • the edge extraction unit 109 is connected to the switching unit 900.
  • the switching unit 900 is connected to the conversion unit 902 and the edge enhancement unit 112, respectively.
  • the conversion unit 902 is connected to the edge enhancement unit 112.
  • the invalid edge estimation unit 601 is connected to the switching unit 900 and the constant calculation unit 901, respectively.
  • the constant calculation unit 901 is connected to the conversion unit 902.
  • the control unit 115 is bidirectionally connected to the switching unit 900, the constant calculation unit 901, and the conversion unit 902. It is designed to control these.
  • the constant calculation unit 901 reads the invalid edge signal IE for the pixel of interest P from the invalid edge estimation unit 601 based on the control of the control unit 115. Then, the constant calculation unit 901 displays the
  • FIG. 21 shows the shape of the function that inputs the edge signal E and outputs the converted edge signal E '.
  • This function consists of two linear functions and one 3 The following function is combined.
  • Constant calculation unit 901 calculates only a constant term of 2Z (3 ⁇ ⁇ 2 ), which is a constant term of the function as shown in Equation 16, in effect, the coefficient of the cubic term of the cubic function. Calculate and transfer to the conversion unit 902.
  • the switching unit 900 switches from the edge extraction unit 109 to the target pixel ⁇ .
  • the switching unit 900 compares the edge signal E and the invalid edge signal IE, and if IE ⁇ E ⁇ —IE, the switching unit 900 goes to the conversion unit 902, and otherwise, goes to the edge enhancement unit 112. Transfer edge signal E.
  • the conversion unit 902 uses the constant term from the constant calculation unit 901 when the edge signal E is transferred from the switching unit 900, using the cubic function in Equation 16. The edge signal E is converted, and the converted edge signal E is transferred to the edge enhancement unit 112.
  • the image processing system in which the imaging unit is integrated has been described as an example.
  • the present invention is not limited to such a configuration, as in Embodiment 1 described above, An image processing system having a configuration separated from the imaging unit may be used.
  • force based on hardware processing is not limited to such a configuration.
  • the video signal from the CCD 102 is recorded as raw raw data on a recording medium such as a memory card, and accompanying information such as imaging conditions (e.g. For example, the temperature and gain of the image sensor at the time of shooting from the control unit 115 are recorded on the recording medium as header information.
  • imaging conditions e.g.
  • the computer executes an image processing program, which is separate software, and cause the computer to read the information on the recording medium for processing.
  • the transmission of various types of information from the imaging unit to the computer is not limited to being performed via a recording medium, but may be performed via a communication line or the like.
  • step S 1 When this processing is started, first, a video signal is read, and header information such as the temperature of the image sensor is read (step S 1).
  • an edge signal at the target pixel is extracted using an isotropic edge extraction filter as shown in FIG. 3, for example (step S3).
  • noise processing is performed on the target pixel (step S 30).
  • step S31 When the process of step S3 and the process of step S30 are completed, as described later with reference to FIG. 24, an invalid edge signal due to the noise component in the pixel of interest is estimated (step S31).
  • step S5 it is determined whether or not the force of the absolute value of the edge signal is equal to or less than the invalid edge signal.
  • the edge signal is converted using a cubic function as shown in Equation 16 (step S32).
  • step S10 After the processing of step S30 is completed, and when the processing of step S32 is performed, the video signal that has been subjected to noise processing using the converted edge signal is represented by Equation 10. Edge enhancement processing is performed. If the absolute value of the edge signal is determined to be larger than the invalid edge signal after step S30, and the edge signal is converted as it is. Noise processing using as edge signal Edge enhancement processing is performed on the video signal that has been subjected to as shown in Equation 10 (step S10).
  • step S11 it is determined whether or not the processing has been completed for all regions of interest. If completed, if not, the process returns to step S2 to enter the next region of interest. Then, the above process is repeated.
  • Step S12 If it is determined that the processing has been completed for all the regions of interest, signal processing such as known compression processing is performed! (Step S12), and the processed video signal is output (Step S12).
  • step S30 of FIG. 22 the noise processing in step S30 of FIG. 22 will be described.
  • step S30 in FIG. 22 When this process is started in step S30 in FIG. 22, first, related information such as temperature and gain is set based on the read header information (step S40). However, if a necessary parameter does not exist in the header information, a process for assigning a predetermined standard value is performed.
  • step S41 the noise table is read (step S41), and the noise amount for the pixel of interest is obtained using the read noise table (step S42).
  • step S43 based on the allowable range as shown in Equation 11, it is determined whether or not the noise amount falls within the allowable range.
  • step S44 smoothing processing as shown in Equation 12 is performed (step S44).
  • Equation 13 If it is determined that the noise amount does not fall within the allowable range, Equation 13 or Equation
  • step S44 or step S45 When the process of step S44 or step S45 is completed, the video signal subjected to the noise process is output (step S46), and the process returns to the process shown in FIG.
  • step S5 the noise amount of the target pixel is read.
  • step S52 the coordinate data of the section to which the noise amount of the region of interest belongs is selected.
  • step S53 a reference invalid edge signal is obtained by an interpolation process as shown in Formula 15 (step S53).
  • step S54 the calculated invalid edge signal is output (step S54), and the process returns to the process shown in FIG.
  • noise reduction processing is performed by estimating the noise component, and an edge signal caused by the noise component is dynamically estimated based on the estimated noise component.
  • the noise reduction process can suppress the influence of noise, and a high-quality edge component storing a fine signal can be obtained.
  • edge signal is converted using a continuous monotonically increasing function obtained by combining a plurality of functions, the continuity of the edge signal can be ensured, and high-quality is achieved. An edge signal can be obtained.
  • FIGS. 25 to 33 show Embodiment 3 of the present invention.
  • FIG. 25 is a block diagram showing the configuration of an image processing system.
  • FIG. 26 is a diagram showing the configuration of a Bayer-type primary color filter.
  • Fig. 27 is a diagram showing the configuration of the color difference line sequential complementary color filter,
  • Fig. 28 is a block diagram showing an example of the configuration of the invalid edge estimator, and
  • Fig. 29 is a block diagram showing another example of the configuration of the invalid edge estimator.
  • 30 is a block diagram showing the configuration of the edge correction unit, and
  • FIG. 31 shows the coring process.
  • FIG. 32 is a flowchart showing the entire signal processing by the image processing program
  • FIG. 33 is a flowchart showing details of the invalid edge estimation processing in step S62 of FIG. 32.
  • the image processing system shown in FIG. 25 is an example in which the image processing system of the present invention is applied to a digital camera.
  • the image processing system shown in Fig. 25 is obtained by partially changing the image processing system shown in Fig. 1 of the first embodiment. That is, this image processing system includes a CCD 102, an invalid edge estimation unit 110, and an edge correction unit 111 shown in FIG. 1, a color CCD 1000, an invalid edge estimation unit 1005 that is an invalid edge estimation unit, and an edge correction unit that is an edge correction unit. It is replaced with 1006, and a pre-white balance unit 1001, an interpolation unit 1002, a YZC separation unit 1003 as a YZC separation unit, a buffer 1004, and a YZC composition unit 1007 are added.
  • Other basic configurations are the same as those of the first embodiment, and the same configurations are denoted by the same names and reference numerals.
  • the nother 105 is connected to the pre-white balance unit 1001, the interpolation unit 1002, the photometric evaluation unit 106, and the in-focus detection unit 107, respectively.
  • the pre-white balance unit 1001 is connected to the amplification unit 103.
  • the interpolation unit 1002 is connected to the YZC separation unit 1003.
  • the Y ZC separation unit 1003 is connected to the buffer 1004.
  • the buffer 1004 is connected to the edge extraction unit 109, the edge enhancement unit 112, and the invalid edge estimation unit 1005, respectively.
  • the edge extraction unit 109 and the invalid edge estimation unit 1005 are connected to the edge correction unit 1006, respectively.
  • the edge correction unit 1006 is connected to the edge enhancement unit 112.
  • the edge enhancement unit 112 is connected to the YZC synthesis unit 1007.
  • the YZC synthesis unit 1007 is connected to the signal processing unit 113. Further, a signal from the temperature sensor 117 arranged in the vicinity of the color CCDIOOO is connected to the control unit 115.
  • the control unit 115 includes a pre-white balance unit 1001, an interpolation unit 1002, and a YZC separation unit.
  • the invalid edge estimation unit 1005, the edge correction unit 1006, and the YZC synthesis unit 1007 are bidirectionally connected to control them.
  • 000 is photoelectrically converted and output as an analog video signal.
  • This analog video signal is amplified in consideration of ISO sensitivity and white balance by the amplifier 103, then converted into a digital video signal by the AZD converter 104, and stored in the buffer 105.
  • the color CCD 1000 is a single-plate imaging device in which a Bayer primary color filter as shown in FIG.
  • the imaging element is not limited to the CCD, and a CMOS or other imaging element may be used as in the first embodiment.
  • a Bayer-type primary color filter as shown in Fig. 26 has 2 X 2 pixels as a basic unit, and red (R) and blue (B) at diagonal pixel positions in this basic unit.
  • One filter and a green (G) filter are arranged at the remaining diagonal pixel positions.
  • the video signal in the buffer 105 is transferred to the photometric evaluation unit 106, the in-focus detection unit 107, and the pre-white balance unit 1001, respectively.
  • the pre-white balance unit 1001 integrates signals within a predetermined level within the video signal stored in the buffer 105 for each color signal (that is, cumulatively adds them). To calculate a simple white balance coefficient.
  • the pre-white balance unit 1001 transfers the calculated coefficient to the amplifying unit 103, and multiplies the gain for each color signal to perform white balance.
  • This actual shooting is based on the simple white balance coefficient obtained by the pre-white balance unit 1001, the exposure condition obtained by the photometric evaluation unit 106, and the focusing condition obtained by the focus detection unit 107. These shooting conditions are transferred to the control unit 115.
  • the video signal in the buffer 105 obtained by the actual photographing is first transferred to the interpolation unit 1002.
  • the interpolation unit 1002 Based on the control of the control unit 115, the interpolation unit 1002 generates a video signal having three plate strengths of R, G, and B by a known interpolation process, and transfers the video signal to the YZC separation unit 1003.
  • the YZC separation unit 1003 separates the R, G, and B signals into a luminance signal Y and color difference signals Cb and Cr as shown in Equation 17 below.
  • the luminance signal and color difference signal calculated by the YZC separation unit 1003 are transferred to the buffer 1004 and stored.
  • the edge extraction unit 109 Based on the control of the control unit 115, the edge extraction unit 109 sequentially selects the 3 ⁇ 3 pixel size attention region P including the attention pixel P as shown in FIG. 2 from the luminance signal Y in the buffer 1004.
  • the edge extraction unit 109 transfers the extracted edge signal ⁇ to the edge correction unit 1006.
  • the invalid edge estimation unit 1005 Based on the control of the control unit 115, the invalid edge estimation unit 1005 sequentially extracts the attention area P having the same 3 X 3 pixel size as the edge extraction unit 109 described above from the luminance signal Y in the buffer 1004. Estimate the invalid edge signal IE caused by the noise component at the target pixel P
  • the invalid edge estimation unit 1005 transfers the invalid edge signal IE caused by the estimated noise component to the edge correction unit 1006.
  • the edge correction unit 1006 Based on the control of the control unit 115, the edge correction unit 1006 performs a coring process on the edge signal E from the edge extraction unit 109 using the invalid edge signal IE from the invalid edge estimation unit 1005. . The edge correction unit 1006 transfers the edge signal E, which has been subjected to the coring process, to the edge enhancement unit 112.
  • the edge enhancement unit 112 Based on the control of the control unit 115, the edge enhancement unit 112 sequentially extracts the luminance signal Y corresponding to the same target pixel P as the edge extraction unit 109 as the luminance signal Y force in the buffer 1004, and
  • edge enhancement processing as shown in the following Equation 18 is performed.
  • Equation 18 means a predetermined gain value, and takes a value of about 0.5 to 4.0, for example.
  • the edge enhancement unit 112 extracts the color difference signals Cb and Cr corresponding to the same target pixel P as the edge extraction unit 109 from the color difference signals Cb and Cr in the buffer 1004. And edge strength
  • the tone unit 112 transfers the extracted color difference signals Cb and Cr and the luminance signal Y ′ after the edge enhancement processing to the ⁇ / C synthesis unit 1007.
  • the YZC combining unit 1007 uses the luminance signal Y ′ after the edge enhancement processing and the color difference signal Cb, as shown in the following Equation 19, to generate three RGB signals (R ′ , G ', ⁇ ').
  • the YZC synthesis unit 1007 transfers the synthesized R ′, G ′, B ′ signals to the signal processing unit 113.
  • edge extraction unit 109 the invalid edge estimation unit 1005, and the edge correction unit 10 as described above.
  • the edge enhancement unit 112, and the YZC synthesis unit 1007 are performed in synchronization with the attention area P of 3 ⁇ 3 pixel size based on the control of the control unit 115.
  • the signal processing unit 113 Based on the control of the control unit 115, the signal processing unit 113 performs known saturation enhancement processing, compression processing, and the like on the video signal after the edge enhancement processing output from the edge enhancement unit 112, and performs processing The subsequent signal is transferred to the output unit 114.
  • the output unit 114 records and stores the video signal output from the signal processing unit 113 in a recording medium such as a memory card.
  • the invalid edge estimation unit 1005 is basically the same as the invalid edge estimation unit 110 shown in FIG. 5 of the first embodiment described above, and the invalid edge table unit 110 serving as table conversion means.
  • Average calculating section 200, gain calculating section 201, and standard value assigning section 202 are connected to invalid edge table section 1100, respectively.
  • the invalid edge table unit 1100 is connected to the edge correction unit 1006.
  • the control unit 115 is bidirectionally connected to the invalid edge table unit 1100, and controls this.
  • the average calculation unit 200 calculates the average value AV of the attention area P as shown in FIG. 2 from the luminance signal Y in the buffer 105, and the invalid edge table unit 11
  • the gain calculation unit 201 obtains the amplification amount in the amplification unit 103 based on at least one of the information on the ISO sensitivity and the exposure condition transferred from the control unit 115 and the white balance coefficient. The amplification amount is transferred to the invalid edge table unit 1100.
  • control unit 115 acquires temperature information of the color CCD 1000 from the temperature sensor 117, and The acquired temperature information is transferred to the invalid edge table unit 1100.
  • the invalid edge table unit 1100 is based on the average value of the region of interest from the average calculation unit 200, gain information from the gain calculation unit 201, and temperature information from the control unit 115.
  • the invalid edge signal IE caused by the noise component is output.
  • the invalid edge table unit 1100 is a look-up table that records the relationship between the signal value level, gain, temperature, and the invalid edge signal caused by the noise component. It is built based on Equation 5 and Equation 6. The invalid edge table unit 1100 transfers the obtained invalid edge signal IE to the edge correction unit 1006.
  • related information such as the temperature, ISO sensitivity, exposure information, and white balance information of the image sensor is used to estimate the edge signal due to the noise component. It is not limited. For example, as shown in FIG. 29, an edge signal due to a noise component can be estimated based only on the level of the luminance signal.
  • the invalid edge estimation unit 1005 shown in FIG. 29 has the configuration shown in FIG. 28, omits the gain calculation unit 201 and the standard value assigning unit 202, and converts the invalid edge table unit 1100 into table conversion means.
  • the invalid edge table 1101 is replaced. Since the other basic configuration of the invalid edge estimation unit 1005 shown in FIG. 29 is the same as that shown in FIG. 28, the same name and reference numeral are given to the same configuration, and , Mainly the different parts!
  • the average calculation unit 200 is connected to the invalid edge table unit 1101.
  • the invalid edge table section 1101 is connected to the edge correction section 1006.
  • the control unit 115 is bidirectionally connected to the invalid edge table unit 1101, and controls this. It comes to control.
  • the average calculation unit 200 calculates the average value AV of the attention area P as shown in FIG. 2 from the luminance signal Y in the buffer 105, and the invalid edge table unit 1
  • the invalid edge table unit 1101 outputs the invalid edge signal IE caused by the noise component based on the average value AV of the attention area P from the average calculation unit 200.
  • the invalid edge table unit 1101 is a look-up table in which a relationship between a signal value level at a predetermined gain and a predetermined temperature and an invalid edge signal due to noise components is recorded. It is constructed based on Formula 5 and Formula 6 of Form 1.
  • the invalid edge table unit 1101 transfers the obtained invalid edge signal IE to the edge correction unit 1006.
  • the edge correction unit 1006 includes an edge correction table unit 1200 as table correction means.
  • the edge extraction unit 109 and the invalid edge estimation unit 1005 are connected to the edge correction table unit 1200, respectively.
  • the edge correction table unit 1200 is connected to the edge enhancement unit 112.
  • control unit 115 is bidirectionally connected to the edge correction table unit 1200, and controls this! / Speak.
  • the edge correction table unit 1200 Based on the control of the control unit 115, the edge correction table unit 1200 sends the edge signal E for the target pixel P from the edge extraction unit 109 to the target pixel P from the invalid edge estimation unit 1005.
  • the edge correction table unit 1200 performs a conversion closest to the representative invalid edge signal IE recorded based on the invalid edge signal IE from the invalid edge estimation unit 1005. The relationship is selected, and the edge signal E after the edge signal E force correction from the edge extraction unit 109 is obtained and output based on the selected relationship. Thereafter, the edge correction table unit 1200 transfers the corrected edge signal E to the edge enhancement unit 112.
  • the image processing system in which the image capturing unit is integrated has been described as an example.
  • the image processing system is not limited to such a configuration.
  • the image processing system may be configured separately from the unit.
  • a force that assumes a single-plate CCD in which a Bayer-type primary color filter is disposed in front as a color imaging device is not limited to an imaging device having such a configuration.
  • FIG. 27 shows the configuration of a color difference line sequential type complementary color filter.
  • This color difference line sequential complementary filter uses magenta (Mg) and green (G) on the same line with cyan (Cy) and yellow ( ⁇ ⁇ ) of 2 X 2 pixels, with 2 X 2 pixels as the basic unit. ) Are arranged on the other same line of 2 X 2 pixels. However, the positions of magenta (Mg) and green (G) are configured to be reversed for each line.
  • the power based on hardware processing is not limited to such a configuration.
  • the video signal from the color CCD 1000 is recorded as raw raw data on a recording medium such as a memory card, and additional information such as imaging conditions (for example, the temperature of the image sensor at the time of shooting from the control unit 115) And gain and white balance coefficient) are recorded on the recording medium as header information.
  • the image processing program which is separate software, is executed by the computer, and the information on the recording medium is combined. It can also be read and processed by a user.
  • the imaging unit force is not limited to the transmission of various information to the computer, but may be performed via a communication line or the like.
  • FIG. 32 a main routine of processing by the image processing program will be described. Of the processes shown in FIG. 32, processes similar to those shown in FIG. 14 of the first embodiment are denoted by the same reference numerals.
  • step S60 a known interpolation process is performed to generate a three-plate video signal.
  • a luminance signal and a color difference signal are extracted (step S6).
  • step S2 a 3 ⁇ 3 pixel size attention area including the attention pixel as shown in FIG. 2 is extracted for each luminance signal and color difference signal (step S2).
  • the edge signal of the luminance signal at the target pixel is extracted using an isotropic edge extraction filter as shown in FIG. 3, for example (step S3).
  • an invalid edge signal due to the noise component in the target pixel is estimated (step S62).
  • the corrected edge signal is output (step S63).
  • edge enhancement processing is performed on the luminance signal as shown in Equation 18 (step S10).
  • step Sl l it is determined whether or not the processing has been completed for all the attention areas. If completed, return to step S2 to repeat the process as described above for the next region of interest.
  • step S12 signal processing such as known saturation enhancement processing and compression processing is performed (step S12), the processed video signal is output (step S13), and this series of processing ends.
  • step S12 signal processing such as known saturation enhancement processing and compression processing is performed (step S12), the processed video signal is output (step S13), and this series of processing ends.
  • step S70 the average value of the luminance signals in the region of interest is calculated.
  • step S71 based on the read header information, related information such as temperature and gain is set (step S71). However, if a necessary parameter does not exist in the header information, a process for assigning a predetermined standard value is performed.
  • an invalid edge signal is obtained using the invalid edge table (step S72).
  • step S73 the calculated invalid edge signal is output (step S73), and the process returns to the process shown in FIG.
  • the luminance signal is separated from the video signal from the color image sensor, and various information related to the edge signal due to the noise component is dynamically obtained for each photographing, A standard value is set for information that cannot be obtained, an invalid edge signal due to a noise component is obtained based on the information and the luminance signal, and an image processing system that performs correction processing using the invalid edge signal obtained from the edge signal is provided. It can be configured.
  • FIG. 34 and FIG. 35 show Embodiment 4 of the present invention.
  • FIG. 34 is a block diagram showing the configuration of the image processing system
  • FIG. 35 is a flowchart showing the overall flow of signal processing by the image processing program. is there.
  • the image processing system shown in FIG. 34 is an example in which the image processing system of the present invention is applied to a digital camera.
  • the image processing system shown in Fig. 34 is a partial modification of the image processing system shown in Fig. 16 of the second embodiment. That is, in this image processing system, the CCD 102 shown in FIG. 16 is replaced with a color CCD 1300, and a pre-white balance unit 1301, an interpolation unit 1302, a YZC separation unit 1303, a buffer 1304, and a YZC synthesis unit 1305 are added. It has a configuration. Other basic configurations are the same as those of the second embodiment, and the same names and symbols are assigned to the same configurations.
  • the nother 105 is connected to the pre-white balance unit 1301, the interpolation unit 1302, the photometric evaluation unit 106, and the in-focus detection unit 107, respectively.
  • the pre-white balance unit 1301 is connected to the amplification unit 103.
  • the interpolation unit 1302 is connected to the YZC separation unit 1003.
  • the Y ZC separation unit 1303 is connected to the buffer 1304.
  • the noffer 1304 is connected to the edge extraction unit 109 and the noise processing unit 600, respectively.
  • the edge enhancement unit 112 is connected to the ⁇ / C synthesis unit 1305.
  • the YZC synthesis unit 1305 is connected to the signal processing unit 113.
  • a signal from the temperature sensor 117 arranged in the vicinity of the color CCD 1300 is connected to the control unit 115.
  • the control unit 115 is bi-directionally connected to the pre-white balance unit 1301, the interpolation unit 1302, the YZC separation unit 1303, and the YZC synthesis unit 1305, and controls them. ing.
  • the subject image force color imaged through the lens system 100 and the aperture 101 is subjected to photoelectric conversion by the CCD 1300 and output as an analog video signal.
  • This analog video signal is amplified in consideration of ISO sensitivity and white balance by the amplifier 103, then converted into a digital video signal by the AZD converter 104, and stored in the buffer 105.
  • a single-chip image pickup device in which a Bayer primary color filter is disposed on the front surface is assumed as the color CCD 1300.
  • the image sensor is not limited to the CCD, and a CMOS or other image sensor may be used.
  • the video signal in the buffer 105 is transferred to the photometric evaluation unit 106, the in-focus detection unit 107, and the pre-white balance unit 1301, respectively.
  • the pre-white balance unit 1301 integrates the signals within the predetermined level of the video signals stored in the buffer 105 for each color signal (that is, adds them cumulatively). Thus, the simple white balance coefficient is calculated.
  • the pre-white balance unit 1301 transfers the calculated coefficient to the amplifying unit 103, and multiplies each color signal by a different gain to perform white balance.
  • This actual shooting is obtained by the simple white balance coefficient obtained by the pre-white balance unit 1301, the exposure condition obtained by the photometric evaluation unit 106, and the focus detection unit 107. And the focusing conditions are transferred to the control unit 115.
  • the video signal in the buffer 105 obtained by the actual photographing is first transferred to the interpolation unit 1302.
  • the interpolation unit 1302 Based on the control of the control unit 115, the interpolation unit 1302 generates a video signal having three plate forces of R, G, and B by a known interpolation process, and transfers the video signal to the YZC separation unit 1303.
  • the YZC separation unit 1303 separates the R, G, and B signals into the luminance signal Y and the color difference signals Cb and Cr as shown in Equation 17.
  • the luminance signal and color difference signal calculated by YZC separation section 1303 are transferred to buffer 1304 and stored.
  • the noise processing unit 600 is based on the control of the control unit 115, and the target pixel P as shown in FIG.
  • a 3 ⁇ 3 pixel size region of interest P that includes 11 is extracted separately for each luminance signal and chrominance signal. Then, the noise processing unit 600 is based on the noise model as disclosed in JP-A-2005-175718.
  • the noise processing unit 600 calculates the amount of noise N related to the estimated luminance signal.
  • Y is transferred to the invalid edge estimation unit 601, and the luminance signal NR—Y and the color difference signals NR—Cb, NR—Cr that have been subjected to the smoothing process are transferred to the edge enhancement unit 112, respectively.
  • the edge extraction unit 109 sequentially selects a 3 ⁇ 3 pixel size attention region P including the attention pixel P as shown in FIG. 2 from the luminance signal Y in the buffer 1304.
  • the edge extraction unit 109 transfers the extracted edge signal ⁇ to the edge correction unit 602.
  • the invalid edge estimation unit 601 reads the noise amount ⁇ ⁇ ⁇ related to the luminance signal from the noise processing unit 600 based on the control of the control unit 115, and is caused by the noise component at the target pixel ⁇ .
  • the invalid edge estimation unit 601 transfers the invalid edge signal IE caused by the estimated noise component to the edge correction unit 602. [0335] Based on the control of the control unit 115, the edge correction unit 602 performs an invalid edge signal IE from the invalid edge estimation unit 601 and a predetermined function (for example, for the edge signal E from the edge extraction unit 109). Conversion processing is performed using a cubic function as shown in Equation 16. The edge correction unit 602 transfers the edge signal E ′ subjected to the conversion process to the edge enhancement unit 112.
  • the edge enhancement unit 112 Based on the control of the control unit 115, the edge enhancement unit 112 performs a conversion process from the edge correction unit 602 on the luminance signal NR—Y that has been subjected to the smoothing process from the noise processing unit 600. Using the edge signal E ′, edge enhancement processing as shown in Equation 21 below is performed.
  • NR— Y, NR_Y + g-E '
  • Equation 21 means a predetermined gain value, and takes a value of about 0.5 to 4.0, for example.
  • the edge enhancement unit 112 transfers the luminance signal NR—Y ′ subjected to the edge enhancement process to the YZC synthesis unit 1007 together with the color difference signals NR—Cb and NR—Cr subjected to the smoothing process.
  • the YZC synthesis unit 1007 obtains the following from the luminance signal Y after smoothing processing and edge enhancement processing and the color difference signals NR—Cb, NR—Cr after smoothing processing. As shown in Equation 22, the three RGB signals (R ', G', ⁇ ') are synthesized.
  • R ' NR Y + 1. 40200NR— Cr
  • G NR — Y'— 0. 34414NR Cb— 0. 71414NR— Cr
  • the YZC synthesis unit 1007 transfers the synthesized R ′, G ′, B ′ signals to the signal processing unit 113.
  • the processing of the noise processing unit 600, the edge extraction unit 109, the invalid edge estimation unit 601, the edge correction unit 602, the edge enhancement unit 112, and the YZC synthesis unit 1305 as described above is controlled by the control unit 115. Based on the above, it is performed in synchronism with the attention area P unit of 3 ⁇ 3 pixel size.
  • the signal processing unit 113 Based on the control of the control unit 115, the signal processing unit 113 performs known saturation enhancement processing, compression processing, and the like on the video signal after the edge enhancement processing output from the edge enhancement unit 112. The processed signal is transferred to the output unit 114.
  • the output unit 114 records and stores the video signal output from the signal processing unit 113 in a recording medium such as a memory card.
  • the image processing system in which the imaging unit is integrated has been described as an example.
  • the present invention is not limited to such a configuration.
  • the image processing system may be configured separately from the unit.
  • the power that is assumed to be a single-plate CCD in which a Bayer-type primary color filter is disposed in front as a color imaging device is not limited to an imaging device having such a configuration.
  • the power based on hardware processing is not limited to such a configuration.
  • the video signal from the color CCD 1300 is recorded as raw raw data on a recording medium such as a memory card, and additional information such as imaging conditions (for example, the temperature of the image sensor at the time of shooting from the control unit 115) And gain, white balance coefficient, etc.) are recorded on the recording medium as header information.
  • imaging conditions for example, the temperature of the image sensor at the time of shooting from the control unit 115
  • the imaging unit force is not limited to the transmission of various information to the computer, but may be performed via a communication line or the like.
  • FIG. 35 a main routine of the processing by the image processing program will be described. Of the processes shown in FIG. 35, processes similar to those shown in FIG. 22 of the second embodiment are denoted by the same reference numerals.
  • step S80 a known interpolation process is performed to generate a three-plate video signal.
  • the attention area of 3 ⁇ 3 pixel size including the attention pixel as shown in FIG. Extract each signal and color difference signal (step S2).
  • the edge signal of the luminance signal at the pixel of interest is extracted using an isotropic edge extraction filter as shown in Fig. 3, for example (step S3).
  • noise processing for the pixel of interest is performed for each luminance signal and color difference signal (step S30).
  • an invalid edge signal due to the noise component of the luminance signal at the target pixel is estimated (step S31).
  • step S5 it is determined whether or not the force is such that the absolute value of the edge signal is equal to or less than the invalid edge signal.
  • the edge signal is converted using a cubic function as shown in Equation 16 (step S32).
  • Equation 21 is displayed on the luminance signal subjected to noise processing using the converted edge signal.
  • Edge enhancement processing is performed as described above. If the absolute value of the edge signal is determined to be larger than the invalid edge signal after step S30, and the edge signal is converted as it is. Using the edge signal as an edge signal, edge enhancement processing is performed on the luminance signal subjected to noise processing as shown in Equation 21 (step S10).
  • step S11 it is determined whether or not the processing for all the attention areas has been completed. If completed, if not, the process returns to step S2 to enter the next attention area. Then, the above process is repeated.
  • step S12 signal processing such as known saturation enhancement processing and compression processing is performed (step S12), the processed video signal is output (step S13), and this series of processing is terminated.
  • noise reduction processing is performed by separating the luminance signal from the video signal from the color imaging device and estimating the noise component, and the noise is based on the estimated noise component. It is possible to configure an image processing system that dynamically estimates the invalid edge signal due to the component and performs correction processing using the invalid edge signal estimated from the edge signal. Become.
  • the image processing system can be applied to various imaging systems and has high versatility.
  • FIGS. 36 to 38 show Embodiment 5 of the present invention.
  • FIG. 36 is a block diagram showing the configuration of the image processing system.
  • FIG. 37 shows an image with a Bayer-type primary color filter arranged in front.
  • FIG. 38 is a diagram showing an example of a method for YZC separation of the video signal obtained from the element cover, and
  • FIG. 38 is a diagram showing a configuration of a horizontal edge extraction filter and a vertical edge extraction filter corresponding to the color component of the target pixel.
  • the image processing system shown in FIG. 36 is an example in which the image processing system of the present invention is applied to a digital camera.
  • the image processing system shown in Fig. 36 is obtained by partially changing the image processing system shown in Fig. 16 of the second embodiment. That is, this image processing system has a configuration in which the CCD 102 shown in FIG. Yes.
  • Other basic configurations are the same as those of the second embodiment, and the same configurations are denoted by the same names and reference numerals.
  • the buffer 105 is connected to the pre-white balance unit 1401, the YZC separation unit 1402, the photometric evaluation unit 106, and the in-focus detection unit 107, respectively.
  • the pre-white balance unit 1401 is connected to the amplification unit 103.
  • the YZC separation unit 1402 is connected to the notfer 1403.
  • the nota 1403 is connected to the edge extraction unit 109 and the noise processing unit 600, respectively.
  • the noise processing unit 600 is connected to the invalid edge estimation unit 601 and the interpolation unit 1404, respectively.
  • the interpolation unit 1404 is connected to the edge enhancement unit 112.
  • a signal from the temperature sensor 117 arranged in the vicinity of the color CCD 1400 is connected to the control unit 115.
  • the control unit 115 includes a pre-white balance unit 1401, a YZC separation unit 1402, and an interpolation unit.
  • This analog video signal is amplified in consideration of ISO sensitivity and white balance by the amplifier 103, then converted into a digital video signal by the AZD converter 104, and stored in the buffer 105.
  • a single CCD having a Bayer primary color filter as shown in Fig. 37A arranged on the front surface is assumed as the color CCD 1400.
  • the imaging element is not limited to the CCD, and a CMOS or other imaging element may be used as in the above-described embodiments.
  • the video signal in the buffer 105 is sent to the photometric evaluation unit 106, the in-focus detection unit 107, To the pre-white balance unit 1401.
  • the pre-white balance unit 1401 integrates the signals within the predetermined level range of the video signals stored in the buffer 105 for each color signal (that is, adds them cumulatively). Thus, the simple white balance coefficient is calculated.
  • the pre-white balance unit 1401 performs white balance by transferring the calculated coefficient to the amplification unit 103 and multiplying the color signal by a different gain.
  • the single-panel video signal in the buffer 105 obtained by the actual photographing is transferred to the YZC separation unit 1402, and is separated into the luminance signal Y and the color difference signal Cb by the YZC separation unit 1402. .
  • the G signal in the single plate state is used as the luminance signal Y
  • the R and B signals in the single plate state are used as the color difference signals Cb and Cr, respectively.
  • the luminance signal and color difference signal thus separated by the YZC separation unit 1402 are transferred to the buffer 1403 and stored.
  • the noise processing unit 600 is a luminance signal having a 5 ⁇ 5 pixel size as shown in FIG. 37 (B), FIG. 37 (E), FIG. 37 (H), and FIG. Fig. 37 (C), Fig. 37 (D) ⁇ Fig. 37 (F), Fig. 37 (G), Fig. 37 (1), Fig. 37 (J), Fig. 37 (L), Fig. 37
  • the attention area of the color difference signal of 5 ⁇ 5 pixel size as shown in (M) is extracted individually and sequentially.
  • the luminance signal Y and the color difference signals Cb, Cr of the attention area extracted by the noise processing unit 600 are four patterns, that is, FIG. 37 (B), FIG. 37, according to the type of the attention pixel. (C), patterns as shown in Fig. 37 (D), patterns as shown in Fig. 37 (E), Fig. 37 (F), Fig. 37 (G), and Fig. 37 (H), Fig. 37 ( 1), Fig. 37 (J), and Fig. 37 (K), Fig. 37 ( L), force S is generated with the pattern shown in Fig. 37 (M).
  • the noise processing unit 600 estimates the amount of noise related to the pixel of interest based on the noise model as disclosed in Japanese Patent Laid-Open No. 2005-175718, and performs smoothing processing.
  • the estimated amount of noise in the luminance signal is represented by NY
  • the smoothed luminance signal is represented by NR—Y
  • the smoothed color difference signal is represented by NR—Cb, NR—Cr.
  • the noise processing unit 600 sends the noise amount NY related to the estimated luminance signal to the invalid edge estimation unit 601, the luminance signal NR—Y and the color difference signals NR—Cb, NR_Cr subjected to smoothing processing to the interpolation unit 1404, Transfer each one.
  • the edge extraction unit 109 Based on the control of the control unit 115, the edge extraction unit 109 also converts the luminance signal Y force in the buffer 1403 to those shown in FIGS. 37 (B), 37 (E), 37 (H), and 37 (K).
  • the 5 ⁇ 5 pixel-sized focus areas as shown are sequentially extracted, and the edge signal E at the target pixel is extracted using the edge extraction filters as shown in FIGS. 38 (A) to 38 (D).
  • Fig. 38 (A) shows the horizontal edge extraction filter Eh when the target pixel is R or B
  • Fig. 38 (B) shows the horizontal edge extraction filter Eh when the target pixel is G
  • 38 (C) shows the edge extraction filter Ev in the vertical direction when the target pixel is R or B
  • FIG. 38 (D) shows the edge extraction filter ⁇ in the vertical direction when the target pixel is G. Talk!
  • the edge extraction unit 109 extracts an edge in the horizontal direction using the edge extraction filter ⁇ h as shown in Fig. 38 (A) or Fig. 38 (B), and the Fig. 38 (C) or Fig. 38 ( After extracting the vertical edge using the edge extraction filter Ev as shown in D), obtain the edge signal ⁇ as shown in Equation 1.
  • the edge extraction unit 109 transfers the edge signal ⁇ thus extracted to the edge correction unit 602.
  • the invalid edge estimation unit 601 reads the noise amount ⁇ ⁇ ⁇ ⁇ related to the luminance signal from the noise processing unit 600, and estimates the invalid edge signal IE caused by the noise component in the target pixel.
  • the invalid edge estimation unit 601 transfers the invalid edge signal IE resulting from the estimated noise component to the edge correction unit 602.
  • the edge correction unit 602 Based on the control of the control unit 115, the edge correction unit 602 performs an invalid edge signal IE from the invalid edge estimation unit 601 and a predetermined function (for example, for the edge signal E from the edge extraction unit 109). Conversion processing is performed using a cubic function as shown in Equation 16. Edge correction unit 602 Transfers the edge signal E ′ subjected to the conversion process to the edge enhancement unit 112.
  • the interpolation unit 1404 Based on the control of the control unit 115, the interpolation unit 1404 reads the luminance NR—Y and the color difference signals NR—Cb, NR—Cr that have been subjected to noise processing from the noise processing unit 600, and performs known interpolation processing. A luminance signal and a color difference signal are generated. Then, the interpolation unit 1404 transfers the generated luminance signal and color difference signal having the three-plate force to the edge enhancement unit 112.
  • the edge enhancement unit 112 Based on the control of the control unit 115, the edge enhancement unit 112 converts the luminance signal NR—Y subjected to the interpolation process from the interpolation unit 1404 to the edge signal E subjected to the conversion process from the edge correction unit 602. Are used to perform edge enhancement processing as shown in Equation 21. Then, the edge enhancement unit 112 transfers the luminance signal NR—Y ′ subjected to the edge enhancement process to the signal processing unit 113 together with the color difference signals NR—Cb and NR—Cr subjected to the interpolation process. In this embodiment, as described above, since the G signal is used as the luminance signal Y and the R and B signals are used as the color difference signals Cb and Cr, the YZC synthesis processing is not necessary. It can be processed by the signal processing unit 113.
  • the processing of the noise processing unit 600, the edge extraction unit 109, the invalid edge estimation unit 601, the edge correction unit 602, the interpolation unit 1404, and the edge enhancement unit 112 as described above is controlled by the control unit 115. Based on the 5 x 5 pixel size region of interest
  • the signal processing unit 113 Based on the control of the control unit 115, the signal processing unit 113 performs known saturation enhancement processing, compression processing, and the like on the video signal after the edge enhancement processing output from the edge enhancement unit 112, and performs processing The subsequent signal is transferred to the output unit 114.
  • the output unit 114 records and stores the video signal output from the signal processing unit 113 in a recording medium such as a memory card.
  • the image processing system in which the imaging unit is integrated is taken as an example.
  • the present invention is not limited to such a configuration, and similarly to the first embodiment described above, an image processing system having a configuration separated from the imaging unit may be used.
  • force based on hardware processing is not limited to such a configuration.
  • the video signal from the color CCD1400 Aw data is recorded on a recording medium such as a memory card, and accompanying information such as imaging conditions (for example, the temperature, gain, white balance coefficient, etc. of the imaging device during shooting from the control unit 115) is recorded as header information. Keep a record.
  • an image processing program which is separate software, to be executed by a computer so that the information on the recording medium is read by the computer and processed.
  • the transmission of various types of information from the imaging unit to the computer is not limited to being performed via a recording medium, and may be performed via a communication line or the like.
  • noise reduction processing is performed by separating the luminance signal from the video signal from the color image sensor and estimating the noise component, and the noise is based on the estimated noise component. It is possible to configure an image processing system that dynamically estimates an invalid edge signal caused by a component and performs correction processing using the invalid edge signal obtained by estimating the edge signal.
  • Edge extracting means for extracting an edge signal from the video signal
  • Invalid edge estimation means for estimating an edge signal caused by a noise component based on the video signal
  • Edge correction means for correcting the edge signal based on the edge signal caused by the noise component
  • An image processing system comprising:
  • Embodiment 1 Embodiment 2, Embodiment 3, Embodiment 4, and Embodiment 5.
  • the edge extraction means is shown in FIG. 1, FIG. 13, FIG. 16, FIG. 25, FIG. 34, or FIG. 36
  • the invalid edge estimation means is shown in FIG. 1, FIG. 5, FIG. 12, and FIG.
  • the edge correction means is the edge correction unit 111 shown in FIG. 1, FIG. 10, FIG. 13, or FIG. 16, FIG. 20, or FIG. 34, FIG. 25, Fig. 30
  • [Edge correction unit 1006 as shown here corresponds to each.
  • an edge signal is extracted by the edge extraction unit 109, and an edge caused by a noise component is detected by the invalid edge estimation unit 110, the invalid edge estimation unit 601, or the invalid edge estimation unit 1005.
  • the image processing system estimates a signal and corrects the edge signal based on the edge signal caused by the noise component by the edge correction unit 111, the edge correction unit 602, or the edge correction unit 1006.
  • the edge signal caused by the noise component is dynamically estimated, and the edge signal of the original signal power is corrected based on the edge signal caused by the noise component.
  • edge signals are corrected with edge signals that have the same properties, it is possible to stably perform highly accurate edge component extraction even for video signals that contain various types of noise. Become.
  • YZC separating means for separating the luminance signal from the video signal, the edge extracting means extracts the edge signal as well as the luminance signal force, and the invalid edge estimating means is based on the luminance signal,
  • Embodiment 3 corresponds to this supplementary note.
  • the YZC separation means is the YZC separation section 1003 shown in FIG. 25
  • the edge extraction means is the edge extraction section 109 shown in FIG. 25
  • the invalid edge estimation means is the invalid edge as shown in FIGS. 25, 28, and 29.
  • the estimation unit 1005 corresponds to each.
  • the YZC separation unit 1003 separates the luminance signal from the video signal, the edge extraction unit 109 extracts the edge signal of the luminance signal power, and the invalid edge estimation unit 1005 extracts the noise component of the luminance signal.
  • This is an image processing system that estimates the edge signal caused by the.
  • the luminance signal is separated from the image signal from the image sensor force, the edge signal due to the noise component is dynamically estimated, and the edge signal due to the noise signal force is corrected based on the edge signal due to the noise component. To do.
  • the edge signal is corrected by the edge signal having the same property, it is possible to stably extract the edge component with high accuracy even for the video signal in which various noises are mixed.
  • it can handle signals from color image sensors, it can be used for various imaging systems.
  • Noise processing means for performing noise reduction processing on the video signal, wherein the invalid edge estimation means estimates an edge signal caused by a noise component based on predetermined information of the noise processing means power Appendices 1 characterized by Image processing system.
  • Embodiment 2 corresponds to this supplementary note.
  • the noise processing means corresponds to the noise processing section 600 shown in FIGS. 16 and 17, and the invalid edge estimation means corresponds to the invalid edge estimation section 601 as shown in FIGS.
  • a preferred application example of the present invention is that noise reduction processing is performed by estimating the noise component of the video signal by the noise processing unit 600, and is caused by the noise component based on the noise component estimated by the invalid edge estimation unit 601.
  • An image processing system that estimates edge signals.
  • the noise reduction processing is performed by estimating the noise component, and the edge signal caused by the noise component is dynamically estimated based on the estimated noise component.
  • the edge signal is corrected by the edge signal having the same property, it is possible to stably extract the edge component with high accuracy even for the video signal in which various noises are mixed.
  • the noise reduction process suppresses the influence of noise, and a high-quality edge component storing a fine signal can be obtained.
  • noise reduction processing and edge signal correction processing are used in combination, it is possible to reduce the scale of the system and achieve low cost.
  • Noise processing means for performing noise reduction processing on the video signal
  • YZC separation means for separating the luminance signal from the video signal
  • the edge extraction means extracts the edge signal of the luminance signal force, and the invalid edge estimation means estimates an edge signal caused by a noise component based on predetermined information of the noise processing means force.
  • Embodiments 4 and 5 correspond to this additional note.
  • the noise processing means is the noise processing section 600 shown in FIGS. 34 and 36
  • the YZC separation means is the YZC separation section 13 03 shown in FIG. 34 and the YZC separation section 1402 shown in FIG. 36
  • the edge extraction means is FIG. 36 corresponds to the edge extraction unit 109 shown in FIG. 36
  • the invalid edge estimation means corresponds to the invalid edge estimation unit 601 shown in FIG. 34 and FIG.
  • the noise processing unit 600 performs noise reduction processing by estimating the noise component of the video signal, and the YZC separation unit 1303 or the YZC separation unit 1402 separates the luminance signal. Then, the edge extraction unit 109 performs noise reduction processing, extracts the edge signal from the original signal, and based on the noise component estimated by the invalid edge estimation unit 601, the edge signal caused by the noise component It is an image processing system that estimates
  • Noise reduction processing is performed by estimating the noise component, the luminance signal is separated from the video signal from the image sensor, and based on the estimated noise component, the edge signal caused by the noise component is dynamically presume.
  • the edge signal is corrected by the edge signal having the same property, it is possible to stably extract the edge component with high accuracy even for the video signal in which various noises are mixed.
  • the noise reduction process suppresses the influence of noise, and a high-quality edge component storing a fine signal can be obtained.
  • noise reduction processing and edge signal correction processing are used in combination, it is possible to reduce the scale of the system and achieve low cost.
  • it can handle signals from color image sensors, it can be used in various imaging systems.
  • the image processing system further comprising edge enhancement means for performing enhancement processing on the video signal based on the corrected edge signal.
  • Embodiments 1 and 3 correspond to this supplementary note.
  • Edge enhancement means are shown in Fig. 1.
  • the edge enhancement unit 112 shown in FIGS. 13 and 25 corresponds to this case.
  • a preferred application example of the present invention is an image processing system in which the edge enhancement unit 112 performs edge enhancement processing on a video signal from an image sensor.
  • edge enhancement is performed on the video signal using the corrected edge signal.
  • High-accuracy edge enhancement processing can be performed stably even for video signals that contain a variety of noises, and high-quality picture creation processing can be realized.
  • the image processing system according to appendix 3 or appendix 4, further comprising edge enhancement means for performing enhancement processing on the video signal subjected to the noise reduction processing based on the corrected edge signal.
  • Embodiment 2 corresponds to Embodiment 2, Embodiment 4 and Embodiment 5.
  • the edge emphasizing means corresponds to the edge emphasizing unit 112 shown in FIG. 16, FIG. 34, and FIG.
  • a preferred application example of the present invention is an image processing system that performs edge enhancement processing on a video signal that has been subjected to noise reduction processing by the edge enhancement section 112.
  • edge enhancement is performed on the video signal that has been subjected to noise reduction processing, using the corrected edge signal.
  • High-accuracy edge enhancement processing can be performed stably even for video signals that contain a variety of noises, and high-quality picture creation processing can be realized. In addition, it is possible to generate high-quality video signals that suppress the effects of noise.
  • the invalid edge estimation means includes:
  • a recording means for recording a parameter group related to the reference edge model;
  • Parameter selection means for selecting a parameter that also requires the parameter group power based on the video signal;
  • Interpolation means for obtaining an edge signal due to noise components by interpolation based on the video signal and the selected parameter
  • Embodiment 1 corresponds to this supplementary note.
  • the recording means corresponds to the parameter ROM 401 shown in FIG. 12
  • the parameter selection means corresponds to the parameter selection section 204 shown in FIG. 12
  • the interpolation means corresponds to the interpolation section 205 shown in FIG.
  • a coefficient of a reference edge model used for estimating an edge signal caused by a noise component measured in advance is recorded in a parameter ROM 401, and a parameter selection unit is recorded.
  • the coefficient of the reference edge model is selected by 204, and the edge signal resulting from the noise component is obtained by the interpolation unit 205 based on the video signal and the reference edge model.
  • the edge signal due to the noise component is obtained.
  • the edge signal can be estimated with high accuracy. Further, since the interpolation process is easy to implement, the system can be configured at low cost.
  • the invalid edge estimation unit includes a table conversion unit that receives the video signal and outputs an edge signal caused by a noise component.
  • Embodiment 3 corresponds to this supplementary note.
  • the table conversion means corresponds to the invalid edge table section 1101 as shown in FIG.
  • a preferred application example of the present invention is an image processing system in which an invalid edge table unit 1101 obtains an edge signal caused by a noise component based on a video signal.
  • An edge signal caused by a noise component is obtained using the video signal and the conversion table.
  • the conversion table is used to calculate the edge signal due to the noise component, it becomes possible to estimate the edge signal with high accuracy at high speed.
  • the invalid edge estimation means includes:
  • the parameter group force selects the necessary parameter.
  • Parameter selection means for assigning a standard value for the information that cannot be obtained by the collection means, the information from the collection means or the provision means, and the video signal.
  • interpolation means for obtaining an edge signal due to noise components by interpolation based on the video signal and the selected parameter;
  • Embodiment 1 corresponds to this supplementary note.
  • the recording means is the parameter ROM 203 shown in FIG. 5, the collecting means is the temperature sensor 117 and the control section 115 shown in FIG. 1, and the gain calculating section 201 shown in FIG. 5, and the giving means is shown in FIG.
  • the standard value assigning section 202 corresponds to the parameter selection means, the parameter selection section 204 shown in FIG. 5, and the interpolation means corresponds to the interpolation section 205 and the correction section 206 shown in FIG.
  • information used for estimating an edge signal due to a noise component is collected by the temperature sensor 117, the control unit 115, and the gain calculation unit 201, and the temperature sensor 117 is collected by the standard value giving unit 202.
  • Information from the control unit 115 and the gain calculation unit 201 If no information is available, set a standard value and record the coefficient and correction coefficient of the reference edge model used to estimate the edge signal due to the noise component measured in advance in the parameter ROM 203.
  • the parameter selection unit 204 selects the coefficient of the reference edge model and the correction coefficient, and the interpolation unit 205 and the correction unit 206 obtain the edge signal due to the noise component based on the video signal and the reference edge model. is there.
  • Various information related to the edge signal due to noise components is dynamically obtained for each shooting, and standard values are set for information that cannot be obtained, and interpolation processing is performed based on the information, video signal, and reference edge model. To obtain the edge signal due to the noise component.
  • the invalid edge estimation means includes:
  • Conversion means
  • Embodiment 3 corresponds to this supplementary note.
  • the collecting means is the temperature sensor 117 shown in FIG. 28, the gain calculation unit 201 as shown in FIG. 28, the assigning means is the standard value giving unit 202 as shown in FIG. 28, and the table conversion means is the invalid edge table as shown in FIG. Part 1100 corresponds to each.
  • the temperature sensor 117, the control unit 115, and the gain calculation unit 201 collect information used to estimate the edge signal due to the noise component, and the standard value giving unit 202 uses the temperature sensor 117.
  • An image processing system that sets a standard value when information from the control unit 115 and the gain calculation unit 201 is not obtained, and obtains an edge signal caused by a noise component based on a video signal by an invalid edge table unit 1100 .
  • the noise processing means is
  • Noise estimation means for estimating the amount of noise from the video signal
  • the image processing system comprising: noise reduction means for smoothing the video signal based on the amount of noise
  • Embodiment 2 corresponds to this supplementary note.
  • the noise estimation means is the temperature sensor 117, the control section 115 and the gain calculation section 701, the standard value giving section 702, and the noise table section 703 shown in FIG. 17, and the noise reduction means is the first noise reduction means shown in FIG. 1 Smoothing part 705, 2nd The smoothing unit 706 corresponds to each.
  • information used for noise amount estimation is collected by the temperature sensor 117, the control unit 115, and the gain calculation unit 701, and the temperature sensor 117, the control unit 115, and the
  • a standard value is set, the noise amount is estimated by the noise table unit 703, and the smoothing is performed on the video signal determined to belong to the noise range by the first smoothing unit 705.
  • This is an image processing system that corrects a video signal that is determined not to belong to the noise range by the second smoothing unit 706 while performing ⁇ .
  • the amount of noise can be estimated with high accuracy by dynamically adapting to different conditions for each shooting. In addition, even when necessary information cannot be obtained, the amount of noise can be estimated, and a stable noise reduction effect can be obtained. Furthermore, since a table is used to calculate the amount of noise, processing can be performed at high speed. In addition, since the smoothing process and the correction process are used in combination, it is possible to prevent discontinuities associated with the noise reduction process and to obtain a high-quality signal.
  • the invalid edge estimation means includes:
  • Parameter selection means for selecting a parameter that also requires the parameter group power based on the amount of noise of the noise processing means
  • Interpolating means for obtaining an edge signal caused by a noise component by interpolation calculation based on the noise amount of the noise processing means power and the selected parameter;
  • Embodiment 2 corresponds to this supplementary note.
  • the recording means corresponds to the parameter ROM 801 as shown in FIG. 18, the parameter selection means corresponds to the parameter selection section 800 as shown in FIG. 18, and the interpolation means corresponds to the interpolation section 802 as shown in FIG. .
  • the coefficient of the reference edge model used for estimating the edge signal due to the noise component measured in advance in the parameter ROM 801 is recorded, and the meter selection unit 800 In this image processing system, the coefficient of the reference edge model is selected by, and the edge signal resulting from the noise component is obtained by the interpolation unit 8002 based on the noise amount and the reference edge model.
  • An edge signal caused by the noise component is obtained by performing an interpolation process based on the noise amount and the reference edge model.
  • the edge signal can be estimated with high accuracy.
  • interpolation processing is easy to implement, a low-cost system can be configured.
  • the invalid edge estimation unit includes a table conversion unit that receives an amount of noise from the noise processing unit and outputs an edge signal caused by a noise component.
  • Embodiment 2 corresponds to this supplementary note.
  • the recording means corresponds to the invalid edge table section 803 as shown in FIG.
  • a preferred application example of the present invention is an image processing system in which an invalid edge table unit 803 obtains an edge signal caused by a noise amount power noise component.
  • An edge signal caused by a noise component is obtained using the noise amount and the conversion table.
  • Embodiments 1 and 3 correspond to this supplementary note.
  • the temperature sensor corresponds to the temperature sensor 117 shown in FIGS.
  • a preferable application example of the present invention is that the temperature sensor 117 to the CCD 102 or the color CCD 10
  • the temperature of the image sensor at the time of shooting is measured and used as information for estimating the edge signal due to the noise component.
  • the appendix 9 or appendix 10 is characterized in that the collecting means includes gain calculating means for obtaining the gain value based on at least one of ISO sensitivity, exposure information, and white balance information. Image processing system.
  • Embodiments 1 and 3 correspond to this supplementary note.
  • the gain calculation means corresponds to the gain calculation unit 201 and the control unit 115 as shown in FIGS.
  • a preferred application example of the present invention is an image processing system in which ISO sensitivity, exposure information, white noise information, etc. are transferred by the control unit 115 and the total gain amount at the time of photographing is obtained by the gain calculation unit 201.
  • ISO sensitivity, exposure information, and white balance information are also determined by determining the amount of gain during shooting.
  • Information for estimating an edge signal caused by a component is used.
  • the edge correction means includes coring means for performing a coring process on the edge signal based on an edge signal caused by the noise component.
  • Image processing system includes coring means for performing a coring process on the edge signal based on an edge signal caused by the noise component.
  • Embodiment 1 corresponds to this supplementary note.
  • the coring means corresponds to the adding unit 301, the subtracting unit 302, and the replacing unit 303 as shown in FIG.
  • a preferred application example of the present invention is an image processing system that performs coring processing on an edge signal based on an edge signal caused by a noise component estimated by an adding unit 301, a subtracting unit 302, and a replacing unit 303.
  • coring processing is performed on the edge signal.
  • the edge signal is coring-processed based on the edge signal having the same property, the edge component can be stably obtained with high accuracy even for the video signal in which various noises are mixed.
  • the edge correction means is
  • Constant calculating means for calculating a constant term of a function used for correcting the edge signal based on the edge signal caused by the noise component
  • the image processing system further comprising: function conversion means for converting the edge signal based on a function in which the constant term is set.
  • Embodiment 2 corresponds to this supplementary note.
  • the constant calculation means corresponds to the constant calculation section 901 as shown in FIG. 20, and the function conversion means corresponds to the conversion section 902 as shown in FIG.
  • the constant calculation unit 901 calculates a constant term of a function used for correcting the edge signal based on the edge signal caused by the noise component, and the conversion unit 902 sets the constant term.
  • Image processing system that converts edge signals based on the function
  • a constant term of a function used for correcting the edge signal is calculated based on the edge signal caused by the noise component, and the edge signal is converted based on the function in which the constant term is set.
  • the edge component can be stably obtained with high accuracy even for a video signal mixed with various noises.
  • the function converting means uses a linear function when the absolute value of the edge signal is larger than the edge signal due to the noise component, and an edge signal with the absolute value of the edge signal due to the noise component.
  • Embodiment 2 corresponds to this supplementary note.
  • a preferred application example of the present invention is an image processing system that converts edge signals by combining a linear function and a cubic function as shown in FIG.
  • the edge signal is converted by combining linear and cubic functions.
  • the edge correction means includes table correction means for receiving the edge signal and the edge signal caused by the noise component as input and outputting a corrected edge signal.
  • Image processing system includes table correction means for receiving the edge signal and the edge signal caused by the noise component as input and outputting a corrected edge signal.
  • Embodiment 3 corresponds to this supplementary note.
  • the table correction means corresponds to the edge correction table unit 1200 shown in FIG.
  • a preferred application example of the present invention is an image processing system in which an edge signal is corrected by an edge correction table unit 1200 based on an edge signal caused by a noise component.
  • the edge signal is corrected using the edge signal due to the noise component and the conversion table.
  • the conversion table is used for correcting the edge signal, it is possible to correct the edge signal with high accuracy at high speed.
  • the above image sensor is a single-plate image sensor with R (red), G (green), and B (blue) Bayer type primary color filters arranged in front, or Cy (cyan), Mg (magenta), Ye (yellow) , G (green) color-difference line
  • a preferred application example of the present invention is that a Bayer type primary color filter as shown in FIG. 26 and FIG. 37 (A) or a color difference line sequential complementary color filter as shown in FIG. This is an image processing system arranged in front of the element.
  • a Bayer type primary color filter or a color difference line sequential type complementary color filter is placed in front.
  • a single plate image sensor is used.
  • An image processing program for causing a computer to process a video signal from an image sensor
  • An edge extraction step for extracting the video signal force edge signal
  • An invalid edge estimation step for estimating an edge signal caused by a noise component based on the video signal
  • An edge correction step for correcting the edge signal based on the edge signal caused by the noise component
  • each step corresponds to the step shown in FIG. 14, FIG. 15, or FIG. 22, FIG. 23, FIG. 24, or FIG.
  • the method further includes a YZC separation step of separating the luminance signal from the video signal, and the edge extraction step is a step of extracting the edge signal of the luminance signal force,
  • the invalid edge estimation step is a step of estimating an edge signal caused by a noise component based on the luminance signal.
  • the image processing apparatus further includes a noise processing step for performing noise reduction processing on the video signal.
  • Item 22 The image processing program according to item 21, wherein the image processing program is characterized in that the step is an estimation step.
  • the edge extraction step is a step of extracting an edge signal from the luminance signal force
  • the invalid edge estimation step is a step of estimating an edge signal caused by a noise component based on the predetermined information obtained by the noise processing step. Processing program.
  • each step corresponds to the step shown in Fig. 35.
  • the invalid edge estimation step includes:
  • Item 22 The image processing program according to item 21, wherein the image processing program is a step including:
  • the invalid edge estimation step includes a table conversion step of outputting an edge signal caused by a noise component with the video signal as an input.
  • the invalid edge estimation step includes:
  • a granting step that gives a standard value for information that cannot be obtained by the collecting step
  • Item 22 The image processing program according to item 21, wherein the image processing program is a step including:
  • each step corresponds to the step shown in FIG. 14, FIG. 15, or FIG. 22, FIG. 23, FIG. 24, or FIG.
  • the invalid edge estimation step includes:
  • the table conversion step for receiving the information obtained in the collecting step or the adding step, the video signal, and outputting a wedge signal caused by a noise component.
  • the noise processing step is
  • the invalid edge estimation step includes:
  • the parameter group step for selecting a necessary parameter group force regarding the reference edge model V, the amount of noise obtained by the noise processing step, and the above 29.
  • the image processing program according to appendix 29, comprising: an interpolation step for obtaining an edge signal due to a noise component by interpolation calculation based on the selected parameter.
  • the noise amount obtained in the noise processing step is calculated.
  • 32. The image processing program according to appendix 29, wherein the image processing program includes a table conversion step of outputting an edge signal resulting from a noise component as input.
  • each step corresponds to the step shown in FIG. 22, FIG. 23, and FIG.
  • the edge correction step includes a coring step for performing a coring process on the edge signal based on an edge signal caused by the noise component. program.
  • each step corresponds to the step shown in FIG. 14, FIG. 15, or FIG. 22, FIG. 23, FIG. 24, or FIG.
  • the edge correction step includes
  • Item 22 The image processing program according to item 21, wherein the image processing program is a step including:
  • each step corresponds to the step shown in FIG. 22, FIG. 23, and FIG.
  • the function conversion step as the function, when the absolute value of the edge signal is larger than the edge signal due to the noise component, a linear function is used, and the absolute value of the edge signal is equal to or less than the edge signal due to the noise component 34.
  • the image processing program according to appendix 33 which is a step of using a cubic function when the absolute value of the edge signal is larger than the edge signal due to the noise component.
  • the supplementary note 21 is characterized in that the edge correction step is a step including a table correction step in which the edge signal and the edge signal resulting from the noise component are input and the corrected edge signal is output.
  • Image processing program is a step including a table correction step in which the edge signal and the edge signal resulting from the noise component are input and the corrected edge signal is output.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

 映像信号を出力するCCD(102)と、映像信号からエッジ信号を抽出するエッジ抽出部(109)と、映像信号に基づいてノイズ成分に起因するエッジ信号を推定する無効エッジ推定部(110)と、エッジ信号をノイズ成分に起因するエッジ信号に基づいてコアリング処理し補正するエッジ補正部(111)と、補正されたエッジ信号に基づき映像信号に対して強調処理を行うエッジ強調部(112)と、を備えた画像処理システム。

Description

明 細 書
画像処理システム、画像処理プログラム
技術分野
[0001] 本発明は、撮像素子からの映像信号カゝらエッジ信号を抽出する画像処理システム
、画像処理プログラムに関する。
背景技術
[0002] デジタルカメラやデジタルビデオカメラ等のデジタル撮像装置は、一般的に、撮像 素子と、この撮像素子から出力されるアナログ信号に各種のアナログ処理を行うアナ ログ回路と、このアナログ回路の信号をデジタル信号に変換する AZDコンバータと、 を有して構成されている。
[0003] このようなデジタル撮像装置の AZDコンバータ力 得られるデジタル信号中には、 一般に、多様なノイズ成分が含まれている。このようなノイズ成分を含む映像信号から エッジ信号を抽出する場合には、コアリングと呼ばれる処理を行うことによりノイズ成 分の影響を抑制することが従来より行われて 、る。
[0004] こうした技術として、例えば特開平 8— 107565号公報には、 R, G, Bの信号毎に エッジ成分を抽出し、所定の雑音識別基準値に基づくコアリング処理を行う技術が記 載されている。これにより、熱雑音の影響を低減して、エッジ成分の抽出をより高精度 に行うことが可能となる。
[0005] また、特開平 9— 121366号公報には、 R, G, Bの信号間の相関性とエッジ信号の 振幅とに基づ 、てノイズであるカゝ否かを識別し、ノイズであると識別された場合にコア リング処理を行う技術が記載されている。これにより、各色信号間のノイズの影響を抑 制して、エッジ成分の抽出をより高精度に行うことが可能となる。
[0006] さらに、特開 2005— 130297号公報には、映像信号力らノイズ成分を動的に推定 して、コアリング処理を動的に制御する技術が記載されている。これにより、動的に変 化するノイズ成分に追随した高精度なエッジ成分の抽出が可能となる。
[0007] そして、特開 2005— 175718号公報には、輝度信号および色差信号に関するノィ ズ量を動的に推定して、高品位なノイズ低減処理を行う技術が記載されて ヽる。 [0008] 上述したような特開平 8— 107565号公報に記載の技術は、雑音識別基準値が静 的に与えられるものとなっている。し力しながら、撮像素子に起因するノイズは、映像 信号のレベル,ゲイン,撮影時の撮像素子の温度などの要因により、動的に変化す る。従って、該公報に記載の技術は、各要因の動的変化に対応した最適なノイズ推 定を行うことができず、コアリング処理の精度が低下する場合があると 、う課題がある 。また、該公報に記載の技術は、ノイズ成分によりエッジ信号を補正するものであるが 、ノイズ成分とエッジ信号とは性質が異なるために、必ずしも高い精度で補正すること ができな!/、と!/、う課題がある。
[0009] また、上記特開平 9 121366号公報に記載の技術は、色信号間の相関性に基づ いてノイズの識別を行うものであるために、色信号間の相関性が少ない被写体、例え ば単一色に近い被写体などでは、コアリング処理の精度が低下し、ひいてはエッジ 成分の抽出精度が低下するという課題がある。さらに、該公報に記載の技術は、ノィ ズ成分によりエッジ信号を補正するものであるために、上述した理由により、補正の 精度が低下するという課題がある。
[0010] そして、上記特開 2005— 130297号公報に記載の技術も、ノイズ成分によりエッジ 信号を補正するものであるために、上述した理由により、補正の精度が低下するとい う課題がある。
[0011] ところで、上記特開 2005— 175718号公報に記載の技術は、エッジ成分の抽出を 高精度に行うことを目的としたものではないが、ノイズ低減処理とエッジ抽出処理とを 独立して行うことが記載されている。従って、ノイズ低減処理とエッジ抽出処理とを相 互にうまく活用することができな 、と 、う課題がある。
[0012] 本発明は上記事情に鑑みてなされたものであり、多様なノイズが混在する映像信号 に対しても高精度なエッジ成分の抽出を安定して行うことが可能な画像処理システム
、画像処理プログラムを提供することを目的としている。
[0013] また、本発明は、高品位な映像信号を得ることができる低コストな画像処理システム
、画像処理プログラムを提供することを目的としている。
発明の開示
課題を解決するための手段 [0014] 上記の目的を達成するために、第 1の発明による画像処理システムは、撮像素子か らの映像信号を処理する画像処理システムであって、上記映像信号からエッジ信号 を抽出するエッジ抽出手段と、上記映像信号に基づいてノイズ成分に起因するエツ ジ信号を推定する無効エッジ推定手段と、上記エッジ信号を上記ノイズ成分に起因 するエッジ信号に基づ 、て補正するエッジ補正手段と、を具備したものである。
[0015] また、本発明による画像処理プログラムは、コンピュータに、撮像素子からの映像信 号を処理させるための画像処理プログラムであって、コンピュータに、上記映像信号 力もエッジ信号を抽出するエッジ抽出ステップと、上記映像信号に基づ ヽてノイズ成 分に起因するエッジ信号を推定する無効エッジ推定ステップと、上記エッジ信号を上 記ノイズ成分に起因するエッジ信号に基づ 、て補正するエッジ補正ステップと、を実 行させるためのプログラムである。
図面の簡単な説明
[0016] [図 1]本発明の実施形態 1における画像処理システムの構成を示すブロック図。
[図 2]上記実施形態 1にお 、て、エッジ抽出処理に用いる 3 X 3画素でなる注目領域 の構成を示す図。
[図 3]上記実施形態 1にお 、て、 3 X 3画素の注目領域に適用し得る等方性エッジ抽 出フィルタの構成を示す図。
[図 4]上記実施形態 1にお 、て、 3 X 3画素の注目領域に適用し得る水平エッジ抽出 フィルタおよび垂直エッジ抽出フィルタの構成を示す図。
[図 5]上記実施形態 1における無効エッジ推定部の構成を示すブロック図。
[図 6]上記実施形態 1にお ヽて、信号レベルに対するノイズ量の関係を示す線図。
[図 7]上記実施形態 1にお ヽて、ノイズ量に対する無効エッジ信号の関係を示す線図
[図 8]上記実施形態 1におけるエッジモデルを示す線図。
[図 9]上記実施形態 1にお 、て、エッジモデルに基づく無効エッジ信号の算出方法を 説明するための線図。
[図 10]上記実施形態 1におけるエッジ補正部の構成を示すブロック図。
[図 11]上記実施形態 1において、エッジ補正部におけるコアリング処理の応答を示す 線図。
[図 12]上記実施形態 1における無効エッジ推定部の他の構成例を示すブロック図。
[図 13]上記実施形態 1における画像処理システムの他の構成例を示すブロック図。
[図 14]上記実施形態 1にお 、て、画像処理プログラムによる信号処理全体の流れを 示すフローチャート。
[図 15]図 14のステップ S4における無効エッジ推定の処理の詳細を示すフローチヤ一 ト。
[図 16]本発明の実施形態 2における画像処理システムの構成を示すブロック図。
[図 17]上記実施形態 2におけるノイズ処理部の構成を示すブロック図。
[図 18]上記実施形態 2における無効エッジ推定部の一構成例を示すブロック図。
[図 19]上記実施形態 2における無効エッジ推定部の他の構成例を示すブロック図。
[図 20]上記実施形態 2におけるエッジ補正部の構成を示すブロック図。
[図 21]上記実施形態 2において、エッジ補正部におけるコアリング処理の応答を示す 線図。
[図 22]上記実施形態 2にお 、て、画像処理プログラムによる信号処理全体の流れを 示すフローチャート。
[図 23]図 22のステップ S30におけるノイズ処理の詳細を示すフローチャート。
[図 24]図 22のステップ S31における無効エッジ推定の処理の詳細を示すフローチヤ ート。
[図 25]本発明の実施形態 3における画像処理システムの構成を示すブロック図。
[図 26]上記実施形態 3において、べィヤー(Bayer)型原色フィルタの構成を示す図 圆 27]上記実施形態 3において、色差線順次型補色フィルタの構成を示す図。
[図 28]上記実施形態 3における無効エッジ推定部の一構成例を示すブロック図。
[図 29]上記実施形態 3における無効エッジ推定部の他の構成例を示すブロック図。
[図 30]上記実施形態 3におけるエッジ補正部の構成を示すブロック図。
[図 31]上記実施形態 3において、コアリング処理における応答の各例を示す線図。
[図 32]上記実施形態 3にお 、て、画像処理プログラムによる信号処理全体の流れを 示すフローチャート。
[図 33]図 32のステップ S62における無効エッジ推定の処理の詳細を示すフローチヤ ート。
[図 34]本発明の実施形態 4における画像処理システムの構成を示すブロック図。
[図 35]上記実施形態 4にお 、て、画像処理プログラムによる信号処理全体の流れを 示すフローチャート。
[図 36]本発明の実施形態 5における画像処理システムの構成を示すブロック図。
[図 37]上記実施形態 5において、べィヤー(Bayer)型原色フィルタを前面に配置し た撮像素子カゝら得られる映像信号を YZC分離する方法の一例を示す図。
[図 38]上記実施形態 5において、注目画素の色成分に応じた水平エッジ抽出フィル タおよび垂直エッジ抽出フィルタの構成を示す図。
発明を実施するための最良の形態
[0017] 以下、図面を参照して本発明の実施の形態を説明する。
[0018] [実施形態 1]
図 1から図 15は本発明の実施形態 1を示したものであり、図 1は画像処理システム の構成を示すブロック図、図 2はエッジ抽出処理に用いる 3 X 3画素でなる注目領域 の構成を示す図、図 3は 3 X 3画素の注目領域に適用し得る等方性エッジ抽出フィル タの構成を示す図、図 4は 3 X 3画素の注目領域に適用し得る水平エッジ抽出フィル タおよび垂直エッジ抽出フィルタの構成を示す図、図 5は無効エッジ推定部の構成を 示すブロック図、図 6は信号レベルに対するノイズ量の関係を示す線図、図 7はノイズ 量に対する無効エッジ信号の関係を示す線図、図 8はエッジモデルを示す線図、図 9はエッジモデルに基づく無効エッジ信号の算出方法を説明するための線図、図 10 はエッジ補正部の構成を示すブロック図、図 11はエッジ補正部におけるコアリング処 理の応答を示す線図、図 12は無効エッジ推定部の他の構成例を示すブロック図、図 13は画像処理システムの他の構成例を示すブロック図、図 14は画像処理プログラム による信号処理全体の流れを示すフローチャート、図 15は図 14のステップ S4におけ る無効エッジ推定の処理の詳細を示すフローチャートである。
[0019] まず、図 1を参照して、この画像処理システムの構成について説明する。図 1に示す 画像処理システムは、本発明の画像処理システムをデジタルカメラに適用した例とな つている。
[0020] この画像処理システムは、レンズ系 100と、絞り 101と、 CCD102と、温度センサ 11 7と、増幅部 103と、 AZD変換部 104と、バッファ 105と、測光評価部 106と、合焦点 検出部 107と、 AFモータ 108と、エッジ抽出部 109と、無効エッジ推定部 110と、ェ ッジ補正部 111と、エッジ強調部 112と、信号処理部 113と、出力部 114と、制御部 1 15と、外部 IZF部 116と、を含んでいる。
[0021] レンズ系 100は、被写体の光学像を CCD102の撮像面へ結像するためのものであ る。
[0022] 絞り 101は、レンズ系 100により結像される被写体光束の通過範囲を規定すること により、 CCD102の撮像面に結像される光学像の明るさを変更するためのものである
[0023] CCD102は、結像される光学像を光電変換して、アナログの映像信号として出力 するための撮像素子である。なお、本実施形態においては、 CCD102として、白黒 用単板 CCDを想定している。また、撮像素子も、 CCDに限るものではなぐ CMOS やその他の撮像素子を用いてももちろん構わな 、。
[0024] 温度センサ 117は、収集手段,ノイズ推定手段であって、この CCD102の温度を実 質的に計測して、制御部 115へ出力するものである。
[0025] 増幅部 103は、 CCD102から出力される映像信号を増幅するためのものである。こ の増幅部 103による増幅量は、制御部 115の制御に基づき、測光評価部 106により 設定されるようになっている。
[0026] AZD変換部 104は、制御部 115の制御に基づき、 CCD102から出力され増幅部
103により増幅されたアナログの映像信号を、デジタルの映像信号に変換するため のものである。
[0027] バッファ 105は、 AZD変換部 104から出力されたデジタルの映像信号を一時的に 記憶するためのものである。
[0028] 測光評価部 106は、プリ撮影モード時に、制御部 115の制御に基づき、バッファ 10
5に記憶されている映像信号中の輝度レベルを求めて、設定されている ISO感度や 手ぶれ限界のシャツタ速度などを考慮して、適正露光となるような絞り 101の絞り値や CCD102の電子シャツタ速度や増幅部 103の増幅率などを制御するものである。
[0029] 合焦点検出部 107は、プリ撮影モード時に、制御部 115の制御に基づき、バッファ 105に記憶されている映像信号中のエッジ強度を検出して、このエッジ強度が最大と なるように AFモータ 108を制御することにより、合焦信号を得るようにするものである
[0030] AFモータ 108は、合焦点検出部 107に制御されて、レンズ系 100に含まれる AFレ ンズを駆動するための駆動源である。
[0031] エッジ抽出部 109は、本撮影時に、制御部 115の制御に基づき、バッファ 105に記 憶されている映像信号から図 2に示すような 3 X 3画素サイズの注目領域を順次抽出 して、例えば図 3に示すようなエッジ抽出フィルタを用いて注目画素におけるエッジ信 号 Eを抽出するエッジ抽出手段である。
[0032] 無効エッジ推定部 110は、本撮影時に、制御部 115の制御に基づき、バッファ 105 に記憶されている映像信号から、エッジ抽出部 109と同一の 3 X 3画素サイズの注目 領域を順次抽出して、注目画素 P におけるノイズ成分に起因する無効エッジ信号 IE
11
を推定する無効エッジ推定手段である。
[0033] エッジ補正部 111は、制御部 115の制御に基づき、エッジ抽出部 109からのエッジ 信号 Eに対して、無効エッジ推定部 110からの無効エッジ信号 IEを用いて、コアリン グ処理を行うエッジ補正手段である。
[0034] エッジ強調部 112は、制御部 115の制御に基づき、エッジ抽出部 109と同一の 3 X
3画素サイズ内の注目画素 P を順次抽出して、エッジ補正部 111からのコアリング処
11
理がなされたエッジ信号 E'を用いてエッジ強調処理を行うエッジ強調手段である。
[0035] 信号処理部 113は、制御部 115の制御に基づき、エッジ強調部 112から出力され るエッジ強調後の映像信号に対して公知の圧縮処理などを行 、、処理後の信号を出 力部 114へ転送するものである。
[0036] 出力部 114は、信号処理部 113から出力される映像信号を、メモリカードなどの記 録媒体へ記録して保存するものである。
[0037] 制御部 115は、例えばマイクロコンピュータなどにより構成されていて、増幅部 103 、 AZD変換部 104、測光評価部 106、合焦点検出部 107、エッジ抽出部 109、無 効エッジ推定部 110、エッジ補正部 111、エッジ強調部 112、信号処理部 113、出力 部 114、外部 IZF部 116と双方向に接続されており、これらを含むこのデジタルカメ ラ全体を制御するための制御手段である。この制御部 115には、さらに、 CCD102の 近傍に配置された温度センサ 117からの信号が入力されるようになって 、る。そして 、この制御部 115は、収集手段,ノイズ推定手段,ゲイン算出手段を兼ねたものとな つている。
[0038] 外部 IZF部 116は、画像処理システムが適用されたこのデジタルカメラに対するュ 一ザからの入力等を行うためのインターフェースであり、電源のオン Zオフを行うため の電源スィッチ、撮影操作を開始するためのシャツタボタン、撮影モードやその他各 種のモードを切り換えるためのモード切換ボタンなどを含んで構成されている。ユー ザは、この外部 IZF部 116を介して、 2段式のシャツタボタンの 1段目の押圧によるプ リ撮影の開始入力、該シャツタボタンの 2段目の押圧による本撮影の開始入力を行う ことができるようになつている。さらに、ユーザは、この外部 I/F部 116を介して、 ISO 感度の設定なども行うことができるようになつている。そして、この外部 IZF部 116は、 入力された情報を、制御部 115へ出力するようになって 、る。
[0039] 次に、図 1に示したようなデジタルカメラの作用を、映像信号の流れに沿って説明す る。
[0040] ユーザは、撮影を行う前に、外部 IZF部 116を介して ISO感度などの撮影条件を 予め設定する。
[0041] その後、ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを半押し すると、このデジタルカメラがプリ撮影モードに入る。
[0042] すると、レンズ系 100および絞り 101を介して結像される被写体像力 CCD102に より光電変換され、アナログの映像信号として出力される。
[0043] このアナログの映像信号は、増幅部 103によって ISO感度を考慮した増幅が行わ れた後に、 AZD変換部 104によりデジタルの映像信号に変換されて、ノ ッファ 105 に gc feされる。
[0044] このバッファ 105内に記憶された映像信号は、測光評価部 106と、合焦点検出部 1 07と、へそれぞれ転送される。
[0045] 測光評価部 106は、映像信号に基づき、上述したように絞り 101の絞り値や CCD1 02の電子シャツタ速度や増幅部 103の増幅率などを適正露光となるように制御する
[0046] 合焦点検出部 107は、映像信号に基づき、上述したようにエッジ強度を検出し、こ のエッジ強度が最大となるように AFモータ 108を制御して、合焦信号を得る。
[0047] こうして、焦点調節や露出調節などが行われたところで、ユーザが、外部 IZF部 11 6の 2段式スィッチでなるシャツタボタンを全押しすると、このデジタルカメラが本撮影 モードに入る。
[0048] すると、プリ撮影と同様にして、映像信号力 Sバッファ 105へ転送される。この本撮影 は、測光評価部 106によって求められた露光条件と、合焦点検出部 107によって求 められた合焦条件と、に基づいて行われており、これらの撮影時の条件が制御部 11 5へ転送される。
[0049] 本撮影によって得られたバッファ 105内の映像信号は、エッジ抽出部 109と無効ェ ッジ推定部 110とエッジ強調部 112とへそれぞれ転送される。
[0050] エッジ抽出部 109は、制御部 115の制御に基づき、図 2に示すような注目画素 P を
11 包含する 3 X 3画素サイズの注目領域 P (i=0〜2, j = 0〜2)を順次抽出して、図 3 に示すようなエッジ抽出フィルタを用いて注目画素 P
11におけるエッジ信号 Eを抽出す る。この図 3に示すエッジ抽出フィルタは、等方的なエッジ抽出フィルタの一例である 。なお、エッジ抽出フィルタとしては、図 3に示すような等方的なエッジ抽出フィルタに 限定されるものではない。例えば、図 4 (A)に示すような水平方向のエッジ抽出フィル タ Ehと、図 4 (B)に示すような垂直方向のエッジ抽出フィルタ Evと、をそれぞれ個別 に使用して、その後に次の数式 1に示すように、エッジ信号 Εを求めるように構成する ことも可能である。
[数 1]
E = - El + Ev 2 なお、これらのエッジ抽出フィルタに限らず、その他、公知のエッジ抽出法を用いる ように構成することももちろん可能である。そして、エッジ抽出部 109は、抽出したエツ ジ信号 Eを、エッジ補正部 111へ転送する。
[0051] 無効エッジ推定部 110は、制御部 115の制御に基づき、エッジ抽出部 109と同一 の 3 X 3画素サイズの注目領域 Pを順次抽出して、注目画素 P におけるノイズ成分 ϋ 11
に起因する無効エッジ信号 IEを推定する。そして、無効エッジ推定部 110は、推定し て得られたノイズ成分に起因する無効エッジ信号 IEを、エッジ補正部 111へ転送す る。
[0052] エッジ補正部 111は、制御部 115の制御に基づき、エッジ抽出部 109からのエッジ 信号 Eに対して、無効エッジ推定部 110からの無効エッジ信号 IEを用いて、コアリン グ処理を行う。エッジ補正部 111は、コアリング処理を行ったエッジ信号 E,を、エッジ 強調部 112へ転送する。
[0053] エッジ強調部 112は、制御部 115の制御に基づき、エッジ抽出部 109と同一の 3 X
3画素サイズ内の注目画素 P を順次抽出して、エッジ補正部 111からのコアリング処
11
理がなされたエッジ信号 E'を用いて、次の数式 2に示すようなエッジ強調処理を行う [数 2]
P ' =P +g-E'
11 11
なお、この数式 2における gは、所定のゲイン値を意味し、例えば 0. 5〜4. 0程度の 値をとるようになっている。そして、エッジ強調部 112は、エッジ強調処理を行った映 像信号を、信号処理部 113へ転送する。
[0054] ここに、上述したエッジ抽出部 109,無効エッジ推定部 110,エッジ補正部 111,ェ ッジ強調部 112の各処理は、制御部 115の制御に基づいて、 3 X 3画素サイズの注 目領域 P単位で同期して行われるようになつている。そして、全ての映像信号を処理 する(全ての画素を注目画素として処理する)ために、図 2に示したような 3 X 3画素サ ィズの注目領域は、隣接する注目領域に対して 2行または 2列ずつ重複して (つまり、 1行または 1列ずつずれるように)設定されるようになって!/、る。
[0055] 信号処理部 113は、制御部 115の制御に基づき、エッジ強調部 112から出力され るエッジ強調処理後の映像信号に対して、上述したように、公知の圧縮処理などを行 い、処理後の信号を出力部 114へ転送する。
[0056] 出力部 114は、信号処理部 113から出力される映像信号を、メモリカードなどの記 録媒体へ記録して保存する。
[0057] 次に、図 5を参照して、無効エッジ推定部 110の構成の一例について説明する。
[0058] この無効エッジ推定部 110は、平均算出部 200と、収集手段でありゲイン算出手段 たるゲイン算出部 201と、付与手段たる標準値付与部 202と、記録手段たるパラメ一 タ用 ROM203と、パラメータ選択手段たるパラメータ選択部 204と、補間手段たる補 間部 205と、補間手段たる補正部 206と、を含んでいる。
[0059] ここに、バッファ 105は、平均算出部 200へ接続されている。また、平均算出部 200 は、パラメータ選択部 204へ接続されている。ゲイン算出部 201と標準値付与部 202 とパラメータ用 ROM203とは、ノ ラメータ選択部 204へそれぞれ接続されている。パ ラメータ選択部 204は、補間部 205と補正部 206とへそれぞれ接続されている。補間 部 205は、補正部 206を介してエッジ補正部 111へ接続されて!、る。
[0060] また、制御部 115は、平均算出部 200,ゲイン算出部 201,標準値付与部 202,パ ラメータ選択部 204,補間部 205,補正部 206と双方向に接続されていて、これらを 制御するようになっている。
[0061] 次に、このような無効エッジ推定部 110の作用について説明する。
[0062] 平均算出部 200は、制御部 115の制御に基づき、バッファ 105から図 2に示すよう な注目領域 Pの映像信号を読み出して、この注目領域 Pの映像信号の平均値 AV を次の数式 3に示すように算出する。
[数 3]
;=0,2 ;=0,2
そして、平均算出部 200は、算出した平均値 AVを、パラメータ選択部 204へ転送 する。
[0063] また、ゲイン算出部 201は、制御部 115から転送される ISO感度と露光条件に関す る情報との少なくとも一方に基づいて、増幅部 103における増幅量を求め、求めた増 幅量をパラメータ選択部 204へ転送する。 [0064] 一方、制御部 115は、温度センサ 117から CCD102の温度情報を取得して、取得 した温度情報をパラメータ選択部 204へ転送する。
[0065] パラメータ選択部 204、補間部 205、および補正部 206は、平均算出部 200からの 注目領域の平均値と、ゲイン算出部 201からのゲインの情報と、制御部 115からの温 度情報と、に基づいて、ノイズ成分に起因する無効エッジ信号 IEを推定する。
[0066] ここに、無効エッジ信号 IEの推定について、図 6〜図 9を参照して説明する。
[0067] まず、図 6は、信号レベル Lとノイズ量 Nとの関係をプロットしたものである。ノイズ量 Nは、図示のように、信号レベル Lが増加するとともに増加する傾向を示し、このとき の増加は、信号レベル Lに対して 2次曲線的な増加となる。そこで、この図 6に示すよ うな増加の様子を、特開 2005— 175718号公報に開示されているように 2次関数を 用 、てモデル化すると、次の数式 4に示すようになる。
Figure imgf000014_0001
ここに、 a , β , γは定数項である。
[0068] しかしながら、ノイズ量 Νは、信号レベル Lの変化のみにより変化するのではなぐ撮 像素子の温度や映像信号に対するゲインによっても変化する。例えば、図 6は、ある 温度 tにおいて、ゲインに関連する 3種類の ISO感度 100 (ゲイン X I) , 200 (ゲイン X 2) , 400 (ゲイン X 4)に対するノイズ量 Nをプロットしたものである。
[0069] 図 6に示す個々の曲線は、数式 4に示したような形状をしている力 その係数はゲイ ンに関連する ISO感度に応じて異なっている。また、図示はしないが、ノイズ量 Nは、 撮像素子の温度によっても変化し、一般に、撮像素子の温度が高くなると増加する 傾向を示す(なお、温度としては 20°C、 50°C、 80°Cが例として図示されている)。
[0070] こうして、ゲインを g、温度を tとして、ノイズモデルの定式ィ匕を上述したようなノイズ量 Nのゲイン gや温度 tへの依存性も考慮した形で行うと、次の数式 5に示すようになる。
[数 5]
N = a L2 + β L + y
gt gt gt
ここに、 a , j8 , γ は、ゲイン gと温度 tとに依存して定まる定数項である。
gt gt gt
[0071] 次に、図 7は、平坦な領域の映像信号にノイズ量 Nを付カ卩して、これに図 3または図 4に示すようなエッジ抽出フィルタを適用して得られたノイズ成分に起因する無効エツ ジ信号 IEをプロットしたものである。
[0072] 無効エッジ信号 IEは、図示のように、ノイズ量 Nが増加するとともに増加する傾向を 示し、このときの増加は、ノイズ量 Nに対して 3次曲線的な増加となる。そこで、この図 7に示すような増加の様子を、 3次関数を用いてモデルィ匕すると、次の数式 6に示す ようになる。
[数 6]
ΙΕ= δ Ν3+ ε Ν2+ ζ Ν+ 7?
ここに、 δ , ε , ζ , ηは定数項であり、エッジ抽出フィルタが固定されれば、一意 【こ疋 'ま 。
[0073] 上述したような数式 5と数式 6とを組み合わせることにより、信号レベル Lと、ノイズ成 分に起因する無効エッジ信号 IEと、の関係を、エッジモデルとして定式ィ匕することが できる。
[0074] ただし、エッジモデルの関数を複数記録して、その都度演算により無効エッジ信号 を算出することは処理的に負荷が大きい。このために、図 8に示すようなエッジモデル の簡略ィ匕を行う。すなわち、図 8に示すような簡略ィ匕されたモデルにおいては、最大 の無効エッジ信号を与える関数を基準エッジモデルとして選択し、さらに、この基準 エッジモデルを所定数の変曲点を有する折れ線で近似する。ここに、折れ線の変曲 点は、信号レベル Lと無効エッジ信号 IEとから構成される座標データ (L , IE )により 表す。ただし、 nは変曲点の番号を示している。また、上記基準エッジモデル力も他 のエッジモデルを導出するための補正係数 kを用意する。この補正係数 kは、各ェ
gt gt ッジモデルと基準エッジモデルとを用いて、最小自乗法により算出される。こうして算 出した補正係数 kを基準エッジモデルに乗算することにより、他のエッジモデルを導
gt
出するようになっている。
[0075] 図 9を参照して、図 8に示すような簡易化されたエッジモデル力 無効エッジ信号を 算出する方法について説明する。
[0076] 例えば、与えられた信号レベル 1、ゲイン g、温度 tに対応する無効エッジ信号 IEを 求めることを想定する。まず、信号レベル 1が基準エッジモデルのどの区間に属する かを探索する。ここでは信号レベル 1力 (L , IE )と (L , IE )との間の区間に属す n n n+1 n+1
るものとする。このとき、基準エッジモデルにおける基準無効エッジ信号 IEを、次の数
1 式 7に示すような線形補間によって求める。
[数 7]
If - IF , 、
ム fl+i― Ln 次に、次の数式 8に示すように、求めた基準無効エッジ信号 IEに補正係数 kを乗
1 gt 算することにより、無効エッジ信号 IEを求める。
[数 8]
IE = k -IE
gt 1
図 5に沿った説明に戻って、上述したような基準エッジモデルの変曲点の座標デー タ(L , IE )と補正係数 kとは、パラメータ用 ROM203に記録されている。
n n gt
[0077] ノラメータ選択部 204は、平均算出部 200からの注目領域の平均値 AVに基づき 信号レベル 1を、ゲイン算出部 201からのゲインの情報に基づきゲイン gを、制御部 11 5からの温度情報に基づき温度 tを、それぞれ設定する。
[0078] 次に、パラメータ選択部 204は、信号レベル 1が属する区間の座標データ (L , IE ) および (L , IE )をパラメータ用 ROM203から探索し、これを補間部 205へ転送 n+1 n+1
する。さら〖こ、パラメータ選択部 204は、補正係数 kをパラメータ用 ROM203から探 gt
索して、これを補正部 206へ転送する。
[0079] 補間部 205は、制御部 115の制御に基づき、パラメータ選択部 204からの信号レべ ル 1と区間の座標データ (L , IE )および (L , IE )とを用いて数式 7に基づき基準 n n n+1 n+1
エッジモデルにおける基準無効エッジ信号 IEを算出し、補正部 206へ転送する。
1
[0080] 補正部 206は、制御部 115の制御に基づき、パラメータ選択部 204からの補正係 数 kと、補間部 205からの基準無効エッジ信号 IEと、を用いて数式 8に基づき無効 gt 1
エッジ信号 IEを算出し、これを注目画素 P の無効エッジ信号 IEとする。補正部 206
11
は、推定した無効エッジ信号 IEを、エッジ補正部 111へ転送する。
[0081] なお、上述したような無効エッジ信号を算出する過程において、温度 tやゲイン gな どの情報を必ずしも撮影毎に求める必要はない。つまり、任意の情報を標準値付与 部 202に記録しておき、算出過程を省略するように構成することも可能である。これに よって、処理の高速ィ匕ゃ省電力化などを図ることが可能となる。
[0082] 次に、図 10を参照して、エッジ補正部 111の構成の一例について説明する。
[0083] このエッジ補正部 111は、切換部 300と、コアリング手段たる加算部 301と、コアリン グ手段たる減算部 302と、コアリング手段たる置換部 303と、を含んでいる。
[0084] エッジ抽出部 109は、切換部 300へ接続されている。切換部 300は、加算部 301と 減算部 302と置換部 303とへそれぞれ接続されている。加算部 301と減算部 302と 置換部 303とは、エッジ強調部 112へそれぞれ接続されている。また、無効エッジ推 定部 110は、切換部 300と加算部 301と減算部 302とへそれぞれ接続されている。
[0085] 制御部 115は、切換部 300,加算部 301,減算部 302,置換部 303と双方向に接 続されていて、これらを制御するようになっている。
[0086] 次に、このようなエッジ補正部 111の作用について説明する。
[0087] 切換部 300は、制御部 115の制御に基づき、エッジ抽出部 109から注目画素 P に
11 対するエッジ信号 Eを、無効エッジ推定部 110から注目画素 P に対する無効エッジ
11
信号 IEを、それぞれ読み込む。
[0088] 次に、切換部 300は、— IE >Eである場合にはエッジ信号 Eを加算部 301へ、 Ε>1
Eである場合にはエッジ信号 Eを減算部 302へ、 IE≥E≥—IEである場合にはエッジ 信号 Eを置換部 303へ、転送する。
[0089] 加算部 301は、制御部 115の制御に基づき、切換部 300からエッジ信号 Eが転送さ れた場合に、無効エッジ推定部 110から無効エッジ信号 IEを読み込み、エッジ信号
Eに無効エッジ信号 IEを加算処理する補正を行い、補正後のエッジ信号 E,をエッジ 強調部 112へ転送する。
[0090] また、減算部 302は、制御部 115の制御に基づき、切換部 300からエッジ信号 Eが 転送された場合に、無効エッジ推定部 110から無効エッジ信号 IEを読み込み、エツ ジ信号 Eカゝら無効エッジ信号 IEを減算処理する補正を行い、補正後のエッジ信号 E, をエッジ強調部 112へ転送する。
[0091] そして、置換部 303は、制御部 115の制御に基づき、切換部 300からエッジ信号 E が転送された場合に、エッジ信号 Eを 0に置換処理する補正を行い、補正後のエッジ 信号 E,をエッジ強調部 112へ転送する。
[0092] このような 3通りの処理は、次の数式 9により示される c
[数 9]
E + 1E {-IE > E)
E - IE (E > IE)
0 (IE≥E≥ -IE) 図 11は、このような数式 9の特性を図示したものであり、入力エッジ信号 Eの絶対値 が無効エッジ信号 IE以下となる場合に、出力エッジ信号 E'が 0となるコアリング処理 となっている。
[0093] なお、上述ではノイズ成分に起因するエッジ信号の推定に、撮像素子の温度, ISO 感度,露出情報などの関連情報を用いていたが、このような構成に限定される必要 はない。例えば、図 12に示すように、信号レベルのみに基づいてノイズ成分に起因 するエッジ信号を推定するように構成することも可能である。
[0094] 図 12は、図 5に示す構成力もゲイン算出部 201と標準値付与部 202と補正部 206 とを省略して、平均算出部 200およびパラメータ用 ROM203を、注目画素抽出部 40 0および記録手段たるパラメータ用 ROM401により置換した構成となっている。この 図 12に示す無効エッジ推定部 110におけるその他の基本的な構成は図 5に示した ものと同様であるために、同一の構成には同一の名称と符号を付して適宜説明を省 略し、主として異なる部分についてのみ説明する。
[0095] ノッファ 105は、注目画素抽出部 400へ接続されている。注目画素抽出部 400は、 パラメータ選択部 204へ接続されている。パラメータ用 ROM401は、パラメータ選択 部 204へ接続されている。パラメータ選択部 204は、補間部 205へ接続されている。 補間部 205は、エッジ補正部 111へ接続されて!、る。
[0096] また、制御部 115は、注目画素抽出部 400へも双方向に接続されていて、これを制 御するようになっている。
[0097] 注目画素抽出部 400は、制御部 115の制御に基づき、バッファ 105から図 2に示す ような注目画素 P を読み込んで、パラメータ選択部 204へ転送する。
11
[0098] ノ メータ選択部 204および補間部 205は、注目画素抽出部 400からの注目画素 P の信号レベルに基づいて、ノイズ成分に起因する無効エッジ信号 IEを推定する。
11
[0099] すなわち、パラメータ用 ROM401には、図 8に示すような所定温度、所定ゲイン値 に対応する単一のエッジモデルの変曲点の座標データ (L , IE )のみが記録されて いる。なお、以下では、記録されているエッジモデルを基準エッジモデルとして扱う。
[0100] ノ ラメータ選択部 204は、注目画素 P の信号レベル 1が属する区間の座標データ(
11
L , IE )および (L , IE )をパラメータ用 ROM401から探索して、これを補間部 20 n n n+1 n+1
5へ転送 *5る。
[0101] 補間部 205は、制御部 115の制御に基づき、パラメータ選択部 204からの信号レべ ル 1と区間の座標データ (L , IE )および (L , IE )とを用いて、数式 7に基づき基 n n n+1 n+1
準エッジモデルにおける基準無効エッジ信号 IEを算出する。補間部 205は、算出し
1
た基準無効エッジ信号 IEを、無効エッジ信号 IEとしてエッジ補正部 111へ転送する
1
[0102] この図 12に示したような構成を採用すれば、ノイズ成分に起因するエッジ信号の推 定に要する構成を簡略ィ匕することができるために、画像処理システムの低コスト化を 図ることが可能となる。
[0103] また、上述にぉ 、ては、画像処理システムとしてデジタルカメラを例に挙げて 、たた めに、図 1に示したように、画像処理システムは、レンズ系 100,絞り 101, CCD102 ,温度センサ 117,増幅部 103, AZD変換部 104,測光評価部 106,合焦点検出 部 107, AFモータ 108を含む撮像部が一体ィ匕して構成されていた。
[0104] しかし、画像処理システムとしては、このような構成に限定される必要はない。例え ば、図 13に示すように、撮像部が別体であっても構わない。すなわち、図 13に示す 画像処理システムは、別体の撮像部により撮像され、未処理の Rawデータの形態で メモリカード等の記録媒体に記録された映像信号を、該記録媒体力 読み出して処 理するものとなっている。ただし、このときには、映像信号に係る撮像条件などの付随 情報が、ヘッダ部等として記録媒体に記録されているものとする。なお、別体の撮像 部から画像処理システムへの各種情報の伝送は、記録媒体を介して行うに限らず、 通信回線等を介して行うようにしても構わな!/ヽ。
[0105] 図 13に示す画像処理システムは、図 1に示した画像処理システムから、レンズ系 10 0,絞り 101, CCD102,温度センサ 117,増幅部 103, AZD変換部 104,測光評 価部 106,合焦点検出部 107, AFモータ 108を省略して、入力部 500,ヘッダ情報 解析部 501を追カ卩した構成となっている。この図 13に示す画像処理システムにおけ るその他の基本的な構成は、図 1に示したものと同様であるために、同一の構成には 同一の名称と符号を付して適宜説明を省略し、主として異なる部分についてのみ説 明する。
[0106] 入力部 500は、バッファ 105とヘッダ情報解析部 501とへそれぞれ接続されている 。また、制御部 115は、入力部 500およびヘッダ情報解析部 501とも双方向に接続さ れていて、これらを制御するようになっている。
[0107] 次に、この図 13に示す画像処理システムにおいて異なる作用は、以下のようになつ ている。
[0108] 例えばマウスやキーボードなどの外部 IZF部 116を介して処理操作を開始すると、 メモリカード等の記録媒体に保存された映像信号およびヘッダ情報が、入力部 500 を介して読み込まれる。
[0109] 入力部 500から読み込まれた情報の内の、映像信号はバッファ 105へ、ヘッダ情報 はヘッダ情報解析部 501へ、それぞれ転送される。
[0110] ヘッダ情報解析部 501は、入力部 500から転送されたヘッダ情報に基づき、撮影 時の情報 (すなわち、上述したような露光条件、 ISO感度、撮像素子の温度など)を 抽出して制御部 115へ転送する。
[0111] これ以後の処理は、図 1に示したような画像処理システムと同様である。
[0112] さらに、上述ではハードウェアによる処理を前提としていた力 このような構成に限 定されるものでもない。例えば、 CCD102からの映像信号を未処理のままの Rawデ ータとしてメモリカード等の記録媒体に記録するとともに、撮像条件などの付随情報( 例えば、制御部 115からの撮影時の撮像素子の温度やゲインなど)をヘッダ情報とし て記録媒体に記録しておく。そして、別途のソフトウェアである画像処理プログラムを コンピュータに実行させて、記録媒体の情報をコンピュータに読み取らせ、処理する ことも可能である。なお、撮像部力もコンピュータへの各種情報の伝送は、記録媒体 を介して行うに限らず、通信回線等を介して行うようにしても構わな ヽ。 [0113] 図 14を参照して、画像処理プログラムによる処理のメインルーチンを説明する。
[0114] この処理を開始すると、まず、映像信号を読み込むとともに、撮像素子の温度ゃゲ インなどのヘッダ情報を読み込む (ステップ S 1)。
[0115] 次に、図 2に示したような、注目画素を含む 3 X 3画素サイズの注目領域を抽出する
(ステップ S 2)。
[0116] そして、例えば図 3に示したような等方的なエッジ抽出フィルタを用いて、注目画素 におけるエッジ信号を抽出する (ステップ S3)。
[0117] 続いて、後で図 15を参照して説明するように注目画素におけるノイズ成分に起因 する無効エッジ信号を推定する (ステップ S4)。
[0118] その後、エッジ信号の絶対値が無効エッジ信号以下である力否かを判定する (ステ ップ S5)。
[0119] ここで、エッジ信号の絶対値が無効エッジ信号よりも大きい場合には、さらに、エツ ジ信号が無効エッジ信号よりも大き!/、か否かを判定する (ステップ S6)。
[0120] このステップ S6において、エッジ信号が無効エッジ信号以下である場合(—IE >E である場合)には、エッジ信号に無効エッジ信号を加算する (ステップ S9)。
[0121] また、ステップ S6において、エッジ信号が無効エッジ信号よりも大きい場合 (E>IE である場合)には、エッジ信号カゝら無効エッジ信号を減算する (ステップ S8)。
[0122] 一方、ステップ S5において、エッジ信号の絶対値が無効エッジ信号以下である場 合 (IE≥E≥—IEである場合)には、エッジ信号を 0に置換する (ステップ S7)。
[0123] ステップ S7〜S9の何れかの処理が終了したら、数式 2に示したように補正されたェ ッジ信号を用いて、映像信号にエッジ強調処理を行う(ステップ S 10)。
[0124] 次に、全注目領域についての処理が完了した力否かを判定し (ステップ S11)、完 了して 、な 、場合には、上記ステップ S 2へ戻って次の注目領域にっ 、て上述したよ うな処理を繰り返して行う。
[0125] また、全注目領域についての処理が完了したと判定された場合には、公知の圧縮 処理などの信号処理を行!、 (ステップ S12)、処理後の映像信号を出力して (ステップ
S13)、この一連の処理を終了する。
[0126] 次に、図 15を参照して、上記図 14のステップ S4における無効エッジ推定の処理に ついて説明する。
[0127] 図 14のステップ S4においてこの処理が開始されると、まず、注目領域の平均値を 数式 3に示したように算出する (ステップ S 20)。
[0128] 次に、読み込まれたヘッダ情報に基づ 、て、温度やゲインなどの関連する情報を 設定する (ステップ S21)。ただし、ヘッダ情報内に必要なパラメータが存在しない場 合には、所定の標準値を割り当てる処理を行う。
[0129] 続、て、基準エッジモデルの座標データと、補正係数と、を読み込む (ステップ S22
) o
[0130] そして、注目領域の平均値が属する区間の座標データと、対応する補正係数と、を 選択する (ステップ S 23)。
[0131] その後、数式 7に示したような補間処理によって、基準無効エッジ信号を求める (ス テツプ S 24)。
[0132] 次に、数式 8に示したような補正処理によって、無効エッジ信号を求める (ステップ S 25)。
[0133] 続いて、算出された無効エッジ信号を出力して (ステップ S26)、この処理から図 14 に示した処理に復帰する。
[0134] このような実施形態 1によれば、ノイズ成分に起因するエッジ信号に関係する各種 情報を撮影毎に動的に求め、求められない情報に関しては標準値を設定し、これら の情報と映像信号と基準エッジモデルとに基づいて補間処理を行うことによりノイズ 成分に起因する無効エッジ信号を求め、エッジ信号を求めた無効エッジ信号によつ て補正処理する画像処理システムを構成することが可能となる。
[0135] このような画像処理システムは、性質が同一であるエッジ信号によりエッジ信号を補 正するものであるために、多様なノイズが混在する映像信号に対しても高精度なエツ ジ成分の抽出を安定して行うことが可能となる。
[0136] また、撮影毎に異なる条件に動的に適応しているために、ノイズ成分に起因するェ ッジ信号の推定を高精度に行うことが可能となる。
[0137] さらに、必要となる情報が得られない場合でも、標準値を設定するようになっている ために、ノイズ成分に起因するエッジ信号の推定が可能となり、安定した処理結果を 得ることができる。
[0138] そして、ノイズ成分に起因するエッジ信号の算出にモデルを用いているために、ェ ッジ信号の推定を高精度に行うことが可能となる。
[0139] このとき、簡略化されたモデルを採用すると、簡略化されたモデルに基づく補間処 理は実装が容易であるために、低コストなシステムを構築することが可能となる。
[0140] [実施形態 2]
図 16から図 24は本発明の実施形態 2を示したものであり、図 16は画像処理システ ムの構成を示すブロック図、図 17はノイズ処理部の構成を示すブロック図、図 18は 無効エッジ推定部の一構成例を示すブロック図、図 19は無効エッジ推定部の他の構 成例を示すブロック図、図 20はエッジ補正部の構成を示すブロック図、図 21はエツ ジ補正部におけるコアリング処理の応答を示す線図、図 22は画像処理プログラムに よる信号処理全体の流れを示すフローチャート、図 23は図 22のステップ S30におけ るノイズ処理の詳細を示すフローチャート、図 24は図 22のステップ S31における無 効エッジ推定の処理の詳細を示すフローチャートである。
[0141] この実施形態 2において、上述の実施形態 1と同様である部分については同一の 符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0142] まず、図 16を参照して、この画像処理システムの構成について説明する。図 16に 示す画像処理システムは、本発明の画像処理システムをデジタルカメラに適用した 例となっている。
[0143] この図 16に示す画像処理システムは、上述した実施形態 1の図 1に示した画像処 理システムを一部変更したものとなっている。すなわち、この画像処理システムは、図 1に示した無効エッジ推定部 110およびエッジ補正部 111を、無効エッジ推定手段た る無効エッジ推定部 601およびエッジ補正手段たるエッジ補正部 602に置換し、さら にノイズ処理手段たるノイズ処理部 600を追加した構成になって ヽる。その他の基本 的な構成は実施形態 1と同様であって、同一の構成には同一の名称と符号を付して いる。
[0144] 以下、主として異なる部分のみを説明する。
[0145] バッファ 105は、測光評価部 106と合焦点検出部 107とノイズ処理部 600とエッジ 抽出部 109とへ接続されている。ノイズ処理部 600は、エッジ強調部 112と無効エツ ジ推定部 601とへそれぞれ接続されている。エッジ抽出部 109と無効エッジ推定部 6 01とは、エッジ補正部 602へそれぞれ接続されている。エッジ補正部 602は、エッジ 強調部 112へ接続されて ヽる。
[0146] また、制御部 115は、ノイズ処理部 600,無効エッジ推定部 601,エッジ補正部 60 2と双方向に接続されて 、て、これらを制御するようになって!/、る。
[0147] 次に、この図 16に示したような画像処理システムの作用について、映像信号の流 れに沿って説明する。この実施形態 2の画像処理システムの作用は、基本的に上述 した実施形態 1と同様であるために、主として異なる部分についてのみ説明する。
[0148] ノイズ処理部 600は、制御部 115の制御に基づき、図 2に示したような注目画素 P
11 を包含する 3 X 3画素サイズの注目領域 Pを順次抽出する。そして、ノイズ処理部 60 0は、特開 2005— 175718号公報に開示されているようにノイズのモデルに基づき 注目画素 P に関するノイズ量 Nを推定し、平滑化処理を行う。ノイズ処理部 600は、
11
推定したノイズ量 Nを無効エッジ推定部 601へ、平滑化処理を行った注目画素 NR P 112へ、
一 11をエッジ強調部 それぞれ転送する。
[0149] 無効エッジ推定部 601は、制御部 115の制御に基づき、ノイズ処理部 600から注目 画素 P に対するノイズ量 Nを読み込み、注目画素 P におけるノイズ成分に起因する
11 11
無効エッジ信号 IEを推定する。無効エッジ推定部 601は、推定したノイズ成分に起 因する無効エッジ信号 IEを、エッジ補正部 602へ転送する。
[0150] エッジ補正部 602は、制御部 115の制御に基づき、エッジ抽出部 109からのエッジ 信号 Eに対して、無効エッジ推定部 601からの無効エッジ信号 IEと、所定の関数と、 を用いて変換処理を行う。エッジ補正部 602は、変換処理を行ったエッジ信号 E,を、 エッジ強調部 112へ転送する。
[0151] エッジ強調部 112は、制御部 115の制御に基づき、ノイズ処理部 600からの平滑ィ匕 処理がなされた注目画素 NR P に対して、エッジ補正部 602からの変換処理エツ 一 11
ジ信号 E'を用いて、次の数式 10に示すようなエッジ強調処理を行う。
[数 10]
P , =NR P +g'E, なお、この数式 10における gは、所定のゲイン値を意味し、例えば 0. 5〜4. 0程度 の値をとるようになっている。そして、エッジ強調部 112は、エッジ強調処理を行った 映像信号を、信号処理部 113へ転送する。
[0152] ここに、上述したエッジ抽出部 109,ノイズ処理部 600,無効エッジ推定部 601 ,ェ ッジ補正部 602,エッジ強調部 112の各処理は、制御部 115の制御に基づいて、 3 X 3画素サイズの注目領域 P単位で同期して行われるようになって!/、る。
[0153] 信号処理部 113は、制御部 115の制御に基づき、エッジ強調部 112から出力され るエッジ強調処理後の映像信号に対して、公知の圧縮処理などを行い、処理後の信 号を出力部 114へ転送する。
[0154] 出力部 114は、信号処理部 113から出力される映像信号を、メモリカードなどの記 録媒体へ記録して保存する。
[0155] 次に、図 17を参照して、ノイズ処理部 600の構成の一例について説明する。
[0156] このノイズ処理部 600は、平均算出部 700と、ノイズ推定手段たるゲイン算出部 70 1と、ノイズ推定手段たる標準値付与部 702と、ノイズ推定手段たるノイズテーブル部 703と、選択部 704と、ノイズ低減手段たる第 1スムージング部 705と、ノイズ低減手 段たる第 2スムージング部 706と、を含んでいる。
[0157] ノ ッファ 105は、平均算出部 700と選択部 704とへそれぞれ接続されている。平均 算出部 700とゲイン算出部 701と標準値付与部 702とは、ノイズテーブル部 703へそ れぞれ接続されている。ノイズテーブル部 703は、選択部 704と第 1スムージング部 7 05と第 2スムージング部 706と無効エッジ推定部 601とへそれぞれ接続されている。 選択部 704は、第 1スムージング部 705と第 2スムージング部 706とへそれぞれ接続 されている。第 1スムージング部 705と第 2スムージング部 706とは、エッジ強調部 11 2へそれぞれ接続されて ヽる。
[0158] 制御部 115は、平均算出部 700,ゲイン算出部 701,標準値付与部 702,ノイズテ 一ブル部 703,選択部 704,第 1スムージング部 705,第 2スムージング部 706と双 方向に接続されて 、て、これらを制御するようになって 、る。
[0159] 次に、このようなノイズ処理部 600の作用について説明する。
[0160] 平均算出部 700は、制御部 115の制御に基づき、バッファ 105から図 2に示したよう な注目画素 P を包含する 3 X 3画素サイズの注目領域 Pを順次抽出して、数式 3に 11 ϋ
示したような平均値 AVを算出する。平均算出部 700は、算出した平均値 AVをノイズ テーブル部 703へ転送する。
[0161] ゲイン算出部 701は、制御部 115から転送される ISO感度と露光条件に関する情 報との少なくとも一方に基づき、増幅部 103における増幅量を求めて、求めた増幅量 をノイズテーブル部 703へ転送する。
[0162] また、制御部 115は、温度センサ 117から CCD102の温度情報を取得して、取得 した温度情報をノイズテーブル部 703へ転送する。
[0163] ノイズテーブル部 703は、平均算出部 700からの平均値と、ゲイン算出部 701から のゲインの情報と、制御部 115からの温度情報と、に基づいて、ノイズ量を推定する。 このノイズテーブル部 703は、温度,信号値レベル,ゲインと、ノイズ量と、の間の関 係を記録したルックアップテーブルであり、例えば特開 2005— 175718号公報に開 示されている手法により構築されたものである。ノイズテーブル部 703は、推定したノ ィズ量 Nと平均算出部 700からの平均値 AVとを、選択部 704と第 1スムージング部 7 05と第 2スムージング部 706とへそれぞれ転送する。また、ノイズテーブル部 703は、 推定したノイズ量 Nを無効エッジ推定部 601へも転送する。
[0164] 選択部 704は、制御部 115の制御に基づき、ノイズテーブル部 703からの平均値 A Vおよびノイズ量 Nを読み込む。その後、選択部 704は、ノイズ量に関する許容範囲 としての上限 Noise— Upおよび下限 Noise— Lowを、次の数式 11に示すように設 定する。
[数 11]
N
Noise_Up = AV +―
N
Noise Low = AV そして、選択部 704は、制御部 115の制御に基づき、ノ ッファ 105から注目画素 P
11 を読み込んで、上記許容範囲に属する力否かを判定する。この判定は、「ノイズ範囲 に属している(Noise Up≥P ≥ Noise Low) J , 「ノイズ範囲を上回っている(P >Noise_Up) j , 「ノイズ範囲を下回っている(Noise— Low>P ;)」の 3通りである
― ― 11
[0165] 選択部 704は、「ノイズ範囲に属している」と判定した場合には第 1スムージング部 7 05へ、それ以外の場合には第 2スムージング部 706へ、注目画素 P を転送する。
11
[0166] 第 1スムージング部 705は、平滑化処理がなされた注目画素 NR P として、ノイズ
― 11
テーブル部 703からの平均値 AVを次の数式 12に示すようにそのまま用いて、出力 する。
[数 12]
NR _PU = A V 一方、第 2スムージング部 706は、平滑化処理がなされた注目画素 NR—P として 一 11
、選択部 704からの注目画素 P にノイズテーブル部 703からの平均値 AVとノイズ量
11
Nとを用いて補正する処理を行う。まず、第 2スムージング部 706は、「ノイズ範囲を上 回って 、る」場合には、次の数式 13に示すように補正する◎。
[0167] [数 13]
N
NR_Pn = Pn - - また、第 2スムージング部 706は、「ノイズ範囲を下回っている」場合には、次の数式 14に示すように補正する。
[数 14] 通— W このようにして、第 1スムージング部 705または第 2スムージング部 706よる平滑化 処理がなされた注目画素 NR— P は、エッジ強調部 112へ転送される。
一 11
[0168] 次に、図 18を参照して、無効エッジ推定部 601の構成の一例について説明する。
[0169] この無効エッジ推定部 601は、ノ メータ選択手段たるパラメータ選択部 800と、記 録手段たるパラメータ用 ROM801と、補間手段たる補間部 802と、を含んでいる。
[0170] ノイズ処理部 600およびパラメータ用 ROM801は、パラメータ選択部 800へそれぞ れ接続されている。パラメータ選択部 800は補間部 802へ接続されている。補間部 8
02は、エッジ補正部 602へ接続されている。
[0171] また、制御部 115は、パラメータ選択部 800,補間部 802と双方向に接続されてい て、これらを制御するようになっている。
[0172] このような無効エッジ推定部 601の作用について説明する。
[0173] パラメータ選択部 800および補間部 802は、ノイズ処理部 600からの注目画素 P
11 に関するノイズ量 Nに基づ ヽて、ノイズ成分に起因する無効エッジ信号 IEを推定する 。以下では、本発明の実施形態 1に係る図 7を参照して、無効エッジ信号 IEを推定す る方法について説明する。
[0174] 図 7に示したように、ノイズ量 Nに対する無効エッジ信号 IEの関係は、 3次関数を用 いたエッジモデルとしてモデルィ匕される。さらに、この 3次関数を所定数の変曲点を 有する折れ線で近似するものとする。ここに、折れ線の変曲点は、ノイズ量 Nと無効ェ ッジ信号 IEとから構成される座標データ (N , IE )により表す。ただし、 nは変曲点の 番号を示している。
[0175] そして、与えられたノイズ量 Nに対応する無効エッジ信号 IEを求めるには、まず、ノ ィズ量 Nがエッジモデルのどの区間に属するかを探索する。ここでは、ノイズ量 ?^が( N , IE )と(N , IE )との間の区間に属するものとする。このとき、エッジモデルに n n n+1 n+1
おける無効エッジ信号 IEを、次の数式 15に示すような線形補間によって求める。
[数 15]
ΙΕ = ΙΕ^ ~ ΙΕ" (Ν - Ν )+ΪΕη
+Ϊ - Νη "ノ " 図 18に沿った説明に戻って、上述したようなエッジモデルの変曲点の座標データ( N , IE )は、パラメータ用 ROM801に記録されている。
[0176] パラメータ選択部 800は、制御部 115の制御に基づき、ノイズ処理部 600からの注 目画素 p に関するノイズ量 Nを読み込む。次に、パラメータ選択部 800は、ノイズ量
11
Nが属する区間の座標データ(N, IE )および (N , IE )をパラメータ用 ROM80 n n n+1 n+1
1から探索して、これを補間部 802へ転送する。 [0177] 補間部 802は、制御部 115の制御に基づき、パラメータ選択部 800からのノイズ量 Nと区間の座標データ (N , IE )および (N , IE )とを用いて、数式 15に基づき無 n n n+1 n+1
効エッジ信号 IEを算出し、算出した無効エッジ信号 IEをエッジ補正部 602へ転送す る。なお、上述においてはモデルに基づく補間演算によりノイズ成分に起因するエツ ジ信号を推定していた力 このような構成に限定される必要はない。例えば、図 19に 示すように、テーブルを用いてノイズ成分に起因するエッジ信号を推定するように構 成することも可能である。
[0178] ここで、図 19を参照して、無効エッジ推定部 601の構成の他の例について説明す る。
[0179] この無効エッジ推定部 601は、記録手段たる無効エッジテーブル部 803を含んで いる。
[0180] ノイズ処理部 600は、無効エッジテーブル部 803へ接続されている。無効エッジテ 一ブル部 803は、エッジ補正部 602へ接続されて ヽる。
[0181] また、制御部 115は、無効エッジテーブル部 803と双方向に接続されていて、これ を制御するようになって 、る。
[0182] ここに、無効エッジテーブル部 803は、図 7に示したような、ノイズ量 Nに対する無効 エッジ信号 IEの関係を記録したテーブルである。
[0183] 無効エッジテーブル部 803は、制御部 115の制御に基づき、ノイズ処理部 600から 注目画素 P に関するノイズ量 Nを読み込んで、対応する無効エッジ信号 IEをエッジ
11
補正部 602へ転送する。
[0184] 図 20を参照して、エッジ補正部 602の構成の一例について説明する。
[0185] このエッジ補正部 602は、切換部 900と、定数算出手段たる定数算出部 901と、関 数変換手段たる変換部 902と、を含んでいる。
[0186] エッジ抽出部 109は、切換部 900へ接続されている。切換部 900は、変換部 902と エッジ強調部 112とへそれぞれ接続されて 、る。変換部 902は、エッジ強調部 112 へ接続されている。無効エッジ推定部 601は、切換部 900と定数算出部 901とへそ れぞれ接続されている。定数算出部 901は、変換部 902へ接続されている。
[0187] また、制御部 115は、切換部 900,定数算出部 901,変換部 902と双方向に接続さ れていて、これらを制御するようになっている。
[0188] 次に、このようなエッジ補正部 602の作用について説明する。
[0189] 定数算出部 901は、制御部 115の制御に基づき、無効エッジ推定部 601から注目 画素 P に対する無効エッジ信号 IEを読み込む。そして、定数算出部 901は、図 21
11
に示すような応答特性を有する関数の定数項を算出する。ここ〖こ、図 21は、エッジ信 号 Eを入力して、変換後のエッジ信号 E'を出力する関数の形状を示しており、この関 数は、 2つの 1次関数と、 1つの 3次関数と、を組み合わせて構成されている。
[数 16]
(E >IE)
(IE≥E≥-IE)
3IE 1E +
E (- IE > E) 定数算出部 901は、数式 16に示すような関数の定数項、実質的には 3次関数の 3 次項の係数である 2Z (3 ·ΙΕ2)の一項のみを算出して、変換部 902へ転送する。
[0190] 切換部 900は、制御部 115の制御に基づき、エッジ抽出部 109から注目画素 Ρ に
11 対するエッジ信号 Εを、無効エッジ推定部 601から注目画素 Ρ に対する無効エッジ
11
信号 IEを、それぞれ読み込む。そして、切換部 900は、エッジ信号 Eと無効エッジ信 号 IEとを比較して、 IE≥E≥— IEである場合には変換部 902へ、それ以外の場合に はエッジ強調部 112へ、エッジ信号 Eを転送する。
[0191] 変換部 902は、制御部 115の制御に基づき、切換部 900からエッジ信号 Eが転送さ れた場合に、定数算出部 901からの定数項を用いて数式 16中の 3次関数によりエツ ジ信号 Eを変換し、変換後のエッジ信号 E,をエッジ強調部 112へ転送する。
[0192] なお、上述にぉ 、ては、撮像部が一体ィ匕された画像処理システムを例に挙げたが 、このような構成に限定されるものではなぐ上述した実施形態 1と同様に、撮像部と は分離した構成の画像処理システムであっても構わない。
[0193] また、上述ではハードウェアによる処理を前提としていた力 このような構成に限定 されるものではない。例えば、 CCD102からの映像信号を未処理のままの Rawデー タとしてメモリカード等の記録媒体に記録するとともに、撮像条件などの付随情報 (例 えば、制御部 115からの撮影時の撮像素子の温度やゲインなど)をヘッダ情報として 記録媒体に記録しておく。そして、別途のソフトウェアである画像処理プログラムをコ ンピュータに実行させて、記録媒体の情報をコンピュータに読み取らせ、処理するこ とも可能である。なお、撮像部からコンピュータへの各種情報の伝送は、記録媒体を 介して行うに限らず、通信回線等を介して行うようにしても構わな ヽ。
[0194] 図 22を参照して、画像処理プログラムによる処理のメインルーチンを説明する。な お、この図 22に示す処理の内の、上述した実施形態 1の図 14に示した処理とほぼ同 様な処理については、同一の符号を付している。
[0195] この処理を開始すると、まず、映像信号を読み込むとともに、撮像素子の温度ゃゲ インなどのヘッダ情報を読み込む (ステップ S 1)。
[0196] 次に、図 2に示したような、注目画素を含む 3 X 3画素サイズの注目領域を抽出する
(ステップ S 2)。
[0197] そして、例えば図 3に示したような等方的なエッジ抽出フィルタを用いて、注目画素 におけるエッジ信号を抽出する (ステップ S3)。
[0198] その一方で、後で図 23を参照して説明するように、注目画素に対するノイズ処理を 行う(ステップ S 30)。
[0199] ステップ S3の処理とステップ S30の処理とが終了したら、後で図 24を参照して説明 するように、注目画素におけるノイズ成分に起因する無効エッジ信号を推定する (ス テツプ S31)。
[0200] 続、て、エッジ信号の絶対値が無効エッジ信号以下である力否かを判定する (ステ ップ S5)。
[0201] ここで、エッジ信号が無効エッジ信号以下である場合には、数式 16に示すような 3 次関数を用いてエッジ信号を変換する (ステップ S32)。
[0202] ステップ S30の処理が終わった後であって、このステップ S32の処理を行った場合 には、変換されたエッジ信号を用いて、ノイズ処理がなされた映像信号に数式 10に 示したようにエッジ強調処理を行う。また、ステップ S30の処理が終わった後であって 、ステップ S5にお 、てエッジ信号の絶対値が無効エッジ信号よりも大き!/、と判定され た場合には、そのままのエッジ信号を変換されたエッジ信号として用いて、ノイズ処理 がなされた映像信号に数式 10に示したようにエッジ強調処理を行う(ステップ S10)。
[0203] 次に、全注目領域についての処理が完了した力否かを判定し (ステップ S11)、完 了して 、な 、場合には、上記ステップ S 2へ戻って次の注目領域にっ 、て上述したよ うな処理を繰り返して行う。
[0204] また、全注目領域についての処理が完了したと判定された場合には、公知の圧縮 処理などの信号処理を行!、 (ステップ S12)、処理後の映像信号を出力して (ステップ
S13)、この一連の処理を終了する。
[0205] 続いて、図 23を参照して、上記図 22のステップ S30におけるノイズ処理について 説明する。
[0206] 図 22のステップ S30においてこの処理が開始されると、まず、読み込まれたヘッダ 情報に基づいて、温度やゲインなどの関連する情報を設定する (ステップ S40)。た だし、ヘッダ情報内に必要なパラメータが存在しない場合には、所定の標準値を割り 当てる処理を行う。
[0207] 続、て、ノイズテーブルを読み込み (ステップ S41)、読み込んだノイズテーブルを 用いて、注目画素に対するノイズ量を求める(ステップ S42)。
[0208] そして、数式 11に示したような許容範囲に基づいて、ノイズ量が許容範囲内に属す るか否かを判定する(ステップ S43)。
[0209] ここで、ノイズ量が許容範囲内に属すると判定された場合には、数式 12に示したよ うな平滑化処理を行う(ステップ S44)。
[0210] また、ノイズ量が許容範囲内に属しないと判定された場合には、数式 13または数式
14に示したような平滑化処理を行う(ステップ S45)。
[0211] ステップ S44またはステップ S45の処理が終了したら、ノイズ処理がなされた映像信 号を出力して (ステップ S46)、この処理から図 22に示した処理に復帰する。
[0212] 次に、図 24を参照して、上記図 22のステップ S31における無効エッジ推定の処理 について説明する。
[0213] この処理を開始すると、まず、注目画素のノイズ量を読み込むとともに (ステップ S5
0)、エッジモデルの座標データを読み込む (ステップ S 51)。
[0214] 次に、注目領域のノイズ量が属する区間の座標データを選択する (ステップ S52)。 [0215] 続いて、数式 15に示したような補間処理によって、基準無効エッジ信号を求める( ステップ S 53)。
[0216] その後、算出された無効エッジ信号を出力して (ステップ S54)、この処理から図 22 に示した処理に復帰する。
[0217] このような実施形態 2によれば、ノイズ成分を推定することによりノイズ低減処理を行 い、推定されたノイズ成分に基づきノイズ成分に起因するエッジ信号を動的に推定し
、原信号力 のエッジ信号をノイズ成分に起因するエッジ信号に基づ 、て補正処理 する画像処理システムを構成することが可能となる。
[0218] このような画像処理システムは、性質が同一であるエッジ信号によりエッジ信号を補 正するものであるために、多様なノイズが混在する映像信号に対しても高精度なエツ ジ成分の抽出を安定して行うことが可能となる。
[0219] また、ノイズ低減処理によりノイズの影響を抑制するとともに、微細な信号を保存し た高品位なエッジ成分を得ることができる。
[0220] さらに、ノイズ低減処理とエッジ信号の補正処理とを組み合わせて使用しているた めに、システムの規模を縮小することができ、低コストィ匕を図ることが可能となる。
[0221] そして、ノイズ成分に起因するエッジ信号の算出にモデルを用いているために、高 精度なエッジ信号の推定を、低コストィ匕を図りながら行うことが可能となる。
[0222] 一方、ノイズ成分に起因するエッジ信号の算出にテーブルを用いる場合には、高精 度なエッジ信号の推定を高速に行うことが可能となる。
[0223] また、エッジ信号の変換を、複数の関数を組み合わせて得られる連続的な単調増 加関数を用いて行っているために、エッジ信号の連続性を確保することができて、高 品位なエッジ信号を得ることができる。
[0224] [実施形態 3]
図 25から図 33は本発明の実施形態 3を示したものであり、図 25は画像処理システ ムの構成を示すブロック図、図 26はべィヤー(Bayer)型原色フィルタの構成を示す 図、図 27は色差線順次型補色フィルタの構成を示す図、図 28は無効エッジ推定部 の一構成例を示すブロック図、図 29は無効エッジ推定部の他の構成例を示すブロッ ク図、図 30はエッジ補正部の構成を示すブロック図、図 31はコアリング処理における 応答の各例を示す線図、図 32は画像処理プログラムによる信号処理全体の流れを 示すフローチャート、図 33は図 32のステップ S62における無効エッジ推定の処理の 詳細を示すフローチャートである。
[0225] この実施形態 3において、上述の実施形態 1, 2と同様である部分については同一 の符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0226] まず、図 25を参照して、この画像処理システムの構成について説明する。図 25に 示す画像処理システムは、本発明の画像処理システムをデジタルカメラに適用した 例となっている。
[0227] この図 25に示す画像処理システムは、上述した実施形態 1の図 1に示した画像処 理システムを一部変更したものとなっている。すなわち、この画像処理システムは、図 1に示した CCD102と無効エッジ推定部 110とエッジ補正部 111とを、カラー CCD1 000と無効エッジ推定手段たる無効エッジ推定部 1005とエッジ補正手段たるエッジ 補正部 1006とに置換し、さらに、プレホワイトバランス部 1001と補間部 1002と YZC 分離手段たる YZC分離部 1003とバッファ 1004と YZC合成部 1007とを追加した 構成になっている。その他の基本的な構成は実施形態 1と同様であって、同一の構 成には同一の名称と符号を付して 、る。
[0228] 以下、主として異なる部分のみを説明する。
[0229] レンズ系 100,絞り 101,カラー CCD1000を介して撮影された映像信号は、増幅 部 103へ転送されるようになって ヽる。
[0230] ノ ッファ 105は、プレホワイトバランス部 1001と補間部 1002と測光評価部 106と合 焦点検出部 107とへそれぞれ接続されている。プレホワイトバランス部 1001は、増幅 部 103へ接続されている。補間部 1002は、 YZC分離部 1003へ接続されている。 Y ZC分離部 1003は、バッファ 1004へ接続されている。バッファ 1004は、エッジ抽出 部 109とエッジ強調部 112と無効エッジ推定部 1005とへそれぞれ接続されている。 エッジ抽出部 109と無効エッジ推定部 1005とは、エッジ補正部 1006へそれぞれ接 続されている。エッジ補正部 1006は、エッジ強調部 112へ接続されている。エッジ強 調部 112は、 YZC合成部 1007へ接続されている。 YZC合成部 1007は、信号処 理部 113へ接続されている。 [0231] また、カラー CCDIOOOの近傍に配置された温度センサ 117からの信号は、制御部 115へ接続されている。
[0232] そして、制御部 115は、プレホワイトバランス部 1001,補間部 1002, YZC分離部
1003,無効エッジ推定部 1005,エッジ補正部 1006, YZC合成部 1007と双方向 に接続されて 、て、これらを制御するようになって 、る。
[0233] 次に、この図 25に示したような画像処理システムの作用について、映像信号の流 れに沿って説明する。この実施形態 3の画像処理システムの作用は、基本的に上述 した実施形態 1と同様であるために、主として異なる部分についてのみ説明する。
[0234] ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを半押しすると、こ のデジタルカメラがプリ撮影モードに入る。
[0235] すると、レンズ系 100および絞り 101を介して結像される被写体像力 カラー CCD1
000により光電変換され、アナログの映像信号として出力される。
[0236] このアナログの映像信号は、増幅部 103によって ISO感度やホワイトバランスを考 慮した増幅が行われた後に、 AZD変換部 104によりデジタルの映像信号に変換さ れて、バッファ 105に記憶される。
[0237] なお、本実施形態においては、カラー CCD1000として、図 26に示すようなべィャ 一(Bayer)型原色フィルタを前面に配置した単板撮像素子を想定している。また、撮 像素子としては、 CCDに限るものではなぐ CMOSやその他の撮像素子を用いても 構わないことは、上述した実施形態 1と同様である。
[0238] ここで、図 26を参照して、べィヤー(Bayer)型の色フィルタの構成につ!、て説明す る。
[0239] 図 26に示すようなべィヤー(Bayer)型の原色フィルタは、 2 X 2画素を基本単位と して、この基本単位内の対角する画素位置に赤 (R) ,青(B)フィルタが 1つずつ、残 りの対角する画素位置に緑 (G)フィルタがそれぞれ、配置されたものとなっている。
[0240] 続いて、バッファ 105内の映像信号は、測光評価部 106と、合焦点検出部 107と、 プレホワイトバランス部 1001と、へそれぞれ転送される。
[0241] これらの内のプレホワイトバランス部 1001は、バッファ 105に記憶されている映像信 号の内の所定レベルの範囲内の信号を色信号毎に積算する(つまり、累計的に加算 する)ことにより、簡易ホワイトバランス係数を算出する。プレホワイトバランス部 1001 は、算出した係数を増幅部 103へ転送して、色信号毎に異なるゲインを乗算させるこ とにより、ホワイトバランスを行わせる。
[0242] こうして、焦点調節や露出調節、簡易ホワイトバランス調節などが行われたところで 、ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを全押しすると、こ のデジタルカメラが本撮影モードに入る。
[0243] すると、プリ撮影と同様にして、映像信号力 Sバッファ 105へ転送される。この本撮影 は、プレホワイトバランス部 1001によって求められた簡易ホワイトバランス係数と、測 光評価部 106によって求められた露光条件と、合焦点検出部 107によって求められ た合焦条件と、に基づいて行われており、これらの撮影時の条件が制御部 115へ転 送される。
[0244] 本撮影によって得られたバッファ 105内の映像信号は、まず、補間部 1002へ転送 される。
[0245] この補間部 1002は、制御部 115の制御に基づき、公知の補間処理により R, G, B の三板力もなる映像信号を生成して、 YZC分離部 1003へ転送する。
[0246] YZC分離部 1003は、制御部 115の制御に基づき、 R, G, B信号を次の数式 17 に示すように輝度信号 Yおよび色差信号 Cb, Crへ分離する。
[数 17]
Y = 0. 29900R+0. 58700G + 0. 11400B
Cb=— 0. 16874R-0. 33126G + 0. 50000B
Cr= 0. 50000R-0. 41869G— 0. 08131B
YZC分離部 1003により算出された輝度信号および色差信号は、バッファ 1004へ 転送されて保存される。
[0247] エッジ抽出部 109は、制御部 115の制御に基づき、バッファ 1004内の輝度信号 Y から、図 2に示したような注目画素 P を包含する 3 X 3画素サイズの注目領域 Pを順
11 ϋ 次抽出して、図 3に示したようなエッジ抽出フィルタを用いて、注目画素 Ρ における
11 エッジ信号 Εを抽出する。エッジ抽出部 109は、抽出したエッジ信号 Εを、エッジ補正 部 1006へ転送する。 [0248] 無効エッジ推定部 1005は、制御部 115の制御に基づき、バッファ 1004内の輝度 信号 Yから、上述したエッジ抽出部 109と同一の 3 X 3画素サイズの注目領域 Pを順 次抽出し、注目画素 P におけるノイズ成分に起因する無効エッジ信号 IEを推定する
11
。無効エッジ推定部 1005は、推定したノイズ成分に起因する無効エッジ信号 IEを、 エッジ補正部 1006へ転送する。
[0249] エッジ補正部 1006は、制御部 115の制御に基づき、エッジ抽出部 109からのエツ ジ信号 Eに対して、無効エッジ推定部 1005からの無効エッジ信号 IEを用いてコアリ ング処理を行う。エッジ補正部 1006は、コアリング処理を行ったエッジ信号 E,を、ェ ッジ強調部 112へ転送する。
[0250] エッジ強調部 112は、制御部 115の制御に基づき、バッファ 1004内の輝度信号 Y 力もエッジ抽出部 109と同一の注目画素 P に対応する輝度信号 Yを順次抽出して、
11
エッジ補正部 111からのコアリング処理がなされたエッジ信号 E,を用いて、次の数式 18に示すようなエッジ強調処理を行う。
[数 18]
Y' =Y+g -E'
なお、この数式 18における gは、所定のゲイン値を意味し、例えば 0. 5〜4. 0程度 の値をとるようになっている。
[0251] また、エッジ強調部 112は、バッファ 1004内の色差信号 Cb, Crからエッジ抽出部 1 09と同一の注目画素 P に対応する色差信号 Cb, Crを抽出する。そして、エッジ強
11
調部 112は、抽出した色差信号 Cb, Crとエッジ強調処理後の輝度信号 Y'とを、 Ύ/ C合成部 1007へ転送する。
[0252] YZC合成部 1007は、制御部 115の制御に基づき、エッジ強調処理後の輝度信 号 Y'と色差信号 Cb, とから、次の数式 19に示すように RGBの三信号 (R', G' , Β' )を合成する。
[数 19]
R' =Y' + 1. 40200Cr
G' =Y' -0. 34414Cb -0. 71414Cr
B' =Y' + 1. 77200Cb YZC合成部 1007は、合成した R', G', B'信号を、信号処理部 113へ転送する。
[0253] なお、上述したようなエッジ抽出部 109,無効エッジ推定部 1005,エッジ補正部 10
06,エッジ強調部 112, YZC合成部 1007の各処理は、制御部 115の制御に基づ き、 3 X 3画素サイズの注目領域 P単位で同期して行われるようになつている。
[0254] 信号処理部 113は、制御部 115の制御に基づき、エッジ強調部 112から出力され るエッジ強調処理後の映像信号に対して、公知の彩度強調処理や圧縮処理などを 行い、処理後の信号を出力部 114へ転送する。
[0255] 出力部 114は、信号処理部 113から出力される映像信号を、メモリカードなどの記 録媒体へ記録して保存する。
[0256] 次に、図 28を参照して、無効エッジ推定部 1005の構成の一例について説明する。
[0257] この無効エッジ推定部 1005は、上述した実施形態 1の図 5に示した無効エッジ推 定部 110と基本的に同様であり、テーブル変換手段たる無効エッジテーブル部 110
0を追加するとともに、パラメータ用 ROM203,パラメータ選択部 204,補間部 205, 補正部 206を省略したものとなっている。その他の構成は同様であるために、同一の 名称と符号を付して、以下では、主として異なる部分についてのみ説明する。
[0258] 平均算出部 200とゲイン算出部 201と標準値付与部 202とは、無効エッジテープ ル部 1100へそれぞれ接続されている。無効エッジテーブル部 1100は、エッジ補正 部 1006へ接続されている。
[0259] 制御部 115は、無効エッジテーブル部 1100と双方向に接続されていて、これを制 御するようになっている。
[0260] 次に、このような無効エッジ推定部 1005の作用について説明する。
[0261] 平均算出部 200は、制御部 115の制御に基づき、バッファ 105内の輝度信号 Yか ら図 2に示したような注目領域 Pの平均値 AVを算出して、無効エッジテーブル部 11
00へ転送する。
[0262] ゲイン算出部 201は、制御部 115から転送される ISO感度と露光条件に関する情 報とホワイトバランス係数との内の少なくとも 1つに基づき、増幅部 103における増幅 量を求めて、求めた増幅量を無効エッジテーブル部 1100へ転送する。
[0263] また、制御部 115は、温度センサ 117からカラー CCD1000の温度情報を取得して 、取得した温度情報を無効エッジテーブル部 1100へ転送する。
[0264] 無効エッジテーブル部 1100は、平均算出部 200からの注目領域の平均値と、ゲイ ン算出部 201からのゲインの情報と、制御部 115からの温度情報と、に基づいて、ノ ィズ成分に起因する無効エッジ信号 IEを出力する。
[0265] ここに、無効エッジテーブル部 1100は、信号値レベル,ゲイン,温度と、ノイズ成分 に起因する無効エッジ信号と、の間の関係を記録したルックアップテーブルであり、 上述した実施形態 1の数式 5および数式 6に基づいて構築されている。無効エッジテ 一ブル部 1100は、求めた無効エッジ信号 IEをエッジ補正部 1006へ転送する。
[0266] なお、上述したような無効エッジ信号を算出する過程にぉ 、て、温度 tやゲイン gな どの情報を必ずしも撮影毎に求める必要はない。つまり、任意の情報を標準値付与 部 202に記録しておき、算出過程を省略するように構成することも可能である。これに よって、処理の高速ィ匕ゃ省電力化などを図ることが可能となる。
[0267] また、上述では、ノイズ成分に起因するエッジ信号を推定するために、撮像素子の 温度, ISO感度,露出情報,ホワイトバランス情報などの関連情報を用いていたが、 このような構成に限定されるものでもない。例えば、図 29に示すように、輝度信号のレ ベルのみに基づいて、ノイズ成分に起因するエッジ信号を推定するように構成するこ とも可能である。
[0268] ここで、図 29を参照して、無効エッジ推定部 1005の構成の他の例について説明す る。
[0269] この図 29に示す無効エッジ推定部 1005は、図 28に示すような構成から、ゲイン算 出部 201と標準値付与部 202とを省略して、無効エッジテーブル部 1100をテーブル 変換手段たる無効エッジテーブル部 1101により置換した構成となって 、る。この図 2 9に示す無効エッジ推定部 1005におけるその他の基本的な構成は、図 28に示した ものと同様であるために、同一の構成には同一の名称と符号を付して、以下では、主 として異なる部分につ!、てのみ説明する。
[0270] 平均算出部 200は、無効エッジテーブル部 1101へ接続されている。無効エッジテ 一ブル部 1101は、エッジ補正部 1006へ接続されて 、る。
[0271] 制御部 115は、無効エッジテーブル部 1101と双方向に接続されていて、これを制 御するようになっている。
[0272] 次に、このような無効エッジ推定部 1005の作用について説明する。
[0273] 平均算出部 200は、制御部 115の制御に基づき、バッファ 105内の輝度信号 Yか ら、図 2に示したような注目領域 Pの平均値 AVを算出して、無効エッジテーブル部 1
101へ転送する。
[0274] 無効エッジテーブル部 1101は、平均算出部 200からの注目領域 Pの平均値 AV に基づき、ノイズ成分に起因する無効エッジ信号 IEを出力する。ここに、無効エッジ テーブル部 1101は、所定のゲイン,所定の温度における信号値レベルと、ノイズ成 分に起因する無効エッジ信号と、の間の関係を記録したルックアップテーブルであり 、上述した実施形態 1の数式 5および数式 6に基づいて構築されている。無効エッジ テーブル部 1101は、求めた無効エッジ信号 IEを、エッジ補正部 1006へ転送する。
[0275] 続いて、図 30を参照して、エッジ補正部 1006の構成の一例について説明する。
[0276] このエッジ補正部 1006は、テーブル補正手段たるエッジ補正テーブル部 1200を 含んでいる。
[0277] エッジ抽出部 109と無効エッジ推定部 1005とは、エッジ補正テーブル部 1200へ それぞれ接続されて 、る。エッジ補正テーブル部 1200は、エッジ強調部 112へ接続 されている。
[0278] また、制御部 115は、エッジ補正テーブル部 1200と双方向に接続されていて、こ れを制御するようになって!/ヽる。
[0279] 次に、このようなエッジ補正部 1006の作用について説明する。
[0280] エッジ補正テーブル部 1200は、制御部 115の制御に基づき、エッジ抽出部 109か ら注目画素 P に対するエッジ信号 Eを、無効エッジ推定部 1005から注目画素 P に
11 11 対する無効エッジ信号 IEを、それぞれ読み込む。
[0281] ここに、エッジ補正テーブル部 1200は、複数種類、ここでは例えば図 31に示すよう な 3種類、の代表的な無効エッジ信号 IE (k= l〜3)の大きさに対応する変換の関 k
係を記録するテーブルである。
[0282] そして、エッジ補正テーブル部 1200は、無効エッジ推定部 1005からの無効エッジ 信号 IEに基づいて、記録されている代表的な無効エッジ信号 IEに最も近い変換の 関係を選択し、選択した関係に基づき、エッジ抽出部 109からのエッジ信号 E力 補 正後のエッジ信号 E,を求めて出力する。その後、エッジ補正テーブル部 1200は、 補正後のエッジ信号 E,を、エッジ強調部 112へ転送する。
[0283] なお、上述にぉ ヽては、撮像部が一体化された画像処理システムを例に挙げたが 、このような構成に限定されるものではなぐ上述した実施形態 1と同様に、撮像部と は分離した構成の画像処理システムであっても構わない。
[0284] また、上述では、カラー撮像素子としてべィヤー(Bayer)型原色フィルタを前面に 配置した単板 CCDを想定していた力 このような構成の撮像素子に限定されるもの ではない。例えば、色差線順次型補色フィルタを前面に配置した単板撮像素子や、 二板あるいは三板撮像素子を適用することも可能である。例えば、図 27は、色差線 順次型の補色フィルタの構成を示して 、る。
[0285] この色差線順次方式の補色フィルタは、 2 X 2画素を基本単位として、シアン (Cy) およびイェロー (γθ)が 2 X 2画素の同一ラインに、マゼンタ(Mg)および緑 (G)が 2 X 2画素の他の同一ラインに、それぞれ配置されたものとなっている。ただし、マゼン タ(Mg) ,緑 (G)の位置は、ライン毎に反転するように構成されている。
[0286] このような色差線順次型補色フィルタを前面に配置した単板撮像素子を用いる場 合には、 YZC分離部 1003における輝度信号 Yおよび色差信号 Cb, Crへ分離は、 次の数式 20に示すように行われる。
[数 20]
Y =Cy+Ye + G + Mg
Cb= (Cy+Mg) (Ye + G)
Cr= (Ye + Mg) (Cy+G)
さらに、上述ではハードウェアによる処理を前提としていた力 このような構成に限 定されるものではない。例えば、カラー CCD1000からの映像信号を未処理のままの Rawデータとしてメモリカード等の記録媒体に記録するとともに、撮像条件などの付 随情報 (例えば、制御部 115からの撮影時の撮像素子の温度やゲインやホワイトバラ ンス係数など)をヘッダ情報として記録媒体に記録しておく。そして、別途のソフトゥヱ ァである画像処理プログラムをコンピュータに実行させて、記録媒体の情報をコンビ ユータに読み取らせ、処理することも可能である。なお、撮像部力もコンピュータへの 各種情報の伝送は、記録媒体を介して行うに限らず、通信回線等を介して行うように しても構わない。
[0287] 図 32を参照して、画像処理プログラムによる処理のメインルーチンを説明する。な お、この図 32に示す処理の内の、上述した実施形態 1の図 14に示した処理とほぼ同 様な処理については、同一の符号を付している。
[0288] この処理を開始すると、まず、映像信号を読み込むとともに、撮像素子の温度ゃゲ インやホワイトバランス係数などのヘッダ情報を読み込む (ステップ S 1)。
[0289] 次に、公知の補間処理を行って、三板の映像信号を生成する (ステップ S60)。
[0290] 続いて、数式 17に示したように、輝度信号および色差信号を抽出する (ステップ S6
D o
[0291] そして、図 2に示したような注目画素を含む 3 X 3画素サイズの注目領域を、輝度信 号および色差信号毎に抽出する (ステップ S2)。
[0292] その後、例えば図 3に示したような等方的なエッジ抽出フィルタを用いて、注目画素 における輝度信号のエッジ信号を抽出する (ステップ S3)。
[0293] さらに、後で図 33を参照して説明するように、注目画素におけるノイズ成分に起因 する無効エッジ信号を推定する (ステップ S62)。
[0294] 次に、図 31に示したような複数種類の変換の関係力もなるテーブルを読み込んで
、補正されたエッジ信号を出力する (ステップ S63)。
[0295] 続いて、補正されたエッジ信号を用いて、数式 18に示したように、輝度信号にエツ ジ強調処理を行う(ステップ S 10)。
[0296] そして、全注目領域についての処理が完了したか否かを判定し (ステップ Sl l)。完 了して 、な 、場合には、上記ステップ S 2へ戻って次の注目領域にっ 、て上述したよ うな処理を繰り返して行う。
[0297] また、全注目領域についての処理が完了したと判定された場合には、数式 19に示 したように、 R,, G,, B,の三信号を合成する(ステップ S64)。
[0298] その後、公知の彩度強調処理や圧縮処理などの信号処理を行い (ステップ S 12)、 処理後の映像信号を出力して (ステップ S13)、この一連の処理を終了する。 [0299] 次に、図 33を参照して、上記図 32のステップ S62における無効エッジ推定の処理 について説明する。
[0300] 図 33のステップ S62においてこの処理が開始されると、まず、注目領域の輝度信 号の平均値を算出する (ステップ S70)。
[0301] 次に、読み込まれたヘッダ情報に基づ 、て、温度やゲインなどの関連する情報を 設定する (ステップ S71)。ただし、ヘッダ情報内に必要なパラメータが存在しない場 合には、所定の標準値を割り当てる処理を行う。
[0302] 続、て、無効エッジテーブルを用いて無効エッジ信号を求める (ステップ S72)。
[0303] その後、算出された無効エッジ信号を出力して (ステップ S73)、この処理から図 32 に示した処理に復帰する。
[0304] このような実施形態 3によれば、カラー撮像素子からの映像信号から輝度信号を分 離して、ノイズ成分に起因するエッジ信号に関係する各種情報を撮影毎に動的に求 め、求められない情報に関しては標準値を設定し、これらの情報と輝度信号とに基づ きノイズ成分に起因する無効エッジ信号を求め、エッジ信号を求めた無効エッジ信号 によって補正処理する画像処理システムを構成することが可能となる。
[0305] このような画像処理システムは、性質が同一であるエッジ信号によりエッジ信号を補 正するものであるために、多様なノイズが混在する映像信号に対しても高精度なエツ ジ成分の抽出を安定して行うことが可能となる。
[0306] また、カラー撮像素子力もの信号に対応しているために、多様な撮像系に利用する ことができる。
[0307] さらに、撮影毎に異なる条件に動的に適応しているために、ノイズ成分に起因する エッジ信号の推定を高精度に行うことが可能となる。
[0308] そして、必要となる情報が得られな 、場合でも、標準値を設定するようになって!/、る ために、ノイズ成分に起因するエッジ信号の推定が可能となり、安定した処理結果を 得ることができる。
[0309] また、ノイズ成分に起因するエッジ信号の算出に変換テーブルを用いているために
、高精度なエッジ信号の推定を高速に行うことが可能となる。
[0310] [実施形態 4] 図 34および図 35は本発明の実施形態 4を示したものであり、図 34は画像処理シス テムの構成を示すブロック図、図 35は画像処理プログラムによる信号処理全体の流 れを示すフローチャートである。
[0311] この実施形態 4において、上述の実施形態 1〜3と同様である部分については同一 の符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0312] まず、図 34を参照して、この画像処理システムの構成について説明する。図 34に 示す画像処理システムは、本発明の画像処理システムをデジタルカメラに適用した 例となっている。
[0313] この図 34に示す画像処理システムは、上述した実施形態 2の図 16に示した画像処 理システムを一部変更したものとなっている。すなわち、この画像処理システムは、図 16に示した CCD102をカラー CCD1300に置換し、プレホワイトバランス部 1301と 補間部 1302と YZC分離手段たる YZC分離部 1303とバッファ 1304と YZC合成 部 1305とを追加した構成になっている。その他の基本的な構成は実施形態 2と同様 であって、同一の構成には同一の名称と符号を付している。
[0314] 以下、主として異なる部分のみを説明する。
[0315] レンズ系 100,絞り 101,カラー CCD1300を介して撮影された映像信号は、増幅 部 103へ転送されるようになって ヽる。
[0316] ノ ッファ 105は、プレホワイトバランス部 1301と補間部 1302と測光評価部 106と合 焦点検出部 107とへそれぞれ接続されている。プレホワイトバランス部 1301は、増幅 部 103へ接続されている。補間部 1302は、 YZC分離部 1003へ接続されている。 Y ZC分離部 1303は、バッファ 1304へ接続されている。ノ ッファ 1304は、エッジ抽出 部 109とノイズ処理部 600とへそれぞれ接続されている。エッジ強調部 112は、 Ύ/ C合成部 1305へ接続されている。 YZC合成部 1305は、信号処理部 113へ接続さ れている。
[0317] また、カラー CCD1300の近傍に配置された温度センサ 117からの信号は、制御部 115へ接続されている。
[0318] そして、制御部 115は、プレホワイトバランス部 1301,補間部 1302, YZC分離部 1303, YZC合成部 1305と双方向に接続されていて、これらを制御するようになつ ている。
[0319] 次に、この図 34に示したような画像処理システムの作用について、映像信号の流 れに沿って説明する。この実施形態 4の画像処理システムの作用は、基本的に上述 した実施形態 2と同様であるために、主として異なる部分についてのみ説明する。
[0320] ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを半押しすると、こ のデジタルカメラがプリ撮影モードに入る。
[0321] すると、レンズ系 100および絞り 101を介して結像される被写体像力 カラー CCD1 300により光電変換され、アナログの映像信号として出力される。
[0322] このアナログの映像信号は、増幅部 103によって ISO感度やホワイトバランスを考 慮した増幅が行われた後に、 AZD変換部 104によりデジタルの映像信号に変換さ れて、バッファ 105に記憶される。
[0323] なお、本実施形態においては、カラー CCD1300として、べィヤー(Bayer)型原色 フィルタを前面に配置した単板撮像素子を想定している。また、撮像素子としては、 C CDに限るものではなぐ CMOSやその他の撮像素子を用いても構わないことは、上 述した各実施形態と同様である。
[0324] 続いて、バッファ 105内の映像信号は、測光評価部 106と、合焦点検出部 107と、 プレホワイトバランス部 1301と、へそれぞれ転送される。
[0325] これらの内のプレホワイトバランス部 1301は、バッファ 105に記憶されている映像信 号の内の所定レベルの範囲内の信号を色信号毎に積算する(つまり、累計的に加算 する)ことにより、簡易ホワイトバランス係数を算出する。プレホワイトバランス部 1301 は、算出した係数を増幅部 103へ転送して、色信号毎に異なるゲインを乗算させるこ とにより、ホワイトバランスを行わせる。
[0326] こうして、焦点調節や露出調節、簡易ホワイトバランス調節などが行われたところで 、ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを全押しすると、こ のデジタルカメラが本撮影モードに入る。
[0327] すると、プリ撮像と同様にして、映像信号力 Sバッファ 105へ転送される。この本撮影 は、プレホワイトバランス部 1301によって求められた簡易ホワイトバランス係数と、測 光評価部 106によって求められた露光条件と、合焦点検出部 107によって求められ た合焦条件と、に基づいて行われており、これらの撮影時の条件が制御部 115へ転 送される。
[0328] 本撮影によって得られたバッファ 105内の映像信号は、まず、補間部 1302へ転送 される。
[0329] この補間部 1302は、制御部 115の制御に基づき、公知の補間処理により R, G, B の三板力もなる映像信号を生成して、 YZC分離部 1303へ転送する。
[0330] YZC分離部 1303は、制御部 115の制御に基づき、 R, G, B信号を数式 17に示し たように輝度信号 Yおよび色差信号 Cb, Crへ分離する。
[0331] YZC分離部 1303により算出された輝度信号および色差信号は、バッファ 1304へ 転送されて保存される。
[0332] ノイズ処理部 600は、制御部 115の制御に基づき、図 2に示したような注目画素 P
11 を包含する 3 X 3画素サイズの注目領域 Pを輝度信号および色差信号毎に個別に 順次抽出する。そして、ノイズ処理部 600は、特開 2005— 175718号公報に開示さ れて 、るようにノイズのモデルに基づき注目画素 P
11に関するノイズ量を推定し、平滑 化処理を行う。なお、以後は、推定された輝度信号のノイズ量を NY、平滑化がなさ れた輝度信号を NR— Y、平滑ィ匕がなされた色差信号を NR— Cb, NR— Crによりそ れぞれ表すことにする。ノイズ処理部 600は、推定した輝度信号に関するノイズ量 N
Yを無効エッジ推定部 601へ、平滑ィ匕処理を行った輝度信号 NR—Yおよび色差信 号 NR— Cb, NR—Crをェッジ強調部112へ、それぞれ転送する。
[0333] エッジ抽出部 109は、制御部 115の制御に基づき、バッファ 1304内の輝度信号 Y から、図 2に示したような注目画素 P を包含する 3 X 3画素サイズの注目領域 Pを順
11 ϋ 次抽出して、図 3に示したようなエッジ抽出フィルタを用いて、注目画素 Ρ における
11 エッジ信号 Εを抽出する。エッジ抽出部 109は、抽出したエッジ信号 Εを、エッジ補正 部 602へ転送する。
[0334] 無効エッジ推定部 601は、制御部 115の制御に基づき、ノイズ処理部 600から輝度 信号に関するノイズ量 ΝΥを読み込み、注目画素 Ρ におけるノイズ成分に起因する
11
無効エッジ信号 IEを推定する。無効エッジ推定部 601は、推定したノイズ成分に起 因する無効エッジ信号 IEを、エッジ補正部 602へ転送する。 [0335] エッジ補正部 602は、制御部 115の制御に基づき、エッジ抽出部 109からのエッジ 信号 Eに対して、無効エッジ推定部 601からの無効エッジ信号 IEと、所定の関数 (例 えば、数式 16に示すような 3次関数)と、を用いて変換処理を行う。エッジ補正部 602 は、変換処理を行ったエッジ信号 E'を、エッジ強調部 112へ転送する。
[0336] エッジ強調部 112は、制御部 115の制御に基づき、ノイズ処理部 600からの平滑ィ匕 処理がなされた輝度信号 NR—Yに対して、エッジ補正部 602からの変換処理がなさ れたエッジ信号 E'を用いて次の数式 21に示すようなエッジ強調処理を行う。
[数 21]
NR— Y, =NR_Y+g-E'
なお、この数式 21における gは、所定のゲイン値を意味し、例えば 0. 5〜4. 0程度 の値をとるようになっている。
[0337] そして、エッジ強調部 112は、エッジ強調処理を行った輝度信号 NR—Y'を、平滑 化処理がなされた色差信号 NR— Cb, NR— Crとともに、 YZC合成部 1007へ転送 する。
[0338] YZC合成部 1007は、制御部 115の制御に基づき、平滑化処理およびエッジ強調 処理後の輝度信号 Y,と、平滑化処理後の色差信号 NR— Cb, NR— Crとから、次の 数式 22に示すように RGBの三信号 (R', G' , Β' )を合成する。
[数 22]
R' =NR Y + 1. 40200NR— Cr
G,=NR — Y'— 0. 34414NR Cb— 0. 71414NR— Cr
B' =NR Y' + 1. 7720NR Cb
YZC合成部 1007は、合成した R', G' , B'信号を、信号処理部 113へ転送する。
[0339] なお、上述したようなノイズ処理部 600,エッジ抽出部 109,無効エッジ推定部 601 ,エッジ補正部 602,エッジ強調部 112, YZC合成部 1305の各処理は、制御部 11 5の制御に基づき、 3 X 3画素サイズの注目領域 P単位で同期して行われるようにな つている。
[0340] 信号処理部 113は、制御部 115の制御に基づき、エッジ強調部 112から出力され るエッジ強調処理後の映像信号に対して、公知の彩度強調処理や圧縮処理などを 行い、処理後の信号を出力部 114へ転送する。
[0341] 出力部 114は、信号処理部 113から出力される映像信号を、メモリカードなどの記 録媒体へ記録して保存する。
[0342] なお、上述にお ヽては、撮像部が一体化された画像処理システムを例に挙げたが 、このような構成に限定されるものではなぐ上述した実施形態 1と同様に、撮像部と は分離した構成の画像処理システムであっても構わない。
[0343] また、上述では、カラー撮像素子としてべィヤー(Bayer)型原色フィルタを前面に 配置した単板 CCDを想定していた力 このような構成の撮像素子に限定されるもの ではない。例えば、色差線順次型補色フィルタを前面に配置した単板撮像素子や、 二板あるいは三板撮像素子を適用することも可能である。
[0344] さらに、上述ではハードウェアによる処理を前提としていた力 このような構成に限 定されるものではない。例えば、カラー CCD1300からの映像信号を未処理のままの Rawデータとしてメモリカード等の記録媒体に記録するとともに、撮像条件などの付 随情報 (例えば、制御部 115からの撮影時の撮像素子の温度やゲインやホワイトバラ ンス係数など)をヘッダ情報として記録媒体に記録しておく。そして、別途のソフトゥヱ ァである画像処理プログラムをコンピュータに実行させて、記録媒体の情報をコンビ ユータに読み取らせ、処理することも可能である。なお、撮像部力もコンピュータへの 各種情報の伝送は、記録媒体を介して行うに限らず、通信回線等を介して行うように しても構わない。
[0345] 図 35を参照して、画像処理プログラムによる処理のメインルーチンを説明する。な お、この図 35に示す処理の内の、上述した実施形態 2の図 22に示した処理とほぼ同 様な処理については、同一の符号を付している。
[0346] この処理を開始すると、まず、映像信号を読み込むとともに、撮像素子の温度ゃゲ インやホワイトバランス係数などのヘッダ情報を読み込む (ステップ S 1)。
[0347] 次に、公知の補間処理を行って、三板の映像信号を生成する (ステップ S80)。
[0348] 続いて、数式 17に示したように、輝度信号および色差信号を抽出する (ステップ S8
D o
[0349] そして、図 2に示したような注目画素を含む 3 X 3画素サイズの注目領域を、輝度信 号および色差信号毎に抽出する (ステップ S2)。
[0350] その後、例えば図 3に示したような等方的なエッジ抽出フィルタを用いて、注目画素 における輝度信号のエッジ信号を抽出する (ステップ S3)。
[0351] さらに、図 23に示したように、注目画素に対するノイズ処理を輝度信号および色差 信号毎に行う(ステップ S30)。
[0352] また、図 24に示したように、注目画素における輝度信号のノイズ成分に起因する無 効エッジ信号を推定する (ステップ S31)。
[0353] 続、て、エッジ信号の絶対値が無効エッジ信号以下である力否かを判定する (ステ ップ S5)。
[0354] ここで、エッジ信号が無効エッジ信号以下である場合には、数式 16に示すような 3 次関数を用いてエッジ信号を変換する (ステップ S32)。
[0355] ステップ S30の処理が終わった後であって、このステップ S32の処理を行った場合 には、変換されたエッジ信号を用いて、ノイズ処理がなされた輝度信号に数式 21〖こ 示したようにエッジ強調処理を行う。また、ステップ S30の処理が終わった後であって 、ステップ S5にお 、てエッジ信号の絶対値が無効エッジ信号よりも大き!/、と判定され た場合には、そのままのエッジ信号を変換されたエッジ信号として用いて、ノイズ処理 がなされた輝度信号に数式 21に示したようにエッジ強調処理を行う(ステップ S10)。
[0356] 次に、全注目領域についての処理が完了した力否かを判定し (ステップ S11)、完 了して 、な 、場合には、上記ステップ S 2へ戻って次の注目領域にっ 、て上述したよ うな処理を繰り返して行う。
[0357] また、全注目領域についての処理が完了したと判定された場合には、数式 22に示 したように、 R', G' , B'の三信号を合成する(ステップ S82)。
[0358] その後、公知の彩度強調処理や圧縮処理などの信号処理を行い (ステップ S 12)、 処理後の映像信号を出力して (ステップ S13)、この一連の処理を終了する。
[0359] このような実施形態 4によれば、カラー撮像素子からの映像信号から輝度信号を分 離して、ノイズ成分を推定することによりノイズ低減処理を行い、推定されたノイズ成 分に基づきノイズ成分に起因する無効エッジ信号を動的に推定し、エッジ信号を推 定した無効エッジ信号により補正処理する画像処理システムを構成することが可能と なる。
[0360] このような画像処理システムは、性質が同一であるエッジ信号によりエッジ信号を補 正するものであるために、多様なノイズが混在する映像信号に対しても高精度なエツ ジ成分の抽出を安定して行うことが可能となる。
[0361] また、ノイズ低減処理によりノイズの影響を抑制するとともに、微細な信号を保存し た高品位なエッジ成分を得ることができる。
[0362] さらに、カラー撮像素子力もの信号に対応しているために、多様な撮像系に利用す ることがでさる。
[0363] そして、補間処理を行った後にノイズ処理およびエッジ抽出処理を行って 、るため に、多様な撮像系に対して適用することができ、汎用性の高い画像処理システムとな る。
[0364] [実施形態 5]
図 36から図 38は本発明の実施形態 5を示したものであり、図 36は画像処理システ ムの構成を示すブロック図、図 37はべィヤー(Bayer)型原色フィルタを前面に配置 した撮像素子カゝら得られる映像信号を YZC分離する方法の一例を示す図、図 38は 注目画素の色成分に応じた水平エッジ抽出フィルタおよび垂直エッジ抽出フィルタ の構成を示す図である。
[0365] この実施形態 5において、上述の実施形態 1〜4と同様である部分については同一 の符号を付して説明を省略し、主として異なる点についてのみ説明する。
[0366] まず、図 36を参照して、この画像処理システムの構成について説明する。図 36に 示す画像処理システムは、本発明の画像処理システムをデジタルカメラに適用した 例となっている。
[0367] この図 36に示す画像処理システムは、上述した実施形態 2の図 16に示した画像処 理システムを一部変更したものとなっている。すなわち、この画像処理システムは、図 16に示した CCD102をカラー CCD1400に置換し、プレホワイトバランス部 1401と YZC分離手段たる YZC分離部 1402とバッファ 1403と補間部 1404とを追加した 構成になっている。その他の基本的な構成は実施形態 2と同様であって、同一の構 成には同一の名称と符号を付して 、る。 [0368] 以下、主として異なる部分のみを説明する。
[0369] レンズ系 100,絞り 101,カラー CCD1400を介して撮影された映像信号は、増幅 部 103へ転送されるようになって ヽる。
[0370] バッファ 105は、プレホワイトバランス部 1401と YZC分離部 1402と測光評価部 10 6と合焦点検出部 107とへそれぞれ接続されている。プレホワイトバランス部 1401は 、増幅部 103へ接続されている。 YZC分離部 1402は、ノ ッファ 1403へ接続されて いる。ノ ッファ 1403は、エッジ抽出部 109とノイズ処理部 600とへそれぞれ接続され ている。ノイズ処理部 600は、無効エッジ推定部 601と補間部 1404とへそれぞれ接 続されている。補間部 1404は、エッジ強調部 112へ接続されている。
[0371] また、カラー CCD1400の近傍に配置された温度センサ 117からの信号は、制御部 115へ接続されている。
[0372] そして、制御部 115は、プレホワイトバランス部 1401, YZC分離部 1402,補間部
1404と双方向に接続されて 、て、これらを制御するようになって!/、る。
[0373] 次に、この図 36に示したような画像処理システムの作用について、映像信号の流 れに沿って説明する。この実施形態 5の画像処理システムの作用は、基本的に上述 した実施形態 2と同様であるために、主として異なる部分についてのみ説明する。
[0374] ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを半押しすると、こ のデジタルカメラがプリ撮影モードに入る。
[0375] すると、レンズ系 100および絞り 101を介して結像される被写体像力 カラー CCD1
400により光電変換され、アナログの映像信号として出力される。
[0376] このアナログの映像信号は、増幅部 103によって ISO感度やホワイトバランスを考 慮した増幅が行われた後に、 AZD変換部 104によりデジタルの映像信号に変換さ れて、バッファ 105に記憶される。
[0377] なお、本実施形態においては、カラー CCD1400として、図 37 (A)に示すようなベ ィヤー(Bayer)型原色フィルタを前面に配置した単板 CCDを想定している。また、撮 像素子としては、 CCDに限るものではなぐ CMOSやその他の撮像素子を用いても 構わないことは、上述した各実施形態と同様である。
[0378] 続いて、バッファ 105内の映像信号は、測光評価部 106と、合焦点検出部 107と、 プレホワイトバランス部 1401と、へそれぞれ転送される。
[0379] これらの内のプレホワイトバランス部 1401は、バッファ 105に記憶されている映像信 号の内の所定レベルの範囲内の信号を色信号毎に積算する(つまり、累計的に加算 する)ことにより、簡易ホワイトバランス係数を算出する。プレホワイトバランス部 1401 は、算出した係数を増幅部 103へ転送して、色信号毎に異なるゲインを乗算させるこ とにより、ホワイトバランスを行わせる。
[0380] こうして、焦点調節や露出調節、簡易ホワイトバランス調節などが行われたところで 、ユーザが、外部 IZF部 116の 2段式スィッチでなるシャツタボタンを全押しすると、こ のデジタルカメラが本撮影モードに入る。
[0381] すると、プリ撮像と同様にして、映像信号力 Sバッファ 105へ転送される。この本撮影 は、プレホワイトバランス部 1401によって求められた簡易ホワイトバランス係数と、測 光評価部 106によって求められた露光条件と、合焦点検出部 107によって求められ た合焦条件と、に基づいて行われており、これらの撮影時の条件が制御部 115へ転 送される。
[0382] 本撮影によって得られたバッファ 105内の単板状態の映像信号は、 YZC分離部 1 402へ転送されて、この YZC分離部 1402により輝度信号 Yと色差信号 Cb, とへ 分離される。なお、本実施形態においては、輝度信号 Yとして単板状態の G信号を、 色差信号 Cb, Crとして単板状態の R, B信号を、それぞれ用いるものとする。
[0383] こうして YZC分離部 1402により分離された輝度信号および色差信号は、バッファ 1403へ転送されて保存される。
[0384] ノイズ処理部 600は、制御部 115の制御に基づき、図 37(B),図 37(E),図 37(H ),図 37 (K)に示すような 5X5画素サイズの輝度信号の注目領域と、図 37(C),図 3 7(D)ゝ図 37(F),図 37(G)、図 37(1),図 37(J)、図 37(L),図 37 (M)に示すよう な 5 X 5画素サイズの色差信号の注目領域と、を個別に順次抽出する。
[0385] 従って、ノイズ処理部 600により抽出される注目領域の輝度信号 Yと色差信号 Cb, Crとは、注目画素の種類に応じて、 4つのパターン、すなわち、図 37(B),図 37(C) ,図 37(D)に示すようなパターンと、図 37(E),図 37(F),図 37(G)に示すようなパ ターンと、図 37(H),図 37(1),図 37 (J)に示すようなパターンと、図 37(K),図 37( L) ,図 37 (M)に示すようなパターンと、力 S生じることになる。
[0386] そして、ノイズ処理部 600は、特開 2005— 175718号公報に開示されているように ノイズのモデルに基づき注目画素に関するノイズ量を推定し、平滑化処理を行う。な お、以後は、推定された輝度信号のノイズ量を NY、平滑化がなされた輝度信号を N R— Y、平滑ィ匕がなされた色差信号を NR— Cb, NR— Crによりそれぞれ表すことに する。ノイズ処理部 600は、推定した輝度信号に関するノイズ量 NYを無効エッジ推 定部 601へ、平滑ィ匕処理を行った輝度信号 NR— Yおよび色差信号 NR— Cb, NR _Crを補間部 1404へ、それぞれ転送する。
[0387] エッジ抽出部 109は、制御部 115の制御に基づき、バッファ 1403内の輝度信号 Y 力も、図 37 (B) ,図 37 (E) ,図 37 (H) ,図 37 (K)に示すような 5 X 5画素サイズの注 目領域を順次抽出して、図 38 (A)〜図 38 (D)に示すようなエッジ抽出フィルタを用 いて、注目画素におけるエッジ信号 Eを抽出する。ここに、図 38 (A)は注目画素が R または Bであるときの水平方向のエッジ抽出フィルタ Eh、図 38 (B)は注目画素が Gで あるときの水平方向のエッジ抽出フィルタ Eh、図 38 (C)は注目画素が Rまたは Bであ るときの垂直方向のエッジ抽出フィルタ Ev、図 38 (D)は注目画素が Gであるときの垂 直方向のエッジ抽出フィルタ Εν、をそれぞれ示して!/ヽる。
[0388] エッジ抽出部 109は、図 38 (A)または図 38 (B)に示したようなエッジ抽出フィルタ Ε hを用いて水平方向のエッジを抽出し、図 38 (C)または図 38 (D)に示したようなエツ ジ抽出フィルタ Evを用 V、て垂直方向のエッジを抽出した後に、数式 1に示したように エッジ信号 Εを求める。エッジ抽出部 109は、こうして抽出したエッジ信号 Εを、エッジ 補正部 602へ転送する。
[0389] 無効エッジ推定部 601は、制御部 115の制御に基づき、ノイズ処理部 600から輝度 信号に関するノイズ量 ΝΥを読み込み、注目画素におけるノイズ成分に起因する無 効エッジ信号 IEを推定する。無効エッジ推定部 601は、推定したノイズ成分に起因 する無効エッジ信号 IEを、エッジ補正部 602へ転送する。
[0390] エッジ補正部 602は、制御部 115の制御に基づき、エッジ抽出部 109からのエッジ 信号 Eに対して、無効エッジ推定部 601からの無効エッジ信号 IEと、所定の関数 (例 えば、数式 16に示すような 3次関数)と、を用いて変換処理を行う。エッジ補正部 602 は、変換処理を行ったエッジ信号 E'を、エッジ強調部 112へ転送する。
[0391] 補間部 1404は、制御部 115の制御に基づき、ノイズ処理部 600からノイズ処理が なされた輝度 NR— Yおよび色差信号 NR— Cb, NR— Crを読み込み、公知の補間 処理を行って、三板力 なる輝度信号および色差信号を生成する。そして、補間部 1 404は、生成した三板力 なる輝度信号および色差信号を、エッジ強調部 112へ転 送する。
[0392] エッジ強調部 112は、制御部 115の制御に基づき、補間部 1404からの補間処理 がなされた輝度信号 NR—Yに対して、エッジ補正部 602からの変換処理がなされた エッジ信号 E,を用いて、数式 21に示したようなエッジ強調処理を行う。そして、エッジ 強調部 112は、エッジ強調処理を行った輝度信号 NR—Y'を、補間処理がなされた 色差信号 NR— Cb, NR— Crとともに、信号処理部 113へ転送する。なお、本実施形 態においては、上述したように、輝度信号 Yとして G信号を、色差信号 Cb, Crとして R , B信号をそれぞれ用いているために、 YZC合成処理を行うは必要なぐそのまま信 号処理部 113により処理することができる。
[0393] なお、上述したようなノイズ処理部 600,エッジ抽出部 109,無効エッジ推定部 601 ,エッジ補正部 602,補間部 1404,エッジ強調部 112の各処理は、制御部 115の制 御に基づき、 5 X 5画素サイズの注目領域単位で同期して行われるようになって!/、る
[0394] 信号処理部 113は、制御部 115の制御に基づき、エッジ強調部 112から出力され るエッジ強調処理後の映像信号に対して、公知の彩度強調処理や圧縮処理などを 行い、処理後の信号を出力部 114へ転送する。
[0395] 出力部 114は、信号処理部 113から出力される映像信号を、メモリカードなどの記 録媒体へ記録して保存する。
[0396] なお、上述にお ヽては、撮像部が一体化された画像処理システムを例に挙げたが
、このような構成に限定されるものではなぐ上述した実施形態 1と同様に、撮像部と は分離した構成の画像処理システムであっても構わない。
[0397] また、上述ではハードウェアによる処理を前提としていた力 このような構成に限定 されるものではない。例えば、カラー CCD1400からの映像信号を未処理のままの R awデータとしてメモリカード等の記録媒体に記録するとともに、撮像条件などの付随 情報 (例えば、制御部 115からの撮影時の撮像素子の温度やゲインやホワイトバラン ス係数など)をヘッダ情報として記録媒体に記録しておく。そして、別途のソフトウェア である画像処理プログラムをコンピュータに実行させて、記録媒体の情報をコンビュ ータに読み取らせ、処理することも可能である。なお、撮像部からコンピュータへの各 種情報の伝送は、記録媒体を介して行うに限らず、通信回線等を介して行うようにし ても構わない。
[0398] このような実施形態 5によれば、カラー撮像素子からの映像信号から輝度信号を分 離して、ノイズ成分を推定することによりノイズ低減処理を行い、推定されたノイズ成 分に基づきノイズ成分に起因する無効エッジ信号を動的に推定し、エッジ信号を推 定した無効エッジ信号により補正処理する画像処理システムを構成することが可能と なる。
[0399] このような画像処理システムは、性質が同一であるエッジ信号によりエッジ信号を補 正するものであるために、多様なノイズが混在する映像信号に対しても高精度なエツ ジ成分の抽出を安定して行うことが可能となる。
[0400] また、ノイズ低減処理によりノイズの影響を抑制するとともに、微細な信号を保存し た高品位なエッジ成分を得ることができる。
[0401] さらに、ノイズ低減処理とエッジ信号の補正処理とを組み合わせて使用しているた めに、システムの規模を縮小して低コストィ匕を図ることが可能となる。
[0402] そして、カラー撮像素子からの信号に対応して 、るために、多様な撮像系に利用す ることがでさる。
[0403] 力!]えて、補間前の単板状態の映像信号に対してノイズ処理およびエッジ抽出処理 を行っているために、より高品位な映像信号を得ることが可能となる。
[0404] なお、本発明は上述した実施形態に限定されるものではなぐ発明の主旨を逸脱し な 、範囲内にお 、て種々の変形や応用が可能であることは勿論である。
[0405] [付記]
以上詳述したような本発明の上記実施形態によれば、以下のごとき構成を得ること ができる。 [0406] [付記 1]
撮像素子力ゝらの映像信号を処理する画像処理システムであって、
上記映像信号カゝらエッジ信号を抽出するエッジ抽出手段と、
上記映像信号に基づいてノイズ成分に起因するエッジ信号を推定する無効エッジ 推定手段と、
上記エッジ信号を上記ノイズ成分に起因するエッジ信号に基づいて補正するエツ ジ補正手段と、
を具備したことを特徴とする画像処理システム。
[0407] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1、実施形態 2、実施形態 3、実施形態 4、および実施形態 5が対応する。エッジ抽出手段は図 1、図 13、図 16、図 25、図 34、または図 36に示 したエッジ抽出部 109が、無効エッジ推定手段は図 1,図 5,図 12,図 13に示した無 効エッジ推定部 110あるいは図 16,図 18,図 19または図 34,図 36に示したような無 効エッジ推定部 601あるいは図 25,図 28,図 29に示したような無効エッジ推定部 10 05が、エッジ補正手段は図 1,図 10,図 13に示したエッジ補正部 111あるいは図 16 ,図 20また ίま図 34,図 36【こ示したようなエッジネ甫正咅 602ある!/ヽ ίま図 25,図 30【こ示 したようなエッジ補正部 1006が、それぞれ該当する。
[0408] この発明の好ましい適用例は、エッジ抽出部 109によってエッジ信号を抽出し、無 効エッジ推定部 110、無効エッジ推定部 601、あるいは無効エッジ推定部 1005によ つてノイズ成分に起因するエッジ信号を推定し、エッジ補正部 111、エッジ補正部 60 2、あるいはエッジ補正部 1006によって上記ノイズ成分に起因するエッジ信号に基 づきエッジ信号を補正する画像処理システムである。
[0409] (作用)
ノイズ成分に起因するエッジ信号を動的に推定し、原信号力 のエッジ信号をノィ ズ成分に起因するエッジ信号に基づいて補正する。
[0410] (効果)
性質が同一であるエッジ信号によりエッジ信号を補正するために、多様なノイズが 混在する映像信号に対しても高精度なエッジ成分の抽出を安定して行うことが可能と なる。
[0411] [付記 2]
上記映像信号から輝度信号を分離する YZC分離手段をさらに具備し、 上記エッジ抽出手段は、上記輝度信号力もエッジ信号を抽出するものであり、 上記無効エッジ推定手段は、上記輝度信号に基づ 、てノイズ成分に起因するエツ ジ信号を推定するものであることを特徴とする付記 1に記載の画像処理システム。
[0412] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 3が対応する。 YZC分離手段は図 25に示した YZC分離 部 1003が、エッジ抽出手段は図 25に示したエッジ抽出部 109が、無効エッジ推定 手段は図 25,図 28,図 29に示したような無効エッジ推定部 1005が、それぞれ該当 する。
[0413] この発明の好ましい適用例は、 YZC分離部 1003によって映像信号から輝度信号 を分離し、エッジ抽出部 109によって輝度信号力もエッジ信号を抽出し、無効エッジ 推定部 1005によって輝度信号のノイズ成分に起因するエッジ信号を推定する画像 処理システムである。
[0414] (作用)
撮像素子力ゝらの映像信号から輝度信号を分離し、ノイズ成分に起因するエッジ信 号を動的に推定し、輝度信号力ゝらのエッジ信号をノイズ成分に起因するエッジ信号 に基づいて補正する。
[0415] (効果)
性質が同一であるエッジ信号によりエッジ信号を補正するために、多様なノイズが 混在する映像信号に対しても高精度なエッジ成分の抽出を安定して行うことが可能と なる。また、カラー撮像素子からの信号にも対応可能であるために、多様な撮像系に 禾 IJ用することがでさる。
[0416] [付記 3]
上記映像信号に対してノイズ低減処理を行うノイズ処理手段をさらに具備し、 上記無効エッジ推定手段は、上記ノイズ処理手段力 の所定の情報に基づいて、 ノイズ成分に起因するエッジ信号を推定するものであることを特徴とする付記 1に記 載の画像処理システム。
[0417] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 2が対応する。ノイズ処理手段は図 16,図 17に示したノィ ズ処理部 600が、無効エッジ推定手段は図 16,図 18,図 19に示したような無効エツ ジ推定部 601が、それぞれ該当する。
[0418] この発明の好ましい適用例は、ノイズ処理部 600によって映像信号のノイズ成分を 推定することによりノイズ低減処理を行い、無効エッジ推定部 601によって推定され たノイズ成分に基づきノイズ成分に起因するエッジ信号を推定する画像処理システム である。
[0419] (作用)
ノイズ成分を推定することによりノイズ低減処理を行 ヽ、推定されたノイズ成分に基 づいてノイズ成分に起因するエッジ信号を動的に推定する。
[0420] (効果)
性質が同一であるエッジ信号によりエッジ信号を補正するために、多様なノイズが 混在する映像信号に対しても高精度なエッジ成分の抽出を安定して行うことが可能と なる。また、ノイズ低減処理によりノイズの影響を抑制し、かつ微細な信号を保存した 高品位なエッジ成分を得ることができる。さらに、ノイズ低減処理とエッジ信号の補正 処理とを組み合わせて使用しているために、システムの規模を縮小して低コストィ匕を 図ることが可能となる。
[0421] [付記 4]
上記映像信号に対してノイズ低減処理を行うノイズ処理手段と、
上記映像信号から輝度信号を分離する YZC分離手段と、
をさらに具備し、
上記エッジ抽出手段は、上記輝度信号力もエッジ信号を抽出するものであり、 上記無効エッジ推定手段は、上記ノイズ処理手段力 の所定の情報に基づいて、 ノイズ成分に起因するエッジ信号を推定するものであることを特徴とする付記 1に記 載の画像処理システム。
[0422] (対応する発明の実施形態と好ましい適用例) この付記には、実施形態 4および実施形態 5が対応する。ノイズ処理手段は図 34, 図 36に示したノイズ処理部 600が、 YZC分離手段は図 34に示した YZC分離部 13 03および図 36に示した YZC分離部 1402が、エッジ抽出手段は図 34,図 36に示し たエッジ抽出部 109が、無効エッジ推定手段は図 34,図 36に示した無効エッジ推定 部 601が、それぞれ該当する。
[0423] この発明の好ましい適用例は、ノイズ処理部 600によって映像信号のノイズ成分を 推定することによりノイズ低減処理を行い、 YZC分離部 1303または YZC分離部 1 402によって映像信号力も輝度信号を分離し、エッジ抽出部 109によってノイズ低減 処理がなされて 、な 、原信号カゝらエッジ信号を抽出し、無効エッジ推定部 601によつ て推定されたノイズ成分に基づきノイズ成分に起因するエッジ信号を推定する画像 処理システムである。
[0424] (作用)
ノイズ成分を推定することによりノイズ低減処理を行 ヽ、撮像素子からの映像信号 から輝度信号を分離し、推定されたノイズ成分に基づ!ヽてノイズ成分に起因するエツ ジ信号を動的に推定する。
[0425] (効果)
性質が同一であるエッジ信号によりエッジ信号を補正するために、多様なノイズが 混在する映像信号に対しても高精度なエッジ成分の抽出を安定して行うことが可能と なる。また、ノイズ低減処理によりノイズの影響を抑制し、かつ微細な信号を保存した 高品位なエッジ成分を得ることができる。さらに、ノイズ低減処理とエッジ信号の補正 処理とを組み合わせて使用しているために、システムの規模を縮小して低コストィ匕を 図ることが可能となる。また、カラー撮像素子からの信号にも対応可能であるために、 多様な撮像系に利用することができる。
[0426] [付記 5]
上記補正されたエッジ信号に基づき、上記映像信号に対して強調処理を行うエツ ジ強調手段をさらに具備したことを特徴とする付記 1に記載の画像処理システム。
[0427] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1および実施形態 3が対応する。エッジ強調手段は、図 1, 図 13 ,図 25に示したエッジ強調部 112が該当する。
[0428] この発明の好ましい適用例は、エッジ強調部 112によって撮像素子からの映像信 号に対してエッジ強調処理を行う画像処理システムである。
[0429] (作用)
ノイズ成分に起因するエッジ信号に基づ 、て補正されたエッジ信号を用いて、映像 信号にエッジ強調を行う。
[0430] (効果)
多様なノイズが混在する映像信号に対しても高精度なエッジ強調処理を安定して 行うことが可能となり、高品位な絵作り処理を実現することができる。
[0431] [付記 6]
上記補正されたエッジ信号に基づき、上記ノイズ低減処理がなされた映像信号に 対して強調処理を行うエッジ強調手段をさらに具備したことを特徴とする付記 3または 付記 4に記載の画像処理システム。
[0432] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 2および実施形態 4および実施形態 5が対応する。エッジ 強調手段は、図 16,図 34,図 36に示したエッジ強調部 112が該当する。
[0433] この発明の好ましい適用例は、エッジ強調部 112によってノイズ低減処理がなされ た映像信号に対してエッジ強調処理を行う画像処理システムである。
[0434] (作用)
ノイズ成分に起因するエッジ信号に基づ 、て補正されたエッジ信号を用いて、ノィ ズ低減処理がなされた映像信号にエッジ強調を行う。
[0435] (効果)
多様なノイズが混在する映像信号に対しても高精度なエッジ強調処理を安定して 行うことが可能となり、高品位な絵作り処理を実現することができる。また、ノイズの影 響を抑制した高品位な映像信号を生成することができる。
[0436] [付記 7]
上記無効エッジ推定手段は、
基準エッジモデルに関するパラメータ群を記録する記録手段と、 上記映像信号に基づいて上記パラメータ群力も必要となるパラメータを選択するパ ラメータ選択手段と、
上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間手段と、
を有するものであることを特徴とする付記 1に記載の画像処理システム。
[0437] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1が対応する。記録手段は図 12に示したパラメータ用 RO M401が、パラメータ選択手段は図 12に示したパラメータ選択部 204が、補間手段 は図 12に示した補間部 205が、それぞれ該当する。
[0438] この発明の好ましい適用例は、パラメータ用 ROM401に、予め測定しておいたノィ ズ成分に起因するエッジ信号を推定するために使用される基準エッジモデルの係数 を記録し、パラメータ選択部 204によって基準エッジモデルの係数を選択し、補間部 205によって映像信号と基準エッジモデルとに基づきノイズ成分に起因するエッジ信 号を求める画像処理システムである。
[0439] (作用)
映像信号と基準エッジモデルとに基づいて補間処理を行うことにより、ノイズ成分に 起因するエッジ信号を求める。
[0440] (効果)
ノイズ成分に起因するエッジ信号の算出にモデルを用いて 、るために、エッジ信号 の推定を高精度に行うことが可能となる。また、補間処理は実装が容易であるために 、システムを低コストに構成することが可能となる。
[0441] [付記 8]
上記無効エッジ推定手段は、上記映像信号を入力としてノイズ成分に起因するエツ ジ信号を出力するテーブル変換手段を有するものであることを特徴とする付記 1に記 載の画像処理システム。
[0442] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 3が対応する。テーブル変換手段は、図 29に示したような 無効エッジテーブル部 1101が該当する。 [0443] この発明の好ましい適用例は、無効エッジテーブル部 1101によって映像信号に基 づきノイズ成分に起因するエッジ信号を求める画像処理システムである。
[0444] (作用)
映像信号と変換テーブルとを用いて、ノイズ成分に起因するエッジ信号を求める。
[0445] (効果)
ノイズ成分に起因するエッジ信号の算出に変換テーブルを用いて 、るために、高 精度なエッジ信号の推定を高速に行うことが可能となる。
[0446] [付記 9]
上記無効エッジ推定手段は、
基準エッジモデルに関するパラメータ群を記録する記録手段と、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集手段と、
上記収集手段により得ることができない情報に関して標準値を付与する付与手段と 上記収集手段または上記付与手段からの情報と、上記映像信号と、に基づいて、 上記パラメータ群力 必要となるパラメータを選択するパラメータ選択手段と、 上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間手段と、
を有するものであることを特徴とする付記 1に記載の画像処理システム。
[0447] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1が対応する。記録手段は図 5に示したパラメータ用 ROM 203が、収集手段は図 1に示した温度センサ 117,制御部 115および図 5に示したゲ イン算出部 201が、付与手段は図 5に示した標準値付与部 202が、パラメータ選択 手段は図 5に示したパラメータ選択部 204が、補間手段は図 5に示した補間部 205, 補正部 206が、それぞれ該当する。
[0448] この発明の好ましい適用例は、温度センサ 117,制御部 115およびゲイン算出部 2 01によってノイズ成分に起因するエッジ信号の推定に用いる情報を収集し、標準値 付与部 202によって温度センサ 117,制御部 115およびゲイン算出部 201からの情 報が得られない場合に標準値を設定し、パラメータ用 ROM203に予め測定しておい たノイズ成分に起因するエッジ信号を推定するために使用される基準エッジモデル の係数と補正係数とを記録し、パラメータ選択部 204によって基準エッジモデルの係 数と補正係数とを選択し、補間部 205,補正部 206によって映像信号と基準エッジモ デルとに基づきノイズ成分に起因するエッジ信号を求める画像処理システムである。
[0449] (作用)
ノイズ成分に起因するエッジ信号に関係する各種情報を撮影毎に動的に求めて、 求められない情報に関しては標準値を設定し、これらの情報と映像信号と基準エッジ モデルとに基づいて補間処理を行うことによりノイズ成分に起因するエッジ信号を求 める。
[0450] (効果)
撮影毎に異なる条件に動的に適応して、ノイズ成分に起因するエッジ信号の推定 を高精度に行うことが可能となる。また、必要となる情報が得られない場合でも、ノィ ズ成分に起因するエッジ信号の推定が可能となり、安定した処理結果を得ることがで きる。さらに、ノイズ成分に起因するエッジ信号の算出にモデルを用いているために、 エッジ信号の推定を高精度に行うことが可能となる。また、補間処理は実装が容易で あるために、低コストなシステムを構成することが可能となる。
[0451] [付記 10]
上記無効エッジ推定手段は、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集手段と、
上記収集手段により得ることができない情報に関して標準値を付与する付与手段と 上記収集手段または上記付与手段からの情報と、上記映像信号と、を入力として、 ノイズ成分に起因するエッジ信号を出力するテーブル変換手段と、
を有するものであることを特徴とする付記 1に記載の画像処理システム。
[0452] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 3が対応する。収集手段は図 25に示した温度センサ 117 ,制御部 115および図 28に示したようなゲイン算出部 201が、付与手段は図 28に示 したような標準値付与部 202が、テーブル変換手段は図 28に示したような無効エツ ジテーブル部 1100が、それぞれ該当する。
[0453] この発明の好ましい適用例は、温度センサ 117,制御部 115およびゲイン算出部 2 01によってノイズ成分に起因するエッジ信号の推定に用いる情報を収集し、標準値 付与部 202によって温度センサ 117,制御部 115およびゲイン算出部 201からの情 報が得られな ヽ場合に標準値を設定し、無効エッジテーブル部 1100によって映像 信号に基づきノイズ成分に起因するエッジ信号を求める画像処理システムである。
[0454] (作用)
ノイズ成分に起因するエッジ信号に関係する各種情報を撮影毎に動的に求めて、 求められない情報に関しては標準値を設定し、これらの情報と映像信号と変換テー ブルとを用いてノイズ成分に起因するエッジ信号を求める。
[0455] (効果)
撮影毎に異なる条件に動的に適応して、ノイズ成分に起因するエッジ信号の推定 を高精度に行うことが可能となる。また、必要となる情報が得られない場合でも、ノィ ズ成分に起因するエッジ信号の推定が可能となり、安定した処理結果を得ることがで きる。さらに、ノイズ成分に起因するエッジ信号の算出に変換テーブルを用いている ために、高精度なエッジ信号の推定を高速に行うことが可能となる。
[0456] [付記 11]
上記ノイズ処理手段は、
上記映像信号からノイズ量を推定するノイズ推定手段と、
上記ノイズ量に基づいて上記映像信号に平滑化を行うノイズ低減手段と、 を有するものであることを特徴とする付記 3または付記 4に記載の画像処理システム
[0457] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 2が対応する。ノイズ推定手段は図 16に示した温度センサ 117,制御部 115および図 17に示したゲイン算出部 701,標準値付与部 702,ノィ ズテーブル部 703が、ノイズ低減手段は図 17に示した第 1スムージング部 705,第 2 スムージング部 706が、それぞれ該当する。
[0458] この発明の好ましい適用例は、温度センサ 117,制御部 115およびゲイン算出部 7 01によってノイズ量推定に用いる情報を収集し、標準値付与部 702によって温度セ ンサ 117,制御部 115およびゲイン算出部 701からの情報が得られない場合に標準 値を設定し、ノイズテーブル部 703によってノイズ量を推定し、第 1スムージング部 70 5によってノイズ範囲に属すると判定された映像信号に平滑ィ匕を行 ヽ、第 2スムージ ング部 706によってノイズ範囲に属さないと判定された映像信号に補正を行う画像処 理システムである。
[0459] (作用)
ノイズ量に関係する各種情報を撮影毎に動的に求めて、求められない情報に関し ては標準値を設定し、これらの情報カゝらテーブルを用いてノイズ量を推定し、ノイズ範 囲に属すると判定された映像信号には平滑ィ匕処理を、ノイズ範囲に属さないと判定さ れた映像信号には補正処理を、それぞれ行う。
[0460] (効果)
撮影毎に異なる条件に動的に適応して、ノイズ量の推定を高精度に行うことが可能 となる。また、必要となる情報が得られない場合でもノイズ量の推定が可能となり、安 定したノイズ低減効果を得ることができる。さらに、ノイズ量の算出にテーブルを用い ているために、処理を高速に行うことが可能となる。また、平滑化処理と補正処理とを 組み合わせて使用しているために、ノイズ低減処理に伴う不連続性の発生を防止し て、高品位な信号を得ることができる。
[0461] [付記 12]
上記無効エッジ推定手段は、
基準エッジモデルに関するパラメータ群を記録する記録手段と、
上記ノイズ処理手段力ものノイズ量に基づいて上記パラメータ群力も必要となるパラ メータを選択するパラメータ選択手段と、
上記ノイズ処理手段力 のノイズ量と上記選択されたパラメータとに基づ 、て、補間 演算によりノイズ成分に起因するエッジ信号を求める補間手段と、
を有するものであることを特徴とする付記 11に記載の画像処理システム。 [0462] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 2が対応する。記録手段は図 18に示したようなパラメータ 用 ROM801が、パラメータ選択手段は図 18に示したようなパラメータ選択部 800が 、補間手段は図 18に示したような補間部 802が、それぞれ該当する。
[0463] この発明の好ましい適用例は、パラメータ用 ROM801に予め測定しておいたノイズ 成分に起因するエッジ信号を推定するために使用される基準エッジモデルの係数を 記録し、ノ メータ選択部 800によって基準エッジモデルの係数を選択し、補間部 8 02によってノイズ量と基準エッジモデルとに基づいてノイズ成分に起因するエッジ信 号を求める画像処理システムである。
[0464] (作用)
ノイズ量と基準エッジモデルとに基づいて補間処理を行うことによりノイズ成分に起 因するエッジ信号を求める。
[0465] (効果)
ノイズ成分に起因するエッジ信号の算出にモデルを用いて 、るために、エッジ信号 の推定を高精度に行うことが可能となる。また、補間処理は実装が容易であるために 、低コストなシステムを構成することが可能となる。
[0466] [付記 13]
上記無効エッジ推定手段は、上記ノイズ処理手段からのノイズ量を入力としてノイズ 成分に起因するエッジ信号を出力するテーブル変換手段を有するものであることを 特徴とする付記 11に記載の画像処理システム。
[0467] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 2が対応する。記録手段は、図 19に示したような無効エツ ジテーブル部 803が該当する。
[0468] この発明の好ましい適用例は、無効エッジテーブル部 803によってノイズ量力 ノィ ズ成分に起因するエッジ信号を求める画像処理システムである。
[0469] (作用)
ノイズ量と変換テーブルとを用いて、ノイズ成分に起因するエッジ信号を求める。
[0470] (効果) ノイズ成分に起因するエッジ信号の算出に変換テーブルを用いて 、るために、高 精度なエッジ信号の推定を高速に行うことが可能となる。
[0471] [付記 14]
上記収集手段は、上記撮像素子の温度値を測定する温度センサを有するものであ ることを特徴とする付記 9または付記 10に記載の画像処理システム。
[0472] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1および実施形態 3が対応する。温度センサは、図 1,図 2 5に示した温度センサ 117が該当する。
[0473] この発明の好ましい適用例は、温度センサ 117から CCD102またはカラー CCD10
00の温度をリアルタイムで測定する画像処理システムである。
[0474] (作用)
撮影時の撮像素子の温度を計測して、ノイズ成分に起因するエッジ信号を推定す るための情報とする。
[0475] (効果)
撮影時の温度変化に動的に適応して、ノイズ成分に起因するエッジ信号の推定を 高精度に行うことが可能となる。
[0476] [付記 15]
上記収集手段は、 ISO感度と露出情報とホワイトバランス情報との内の少なくとも 1 つの情報に基づいて上記ゲイン値を求めるゲイン算出手段を有するものであることを 特徴とする付記 9または付記 10に記載の画像処理システム。
[0477] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1および実施形態 3が対応する。ゲイン算出手段は、図 5, 図 28に示したようなゲイン算出部 201 ,制御部 115が該当する。
[0478] この発明の好ましい適用例は、制御部 115によって ISO感度,露出情報,ホワイト ノ ランス情報などを転送し、ゲイン算出部 201によって撮影時のトータルのゲイン量 を求める画像処理システムである。
[0479] (作用)
ISO感度,露出情報,ホワイトバランス情報力も撮影時のゲイン量を求めて、ノイズ 成分に起因するエッジ信号を推定するための情報とする。
[0480] (効果)
撮影時のゲイン変化に動的に適応して、ノイズ成分に起因するエッジ信号の推定を 高精度に行うことが可能となる。
[0481] [付記 16]
上記エッジ補正手段は、上記ノイズ成分に起因するエッジ信号に基づ 、て上記ェ ッジ信号に対してコアリング処理を行うコアリング手段を有するものであることを特徴と する付記 1に記載の画像処理システム。
[0482] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 1が対応する。コアリング手段は、図 10に示したような加算 部 301,減算部 302,置換部 303が該当する。
[0483] この発明の好ましい適用例は、加算部 301,減算部 302,置換部 303によって推定 されたノイズ成分に起因するエッジ信号に基づき、エッジ信号にコアリング処理を行う 画像処理システムである。
[0484] (作用)
ノイズ成分に起因するエッジ信号に基づ 、て、エッジ信号にコアリング処理を行う。
[0485] (効果)
性質が同一であるエッジ信号に基づいてエッジ信号をコアリング処理するために、 多様なノイズが混在する映像信号に対してもエッジ成分を安定して高精度に得ること ができる。
[0486] [付記 17]
上記エッジ補正手段は、
上記ノイズ成分に起因するエッジ信号に基づ 、て上記エッジ信号の補正に用いる 関数の定数項を算出する定数算出手段と、
上記定数項を設定した関数に基づいて上記エッジ信号を変換する関数変換手段と を有するものであることを特徴とする付記 1に記載の画像処理システム。
[0487] (対応する発明の実施形態と好ましい適用例) この付記には、実施形態 2が対応する。定数算出手段は図 20に示したような定数 算出部 901が、関数変換手段は図 20に示したような変換部 902が、それぞれ該当す る。
[0488] この発明の好ましい適用例は、定数算出部 901によってノイズ成分に起因するエツ ジ信号に基づきエッジ信号の補正に用いる関数の定数項を算出し、変換部 902によ つて定数項を設定した関数に基づきエッジ信号を変換する画像処理システムである
[0489] (作用)
ノイズ成分に起因するエッジ信号に基づいてエッジ信号の補正に用いる関数の定 数項を算出し、定数項を設定した関数に基づいてエッジ信号を変換する。
[0490] (効果)
ノイズ成分に起因するエッジ信号に適用的に追随して最適な変換処理を実施する ために、多様なノイズが混在する映像信号に対してもエッジ成分を安定して高精度に 得ることができる。
[0491] [付記 18]
上記関数変換手段は、上記関数として、上記エッジ信号の絶対値が上記ノイズ成 分に起因するエッジ信号よりも大きいときには 1次関数を、該エッジ信号の絶対値が 該ノイズ成分に起因するエッジ信号以下であるときには 3次関数を、用いるものである ことを特徴とする付記 17に記載の画像処理システム。
[0492] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 2が対応する。
[0493] この発明の好ましい適用例は、図 21に示したような 1次関数および 3次関数を組み 合わせて、エッジ信号の変換を行う画像処理システムである。
[0494] (作用)
1次関数および 3次関数を組み合わせて、エッジ信号の変換を行う。
[0495] (効果)
1次関数および 3次関数を組み合わせることにより、定数項の算出が単純となり、処 理の高速化と低コスト化とを図ることが可能となる。また、補正後のエッジ信号の連続 性を確保することができるために、高品位なエッジ信号を得ることができる。
[0496] [付記 19]
上記エッジ補正手段は、上記エッジ信号と上記ノイズ成分に起因するエッジ信号と を入力として、補正されたエッジ信号を出力するテーブル補正手段を有するものであ ることを特徴とする付記 1に記載の画像処理システム。
[0497] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 3が対応する。テーブル補正手段は、図 30に示したエッジ 補正テーブル部 1200が該当する。
[0498] この発明の好ましい適用例は、エッジ補正テーブル部 1200によってノイズ成分に 起因するエッジ信号に基づきエッジ信号を補正する画像処理システムである。
[0499] (作用)
ノイズ成分に起因するエッジ信号と変換テーブルとを用いて、エッジ信号を補正す る。
[0500] (効果)
エッジ信号の補正に変換テーブルを用いて 、るために、高精度なエッジ信号の補 正を高速に行うことが可能となる。
[0501] [付記 20]
上記撮像素子は、 R (赤), G (緑) , B (青)べィヤー型原色フィルタを前面に配置し た単板撮像素子、または Cy (シアン) , Mg (マゼンタ) , Ye (イェロー), G (緑)色差線 順次型補色フィルタを前面に配置した単板撮像素子、であることを特徴とする付記 2 または付記 4に記載の画像処理システム。
[0502] (対応する発明の実施形態と好ましい適用例)
この付記には、実施形態 3および実施形態 5が対応する。
[0503] この発明の好ましい適用例は、図 26,図 37 (A)に示したようなべィヤー(Bayer)型 原色フィルタ、または図 27に示したような色差線順次型補色フィルタを単板撮像素子 の前面に配置した画像処理システムである。
[0504] (作用)
べィヤー(Bayer)型原色フィルタまたは色差線順次型補色フィルタを前面に配置し た単板撮像素子を用いる。
[0505] (効果)
従来の撮影部との親和性が高いために、多くの画像処理システムへ適用することが 可能となる。
[0506] [付記 21]
コンピュータに、撮像素子からの映像信号を処理させるための画像処理プログラム であって、
コンピュータに、
上記映像信号力 エッジ信号を抽出するエッジ抽出ステップと、
上記映像信号に基づいてノイズ成分に起因するエッジ信号を推定する無効エッジ 推定ステップと、
上記エッジ信号を上記ノイズ成分に起因するエッジ信号に基づいて補正するエツ ジ補正ステップと、
を実行させるための画像処理プログラム。
[0507] (対応する発明の実施形態と効果)
付記 1とほぼ同様である。ただし、各ステップは、図 14,図 15、または図 22,図 23, 図 24、または図 32,図 33、または図 35に示したステップが対応する。
[0508] [付記 22]
上記映像信号から輝度信号を分離する YZC分離ステップをさらに含み、 上記エッジ抽出ステップは、上記輝度信号力もエッジ信号を抽出するステップであ り、
上記無効エッジ推定ステップは、上記輝度信号に基づ 、てノイズ成分に起因する エッジ信号を推定するステップであることを特徴とする付記 21に記載の画像処理プロ グラム。
[0509] (対応する発明の実施形態と効果)
付記 2とほぼ同様である。ただし、各ステップは、図 32,図 33に示したステップが対 応する。
[0510] [付記 23] 上記映像信号に対してノイズ低減処理を行うノイズ処理ステップをさらに含み、 上記無効エッジ推定ステップは、上記ノイズ処理ステップにより得られた所定の情 報に基づ 、て、ノイズ成分に起因するエッジ信号を推定するステップであることを特 徴とする付記 21に記載の画像処理プログラム。
[0511] (対応する発明の実施形態と効果)
付記 3とほぼ同様である。ただし、各ステップは、図 22,図 23,図 24に示したステツ プが対応する。
[0512] [付記 24]
上記映像信号に対してノイズ低減処理を行うノイズ処理ステップと、
上記映像信号から輝度信号を分離する YZC分離ステップと、
をさらに含み、
上記エッジ抽出ステップは、上記輝度信号力もエッジ信号を抽出するステップであ り、
上記無効エッジ推定ステップは、上記ノイズ処理ステップにより得られた所定の情 報に基づ 、て、ノイズ成分に起因するエッジ信号を推定するステップであることを特 徴とする付記 21に記載の画像処理プログラム。
[0513] (対応する発明の実施形態と効果)
付記 4とほぼ同様である。ただし、各ステップは、図 35に示したステップが対応する
[0514] [付記 25]
上記無効エッジ推定ステップは、
上記映像信号に基づ 、て、基準エッジモデルに関するパラメータ群力 必要となる ノ ラメータを選択するパラメータ選択ステップと、
上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間ステップと、
を含むステップであることを特徴とする付記 21に記載の画像処理プログラム。
[0515] (対応する発明の実施形態と効果)
付記 7とほぼ同様である。ただし、各ステップは、図 14,図 15、または図 22,図 23, 図 24、または図 32,図 33、または図 35に示したステップが対応する。
[0516] [付記 26]
上記無効エッジ推定ステップは、上記映像信号を入力としてノイズ成分に起因する エッジ信号を出力するテーブル変換ステップを含むステップであることを特徴とする 付記 21に記載の画像処理プログラム。
[0517] (対応する発明の実施形態と効果)
付記 8とほぼ同様である。ただし、各ステップは、図 32,図 33に示したステップが対 応する。
[0518] [付記 27]
上記無効エッジ推定ステップは、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集ステップと、
上記収集ステップにより得ることができない情報に関して標準値を付与する付与ス テツプと、
上記収集ステップまたは上記付与ステップにより得られた情報と、上記映像信号と、 に基づ!/、て、基準エッジモデルに関するパラメータ群力も必要となるパラメータを選 択するパラメータ選択ステップと、
上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間ステップと、
を含むステップであることを特徴とする付記 21に記載の画像処理プログラム。
[0519] (対応する発明の実施形態と効果)
付記 9とほぼ同様である。ただし、各ステップは、図 14,図 15、または図 22,図 23, 図 24、または図 32,図 33、または図 35に示したステップが対応する。
[0520] [付記 28]
上記無効エッジ推定ステップは、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集ステップと、
上記収集ステップにより得ることができない情報に関して標準値を付与する付与ス テツプと、
上記収集ステップまたは上記付与ステップにより得られた情報と、上記映像信号と、 を入力として、ノイズ成分に起因するヱッジ信号を出力するテーブル変換ステップと、 を含むステップであることを特徴とする付記 21に記載の画像処理プログラム。
[0521] (対応する発明の実施形態と効果)
付記 10とほぼ同様である。ただし、各ステップは、図 32,図 33に示したステップが 対応する。
[0522] [付記 29]
上記ノイズ処理ステップは、
上記映像信号カゝらノイズ量を推定するノイズ推定ステップと、
上記ノイズ量に基づいて上記映像信号に平滑ィ匕を行うノイズ低減ステップと、 を含むステップであることを特徴とする付記 23または付記 24に記載の画像処理プ ログラム。
[0523] (対応する発明の実施形態と効果)
付記 11とほぼ同様である。ただし、各ステップは、図 22,図 23,図 24に示したステ ップが対応する。
[0524] [付記 30]
上記無効エッジ推定ステップは、
上記ノイズ処理ステップにより得られたノイズ量に基づ V、て、基準エッジモデルに関 するパラメータ群力 必要となるパラメータを選択するパラメータ選択ステップと、 上記ノイズ処理ステップにより得られたノイズ量と上記選択されたパラメータとに基 づいて、補間演算によりノイズ成分に起因するエッジ信号を求める補間ステップと、 を含むステップであることを特徴とする付記 29に記載の画像処理プログラム。
[0525] (対応する発明の実施形態と効果)
付記 12とほぼ同様である。ただし、各ステップは、図 22,図 23,図 24に示したステ ップが対応する。
[0526] [付記 31]
上記無効エッジ推定ステップは、上記ノイズ処理ステップにより得られたノイズ量を 入力としてノイズ成分に起因するエッジ信号を出力するテーブル変換ステップを含む ステップであることを特徴とする付記 29に記載の画像処理プログラム。
[0527] (対応する発明の実施形態と効果)
付記 13とほぼ同様である。ただし、各ステップは、図 22,図 23,図 24に示したステ ップが対応する。
[0528] [付記 32]
上記エッジ補正ステップは、上記ノイズ成分に起因するエッジ信号に基づ 、て上記 エッジ信号に対してコアリング処理を行うコアリングステップを含むステップであること を特徴とする付記 21に記載の画像処理プログラム。
[0529] (対応する発明の実施形態と効果)
付記 16とほぼ同様である。ただし、各ステップは、図 14,図 15、または図 22,図 23 ,図 24、または図 32,図 33、または図 35に示したステップが対応する。
[0530] [付記 33]
上記エッジ補正ステップは、
上記ノイズ成分に起因するエッジ信号に基づ 、て上記エッジ信号の補正に用いる 関数の定数項を算出する定数算出ステップと、
上記定数項を設定した関数に基づいて上記エッジ信号を変換する関数変換ステツ プと、
を含むステップであることを特徴とする付記 21に記載の画像処理プログラム。
[0531] (対応する発明の実施形態と効果)
付記 17とほぼ同様である。ただし、各ステップは、図 22,図 23,図 24に示したステ ップが対応する。
[0532] [付記 34]
上記関数変換ステップは、上記関数として、上記エッジ信号の絶対値が上記ノイズ 成分に起因するエッジ信号よりも大きいときには 1次関数を、該エッジ信号の絶対値 が該ノイズ成分に起因するエッジ信号以下であるときには 3次関数を、用いるステップ であることを特徴とする付記 33に記載の画像処理プログラム。
[0533] (対応する発明の実施形態と効果) 付記 18とほぼ同様である。ただし、各ステップは、図 22,図 23,図 24に示したステ ップが対応する。
[0534] [付記 35]
上記エッジ補正ステップは、上記エッジ信号と上記ノイズ成分に起因するエッジ信 号とを入力として、補正されたエッジ信号を出力するテーブル補正ステップを含むス テツプであることを特徴とする付記 21に記載の画像処理プログラム。
[0535] (対応する発明の実施形態と効果)
付記 19とほぼ同様である。ただし、各ステップは、図 32,図 33に示したステップが 対応する。
[0536] 本出願は、 2005年 10月 26日に日本国に出願された特願 2005— 311704号を優 先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求 の範囲、図面に引用されたものとする。

Claims

請求の範囲
[1] 撮像素子力ゝらの映像信号を処理する画像処理システムであって、
上記映像信号カゝらエッジ信号を抽出するエッジ抽出手段と、
上記映像信号に基づいてノイズ成分に起因するエッジ信号を推定する無効エッジ 推定手段と、
上記エッジ信号を上記ノイズ成分に起因するエッジ信号に基づいて補正するエツ ジ補正手段と、
を具備したことを特徴とする画像処理システム。
[2] 上記映像信号から輝度信号を分離する YZC分離手段をさらに具備し、
上記エッジ抽出手段は、上記輝度信号力もエッジ信号を抽出するものであり、 上記無効エッジ推定手段は、上記輝度信号に基づ 、てノイズ成分に起因するエツ ジ信号を推定するものであることを特徴とする請求項 1に記載の画像処理システム。
[3] 上記映像信号に対してノイズ低減処理を行うノイズ処理手段をさらに具備し、 上記無効エッジ推定手段は、上記ノイズ処理手段力 の所定の情報に基づいて、 ノイズ成分に起因するエッジ信号を推定するものであることを特徴とする請求項 1に 記載の画像処理システム。
[4] 上記映像信号に対してノイズ低減処理を行うノイズ処理手段と、
上記映像信号から輝度信号を分離する YZC分離手段と、
をさらに具備し、
上記エッジ抽出手段は、上記輝度信号力もエッジ信号を抽出するものであり、 上記無効エッジ推定手段は、上記ノイズ処理手段力 の所定の情報に基づいて、 ノイズ成分に起因するエッジ信号を推定するものであることを特徴とする請求項 1に 記載の画像処理システム。
[5] 上記補正されたエッジ信号に基づき、上記映像信号に対して強調処理を行うエツ ジ強調手段をさらに具備したことを特徴とする請求項 1に記載の画像処理システム。
[6] 上記補正されたエッジ信号に基づき、上記ノイズ低減処理がなされた映像信号に 対して強調処理を行うエッジ強調手段をさらに具備したことを特徴とする請求項 3また は請求項 4に記載の画像処理システム。
[7] 上記無効エッジ推定手段は、
基準エッジモデルに関するパラメータ群を記録する記録手段と、
上記映像信号に基づいて上記パラメータ群力も必要となるパラメータを選択するパ ラメータ選択手段と、
上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間手段と、
を有するものであることを特徴とする請求項 1に記載の画像処理システム。
[8] 上記無効エッジ推定手段は、上記映像信号を入力としてノイズ成分に起因するエツ ジ信号を出力するテーブル変換手段を有するものであることを特徴とする請求項 1に 記載の画像処理システム。
[9] 上記無効エッジ推定手段は、
基準エッジモデルに関するパラメータ群を記録する記録手段と、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集手段と、
上記収集手段により得ることができない情報に関して標準値を付与する付与手段と 上記収集手段または上記付与手段からの情報と、上記映像信号と、に基づいて、 上記パラメータ群力 必要となるパラメータを選択するパラメータ選択手段と、 上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間手段と、
を有するものであることを特徴とする請求項 1に記載の画像処理システム。
[10] 上記無効エッジ推定手段は、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集手段と、
上記収集手段により得ることができない情報に関して標準値を付与する付与手段と 上記収集手段または上記付与手段からの情報と、上記映像信号と、を入力として、 ノイズ成分に起因するエッジ信号を出力するテーブル変換手段と、 を有するものであることを特徴とする請求項 1に記載の画像処理システム。
[11] 上記ノイズ処理手段は、
上記映像信号からノイズ量を推定するノイズ推定手段と、
上記ノイズ量に基づいて上記映像信号に平滑化を行うノイズ低減手段と、 を有するものであることを特徴とする請求項 3または請求項 4に記載の画像処理シ ステム。
[12] 上記無効エッジ推定手段は、
基準エッジモデルに関するパラメータ群を記録する記録手段と、
上記ノイズ処理手段力ものノイズ量に基づいて上記パラメータ群力も必要となるパラ メータを選択するパラメータ選択手段と、
上記ノイズ処理手段力 のノイズ量と上記選択されたパラメータとに基づ 、て、補間 演算によりノイズ成分に起因するエッジ信号を求める補間手段と、
を有するものであることを特徴とする請求項 11に記載の画像処理システム。
[13] 上記無効エッジ推定手段は、上記ノイズ処理手段からのノイズ量を入力としてノイズ 成分に起因するエッジ信号を出力するテーブル変換手段を有するものであることを 特徴とする請求項 11に記載の画像処理システム。
[14] 上記収集手段は、上記撮像素子の温度値を測定する温度センサを有するものであ ることを特徴とする請求項 9または請求項 10に記載の画像処理システム。
[15] 上記収集手段は、 ISO感度と露出情報とホワイトバランス情報との内の少なくとも 1 つの情報に基づいて上記ゲイン値を求めるゲイン算出手段を有するものであることを 特徴とする請求項 9または請求項 10に記載の画像処理システム。
[16] 上記エッジ補正手段は、上記ノイズ成分に起因するエッジ信号に基づいて上記ェ ッジ信号に対してコアリング処理を行うコアリング手段を有するものであることを特徴と する請求項 1に記載の画像処理システム。
[17] 上記エッジ補正手段は、
上記ノイズ成分に起因するエッジ信号に基づ 、て上記エッジ信号の補正に用いる 関数の定数項を算出する定数算出手段と、
上記定数項を設定した関数に基づいて上記エッジ信号を変換する関数変換手段と を有するものであることを特徴とする請求項 1に記載の画像処理システム。
[18] 上記関数変換手段は、上記関数として、上記エッジ信号の絶対値が上記ノイズ成 分に起因するエッジ信号よりも大きいときには 1次関数を、該エッジ信号の絶対値が 該ノイズ成分に起因するエッジ信号以下であるときには 3次関数を、用いるものである ことを特徴とする請求項 17に記載の画像処理システム。
[19] 上記エッジ補正手段は、上記エッジ信号と上記ノイズ成分に起因するエッジ信号と を入力として、補正されたエッジ信号を出力するテーブル補正手段を有するものであ ることを特徴とする請求項 1に記載の画像処理システム。
[20] 上記撮像素子は、 R (赤), G (緑) , B (青)べィヤー型原色フィルタを前面に配置し た単板撮像素子、または Cy (シアン) , Mg (マゼンタ) , Ye (イェロー), G (緑)色差線 順次型補色フィルタを前面に配置した単板撮像素子、であることを特徴とする請求項
2または請求項 4に記載の画像処理システム。
[21] コンピュータに、撮像素子からの映像信号を処理させるための画像処理プログラム であって、
コンピュータに、
上記映像信号力 エッジ信号を抽出するエッジ抽出ステップと、
上記映像信号に基づいてノイズ成分に起因するエッジ信号を推定する無効エッジ 推定ステップと、
上記エッジ信号を上記ノイズ成分に起因するエッジ信号に基づいて補正するエツ ジ補正ステップと、
を実行させるための画像処理プログラム。
[22] 上記映像信号から輝度信号を分離する YZC分離ステップをさらに含み、
上記エッジ抽出ステップは、上記輝度信号力もエッジ信号を抽出するステップであ り、
上記無効エッジ推定ステップは、上記輝度信号に基づ 、てノイズ成分に起因する エッジ信号を推定するステップであることを特徴とする請求項 21に記載の画像処理 プログラム。
[23] 上記映像信号に対してノイズ低減処理を行うノイズ処理ステップをさらに含み、 上記無効エッジ推定ステップは、上記ノイズ処理ステップにより得られた所定の情 報に基づ 、て、ノイズ成分に起因するエッジ信号を推定するステップであることを特 徴とする請求項 21に記載の画像処理プログラム。
[24] 上記映像信号に対してノイズ低減処理を行うノイズ処理ステップと、
上記映像信号から輝度信号を分離する YZC分離ステップと、
をさらに含み、
上記エッジ抽出ステップは、上記輝度信号力もエッジ信号を抽出するステップであ り、
上記無効エッジ推定ステップは、上記ノイズ処理ステップにより得られた所定の情 報に基づ 、て、ノイズ成分に起因するエッジ信号を推定するステップであることを特 徴とする請求項 21に記載の画像処理プログラム。
[25] 上記無効エッジ推定ステップは、
上記映像信号に基づ 、て、基準エッジモデルに関するパラメータ群力 必要となる ノ ラメータを選択するパラメータ選択ステップと、
上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間ステップと、
を含むステップであることを特徴とする請求項 21に記載の画像処理プログラム。
[26] 上記無効エッジ推定ステップは、上記映像信号を入力としてノイズ成分に起因する エッジ信号を出力するテーブル変換ステップを含むステップであることを特徴とする 請求項 21に記載の画像処理プログラム。
[27] 上記無効エッジ推定ステップは、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集ステップと、
上記収集ステップにより得ることができない情報に関して標準値を付与する付与ス テツプと、
上記収集ステップまたは上記付与ステップにより得られた情報と、上記映像信号と、 に基づ!/、て、基準エッジモデルに関するパラメータ群力も必要となるパラメータを選 択するパラメータ選択ステップと、
上記映像信号と上記選択されたパラメータとに基づいて、補間演算によりノイズ成 分に起因するエッジ信号を求める補間ステップと、
を含むステップであることを特徴とする請求項 21に記載の画像処理プログラム。
[28] 上記無効エッジ推定ステップは、
上記撮像素子の温度値と、上記映像信号に対するゲイン値と、に関する情報を収 集する収集ステップと、
上記収集ステップにより得ることができない情報に関して標準値を付与する付与ス テツプと、
上記収集ステップまたは上記付与ステップにより得られた情報と、上記映像信号と、 を入力として、ノイズ成分に起因するエッジ信号を出力するテーブル変換ステップと、 を含むステップであることを特徴とする請求項 21に記載の画像処理プログラム。
[29] 上記ノイズ処理ステップは、
上記映像信号カゝらノイズ量を推定するノイズ推定ステップと、
上記ノイズ量に基づいて上記映像信号に平滑ィ匕を行うノイズ低減ステップと、 を含むステップであることを特徴とする請求項 23または請求項 24に記載の画像処 理プログラム。
[30] 上記無効エッジ推定ステップは、
上記ノイズ処理ステップにより得られたノイズ量に基づ ヽて、基準エッジモデルに関 するパラメータ群力 必要となるパラメータを選択するパラメータ選択ステップと、 上記ノイズ処理ステップにより得られたノイズ量と上記選択されたパラメータとに基 づ 、て、補間演算によりノイズ成分に起因するエッジ信号を求める補間ステップと、 を含むステップであることを特徴とする請求項 29に記載の画像処理プログラム。
[31] 上記無効エッジ推定ステップは、上記ノイズ処理ステップにより得られたノイズ量を 入力としてノイズ成分に起因するエッジ信号を出力するテーブル変換ステップを含む ステップであることを特徴とする請求項 29に記載の画像処理プログラム。
[32] 上記エッジ補正ステップは、上記ノイズ成分に起因するエッジ信号に基づいて上記 エッジ信号に対してコアリング処理を行うコアリングステップを含むステップであること を特徴とする請求項 21に記載の画像処理プログラム。
[33] 上記エッジ補正ステップは、
上記ノイズ成分に起因するエッジ信号に基づ 、て上記エッジ信号の補正に用いる 関数の定数項を算出する定数算出ステップと、
上記定数項を設定した関数に基づいて上記エッジ信号を変換する関数変換ステツ プと、
を含むステップであることを特徴とする請求項 21に記載の画像処理プログラム。
[34] 上記関数変換ステップは、上記関数として、上記エッジ信号の絶対値が上記ノイズ 成分に起因するエッジ信号よりも大きいときには 1次関数を、該エッジ信号の絶対値 が該ノイズ成分に起因するエッジ信号以下であるときには 3次関数を、用いるステップ であることを特徴とする請求項 33に記載の画像処理プログラム。
[35] 上記エッジ補正ステップは、上記エッジ信号と上記ノイズ成分に起因するエッジ信 号とを入力として、補正されたエッジ信号を出力するテーブル補正ステップを含むス テツプであることを特徴とする請求項 21に記載の画像処理プログラム。
PCT/JP2006/318967 2005-10-26 2006-09-25 画像処理システム、画像処理プログラム WO2007049418A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007542276A JPWO2007049418A1 (ja) 2005-10-26 2006-09-25 画像処理システム、画像処理プログラム
EP06798293A EP1947840A4 (en) 2005-10-26 2006-09-25 IMAGE PROCESSING SYSTEM AND PICTURE PROCESSING PROGRAM
US12/107,157 US8035705B2 (en) 2005-10-26 2008-04-22 Image processing system, image processing method, and image processing program product

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005-311704 2005-10-26
JP2005311704 2005-10-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/107,157 Continuation US8035705B2 (en) 2005-10-26 2008-04-22 Image processing system, image processing method, and image processing program product

Publications (1)

Publication Number Publication Date
WO2007049418A1 true WO2007049418A1 (ja) 2007-05-03

Family

ID=37967540

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/318967 WO2007049418A1 (ja) 2005-10-26 2006-09-25 画像処理システム、画像処理プログラム

Country Status (5)

Country Link
US (1) US8035705B2 (ja)
EP (1) EP1947840A4 (ja)
JP (1) JPWO2007049418A1 (ja)
CN (1) CN101278552A (ja)
WO (1) WO2007049418A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101361804B1 (ko) * 2009-06-25 2014-02-11 삼성테크윈 주식회사 디지털 영상 처리기에서 노이즈 제거 장치 및 방법

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1947840A4 (en) * 2005-10-26 2010-04-21 Olympus Corp IMAGE PROCESSING SYSTEM AND PICTURE PROCESSING PROGRAM
EP1976268A1 (en) * 2005-12-28 2008-10-01 Olympus Corporation Imaging system and image processing program
JP5009004B2 (ja) 2006-07-31 2012-08-22 株式会社リコー 画像処理装置、撮像装置、画像処理方法、および画像処理プログラム
JP5147597B2 (ja) * 2008-08-13 2013-02-20 キヤノン株式会社 画像形成装置、画像形成方法およびプログラム
US8374457B1 (en) 2008-12-08 2013-02-12 Adobe Systems Incorporated System and method for interactive image-noise separation
JP5197423B2 (ja) * 2009-02-18 2013-05-15 オリンパス株式会社 画像処理装置
JP2010288150A (ja) * 2009-06-12 2010-12-24 Toshiba Corp 固体撮像装置
JP5644489B2 (ja) * 2010-12-28 2014-12-24 ソニー株式会社 制御装置、制御方法及び制御プログラム
JP5701640B2 (ja) * 2011-02-18 2015-04-15 株式会社東芝 画像処理装置
JP5460635B2 (ja) * 2011-03-31 2014-04-02 本田技研工業株式会社 画像処理判定装置
KR20130032457A (ko) * 2011-09-23 2013-04-02 에스케이하이닉스 주식회사 이미지 센서 및 그를 이용한 데이터 처리 방법
KR102025184B1 (ko) * 2013-07-31 2019-09-25 엘지디스플레이 주식회사 데이터 변환 장치 및 이를 이용한 디스플레이 장치
KR102087986B1 (ko) * 2013-10-04 2020-03-11 삼성전자주식회사 이미지 데이터를 처리하는 방법 및 장치
JP2015097382A (ja) * 2013-10-08 2015-05-21 キヤノン株式会社 情報処理装置、撮像システム、情報処理方法、及びプログラム
CN105721759B (zh) * 2014-12-01 2020-11-24 深圳富泰宏精密工业有限公司 影像拍摄方法及系统
CN109462728B (zh) * 2017-09-06 2020-01-14 浙江宇视科技有限公司 码率控制方法、装置、图像采集设备及可读存储介质
CN107592472B (zh) * 2017-10-20 2019-12-20 思特威(上海)电子科技有限公司 多段曝光图像传感器的成像校正方法
US11120529B2 (en) * 2017-11-06 2021-09-14 Canon Kabushiki Kaisha Image processing apparatus, imaging apparatus, lens apparatus, image processing method, and recording medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08107565A (ja) * 1994-08-31 1996-04-23 Samsung Electron Co Ltd 色信号における輪郭を補正する方法及びこれをカラービデオ機器で具現する回路
JPH09121366A (ja) * 1995-08-29 1997-05-06 Samsung Electron Co Ltd 色信号に含まれた輪郭を補正する方法及びこれをカラービデオ機器で具現するための回路
JP2003130297A (ja) * 2001-10-24 2003-05-08 Neriki:Kk ガスボンベ用バルブ装置
JP2003304549A (ja) * 2002-04-11 2003-10-24 Olympus Optical Co Ltd カメラ及び画像信号処理システム
JP2004072422A (ja) * 2002-08-06 2004-03-04 Olympus Corp 撮像システムおよび画像処理プログラム
JP2004088149A (ja) * 2002-08-22 2004-03-18 Olympus Corp 撮像システムおよび画像処理プログラム
JP2004318356A (ja) * 2003-04-15 2004-11-11 Olympus Corp 画像処理装置、画像処理方法及びそのプログラム
JP2005175718A (ja) * 2003-12-09 2005-06-30 Olympus Corp 撮像システムおよび画像処理プログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4053185B2 (ja) * 1999-06-22 2008-02-27 富士フイルム株式会社 画像処理方法および装置
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
US7130484B2 (en) * 2001-10-15 2006-10-31 Jonas August Biased curve indicator random field filters for enhancement of contours in images
JP2005130297A (ja) 2003-10-24 2005-05-19 Olympus Corp 信号処理システム、信号処理方法、信号処理プログラム
EP1947840A4 (en) * 2005-10-26 2010-04-21 Olympus Corp IMAGE PROCESSING SYSTEM AND PICTURE PROCESSING PROGRAM

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08107565A (ja) * 1994-08-31 1996-04-23 Samsung Electron Co Ltd 色信号における輪郭を補正する方法及びこれをカラービデオ機器で具現する回路
JPH09121366A (ja) * 1995-08-29 1997-05-06 Samsung Electron Co Ltd 色信号に含まれた輪郭を補正する方法及びこれをカラービデオ機器で具現するための回路
JP2003130297A (ja) * 2001-10-24 2003-05-08 Neriki:Kk ガスボンベ用バルブ装置
JP2003304549A (ja) * 2002-04-11 2003-10-24 Olympus Optical Co Ltd カメラ及び画像信号処理システム
JP2004072422A (ja) * 2002-08-06 2004-03-04 Olympus Corp 撮像システムおよび画像処理プログラム
JP2004088149A (ja) * 2002-08-22 2004-03-18 Olympus Corp 撮像システムおよび画像処理プログラム
JP2004318356A (ja) * 2003-04-15 2004-11-11 Olympus Corp 画像処理装置、画像処理方法及びそのプログラム
JP2005175718A (ja) * 2003-12-09 2005-06-30 Olympus Corp 撮像システムおよび画像処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1947840A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101361804B1 (ko) * 2009-06-25 2014-02-11 삼성테크윈 주식회사 디지털 영상 처리기에서 노이즈 제거 장치 및 방법

Also Published As

Publication number Publication date
CN101278552A (zh) 2008-10-01
EP1947840A4 (en) 2010-04-21
US20080204577A1 (en) 2008-08-28
US8035705B2 (en) 2011-10-11
EP1947840A1 (en) 2008-07-23
JPWO2007049418A1 (ja) 2009-04-30

Similar Documents

Publication Publication Date Title
WO2007049418A1 (ja) 画像処理システム、画像処理プログラム
JP4427001B2 (ja) 画像処理装置、画像処理プログラム
JP3762725B2 (ja) 撮像システムおよび画像処理プログラム
JP4628937B2 (ja) カメラシステム
JP3899118B2 (ja) 撮像システム、画像処理プログラム
JP4547223B2 (ja) 撮像システム、ノイズ低減処理装置及び撮像処理プログラム
JP4660342B2 (ja) 画像処理システム、画像処理プログラム
WO2007058126A1 (ja) 画像処理システム、画像処理プログラム
JP5165300B2 (ja) 映像処理装置および映像処理プログラム
WO2005057938A1 (ja) 撮像システムおよび画像処理プログラム
JP4979595B2 (ja) 撮像システム、画像処理方法、画像処理プログラム
JP5123756B2 (ja) 撮像システム、画像処理方法および画像処理プログラム
WO2008032610A1 (fr) Système de traitement d'image et programme de traitement d'image
WO2005104531A1 (ja) 映像信号処理装置と映像信号処理プログラムおよび映像信号記録媒体
WO2008056565A1 (fr) Système d'analyse d'image et programme de traitement d'image
WO2006004151A1 (ja) 信号処理システム及び信号処理プログラム
JP5052189B2 (ja) 映像処理装置及び映像処理プログラム
WO2005099356A2 (ja) 撮像装置
JP4916341B2 (ja) 画像処理装置及び画像処理プログラム
JP2003199124A (ja) デジタルカメラ
JP2009027615A (ja) 映像処理装置および映像処理プログラム
JP2009100207A (ja) ノイズ低減システム、ノイズ低減プログラム及び撮像システム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680036329.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007542276

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2006798293

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE