WO2022059490A1 - 画像処理装置、画像処理方法 - Google Patents

画像処理装置、画像処理方法 Download PDF

Info

Publication number
WO2022059490A1
WO2022059490A1 PCT/JP2021/032203 JP2021032203W WO2022059490A1 WO 2022059490 A1 WO2022059490 A1 WO 2022059490A1 JP 2021032203 W JP2021032203 W JP 2021032203W WO 2022059490 A1 WO2022059490 A1 WO 2022059490A1
Authority
WO
WIPO (PCT)
Prior art keywords
noise reduction
data
image
reduction intensity
intensity data
Prior art date
Application number
PCT/JP2021/032203
Other languages
English (en)
French (fr)
Inventor
丈史 塚越
Original Assignee
カシオ計算機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020157373A external-priority patent/JP2022051098A/ja
Priority claimed from JP2020157372A external-priority patent/JP2022051097A/ja
Application filed by カシオ計算機株式会社 filed Critical カシオ計算機株式会社
Publication of WO2022059490A1 publication Critical patent/WO2022059490A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Definitions

  • the disclosure of this specification relates to an image processing device and an image processing method.
  • Japanese Patent Application Laid-Open No. 2016-127388 describes an image processing device that performs gradation correction and noise reduction processing on an image.
  • the conventional image processing device sufficiently suppresses the circuit scale, and if the desired noise reduction processing cannot be performed, the image quality is deteriorated.
  • an object of one aspect of the present invention is to provide an image processing apparatus and an image processing method capable of realizing good noise reduction processing while suppressing the circuit scale. ..
  • the image processing apparatus generates the first noise reduction intensity data for the image, and then receives the input of the processing data generated based on the first noise reduction intensity data for the image. 2. It has a noise reduction intensity data generation circuit that generates noise reduction intensity data, and a noise reduction processing circuit that performs noise reduction processing on the image based on the second noise reduction intensity data.
  • the image processing apparatus 1 of the present embodiment will be described in detail with reference to FIGS. 1 to 8.
  • the image processing method and the image processing program of the present embodiment are realized by causing the computer (circuit component) of the image processing apparatus 1 to execute various processing steps.
  • the image processing device 1 may be referred to as, for example, a Color Process PipeLine.
  • the image processing device 1 may be mounted as a large-scale integrated circuit (LSI: Large Scale Integration) or a part thereof.
  • LSI Large Scale Integration
  • the image processing device 1 may be mounted on a fixed shooting device such as a security camera or a surveillance camera, or may be mounted on a portable shooting device such as a digital camera or various terminals. Further, the image processing device 1 may be specialized in performing image processing on an image transmitted by wire or wirelessly from a photographing device or other device, or an image stored in various storage media. That is, there is a degree of freedom in the aspect of the image processing device 1, and various design changes are possible.
  • FIG. 1 is an external view showing an example of a digital camera (shooting device) 1X.
  • the digital camera 1X the light from the subject is guided into the camera body 11X through the lens 10X, reflected by the mirror 12X, and forms a real image of the subject on the focus glass 13X.
  • the subject image as a real image is guided to the finder 15X by the pentaprism 14X and can be observed.
  • a display device 16X is arranged between the focus glass 13X and the pentaprism 14X, and various information is superimposed and displayed on the subject image reflected on the focus glass 13X.
  • the broken line in FIG. 1 indicates an optical path of light from a subject guided by the finder 15X.
  • the structure is such that the subject image does not reach the display device 16X in the mirror-up state.
  • the digital camera 1X may include the image processing device 1 of one aspect of the present invention that performs image processing on the image captured by the image pickup element 18X, or the image captured by the image pickup element 18X may be wired or wirelessly according to the present invention. It may have a communication unit (connection terminal, antenna, etc.) for transmitting to the external image processing device 1 of one aspect. That is, the present invention is not limited to the digital camera 1X having a photographing function, and can be applied to any device to which an image captured by an external device can be acquired and noise reduction processing can be applied. In other words, the present invention is also applicable to a system composed of a plurality of devices.
  • the image processing device 1 includes a demosaic processing unit 10, a gradation correction unit 20, a YUV conversion unit 30, a color analysis unit 40, a noise reduction intensity data generation unit (NR intensity data generation unit) 50, and noise reduction processing. It has a unit (NR processing unit) 60 and a post-processing unit 70. Further, as shown in FIG. 2, the image processing device 1 is connected to a filter processing unit 80 as an external circuit and a DRAM (Dynamic Random Access Memory) 90 as an external memory.
  • a filter processing unit 80 as an external circuit
  • DRAM Dynamic Random Access Memory
  • a demosaic processing unit 10 for generating noise reduction intensity data (first and second noise reduction intensity data) described later, a demosaic processing unit 10, a gradation correction unit 20, a YUV conversion unit 30, and a color are used.
  • the analysis unit 40 and the noise reduction intensity data generation unit 50 are drawn surrounded by a solid line (the demosaic processing unit 10, the gradation correction unit 20, the YUV conversion unit 30, the color analysis unit 40, and the noise reduction intensity data generation unit 50 are drawn. It constitutes a common circuit portion 100). Further, in FIG.
  • the filter processing unit 80 and the DRAM 90 are drawn by being surrounded by a broken line as the device outside (common circuit outside) 200 that contributes to the generation of noise reduction intensity data (first and second noise reduction intensity data).
  • the filter processing unit 80 and the DRAM 90 are included in the device external (outside the common circuit) 200).
  • the demosaic processing unit 10 performs demosaic processing on the input image (RAW image, Bayer image) D1 which is an image before gradation correction and converts it into an RGB image D2.
  • a block for performing isolated point removal processing and chromatic aberration correction may be provided in the front stage of the demosaic processing unit 10.
  • the gradation correction unit 20 performs gradation correction on the RGB image D2 before the gradation correction from the demosaic processing unit 10.
  • the gradation correction is adaptively performed on a pixel-by-pixel basis based on the image analysis result, for example, when shooting a subject having a large difference in brightness such as backlight, or when it is desired to capture a specific area such as a face brightly. Further, in processing such as backlight correction and multiple exposure composition (HDR: High Dynamic Range), an adaptive gain-up amount is calculated for each pixel or pixel block, and gradation correction of the entire image may be performed. Further, even in gamma correction or the like, a different gain-up amount may be applied to each pixel or pixel block. This gain-up amount may be uniform in RGB. There is a degree of freedom in the mode of gradation correction by the gradation correction unit 20, and various design changes are possible.
  • the gradation correction unit 20 outputs a gradation correction image (RGB image after gradation correction) D3 and a gain map data (Gain Map) D4 by performing gradation correction.
  • the gain map data D4 is data based on the gradation correction amount of the gradation correction image D3, and corresponds to a logarithmic value of the gradation correction amount (gain) of the gradation correction image D3. Further, the gain map data D4 divides the gradation correction image D3 into regions for each pixel or pixel block, and has feature values for each divided region.
  • the gradation correction image D3 is input to the YUV conversion unit 30 and the color analysis unit 40, and the gain map data D4 is input to the noise reduction intensity data generation unit 50.
  • the YUV conversion unit 30 obtains luminance data (luminance data of the gradation correction image) D5 by YUV converting the gradation correction image (RGB image after gradation correction) D3 from the gradation correction unit 20.
  • the luminance data D5 divides the gradation correction image D3 into regions for each pixel or pixel block, and has feature values for each divided region.
  • the luminance data D5 is input to the noise reduction intensity data generation unit 50. Further, the YUV conversion unit 30 outputs the YUV-converted gradation correction image D6 to the noise reduction processing unit 60.
  • the color analysis unit 40 performs color analysis (RGB analysis) of the gradation correction image (RGB image after gradation correction) D3 from the gradation correction unit 20 to perform color likelihood data (color likelihood of the gradation correction image). Degree data) Obtain D7.
  • the color likelihood data D7 shows the likelihood of a specific color such as human skin or skin color.
  • the color likelihood data D7 divides the gradation correction image D3 into regions for each pixel or pixel block, and has feature values for each divided region.
  • the color likelihood data D7 is input to the noise reduction intensity data generation unit 50.
  • Gain map data D4 from the gradation correction unit 20 luminance data D5 from the YUV conversion unit 30, and color likelihood data D7 from the color analysis unit 40 are input to the noise reduction intensity data generation unit 50. ..
  • the noise reduction intensity data generation unit 50 is input with an additional map and / or an extra map as the external map data D8.
  • the Additional Map uses the noise reduction intensity data (NR intensity data) D9 as the once generated NR level output D10 as the "first noise reduction intensity data (first NR intensity data) D12", and the "first”.
  • the noise reduction intensity data (first NR intensity data) D12 is filtered by the filter processing unit 80, and the data once stored in the DRAM 90 is used as the" processing data D12X "and looped to the noise reduction intensity data generation unit 50. It is used to make (input).
  • the processing data D12X generated based on the first noise reduction intensity data D12 is included in the external map data D8 (Additional Map) and looped (input) to the noise reduction intensity data generation unit 50.
  • the "machining data D12X generated based on the first noise reduction intensity data (first NR intensity data) D12” looped (input) to the noise reduction intensity data generation unit 50 is the actual noise reduction processing. It is used to improve the accuracy (reliability) of the "second noise reduction intensity data (second NR intensity data) D11" applied to (NR processing).
  • the Extra Map can be a logarithmic value of the gain amount of HDR processing for the image before gradation correction, for example, the gain amount of HDR processing.
  • the Additional Map and the Extra Map as the external map data D8 are collectively drawn as a single Extra Map
  • the Additional Map and the Extra Map as the external map data D8 are drawn separately. There is.
  • the noise reduction intensity data generation unit 50 generates noise reduction intensity data (NR intensity data) D9 based on arbitrary combination data of a plurality of data generated according to the image after gradation correction. More specifically, the noise reduction intensity data generation unit 50 includes brightness data D5 from the YUV conversion unit 30, color likelihood data D7 from the color analysis unit 40, and gain map data D4 from the gradation correction unit 20. , The noise reduction intensity data D9 is generated based on the data in which the external map data D8 is arbitrarily combined. As a result, it is possible to provide a high-quality image in which noise reduction processing is performed satisfactorily with respect to the captured image captured under various conditions.
  • the noise reduction intensity data generation unit 50 arbitrarily obtains any one of the brightness data D5, the color likelihood data D7, the gain map data D4, and the external map data D8, and these data.
  • Noise reduction intensity data D9 is generated based on any of the combined data.
  • the noise reduction intensity data generation unit 50 is at least the external map data D8 in each of the above data, that is, the input circuit for the external map data (filter processing unit 80 and DRAM 90 of the device external (common circuit external) 200).
  • the second noise reduction intensity data D11 to be applied to the actual noise reduction processing is generated based on the processing data D12X obtained by processing the first noise reduction intensity data D12 looped (input) from the above.
  • the circuit (common circuit portion 100) up to the demosaic processing unit 10, the gradation correction unit 20, the YUV conversion unit 30, the color analysis unit 40, and the noise reduction intensity data generation unit 50 is shared (circuit scale). (While suppressing), the second noise reduction intensity data D11 applied to the actual noise reduction processing, and the first noise reduction intensity data used to improve the accuracy (reliability) of the second noise reduction intensity data.
  • the processed processing data D12X which is processed by processing D12 is generated. That is, the noise reduction intensity data generation unit 50 generates the first noise reduction intensity data D12 for the image by the common circuit (common circuit portion 100), and is generated based on the first noise reduction intensity data D12. In response to the input of the processing data D12X, the second noise reduction intensity data D11 for the image is generated.
  • the noise reduction intensity data D9 generated by the noise reduction intensity data generation unit 50 is the first noise as the noise reduction level output (NR level output) D10. It is output to the outside of the device (outside the common circuit) 200 as the reduction intensity data D12.
  • the first noise reduction intensity data D12 output to the device external 200 is filtered by the filter processing unit (external circuit) 80, temporarily stored by the DRAM (external memory) 90, and then "first noise". It is included in the external map data D8 as the processing data D12X of the reduction intensity data D12, and is looped (input) to the noise reduction intensity data generation unit 50.
  • the filter processing unit 80 executes various filter processing such as a low-pass filter, an epsilon filter, a BiLateral filter, and a NonLocalMeans filter. Further, the filter processing unit 80 may be realized by a circuit equipped with a general-purpose image processing group, and for example, a CPU (Central Processing Unit) or a DRP (Dynamic Reconfigurable Processor) can be used.
  • a CPU Central Processing Unit
  • DRP Dynamic Reconfigurable Processor
  • the noise reduction intensity data D9 is stored, it is looped (input) to the noise reduction intensity data generation unit 50 as the processing data D12X of the first noise reduction intensity data D12.
  • the noise reduction intensity data D9 may be stored as it is, filtered after being read, and looped (input) to the noise reduction intensity data generation unit 50 as the processing data D12X of the first noise reduction intensity data D12. ..
  • the noise reduction intensity data generation unit 50 and the filter are used until the actual noise reduction processing is executed using the "second noise reduction intensity data D11".
  • the loop (input) of the "first noise reduction intensity data D12 and its processing data D12X" via the processing unit 80 and the DRAM 90 is repeated. That is, the noise reduction intensity data D9 generated by the noise reduction intensity data generation unit 50 is "first noise reduction intensity data D12 and its processing data D12X" when looping (inputting) to the noise reduction intensity data generation unit 50.
  • the noise reduction processing unit 60 it becomes the "second noise reduction intensity data D11".
  • the loop (input) of the first noise reduction intensity data D12 and its processing data D12X is terminated, and the noise reduction intensity data D9 generated by the noise reduction intensity data generation unit 50 is "second noise". It is input to the noise reduction processing unit 60 as "reduction intensity data D11".
  • the loop (input) of the first noise reduction intensity data D12 and the processing data D12X is repeated a predetermined number of times, and a predetermined time elapses.
  • the quality of the first noise reduction intensity data D12 and the processing data D12X thereof can be set as a predetermined condition to exceed a predetermined level.
  • the circuit scale is suppressed by efficiently using the calculation outside the device (outside the common circuit) 200 while minimizing the circuit use part (common circuit part 100) of the image processing device 1.
  • a memory output mechanism of NR intensity is provided before NR processing in the image processing pipeline. Further, in the image processing pipeline, an input mechanism from the memory is provided for the NR intensity calculation before the NR processing.
  • the external map including the first noise reduction intensity data), luminance, color likelihood, and gradation correction gain input from the memory are recalculated to obtain the NR intensity (second noise reduction intensity data). Generate.
  • filter processing epsilon filter, bilateral filter, etc.
  • the strength can be set. In this way, the values such as luminance, color likelihood, and gradation correction gain before noise reduction are subjected to noise reduction and treated as NR intensity.
  • the noise reduction intensity data D9 shows which part of the gradation correction image and how much gradation correction was performed (gradation correction gain).
  • the purpose is to apply noise reduction processing optimized in consideration of the level distribution) to the gradation correction image D6. That is, the noise reduction intensity data D9 (first noise reduction intensity data D12, second noise reduction intensity data D11) divides the gradation correction image D3 into regions for each pixel or pixel block, and the divided regions thereof. Each time, it is possible to make a map format in which the level of noise reduction processing to be applied to the divided area is associated with each other.
  • FIGS. 4A and 4B are conceptual diagrams showing an example of noise reduction intensity data D9 (first noise reduction intensity data D12, second noise reduction intensity data D11).
  • the gradation correction image is simplified and drawn in a divided area of 5 squares vertically and 5 squares horizontally, for a total of 25 squares.
  • the noise reduction intensity data of each divided region is drawn in three stages of H (High), M (Middle), and L (Low).
  • the noise reduction intensity data of each divided region is drawn in five stages of 1, 2, 3, 4, and 5 (the larger the number, the higher the intensity, and the smaller the number, the smaller the intensity).
  • noise reduction intensity data D9 first noise reduction intensity data D12, second noise reduction intensity data D11
  • the noise reduction processing unit 60 is a gradation correction unit 20 based on the noise reduction intensity data D9 (second noise reduction intensity data D11) generated by the noise reduction intensity data generation unit 50 (see, for example, FIGS. 4A and 4B).
  • Noise reduction processing (NR processing) is performed on the gradation correction image D6 that has been gradation-corrected by the YUV conversion unit 30 and YUV-converted by the YUV conversion unit 30.
  • Noise reduction intensity data D9 (second noise reduction intensity data D11) optimized in consideration of how much gradation correction was performed on which part of the gradation correction image D3 (level distribution of gradation correction gain). By performing noise reduction processing using), it is possible to achieve both gradation correction and noise reduction processing in a well-balanced manner, and to realize excellent image quality based on flexible and appropriate noise reduction processing.
  • the post-processing unit 70 performs post-processing such as gamma correction, edge enhancement processing, and super-resolution processing on the YUV image (NR YUV) D13 after noise reduction processing to obtain an output image (YUV) D14. ..
  • the post-processing performed by the post-processing unit 70 has a degree of freedom, and various design changes can be made.
  • FIG. 5 is a diagram showing a detailed configuration of the noise reduction intensity data generation unit 50.
  • the noise reduction intensity data generation unit 50 is input with the brightness data D5, the color likelihood data D7, the gain map data D4, and the external map data D8.
  • the external map data D8 includes the processing data D12X of the first noise reduction intensity data D12 looped (input) to the noise reduction intensity data generation unit 50.
  • the noise reduction intensity data generation unit 50 has a selection input unit 51 that selectively passes a part or all of the brightness data D5, the color likelihood data D7, the gain map data D4, and the external map data D8.
  • the luminance data D5, the color likelihood data D7, the gain map data D4, and the external map data D8 all pass through the selection input unit 51.
  • the external map data D8 including the first noise reduction intensity data D12 has passed through the selection input unit 51.
  • the selection input unit 51 from the noise reduction intensity data generation unit 50.
  • the color likelihood data D7, the gain map data D4, and the external map data D8 only the data to be used is input to the noise reduction intensity data generation unit 50, and the unused data is noise reduction. It may not be input to the intensity data generation unit 50.
  • the noise reduction intensity data generation unit 50 has a multiplication unit 52 that multiplies the gain map data D4 that has passed through the selection input unit 51 with the external map data D8.
  • the noise reduction intensity data generation unit 50 has a selection input unit 53 that selectively passes any of the gain map data D4 and the multiplication result of the gain map data D4 and the external map data D8 by the multiplication unit 52. ..
  • the multiplication results of the gain map data D4 or the gain map data D4 by the multiplication unit 52 and the external map data D8 are collectively referred to as "gain map data D4" (the output of the selection input unit 53 is: "Gain map data D4".).
  • the noise reduction intensity data generation unit 50 provides a pre-stage look-up table 54 for applying to each (at least one of) the brightness data D5, the color likelihood data D7, the gain map data D4, and the external map data D8.
  • the first-stage look-up table 54 includes a brightness data look-up table (LUT (Y)) 54A applied to the brightness data D5 and a color likelihood data lookup applied to the color likelihood data D7.
  • the noise reduction intensity data generation unit 50 includes the brightness data D5 that has passed through the brightness data lookup table 54A, the color likelihood data D7 that has passed through the color likelihood data lookup table 54B, and the gain map data lookup table. It has a maximum value selection calculation unit (Max) 56B that selectively passes the maximum values of the gain map data D4 that has passed through 54C and the external map data D8 that has passed through the external map data lookup table 54D. The maximum value selection calculation result by the maximum value selection calculation unit 56B is output to the selection input unit (Sel) 57.
  • the noise reduction intensity data generation unit 50 includes the brightness data D5 that has passed through the brightness data lookup table 54A, the color likelihood data D7 that has passed through the color likelihood data lookup table 54B, and the gain map data lookup table. It has a minimum value selection calculation unit (Min) 56C that selectively passes the minimum values of the gain map data D4 that has passed through 54C and the external map data D8 that has passed through the external map data lookup table 54D. The minimum value selection calculation result by the minimum value selection calculation unit 56C is output to the selection input unit (Sel) 57.
  • Min minimum value selection calculation unit
  • the noise reduction intensity data generation unit 50 has a selection input unit (Sel) 57.
  • the selection input unit 57 includes a multiplication result by the multiplication unit 55C, an addition calculation result by the addition value calculation unit 56A, a maximum value selection calculation result by the maximum value selection calculation unit 56B, and a minimum value selection calculation by the minimum value selection calculation unit 56C. Selectively pass any one of the results.
  • the selection input unit 57 has a multiplication result by the multiplication unit 55C, an addition calculation result by the addition value calculation unit 56A, a maximum value selection calculation result by the maximum value selection calculation unit 56B, and a minimum value selection calculation by the minimum value selection calculation unit 56C.
  • the selection input unit 57 may use the multiplication result by the multiplication unit 55C, the addition operation result by the addition value calculation unit 56A, and the maximum value selection calculation unit based on some criteria for generating more appropriate noise reduction intensity data. It may be determined whether to select the maximum value selection calculation result by 56B or the minimum value selection calculation result by the minimum value selection calculation unit 56C.
  • the multiplication unit 55A, the multiplication unit 55B, the multiplication unit 55C, the addition value calculation unit 56A, the maximum value selection calculation unit 56B, the minimum value selection calculation unit 56C, and the selection input unit 57 are used in the preceding lookup table 54 (54A, 54B). , 54C, 54D), the "calculation unit” that calculates a single output by applying at least one of addition processing, multiplication processing, maximum value selection processing, minimum value selection processing, and random selection processing to each output. It functions as.
  • the configuration of the "calculation unit” described with reference to FIG. 5 is only an example, and it is sufficient that a single output can be calculated from each output of the preceding look-up table 54 (54A, 54B, 54C, 54D). ..
  • the noise reduction intensity data generation unit 50 has a post-stage look-up table 58 for applying to a single output calculated by the above "calculation unit".
  • the latter-stage look-up table 58 is composed of a single look-up table (LUT) 58A corresponding to a single output calculated by the above-mentioned "calculation unit”.
  • LUT look-up table
  • Optimized noise reduction intensity data eg, FIGS. 4A, 4B).
  • the front-stage look for applying to each (at least one of) the brightness data D5, the color likelihood data D7, the gain map data D4, and the external map data D8 in the front stage and the rear stage sandwiching the "calculation unit".
  • logarithmic processing should be applied to handle a wide range
  • the logarithm should be returned to the antilogarithm.
  • Characteristic conversion is possible.
  • the antilogarithm may be calculated in the first-stage look-up table and the logarithm may be calculated in the second-stage look-up table.
  • gradation correction As described above, in the image processing device, the image processing method, and the image processing program of the present embodiment, gradation correction, noise reduction intensity data generation, and noise reduction processing are performed in this order for the input image.
  • the gradation correction block outputs a gradation correction gain (gain map) together with the gradation correction image.
  • the noise reduction intensity data generation block receives the luminance and gain map from the image after gradation correction, and further performs color analysis to generate color likelihood.
  • the Map for each pixel is input from the outside, and the look-up table (LUT) in the previous stage is applied to each of the gain amount, brightness, color likelihood, and external Map (including the processed data of the first noise reduction intensity data). Then, each addition, multiplication, maximum value, minimum value, etc.
  • the external Map can also input the gain amount when the gain is applied by HDR processing or the like before the gradation correction input, and in that case, it can be directly added to the gain map.
  • the noise reduction intensity data is realized by contributing as a coefficient to the correlation between the own pixel and the peripheral pixel.
  • the strength of the noise reduction effect is controlled according to the noise reduction intensity by contributing as a coefficient for the difference between the own pixel and the peripheral pixel, and in the case of the NonLocalMeans filter, as a coefficient for the patch correlation. Can be done.
  • FIG. 6 is a conceptual diagram showing the flow of noise reduction processing using the first and second noise reduction intensity data.
  • FIG. 6 illustrates a case where the loop (input) of the processing data D12X of the first noise reduction intensity data D12 to the noise reduction intensity data generation unit 50 is performed only once. That is, the noise reduction intensity data in the first round becomes the "first noise reduction intensity data D12 and its processing data D12X", and the noise reduction intensity data in the second round becomes the "second noise reduction intensity data D11".
  • the noise reduction intensity data read from the DRAM 90 is looped (input) to the noise reduction intensity data generation unit 50 as "processing data D12X of the first noise reduction intensity data D12" included in the external map data D8. Will be done.
  • the processing data D12X of the first noise reduction intensity data D12 is higher than the first noise reduction intensity data D12 before processing in that the adverse effect of noise is mitigated. It is of good quality.
  • step ST300 the common circuit portion 100 of the image processing apparatus 1 (demosaic processing unit 10, gradation correction unit 20, YUV conversion unit 30, color analysis unit 40, and noise reduction intensity data generation unit 50) is used as an input image (RAW image). , Bayer image) is executed in the second round, and the noise reduction intensity data D9 in the second round is output (NR Level output D10).
  • the noise reduction intensity data of the second round is the "second noise reduction intensity” based on the "processed data D12X of the first noise reduction intensity data D12" included in the external map data D8 input in the first round processing. Data D11 ".
  • FIG. 7A and 7B are diagrams showing an example of noise reduction intensity data before and after Map processing (filter processing) by the filter processing unit 80.
  • the noise reduction intensity data before filtering has a large influence of noise due to the rough surface of the wall or the doll's face (rough grain size and resolution)
  • FIG. 7B In the noise reduction intensity data after filtering, the wall and the face of the doll are smooth (fine grain and resolution), and the influence of noise is suppressed.
  • FIG. 7B the contour portion having a large difference in brightness is emphasized more than in FIG. 7A, and the influence of noise is suppressed.
  • FIG. 8 is a flowchart showing an example of an image processing method by the image processing device 1.
  • FIG. 8 illustrates a case where the loop (input) of the processing data D12X of the first noise reduction intensity data D12 to the noise reduction intensity data generation unit 50 is performed only once. That is, the noise reduction intensity data in the first round becomes the "first noise reduction intensity data D12 and its processing data D12X", and the noise reduction intensity data in the second round becomes the "second noise reduction intensity data D11".
  • the RAW image is input to the image processing device 1 (step ST1).
  • the demosaic processing unit 10 performs demosaic processing on the RAW image and converts it into an RGB image (step ST2).
  • the gradation correction unit 20 performs gradation correction processing on the RGB image and outputs the gradation correction RGB image and the gain map data D4 (step ST3).
  • the YUV conversion unit 30 YUV-converts the gradation-corrected RGB image and outputs the luminance data D5 (step ST4).
  • the color analysis unit 40 color-analyzes the gradation-corrected RGB image and outputs the color likelihood data (for example, skin map) D7 (step ST5).
  • the noise reduction intensity data generation unit 50 generates noise reduction intensity data (NR level) D9 based on the input brightness data D5, color likelihood data D7, and gain map data D4 (step ST6).
  • the generated noise reduction intensity data (NR level) D9 is output to 200 outside the device (outside the common circuit) of the image processing device 1 (step ST7).
  • the "processing data D12X of the first noise reduction intensity data D12" is used as the external map data D8 to generate the noise reduction intensity data. There is no loop (input) to unit 50 (see broken line).
  • the noise reduction intensity data (NR level) D9 obtained in the first round processing is input to the device outside (outside the common circuit) 200 (step ST8). Then, in the device outside (outside the common circuit) 200, the noise reduction intensity data (NR level) D9 is filtered by the filter processing unit (external circuit) 80 and stored in the DRAM (external memory) 90 (step ST9). .. After that, the stored noise reduction intensity data (NR level) is read out and output as an image (step ST10). This noise reduction intensity data (NR level) is looped (input) to the image processing device 1 (noise reduction intensity data generation unit 50) as "processed data D12X of the first noise reduction intensity data D12" as the processed NR level. ).
  • steps ST8 to ST10 in FIG. 8 corresponds to the process of step ST200 in FIG.
  • the processing data D12X (processed NR level) of the first noise reduction intensity data D12 is output to the noise reduction intensity data generation unit 50.
  • a RAW image is input to the image processing device 1 (step ST11).
  • the demosaic processing unit 10 performs demosaic processing on the RAW image and converts it into an RGB image (step ST12).
  • the gradation correction unit 20 performs gradation correction processing on the RGB image and outputs the gradation correction RGB image (step ST13).
  • the YUV conversion unit 30 outputs a gradation correction YUV image obtained by YUV-converting the gradation correction RGB image (step ST14).
  • the brightness data D5, the color likelihood data D7, and the gain map data D4 have already been acquired in the first round processing, the brightness data D5, the color likelihood data D7, and the gain map data D4 are used. Do not reacquire or reuse (see broken line). However, if necessary, all or part of the luminance data D5, the color likelihood data D7, and the gain map data D4 may be reacquired or reused.
  • the noise reduction intensity data generation unit 50 has higher accuracy (higher accuracy) based on the "processed data D12X (processed NR level) of the first noise reduction intensity data D12" that has been looped (input) from the first round processing.
  • Generate "second noise reduction intensity data D11" as a reliable) NR level step ST15.
  • the noise reduction processing unit 60 performs noise reduction processing (NR processing) on the gradation-corrected YUV image from the YUV conversion unit 30 based on the “second noise reduction intensity data (NR level) D11”. (Step ST16).
  • the post-processing unit 70 performs post-processing (YUV processing processing) such as gamma correction, edge enhancement processing, and super-resolution processing on the YUV image after the noise reduction processing (step ST17). Finally, the post-processed YUV image is output as the final image (step ST18).
  • YUV processing processing such as gamma correction, edge enhancement processing, and super-resolution processing
  • the present invention is not limited to the above-described embodiment, and can be variously modified at the implementation stage without departing from the gist thereof.
  • the functions executed in the above-described embodiment may be combined as appropriate as possible.
  • the embodiments described above include various stages, and various inventions can be extracted by an appropriate combination according to a plurality of disclosed constituent requirements. For example, even if some constituent elements are deleted from all the constituent elements shown in the embodiment, if the effect is obtained, the configuration in which the constituent elements are deleted can be extracted as an invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本発明の一実施例の画像処理装置は、画像に対する第1のノイズリダクション強度データを生成後、前記第1のノイズリダクション強度データに基づいて生成された加工データの入力に応じて前記画像に対する第2のノイズリダクション強度データを生成するノイズリダクション強度データ生成回路と、前記第2のノイズリダクション強度データに基づいて、前記画像に対してノイズリダクション処理を行うノイズリダクション処理回路と、を有する。

Description

画像処理装置、画像処理方法
 本明細書の開示は、画像処理装置及び、画像処理方法に関する。
 日本特開2016-127388号公報には、画像に対して階調補正及びノイズリダクション処理を行う画像処理装置が記載されている。
特開2016-127388号公報
 しかしながら、従来の画像処理装置は、回路規模の抑制が十分とは言えず、また、所望のノイズリダクション処理を施せない場合に画像品質の劣化を招いてしまう。
 以上のような実情を踏まえ、本発明の一側面に係る目的は、回路規模を抑制しながら、良好なノイズリダクション処理を実現することができる画像処理装置及び、画像処理方法を提供することである。
 本発明の一実施例の画像処理装置は、画像に対する第1のノイズリダクション強度データを生成後、前記第1のノイズリダクション強度データに基づいて生成された加工データの入力に応じて前記画像に対する第2のノイズリダクション強度データを生成するノイズリダクション強度データ生成回路と、前記第2のノイズリダクション強度データに基づいて、前記画像に対してノイズリダクション処理を行うノイズリダクション処理回路と、を有する。
 上記の態様によれば、回路規模を抑制しながら、良好なノイズリダクション処理を実現することができる画像処理装置、画像処理方法を提供することができる。
デジタルカメラ1Xの一例を示す外観図である。 画像処理装置1の構成を示す第1のブロック図である。 画像処理装置1の構成を示す第2のブロック図である。 ノイズリダクション強度データD9の一例を示す概念図である。 ノイズリダクション強度データ生成部50の詳細構成を示す図である。 第1、第2のノイズリダクション強度データを用いたノイズリダクション処理の流れを示す概念図である。 フィルタ処理部80によるMap加工(フィルタ処理)が施される前後のノイズリダクション強度データの一例を示す図である。 画像処理装置1による画像処理方法の一例を示すフローチャートである。
 図1~図8を参照して、本実施形態の画像処理装置1について詳細に説明する。なお、本実施形態の画像処理方法及び画像処理プログラムは、画像処理装置1のコンピュータ(回路構成要素)に各種処理ステップを実行させることで実現される。また、画像処理装置1は、例えば、Color Process PipeLineと呼ばれてもよい。また、画像処理装置1は、大規模集積回路(LSI:Large Scale Integration)又はその一部として実装されてもよい。
 画像処理装置1は、例えば、セキュリティカメラや監視カメラなどの固定式の撮影装置に搭載されてもよいし、デジタルカメラや各種端末などの可搬式の撮影装置に搭載されてもよい。また、画像処理装置1は、撮影装置やその他の装置から有線、無線で伝送された画像、各種記憶媒体に記憶された画像に対して画像処理を施すことに特化されたものでもよい。すなわち、画像処理装置1の態様には自由度があり、各種の設計変更が可能である。
 図1は、デジタルカメラ(撮影装置)1Xの一例を示す外観図である。デジタルカメラ1Xでは、被写体からの光が、レンズ10Xを介してカメラ本体11X内に導かれ、ミラー12Xで反射されて、ピントグラス13X上に被写体の実像を結像する。この実像としての被写体像は、ペンタプリズム14Xによりファインダ15Xに導かれ、観察できるようになっている。ピントグラス13Xとペンタプリズム14Xとの間に、表示装置16Xが配置され、ピントグラス13Xに映った被写体像に各種情報を重ねて表示する。図1中の破線は、ファインダ15Xに導かれる被写体からの光の光路を示している。デジタルカメラ1Xでは、ミラー12Xをアップしてシャッタ17Xを開けて撮像素子18Xに被写体光を導いて撮影を行なうため、ミラーアップ状態では表示装置16Xには被写体像が届かない構造になっている。
 デジタルカメラ1Xは、撮像素子18Xによる撮影画像に画像処理を施す、本発明の一態様の画像処理装置1を内蔵していてもよいし、撮像素子18Xによる撮影画像を有線又は無線で、本発明の一態様の外部の画像処理装置1に送信する通信部(接続端子やアンテナ等)を有していてもよい。すなわち本発明は、撮影機能を有するデジタルカメラ1Xに限らず、外部装置で撮影された画像を取得してノイズリダクション処理を適用可能な任意の機器にも適用可能である。換言すれば本発明は、複数の機器で構成されるシステムにも適用可能である。
 図2、図3は、画像処理装置1の構成を示す第1、第2のブロック図である。画像処理装置1は、デモザイク処理部10と、階調補正部20と、YUV変換部30と、色解析部40と、ノイズリダクション強度データ生成部(NR強度データ生成部)50と、ノイズリダクション処理部(NR処理部)60と、後処理部70とを有する。また、図2に示すように、画像処理装置1には、外部回路としてのフィルタ処理部80と、外部メモリとしてのDRAM(Dynamic Random Access Memory)90とが接続されている。
 図2において、後述するノイズリダクション強度データ(第1、第2のノイズリダクション強度データ)を生成するための共通回路部分100として、デモザイク処理部10と階調補正部20とYUV変換部30と色解析部40とノイズリダクション強度データ生成部50とを実線で囲んで描いている(デモザイク処理部10と階調補正部20とYUV変換部30と色解析部40とノイズリダクション強度データ生成部50が共通回路部分100を構成している)。さらに、図2において、ノイズリダクション強度データ(第1、第2のノイズリダクション強度データ)の生成に寄与する装置外部(共通回路外部)200として、フィルタ処理部80とDRAM90を破線で囲んで描いている(装置外部(共通回路外部)200にフィルタ処理部80とDRAM90が含まれている)。
 デモザイク処理部10は、階調補正前画像である入力画像(RAW画像、Bayer画像)D1に対してデモザイク処理を施してRGB画像D2に変換する。なお、ここでは図示を省略しているが、デモザイク処理部10の前段には、入力画像D1に対して孤立点除去処理や色収差補正を行うブロックが設けられていてもよい。
 階調補正部20は、デモザイク処理部10からの階調補正前のRGB画像D2に対して階調補正を行う。階調補正は、例えば、逆光などの明暗差の大きい被写体の撮影、あるいは、顔などの特定領域を明るく写したい場合などにおいて、画像解析結果により画素単位で適応的に行うものである。また、逆光補正や多重露光合成(HDR:High Dynamic Range)などの処理では、各画素あるいは画素ブロック毎に適応的なゲインアップ量が算出され、画像全体の階調補正を行う場合がある。さらに、ガンマ補正などでも各画素あるいは画素ブロック毎に異なるゲインアップ量が適用される場合がある。このゲインアップ量は、RGBで均一としてもよい。階調補正部20による階調補正の態様には自由度があり、種々の設計変更が可能である。
 階調補正部20は、階調補正を行うことにより、階調補正画像(階調補正後のRGB画像)D3と、ゲインマップデータ(Gain Map)D4とを出力する。ゲインマップデータD4は、階調補正画像D3の階調補正量に基づくデータであり、階調補正画像D3の階調補正量(ゲイン)を対数化したものに相当する。また、ゲインマップデータD4は、階調補正画像D3を各画素あるいは画素ブロック毎の領域に分割して、その分割領域毎の特徴値を有している。階調補正画像D3はYUV変換部30及び色解析部40に入力し、ゲインマップデータD4はノイズリダクション強度データ生成部50に入力する。
 YUV変換部30は、階調補正部20からの階調補正画像(階調補正後のRGB画像)D3をYUV変換することで、輝度データ(階調補正画像の輝度データ)D5を得る。輝度データD5は、階調補正画像D3を各画素あるいは画素ブロック毎の領域に分割して、その分割領域毎の特徴値を有している。輝度データD5は、ノイズリダクション強度データ生成部50に入力する。また、YUV変換部30は、YUV変換した階調補正画像D6をノイズリダクション処理部60に出力する。
 色解析部40は、階調補正部20からの階調補正画像(階調補正後のRGB画像)D3を色解析(RGB解析)することで、色尤度データ(階調補正画像の色尤度データ)D7を得る。色尤度データD7は、例えば、人間の肌や皮膚の色などの特定色の尤度を示すものである。色尤度データD7は、階調補正画像D3を各画素あるいは画素ブロック毎の領域に分割して、その分割領域毎の特徴値を有している。色尤度データD7は、ノイズリダクション強度データ生成部50に入力する。
 ノイズリダクション強度データ生成部50には、階調補正部20からのゲインマップデータD4と、YUV変換部30からの輝度データD5と、色解析部40からの色尤度データD7とが入力される。
 加えて、ノイズリダクション強度データ生成部50には、外部マップデータD8としてのAdditional Map及び/又はExtra Mapが入力される。Additional Mapは、一旦生成済みのNRレベル出力D10としてのノイズリダクション強度データ(NR強度データ)D9を「第1のノイズリダクション強度データ(第1のNR強度データ)D12」として、当該「第1のノイズリダクション強度データ(第1のNR強度データ)D12」にフィルタ処理部80でフィルタ処理を施し、且つ、DRAM90で一旦記憶したものを「加工データD12X」として、ノイズリダクション強度データ生成部50にループ(入力)させるために用いられる。つまり、第1のノイズリダクション強度データD12に基づいて生成された加工データD12Xは、外部マップデータD8(Additional Map)に含まれて、ノイズリダクション強度データ生成部50にループ(入力)される。また、ノイズリダクション強度データ生成部50にループ(入力)された「第1のノイズリダクション強度データ(第1のNR強度データ)D12に基づいて生成された加工データD12X」は、実際のノイズリダクション処理(NR処理)に適用する「第2のノイズリダクション強度データ(第2のNR強度データ)D11」の精度(信頼度)向上のために使用される。かかる点については後に詳細に説明する。Extra Mapは、階調補正を行う前の画像に対するHDR処理のゲイン量、例えば、HDR処理時のゲイン量を対数化したものとすることができる。なお、図2では、外部マップデータD8としてのAdditional Map及びExtra Mapを単一のExtra Mapとして纏めて描いており、図3では、外部マップデータD8としてのAdditional Map及びExtra Mapを別々に描いている。
 ノイズリダクション強度データ生成部50は、階調補正後に、画像に応じて生成される複数のデータの任意の組み合わせデータに基づいて、ノイズリダクション強度データ(NR強度データ)D9を生成する。より具体的に、ノイズリダクション強度データ生成部50は、YUV変換部30からの輝度データD5と、色解析部40からの色尤度データD7と、階調補正部20からのゲインマップデータD4と、外部マップデータD8とを任意に組み合わせたデータに基づいて、ノイズリダクション強度データD9を生成する。これにより様々な条件で撮像された撮像画像に対して、良好にノイズリダクション処理がなされた良質の画像を提供することができる。このノイズリダクション強度データ生成部50は、輝度データD5と、色尤度データD7と、ゲインマップデータD4と、外部マップデータD8と、のなかのいずれか1つのデータ及び、これらのデータを任意に組み合わせたデータのいずれかに基づいて、ノイズリダクション強度データD9を生成する。とりわけ、ノイズリダクション強度データ生成部50は、上記の各データの中の少なくとも外部マップデータD8、すなわち、外部マップデータ用の入力回路(装置外部(共通回路外部)200のフィルタ処理部80とDRAM90)からループ(入力)された、第1のノイズリダクション強度データD12を加工した加工データD12Xに基づいて、実際のノイズリダクション処理に適用する第2のノイズリダクション強度データD11を生成する。
 画像処理装置1では、デモザイク処理部10、階調補正部20、YUV変換部30、色解析部40及びノイズリダクション強度データ生成部50までの回路(共通回路部分100)を共有しながら(回路規模を抑制しながら)、実際のノイズリダクション処理に適用する第2のノイズリダクション強度データD11と、第2のノイズリダクション強度データの精度(信頼度)向上のために使用する第1のノイズリダクション強度データD12を加工した加工した加工データD12Xとを生成する。すなわち、ノイズリダクション強度データ生成部50は、共通回路(共通回路部分100)によって、画像に対する第1のノイズリダクション強度データD12を生成するとともに、第1のノイズリダクション強度データD12に基づいて生成された加工データD12Xの入力に応じて、画像に対する第2のノイズリダクション強度データD11を生成する。
 画像処理装置1の初期動作(一巡目動作)にあっては、ノイズリダクション強度データ生成部50が生成したノイズリダクション強度データD9は、ノイズリダクションレベル出力(NRレベル出力)D10としての第1のノイズリダクション強度データD12として、装置外部(共通回路外部)200に出力される。装置外部200に出力された第1のノイズリダクション強度データD12は、フィルタ処理部(外部回路)80によりフィルタ処理が施され、DRAM(外部メモリ)90により一旦記憶された後に、「第1のノイズリダクション強度データD12の加工データD12X」として、外部マップデータD8に含まれて、ノイズリダクション強度データ生成部50にループ(入力)される。
 フィルタ処理部80は、例えば、ローパスフィルタ、イプシロンフィルタ、BiLateralフィルタ、NonLocalMeansフィルタなどの各種のフィルタ処理を実行する。また、フィルタ処理部80は、汎用的な画像処理群を搭載した回路により実現されればよく、例えば、CPU(Central Processing Unit)やDRP(Dynamic Reconfigurable Processor)を用いることができる。
 なお、上述の説明では、フィルタ処理を施したノイズリダクション強度データD9を記憶した後、第1のノイズリダクション強度データD12の加工データD12Xとして、ノイズリダクション強度データ生成部50にループ(入力)する場合を例示した。しかし、ノイズリダクション強度データD9をそのまま記憶し、読出後にフィルタ処理を施して、第1のノイズリダクション強度データD12の加工データD12Xとして、ノイズリダクション強度データ生成部50にループ(入力)してもよい。
 画像処理装置1の二巡目以降の動作にあっても、「第2のノイズリダクション強度データD11」を使用して実際のノイズリダクション処理を実行するまでは、ノイズリダクション強度データ生成部50、フィルタ処理部80、DRAM90を経由した「第1のノイズリダクション強度データD12及びその加工データD12X」のループ(入力)が繰り返される。すなわち、ノイズリダクション強度データ生成部50が生成するノイズリダクション強度データD9は、ノイズリダクション強度データ生成部50にループ(入力)する場合には「第1のノイズリダクション強度データD12及びその加工データD12X」となり、ノイズリダクション処理部60に入力する場合には「第2のノイズリダクション強度データD11」となる。
 所定条件を満足すると、第1のノイズリダクション強度データD12及びその加工データD12Xのループ(入力)を終了して、ノイズリダクション強度データ生成部50が生成したノイズリダクション強度データD9が「第2のノイズリダクション強度データD11」としてノイズリダクション処理部60に入力される。なお、所定条件をどのように設定するかには自由度があり、例えば、第1のノイズリダクション強度データD12及びその加工データD12Xのループ(入力)が所定回数だけ繰り返される、所定時間が経過する、第1のノイズリダクション強度データD12及びその加工データD12Xの品質が所定レベルを超えることを所定条件として設定することができる。
 このように、画像処理装置1の回路使用部分(共通回路部分100)を必要最小限に抑えつつ、装置外部(共通回路外部)200での演算を効率的に使用することで、回路規模を抑制しながら、第1のノイズリダクション強度データD12ひいては第2のノイズリダクション強度データD11の精度(信頼性)を向上させて、柔軟で適切なノイズリダクション処理に基づいた優れた画像品質を実現することができる。
 また、本実施形態では、画像処理パイプライン中、NR処理の手前にNR強度のメモリ出力の機構を設けている。また、画像処理パイプライン中、NR処理の手前のNR強度演算に、メモリからの入力の機構を設けている。また、メモリから入力された外部マップ(第1のノイズリダクション強度データを含んでいる)、輝度、色尤度、階調補正ゲインを再演算してNR強度(第2のノイズリダクション強度データ)を生成する。また、メモリに入出力するNR強度に対してフィルタ処理(イプシロンフィルタやバイラテラルフィルタ等)を施して、NR強度マップのノイズによる影響を緩和することで、よりノイズの影響を緩和した適切なNR強度設定が可能となる。このように、ノイズリダクション前の輝度、色尤度、階調補正ゲインなどの値にノイズリダクションを施してNR強度として扱っている。
 ノイズリダクション強度データD9(第1のノイズリダクション強度データD12、第2のノイズリダクション強度データD11)は、階調補正画像のどの部位にどの程度の階調補正が行われたか(階調補正ゲインのレベル分布)を考慮して最適化されたノイズリダクション処理を階調補正画像D6に施すためのものである。つまり、ノイズリダクション強度データD9(第1のノイズリダクション強度データD12、第2のノイズリダクション強度データD11)は、階調補正画像D3を各画素あるいは画素ブロック毎の領域に分割して、その分割領域毎に、その分割領域にどのレベルのノイズリダクション処理を施せば良いのかが対応付けられたマップ形式とすることができる。
 図4A、図4Bは、ノイズリダクション強度データD9(第1のノイズリダクション強度データD12、第2のノイズリダクション強度データD11)の一例を示す概念図である。図4A、図4Bでは、説明の便宜上の理由により、階調補正画像を縦5マス×横5マスの合計25マスの分割領域に簡素化して描いている。図4Aでは、各分割領域のノイズリダクション強度データをH(High)、M(Middle)、L(Low)の三段階で描いている。図4Bでは、各分割領域のノイズリダクション強度データを1、2、3、4、5の五段階で描いている(数字が大きいほど強度が大きく、数字が小さいほど強度が小さいものとする)。図4A、図4Bにおいて、階調補正の度合い(階調補正ゲインのレベル)が大きい分割領域であるほど、ノイズリダクション強度データの強度が大きく設定されており、階調補正の度合い(階調補正ゲインのレベル)が小さい分割領域であるほど、ノイズリダクション強度データの強度が小さく設定されている。なお、階調補正画像の各分割領域をどのように設定するか、ノイズリダクション強度データの強度を何段階で分割するかについては自由度があり、種々の設計変更が可能である。
 上記のようなノイズリダクション強度データD9(第1のノイズリダクション強度データD12、第2のノイズリダクション強度データD11)をどのように生成するかについては、後に詳細に説明する。
 ノイズリダクション処理部60は、ノイズリダクション強度データ生成部50が生成したノイズリダクション強度データD9(第2のノイズリダクション強度データD11)(例えば図4A、図4B参照)に基づいて、階調補正部20で階調補正され、YUV変換部30でYUV変換された階調補正画像D6に対してノイズリダクション処理(NR処理)を行う。階調補正画像D3のどの部位にどの程度の階調補正が行われたか(階調補正ゲインのレベル分布)を考慮して最適化されたノイズリダクション強度データD9(第2のノイズリダクション強度データD11)を使用してノイズリダクション処理を行うことにより、階調補正とノイズリダクション処理をバランス良く両立させるとともに、柔軟で適切なノイズリダクション処理に基づいた優れた画像品質を実現することができる。
 後処理部70は、ノイズリダクション処理後のYUV画像(NR YUV)D13に対して、例えば、ガンマ補正、エッジ強調処理、超解像処理などの後処理を行って出力画像(YUV)D14とする。なお、後処理部70が行う後処理には自由度があり、種々の設計変更が可能である。
 図5は、ノイズリダクション強度データ生成部50の詳細構成を示す図である。上述したように、ノイズリダクション強度データ生成部50には、輝度データD5と、色尤度データD7と、ゲインマップデータD4と、外部マップデータD8とが入力される。外部マップデータD8には、ノイズリダクション強度データ生成部50にループ(入力)される第1のノイズリダクション強度データD12の加工データD12Xが含まれる。
 ノイズリダクション強度データ生成部50は、輝度データD5と色尤度データD7とゲインマップデータD4と外部マップデータD8の一部又は全部を選択的に通過させる選択入力部51を有している。以下の説明では、輝度データD5と色尤度データD7とゲインマップデータD4と外部マップデータD8の全てが選択入力部51を通過したものとして説明する。特に、第1のノイズリダクション強度データD12を含む外部マップデータD8が選択入力部51を通過したものとして説明する。
 なお、ノイズリダクション強度データ生成部50から選択入力部51を省略することも可能である。この場合、輝度データD5と色尤度データD7とゲインマップデータD4と外部マップデータD8のうち、使用するデータだけをノイズリダクション強度データ生成部50に入力させるようにして、使用しないデータをノイズリダクション強度データ生成部50に入力させないようにしてもよい。
 ノイズリダクション強度データ生成部50は、選択入力部51を通過したゲインマップデータD4と外部マップデータD8を乗算する乗算部52を有している。ノイズリダクション強度データ生成部50は、ゲインマップデータD4と、乗算部52によるゲインマップデータD4と外部マップデータD8の乗算結果とのいずれかを選択的に通過させる選択入力部53を有している。以下の説明では、ゲインマップデータD4、あるいは、乗算部52によるゲインマップデータD4と外部マップデータD8の乗算結果を一括りにして「ゲインマップデータD4」と総称する(選択入力部53の出力が「ゲインマップデータD4」である。)。
 なお、本実施形態において、ある2つのデータを乗算する場合に、一方のデータの入力が存在しないとき(例えば選択入力部51を通過できなかったとき)、一方のデータが1であるとして、他方のデータをそのまま乗算結果として出力してもよい。
 ノイズリダクション強度データ生成部50は、輝度データD5と、色尤度データD7と、ゲインマップデータD4と、外部マップデータD8とのそれぞれ(少なくともいずれか)に適用するための前段ルックアップテーブル54を有している。より具体的に、前段ルックアップテーブル54は、輝度データD5に適用される輝度データ用ルックアップテーブル(LUT(Y))54Aと、色尤度データD7に適用される色尤度データ用ルックアップテーブル(LUT(色))54Bと、ゲインマップデータD4に適用されるゲインマップデータ用ルックアップテーブル(LUT(Gain))54Cと、外部マップデータD8に適用される外部マップデータ用ルックアップテーブル(LUT(EXT))54Dと、を有している。
 ノイズリダクション強度データ生成部50は、輝度データ用ルックアップテーブル54Aを通過した輝度データD5と色尤度データ用ルックアップテーブル54Bを通過した色尤度データD7を乗算する乗算部55Aと、乗算部55Aによる乗算結果にゲインマップデータ用ルックアップテーブル54Cを通過したゲインマップデータD4を乗算する乗算部55Bと、乗算部55Bによる乗算結果に外部マップデータ用ルックアップテーブル54Dを通過した外部マップデータD8を乗算する乗算部55Cとを有している。乗算部55Cによる乗算結果は、選択入力部(Sel)57に出力される。
 ノイズリダクション強度データ生成部50は、輝度データ用ルックアップテーブル54Aを通過した輝度データD5と、色尤度データ用ルックアップテーブル54Bを通過した色尤度データD7と、ゲインマップデータ用ルックアップテーブル54Cを通過したゲインマップデータD4と、外部マップデータ用ルックアップテーブル54Dを通過した外部マップデータD8との加算値を演算する加算値演算部(Sum)56Aを有している。加算値演算部56Aによる加算演算結果は、選択入力部(Sel)57に出力される。
 ノイズリダクション強度データ生成部50は、輝度データ用ルックアップテーブル54Aを通過した輝度データD5と、色尤度データ用ルックアップテーブル54Bを通過した色尤度データD7と、ゲインマップデータ用ルックアップテーブル54Cを通過したゲインマップデータD4と、外部マップデータ用ルックアップテーブル54Dを通過した外部マップデータD8との最大値を選択的に通過させる最大値選択演算部(Max)56Bを有している。最大値選択演算部56Bによる最大値選択演算結果は、選択入力部(Sel)57に出力される。
 ノイズリダクション強度データ生成部50は、輝度データ用ルックアップテーブル54Aを通過した輝度データD5と、色尤度データ用ルックアップテーブル54Bを通過した色尤度データD7と、ゲインマップデータ用ルックアップテーブル54Cを通過したゲインマップデータD4と、外部マップデータ用ルックアップテーブル54Dを通過した外部マップデータD8との最小値を選択的に通過させる最小値選択演算部(Min)56Cを有している。最小値選択演算部56Cによる最小値選択演算結果は、選択入力部(Sel)57に出力される。
 ノイズリダクション強度データ生成部50は、選択入力部(Sel)57を有している。選択入力部57は、乗算部55Cによる乗算結果と、加算値演算部56Aによる加算演算結果と、最大値選択演算部56Bによる最大値選択演算結果と、最小値選択演算部56Cによる最小値選択演算結果とのいずれか1つを選択的に通過させる。選択入力部57が、乗算部55Cによる乗算結果と、加算値演算部56Aによる加算演算結果と、最大値選択演算部56Bによる最大値選択演算結果と、最小値選択演算部56Cによる最小値選択演算結果とのいずれを選択するかについては、例えば、ランダムに決定してもよいし、使用する演算器を予め設定しておいてもよい。あるいは、選択入力部57は、より適切なノイズリダクション強度データを生成するための何らかの基準に基づいて、乗算部55Cによる乗算結果と、加算値演算部56Aによる加算演算結果と、最大値選択演算部56Bによる最大値選択演算結果と、最小値選択演算部56Cによる最小値選択演算結果とのいずれを選択するかを決定してもよい。
 ここで、乗算部55A、乗算部55B、乗算部55C、加算値演算部56A、最大値選択演算部56B、最小値選択演算部56C及び選択入力部57は、前段ルックアップテーブル54(54A、54B、54C、54D)の各出力に加算処理と、乗算処理と、最大値選択処理と、最小値選択処理と、ランダム選択処理との少なくとも1つを適用して単一出力を演算する「演算部」として機能する。なお、図5を参照して説明した「演算部」の構成は一例にすぎず、前段ルックアップテーブル54(54A、54B、54C、54D)の各出力から単一出力を演算することができればよい。
 ノイズリダクション強度データ生成部50は、上記の「演算部」によって演算された単一出力に適用するための後段ルックアップテーブル58を有している。後段ルックアップテーブル58は、上記の「演算部」によって演算された単一出力に対応する単一ルックアップテーブル(LUT)58Aから構成されている。後段ルックアップテーブル58(単一ルックアップテーブル58A)を通過した出力が、階調補正画像のどの部位にどの程度の階調補正が行われたか(階調補正ゲインのレベル分布)を考慮して最適化されたノイズリダクション強度データとなる(例えば図4A、図4B)。
 このように、「演算部」を挟んだ前段と後段に、輝度データD5と色尤度データD7とゲインマップデータD4と外部マップデータD8とのそれぞれ(少なくともいずれか)に適用するための前段ルックアップテーブル54(54A、54B、54C、54D)と、前段ルックアップテーブル54(54A、54B、54C、54D)の各出力から演算した単一出力に適用するための後段ルックアップテーブル58(58A)とを配置している。これにより、柔軟で適切な特性変換が可能になる。例えば、前段ルックアップテーブルにおいて、対数による処理を適用して広いレンジを扱うとともに、前段ルックアップテーブルの各出力から演算した単一出力に適用する後段ルックアップテーブルにおいて、対数を真数に戻すような特性変換が可能になる。あるいは、これとは逆に、前段ルックアップテーブルで真数を演算して、後段ルックアップテーブルで対数を演算してもよい。
 このように、本実施形態の画像処理装置、画像処理方法及び画像処理プログラムでは、入力画像に対して、階調補正、ノイズリダクション強度データ生成、ノイズリダクション処理の順番に行う。階調補正ブロックは、階調補正画像とともに、階調補正ゲイン(ゲインマップ)を出力する。ノイズリダクション強度データ生成ブロックは、階調補正後の画像から輝度とゲインマップを受け取り、更に色解析を行って色尤度を生成する。更に、外部から画素毎のMapを入力し、ゲイン量、輝度、色尤度、外部Map(第1のノイズリダクション強度データの加工データを含む)のそれぞれに前段のルックアップテーブル(LUT)を適用し、それぞれの加算、乗算、最大値、最小値などを選択し、更に後段のルックアップテーブル(LUT)を適用した結果をノイズリダクション強度データとする。また、外部Mapは、階調補正入力前にHDR処理などでゲインを掛けた際のゲイン量を入力することもでき、その場合はゲインマップに直接加算することもできる。HDRゲインと階調補正ゲインは対数で扱うことにより、単純な加算が可能となる。ノイズリダクション強度データは、自画素と周辺画素の相関に対して係数として寄与させることで実現される。例えば、BiLateralフィルタであれば、自画素と周辺画素の差分に対する係数として、NonLocalMeansフィルタであれば、パッチ相関に対する係数として寄与させることで、ノイズリダクション強度に応じてノイズリダクション効果の強弱を制御することができる。
 逆光補正や多重露光合成(HDR)などの処理では、画素又は画素ブロック毎に適応的なゲインアップ量が算出され、画像全体の階調補正が行われる場合がある。また、ガンマ補正などでも画素又は画素ブロック毎に異なるゲインアップ量が適用される。これらそれぞれの状態に応じて、ノイズリダクションの強度を変えることができれば、階調補正と、ノイズリダクションをバランスよく両立させることができる。そこで、ゲイン量、輝度のみでなく、色尤度、外部マップ(第1のノイズリダクション強度データの加工データを含む)も加味した処理を可能とすることで、肌色部分の滑らかさを制御したり、自由に設定した特定領域の滑らかさを制御したりすることができる。また、外部から自由なマップ入力を可能とすることで、ゲイン、輝度、色尤度以外の要素によっても、ノイズリダクションの強度を変更でき、背景、顔、車両番号などの特定領域ボカシなどの用途にも適用できる。
 図6は、第1、第2のノイズリダクション強度データを用いたノイズリダクション処理の流れを示す概念図である。図6では、ノイズリダクション強度データ生成部50への第1のノイズリダクション強度データD12の加工データD12Xのループ(入力)を1回のみとした場合を例示している。すなわち、一巡目のノイズリダクション強度データが「第1のノイズリダクション強度データD12及びその加工データD12X」となり、二巡目のノイズリダクション強度データが「第2のノイズリダクション強度データD11」となる。
 ステップST100において、画像処理装置1の共通回路部分100(デモザイク処理部10、階調補正部20、YUV変換部30、色解析部40及びノイズリダクション強度データ生成部50)が、入力画像(RAW画像、Bayer画像)による一巡目処理を実行して、一巡目のノイズリダクション強度データD9(第1のノイズリダクション強度データD12)を出力する(NR Level出力D10)。ステップST200において、一巡目のノイズリダクション強度データD9(第1のノイズリダクション強度データD12)にフィルタ処理部80によるMap加工(フィルタ処理)が施され、DRAM90へのメモリ記憶が行われる。そして、DRAM90から読み出されたノイズリダクション強度データが、外部マップデータD8に含まれた「第1のノイズリダクション強度データD12の加工データD12X」として、ノイズリダクション強度データ生成部50にループ(入力)される。フィルタ処理の前後の画像から明らかなように、第1のノイズリダクション強度データD12の加工データD12Xは、加工前の第1のノイズリダクション強度データD12と比較して、ノイズによる悪影響が緩和された高品質なものとなっている。
 ステップST300において、画像処理装置1の共通回路部分100(デモザイク処理部10、階調補正部20、YUV変換部30、色解析部40及びノイズリダクション強度データ生成部50)が、入力画像(RAW画像、Bayer画像)に二巡目処理を実行して、二巡目のノイズリダクション強度データD9を出力する(NR Level出力D10)。この二巡目のノイズリダクション強度データは、一巡目処理で入力された外部マップデータD8に含まれた「第1のノイズリダクション強度データD12の加工データD12X」に基づいた「第2のノイズリダクション強度データD11」である。
 そして、画像処理装置1の共通回路とは別のノイズリダクション処理部60が、第2のノイズリダクション強度データD11を用いたノイズリダクション処理を実行し、後処理部70が後処理を実行して、NR処理後の現像出力(最終画像)となる。なお、二巡目処理では、ノイズリダクション強度データ(NR Level)が内部的に処理され、メモリ出力されることはない。メモリ出力されるのは、ノイズリダクション処理後のYUV画像(NR YUV)である。
 図7A、図7Bは、フィルタ処理部80によるMap加工(フィルタ処理)が施される前後のノイズリダクション強度データの一例を示す図である。図7Aに示すように、フィルタ処理前のノイズリダクション強度データは、壁や人形の顔がザラザラして(粒度や解像度が荒く)ノイズの影響が大きいのに対して、図7Bに示すように、フィルタ処理後のノイズリダクション強度データは、壁や人形の顔が滑らかで(粒度や解像度が細かく)ノイズの影響が抑えられている。さらに、図7Aよりも図7Bの方が、明暗差が大きい輪郭部がより強調されてノイズの影響が抑えられている。
 図8は、画像処理装置1による画像処理方法の一例を示すフローチャートである。図8では、ノイズリダクション強度データ生成部50への第1のノイズリダクション強度データD12の加工データD12Xのループ(入力)を1回のみとした場合を例示している。すなわち、一巡目のノイズリダクション強度データが「第1のノイズリダクション強度データD12及びその加工データD12X」となり、二巡目のノイズリダクション強度データが「第2のノイズリダクション強度データD11」となる。
 一巡目処理において、まず、画像処理装置1にRAW画像が入力する(ステップST1)。次いで、デモザイク処理部10が、RAW画像にデモザイク処理を施してRGB画像に変換する(ステップST2)。次いで、階調補正部20が、RGB画像に階調補正処理を施して、階調補正RGB画像と、ゲインマップデータD4とを出力する(ステップST3)。次いで、YUV変換部30が、階調補正RGB画像をYUV変換して輝度データD5を出力する(ステップST4)。次いで、色解析部40が、階調補正RGB画像を色解析して色尤度データ(例えば肌マップ)D7を出力する(ステップST5)。次いで、ノイズリダクション強度データ生成部50が、入力した輝度データD5と色尤度データD7とゲインマップデータD4に基づいて、ノイズリダクション強度データ(NRレベル)D9を生成する(ステップST6)。生成されたノイズリダクション強度データ(NRレベル)D9は、画像処理装置1の装置外部(共通回路外部)200に出力される(ステップST7)。なお、一巡目処理においては、「第1のノイズリダクション強度データD12」が存在しない状態なので、外部マップデータD8として、「第1のノイズリダクション強度データD12の加工データD12X」がノイズリダクション強度データ生成部50にループ(入力)することはない(破線参照)。
 図8のステップST1~ST7の処理は、図6のステップST100の処理に相当する。
 一巡目処理で得られたノイズリダクション強度データ(NRレベル)D9は、装置外部(共通回路外部)200に入力される(ステップST8)。そして、装置外部(共通回路外部)200において、ノイズリダクション強度データ(NRレベル)D9が、フィルタ処理部(外部回路)80でフィルタ処理され、DRAM(外部メモリ)90で記憶される(ステップST9)。その後、記憶されたノイズリダクション強度データ(NRレベル)が読み出されて、画像として出力される(ステップST10)。このノイズリダクション強度データ(NRレベル)は、加工済みNRレベルとしての「第1のノイズリダクション強度データD12の加工データD12X」として、画像処理装置1(ノイズリダクション強度データ生成部50)にループ(入力)される。
 図8のステップST8~ST10の処理は、図6のステップST200の処理に相当する。
 二巡目処理において、第1のノイズリダクション強度データD12の加工データD12X(加工済みNRレベル)は、ノイズリダクション強度データ生成部50に出力される。また、画像処理装置1にRAW画像が入力する(ステップST11)。次いで、デモザイク処理部10が、RAW画像にデモザイク処理を施してRGB画像に変換する(ステップST12)。次いで、階調補正部20が、RGB画像に階調補正処理を施して、階調補正RGB画像を出力する(ステップST13)。次いで、YUV変換部30が、階調補正RGB画像をYUV変換した階調補正YUV画像を出力する(ステップST14)。なお、二巡目処理においては、一巡目処理において輝度データD5と色尤度データD7とゲインマップデータD4を既に取得済みであるため、輝度データD5と色尤度データD7とゲインマップデータD4を再取得あるいは再使用しない(破線参照)。ただし、必要に応じて、輝度データD5と色尤度データD7とゲインマップデータD4の全部又は一部を再取得あるいは再使用してもよい。
 次いで、ノイズリダクション強度データ生成部50が、一巡目処理からループ(入力)してきた「第1のノイズリダクション強度データD12の加工データD12X(加工済みNRレベル)」に基づいて、より高精度(高信頼性)なNRレベルとしての「第2のノイズリダクション強度データD11」を生成する(ステップST15)。次いで、ノイズリダクション処理部60が、「第2のノイズリダクション強度データ(NRレベル)D11」に基づいて、YUV変換部30からの階調補正YUV画像に対してノイズリダクション処理(NR処理)を行う(ステップST16)。次いで、後処理部70が、ノイズリダクション処理後のYUV画像に対して、例えば、ガンマ補正、エッジ強調処理、超解像処理などの後処理(YUV加工処理)を行う(ステップST17)。最後に、後処理後のYUV画像が最終画像として出力される(ステップST18)。
 図8のステップST11~ST18の処理は、図6のステップST300の処理に相当する。
 その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。
1・・・画像処理装置
1X・・・デジタルカメラ(撮影装置)
10・・・デモザイク処理部
20・・・階調補正部
30・・・YUV変換部
40・・・色解析部
50・・・ノイズリダクション強度データ生成部(NR強度データ生成部)
51・・・選択入力部
52・・・乗算部
53・・・選択入力部
54・・・前段ルックアップテーブル
54A・・・輝度データ用ルックアップテーブル(LUT(Y))
54B・・・色尤度データ用ルックアップテーブル(LUT(色))
54C・・・ゲインマップデータ用ルックアップテーブル(LUT(Gain))
54D・・・外部マップデータ用ルックアップテーブル(LUT(EXT))
55A・・・乗算部(演算部)
55B・・・乗算部(演算部)
55C・・・乗算部(演算部)
56A・・・加算値演算部(Sum)(演算部)
56B・・・最大値選択演算部(Max)(演算部)
56C・・・最小値選択演算部(Min)(演算部)
57・・・選択入力部(Sel)(演算部)
58・・・後段ルックアップテーブル
58A・・・単一ルックアップテーブル(LUT)
60・・・ノイズリダクション処理部(NR処理部)
70・・・後処理部
80・・・フィルタ処理部(外部回路)
90・・・DRAM(Dynamic Random Access Memory)(外部メモリ)
100・・・共通回路部分
200・・・装置外部(共通回路外部)

Claims (18)

  1.  画像に対する第1のノイズリダクション強度データを生成後、前記第1のノイズリダクション強度データに基づいて生成された加工データの入力に応じて前記画像に対する第2のノイズリダクション強度データを生成するノイズリダクション強度データ生成回路と、
     前記第2のノイズリダクション強度データに基づいて、前記画像に対してノイズリダクション処理を行うノイズリダクション処理回路と、
     を有する画像処理装置。
  2.  外部メモリに前記第1のノイズリダクション強度データを記憶後、前記加工データが前記ノイズリダクション強度データ生成回路に入力される、
     請求項1に記載の画像処理装置。
  3.  外部回路で前記第1のノイズリダクション強度データのフィルタ処理後に、前記加工データが前記ノイズリダクション強度データ生成回路に入力される、
     請求項1又は請求項2に記載の画像処理装置。
  4.  前記画像に対して階調補正を行う階調補正回路をさらに有し、
     前記画像に応じて生成される複数のデータの任意の組み合わせデータに基づいて、前記ノイズリダクション強度データ生成回路は前記第1のノイズリダクション強度データを生成する、
     請求項1から請求項3のいずれかに記載の画像処理装置。
  5.  前記階調補正された階調補正画像の輝度データと、前記階調補正画像の色尤度データと、前記階調補正画像の階調補正量に基づくゲインマップデータと、外部マップデータと、を任意に組み合わせたデータに基づいて、前記ノイズリダクション強度データ生成回路は前記第1のノイズリダクション強度データを生成する、
     ことを特徴とする請求項1から請求項4のいずれかに記載の画像処理装置。
  6.  前記加工データは、前記ノイズリダクション強度データ生成回路に、前記外部マップデータ用の入力回路から入力される、
     請求項5に記載の画像処理装置。
  7.  画像に対して階調補正を行う階調補正回路と、
     前記階調補正後に、前記画像に応じて生成される複数のデータの任意の組み合わせデータに基づいて、ノイズリダクション強度データを生成するノイズリダクション強度データ生成回路と、
     前記ノイズリダクション強度データに基づいて、前記階調補正された階調補正画像に対してノイズリダクション処理を行うノイズリダクション処理回路と、
     を有する画像処理装置。
  8.  前記階調補正画像の輝度データと、前記階調補正画像の色尤度データと、前記階調補正画像の階調補正量に基づくゲインマップデータと、外部マップデータと、を任意に組み合わせたデータに基づいて、前記ノイズリダクション強度データ生成回路は前記ノイズリダクション強度データを生成する、
     請求項7に記載の画像処理装置。
  9.  前記ノイズリダクション強度データ生成回路は、前記輝度データと、前記色尤度データと、前記ゲインマップデータと、前記外部マップデータと、の少なくともいずれかに適用するための前段ルックアップテーブルを有する、
     請求項8に記載の画像処理装置。
  10.  前記ノイズリダクション強度データ生成回路は、前記前段ルックアップテーブルの各出力に加算処理と、乗算処理と、最大値選択処理と、最小値選択処理と、ランダム選択処理との少なくとも1つを適用して単一出力を演算する演算回路を有する、
     請求項9に記載の画像処理装置。
  11.  前記ノイズリダクション強度データ生成回路は、前記演算回路によって演算された前記単一出力に適用するための後段ルックアップテーブルを有する、
     請求項10に記載の画像処理装置。
  12.  画像処理装置が、
     画像に対する第1のノイズリダクション強度データを生成後、前記第1のノイズリダクション強度データに基づいて生成された加工データの入力に応じて前記画像に対する第2のノイズリダクション強度データを生成し、
     前記第2のノイズリダクション強度データに基づいて、前記画像に対してノイズリダクション処理を行う、
     画像処理方法。
  13.  外部メモリに前記第1のノイズリダクション強度データを出力後、前記加工データを入力する、
     請求項12に記載の画像処理方法。
  14.  前記第1のノイズリダクション強度データのフィルタ処理後に、前記加工データを入力する、
     請求項12又は請求項13に記載の画像処理方法。
  15.  前記画像に応じて生成される複数のデータの任意の組み合わせデータに基づいて、前記第1のノイズリダクション強度データを生成する、
     請求項12から請求項14のいずれかに記載の画像処理方法。
  16.  階調補正画像の輝度データと、前記階調補正画像の色尤度データと、前記階調補正画像の階調補正量に基づくゲインマップデータと、外部マップデータと、を任意に組み合わせたデータに基づいて、前記第1のノイズリダクション強度データを生成する、
     請求項12から請求項15のいずれかに記載の画像処理方法。
  17.  画像処理装置が、
     画像に対して階調補正を行い、
     前記階調補正後に、前記画像に応じて生成される複数のデータの任意の組み合わせデータに基づいて、ノイズリダクション強度データを生成し、
     前記ノイズリダクション強度データに基づいて、前記階調補正された階調補正画像に対してノイズリダクション処理を行う、
     画像処理方法。
  18.  前記階調補正画像の輝度データと、前記階調補正画像の色尤度データと、前記階調補正画像の階調補正量に基づくゲインマップデータと、外部マップデータと、を任意に組み合わせたデータに基づいて、前記ノイズリダクション強度データを生成する、
     請求項17に記載の画像処理方法。
PCT/JP2021/032203 2020-09-18 2021-09-01 画像処理装置、画像処理方法 WO2022059490A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020157373A JP2022051098A (ja) 2020-09-18 2020-09-18 画像処理装置、画像処理方法及び画像処理プログラム
JP2020157372A JP2022051097A (ja) 2020-09-18 2020-09-18 画像処理装置、画像処理方法及び画像処理プログラム
JP2020-157373 2020-09-18
JP2020-157372 2020-09-18

Publications (1)

Publication Number Publication Date
WO2022059490A1 true WO2022059490A1 (ja) 2022-03-24

Family

ID=80776011

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/032203 WO2022059490A1 (ja) 2020-09-18 2021-09-01 画像処理装置、画像処理方法

Country Status (1)

Country Link
WO (1) WO2022059490A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017458A (ja) * 2006-06-08 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび集積回路
JP2016127388A (ja) * 2014-12-26 2016-07-11 キヤノン株式会社 画像処理装置およびその制御方法、プログラムならびに記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008017458A (ja) * 2006-06-08 2008-01-24 Matsushita Electric Ind Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび集積回路
JP2016127388A (ja) * 2014-12-26 2016-07-11 キヤノン株式会社 画像処理装置およびその制御方法、プログラムならびに記憶媒体

Similar Documents

Publication Publication Date Title
JP6282156B2 (ja) 画像装置、画像処理方法、制御プログラム及び記憶媒体
CN103854259B (zh) 图像处理设备以及处理图像的方法
JP5354701B2 (ja) 撮像装置
JP5064312B2 (ja) ホワイトバランス調整装置、撮像装置、ホワイトバランス調整方法、プログラムおよび集積回路
WO2011145297A1 (ja) 撮像装置、画像処理装置、画像処理方法、および画像処理プログラム
US20220222792A1 (en) Method and system for image enhancement
US10218953B2 (en) Image processing apparatus, image processing method, and storage medium
US8989510B2 (en) Contrast enhancement using gradation conversion processing
US11290612B1 (en) Long-exposure camera
JP6039188B2 (ja) 画像処理装置および画像処理方法
JP2013254390A (ja) 画像処理装置及び画像処理方法
JP2008147980A (ja) 画像処理装置及び撮像装置及び画像処理方法及びプログラム及び記憶媒体
JP2023055848A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
US9007471B2 (en) Digital photographing apparatus, method for controlling the same, and computer-readable medium
JP4944061B2 (ja) 画像処理装置および方法並びにプログラム
JP6514504B2 (ja) 画像処理装置およびその制御方法、ならびにプログラム
JP2011100204A (ja) 画像処理装置、画像処理方法、画像処理プログラム、撮像装置及び電子機器
WO2022059490A1 (ja) 画像処理装置、画像処理方法
JP2013106151A (ja) 画像処理装置及び画像処理方法
JP2022051097A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2022051098A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP6563646B2 (ja) 画像処理装置および画像処理方法
JP2021117748A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2016002260A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5282533B2 (ja) 画像処理装置、撮像装置およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21869177

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21869177

Country of ref document: EP

Kind code of ref document: A1