WO2015190136A1 - 画像処理システム及びコンピュータ読み取り可能な記録媒体 - Google Patents

画像処理システム及びコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2015190136A1
WO2015190136A1 PCT/JP2015/056086 JP2015056086W WO2015190136A1 WO 2015190136 A1 WO2015190136 A1 WO 2015190136A1 JP 2015056086 W JP2015056086 W JP 2015056086W WO 2015190136 A1 WO2015190136 A1 WO 2015190136A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
unit
haze
image
frame
Prior art date
Application number
PCT/JP2015/056086
Other languages
English (en)
French (fr)
Inventor
正史 東
貴司 中前
玲央 青木
Original Assignee
Eizo株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eizo株式会社 filed Critical Eizo株式会社
Priority to ES15805972T priority Critical patent/ES2712452T3/es
Priority to RU2017100022A priority patent/RU2664415C2/ru
Priority to AU2015272846A priority patent/AU2015272846B2/en
Priority to EP15805972.5A priority patent/EP3156969B1/en
Priority to JP2016527661A priority patent/JP6225255B2/ja
Priority to CN201580031438.9A priority patent/CN106462953B/zh
Priority to CN201580031412.4A priority patent/CN106663326B/zh
Priority to RU2017100023A priority patent/RU2648955C1/ru
Priority to JP2016527684A priority patent/JP6225256B2/ja
Priority to JP2016527685A priority patent/JP6228671B2/ja
Priority to AU2015272799A priority patent/AU2015272799B2/en
Priority to ES15807220.7T priority patent/ES2681294T3/es
Priority to PCT/JP2015/062728 priority patent/WO2015190183A1/ja
Priority to EP15806110.1A priority patent/EP3156970B1/en
Priority to PCT/JP2015/062729 priority patent/WO2015190184A1/ja
Priority to RU2017100021A priority patent/RU2654159C1/ru
Priority to CN201580031509.5A priority patent/CN106462954B/zh
Priority to AU2015272798A priority patent/AU2015272798B2/en
Priority to EP15807220.7A priority patent/EP3156971B1/en
Publication of WO2015190136A1 publication Critical patent/WO2015190136A1/ja
Priority to US15/371,230 priority patent/US10157451B2/en
Priority to US15/372,400 priority patent/US9972074B2/en
Priority to US15/372,402 priority patent/US10096092B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an image processing system and a computer readable recording medium.
  • Patent Document 1 JP-A-2012-168936
  • an image processing system may include a luminance evaluation value deriving unit that derives an evaluation value of the luminance of at least a partial region of the image.
  • the image processing system may include a saturation evaluation value deriving unit that derives an evaluation value of saturation of at least a partial area of an image.
  • the image processing system may include a contrast evaluation value deriving unit that derives an evaluation value of the contrast of at least a part of the image.
  • the image processing system may include a haze concentration estimation unit that derives an estimated value of haze concentration of the image based on the evaluation value of the brightness, the evaluation value of the saturation, and the evaluation value of the contrast.
  • the image processing system may include a first pixel extraction unit that extracts pixels that are neither flat nor strong edge from the image, and the haze concentration estimation unit may be the flat or strong pixels extracted by the first pixel extraction unit.
  • the estimated value of the haze concentration may be derived based on the evaluation value of the luminance of the pixel that is not an edge, the evaluation value of the saturation, and the evaluation value of the contrast.
  • an image processing system may include a first pixel extraction unit that extracts pixels having neither flat nor strong edges from the image.
  • the image processing system may further include the evaluation value of luminance of a pixel having neither flat nor strong edge, the evaluation value of saturation, and the evaluation value of contrast, which are extracted by the first pixel extraction unit.
  • a haze concentration estimation unit may be provided to derive an estimated value of haze concentration of an image.
  • the evaluation value of the luminance may be an average luminance value of the area.
  • the evaluation value of the saturation may be an average saturation value of the area.
  • the evaluation value of the contrast may be the contrast value of the area.
  • the haze concentration estimation unit may derive an estimated value of the haze concentration that has a higher value as the average luminance value is higher.
  • the haze concentration estimation unit may derive an estimated value of the haze concentration that has a higher value as the average saturation value is lower.
  • the haze density estimation unit may derive an estimated value of the haze density that has a higher value as the contrast value is lower.
  • the image may be a moving image including a plurality of frames, and the image processing system extracts a high saturation pixel for extracting a high saturation pixel whose saturation is higher than a predetermined threshold value in one of the plurality of frames. Different criteria depending on whether the high saturation pixel ratio is higher than a predetermined threshold or not, and a high saturation pixel ratio deriving unit that derives a high saturation pixel ratio indicating the ratio of the high saturation pixels in the one frame;
  • the image processing apparatus may further include a scene change determination unit that determines whether the image includes a scene change.
  • the image processing system derives the reliability of deriving the reliability of the estimated value of the haze concentration of the one frame based on the high saturation pixel rate of the one frame and the average luminance value of the one frame. You may have a department.
  • the image processing system is based on the reliability of the estimated value of the haze density of the one frame derived by the reliability deriving unit and a scene change flag indicating whether the one frame is a scene-changed frame.
  • the image processing apparatus may further include a parameter adjustment unit that adjusts a parameter used for the haze removal process for the one frame.
  • the image processing system performs a haze removal process on the image based on a transmittance deriving unit that derives a transmittance corresponding to the haze concentration for each of a plurality of pixels of the image, and the estimated value of the haze concentration and the transmittance. And a haze removing unit to perform.
  • the image processing system may further include a second pixel extraction unit for extracting pixels that are neither flat nor strong edge from the image, and the haze removal unit may be the flat or strong even extracted by the second pixel extraction unit. Whether the haze removal process is to be performed may be determined based on the proportion of pixels that are not edges in the image.
  • an image processing system may include a high saturation pixel extraction unit which extracts high saturation pixels whose saturation is higher than a predetermined threshold value from one of a plurality of frames included in a moving image.
  • the image processing system may include a high saturation pixel rate deriving unit that derives a high saturation pixel rate indicating the proportion of the high saturation pixels in the one frame.
  • the image processing system determines whether a scene change is included in the image based on different criteria depending on whether the high saturation pixel rate in the one frame is higher than a predetermined threshold.
  • a scene change determination unit may be provided.
  • the scene change determination unit includes the scene change in the image based on the hue of the one frame and the hue of the past frame of the one frame when the high saturation pixel rate is higher than the threshold. It may be determined whether or not.
  • the scene change determination unit performs scene change on the image based on the high chroma pixel rate of the one frame and the high chroma pixel rate of the previous frame of the one frame. May be determined.
  • the image processing system is based on a haze density estimated value acquiring unit for acquiring an estimated value of haze density of the one frame, the high saturation pixel rate in the one frame, and an average luminance value of the one frame And a reliability deriving unit that derives the reliability of the estimated value of the haze concentration.
  • the reliability deriving unit derives higher reliability as the average luminance value is larger, and derives higher reliability as the high saturation pixel rate is lower.
  • the estimated value is equal to or less than a predetermined threshold value
  • the reliability deriving unit derives higher reliability as the average luminance value is smaller, and derives higher reliability as the high saturation pixel rate is higher. Good.
  • the image processing system includes a target value acquisition unit for acquiring a haze concentration target value, and a past frame of the one frame acquired by the target value acquisition unit based on the reliability calculated by the reliability calculation unit. And a target value determination unit that determines which of the haze concentration target value of and the estimated value of the haze concentration acquired by the haze concentration estimated value acquisition unit to use for adjusting the parameter used for the haze removal processing You may
  • the image processing system includes a difference absolute value deriving unit that derives a difference absolute value between the haze concentration target value acquired by the target value acquisition unit and the estimated value of the haze concentration acquired by the haze concentration estimated value acquisition unit.
  • the target value determination unit may obtain the target value based on the reliability of the estimated value and the difference absolute value, or a scene change flag indicating whether the one frame is a scene-changed frame. It may be determined which one of the haze concentration target value acquired by the part and the estimated value of the haze concentration acquired by the haze concentration estimated value acquisition part to use for adjusting the parameter used for the haze removal processing.
  • the image processing system causes the parameter used for the haze removal processing of the one frame to gradually approach the target haze concentration value determined by the target value determination unit or the value corresponding to the estimated value of the haze concentration.
  • a parameter adjustment unit may be provided to adjust the The parameter adjustment unit is a difference absolute value between the haze concentration target value determined by the target value determination unit or the estimated value of the haze concentration, and the parameter used for the haze removal processing of the past frame of the one frame
  • the target value determining unit is a parameter used for the haze removal processing, with an adjustment amount according to the reliability of the estimated value of the haze density and a scene change flag indicating whether the one frame is a scene-changed frame It may adjust so that it may be approached in steps to the value corresponding to the above-mentioned target value of haze concentration determined by or the estimated value of the above-mentioned haze concentration.
  • an image processing system may include a haze density acquisition unit that acquires the haze density of the image.
  • the image processing system may include a removal processing unit that performs haze removal processing with different degrees of haze removal on the reflectance component of the image and the illumination light component of the image based on the haze concentration.
  • the image processing system may include a combining unit configured to combine the reflectance component and the illumination light component subjected to the haze removal processing.
  • the removal processing unit can approximate that there is no reflectance component contained in atmospheric light, the reflectance component of the image and the illumination light component of the image using the atmospheric model of the haze image and the Retinex theory And, the haze removal processing in which the haze removal degree differs, respectively may be given.
  • the removal processing unit further assumes that the atmospheric model of the haze image can be applied only to the illumination light component, using the atmospheric model of the haze image and the Retinex theory, and the reflectance component of the image and the above
  • the illumination light component of the image may be subjected to haze removal processing with different degrees of haze removal.
  • a computer readable recording medium having recorded thereon a program for causing a computer to function as the image processing system.
  • FIG. 1 schematically shows an example of a functional configuration of an image processing system 100.
  • concentration estimation part 200 is shown roughly. It is a figure for demonstrating the extraction process of a flat & strong edge pixel.
  • An example of the weighting graph 240 is schematically shown.
  • An example of the weighting graph 242 is schematically shown. It is a figure for demonstrating a histogram value.
  • An example of a function structure of the scene control part 300 is shown roughly.
  • An example of a function structure of the scene change determination part 310 is shown roughly.
  • An example of a function structure of the haze reliability estimation part 330 is shown roughly.
  • An example of weighting graph 352 is shown roughly.
  • An example of weighting graph 354 is shown roughly.
  • An example of a function structure of the haze removal parameter adjustment part 360 is shown roughly.
  • An example of a function structure of the haze removal part 400 is shown roughly.
  • FIG. 1 schematically illustrates an example of a functional configuration of an image processing system 100.
  • the image processing system 100 may be a display device that removes and displays the haze included in the input image.
  • the haze includes general atmospheric phenomena in which the visibility is deteriorated by the fine particles.
  • haze includes fog, haze, smoke, smoke, dust, dust, rain, snow and the like.
  • the display device may be a liquid crystal display, a plasma display, an organic EL display, or the like.
  • the image processing system 100 includes an image input unit 110, a display unit 120, a haze concentration estimation unit 200, a scene control unit 300, and a haze removal unit 400.
  • the image input unit 110 inputs an image.
  • the image may be a moving image or a still image, or may be a frame included in the moving image.
  • the image input unit 110 may input RGB data, YUV data or HSV data.
  • the image processing system 100 may convert the input YUV data into RGB data.
  • the haze concentration estimation unit 200 derives an estimated value of the haze concentration for each input image.
  • the haze density of an image is the density of haze contained in an image. For example, when the same space is imaged, the haze density of the image is higher when the density of the space fog is high than when the density of the space fog is low.
  • the scene control unit 300 determines whether the input moving image includes a scene change.
  • the scene control unit 300 may generate a parameter used for the haze removal processing based on whether or not a scene change is included in the input moving image.
  • the haze removing unit 400 removes the haze from the input image.
  • the haze removing unit 400 may remove the haze from the input image using the parameters generated by the scene control unit 300.
  • the display unit 120 displays the image from which the haze has been removed by the haze removing unit 400.
  • the scene control unit 300 when a scene change is not detected in a moving image, the scene control unit 300 generates a parameter used for the haze removal process in order to change the haze removal intensity stepwise over a plurality of frames. Then, by using the parameters generated by the scene control unit 300, the haze removal unit 400 changes the intensity of haze removal stepwise over a plurality of frames when a scene change is not detected in the moving image. . As a result, it is possible to prevent the image from being rapidly changed due to the haze removal, and it is possible to suppress the occurrence of a phenomenon such as so-called flicker.
  • the scene control unit 300 changes the intensity of haze removal stepwise over a smaller number of frames than in the case where a scene change is not detected in the moving image.
  • the parameters used for the haze removal process are generated to Then, when a scene change is detected in the moving image by using the parameters generated by the scene control unit 300, the haze removing unit 400 uses a smaller number of frames than in the case where a scene change is not detected in the moving image.
  • the intensity of haze removal is changed stepwise over the course of time.
  • the image processing system 100 may not include the scene control unit 300.
  • the haze removing unit 400 removes the haze from the input image based on the estimated value of the haze concentration of the image derived by the haze concentration estimating unit 200.
  • highly accurate haze removal processing based on the haze concentration estimated by the haze concentration estimation unit 200 can be realized.
  • FIG. 2 schematically illustrates an example of a functional configuration of the haze concentration estimation unit 200.
  • the haze concentration estimation unit 200 includes a flat and strong edge pixel extraction unit 202, an average luminance calculation unit 204, an average saturation calculation unit 206, a contrast calculation unit 208, a maximum saturation acquisition unit 210, a weighting acquisition unit 212, and a haze concentration calculation unit
  • a tool screen determination unit 216 and a selector 218 are provided.
  • the flat and strong edge pixel extraction unit 202 extracts pixels that are neither flat nor strong edge from the image input by the image input unit 110.
  • the flat & strong edge pixel extraction unit 202 extracts, for example, pixels that are flat or strong edge from the image and excludes the extracted pixels from the image, thereby extracting pixels that are neither flat nor strong edge.
  • the flat and strong edge pixel extraction unit 202 may be an example of a first pixel extraction unit.
  • the average luminance calculation unit 204 calculates an average luminance value (which may be described as AVE Y ) of pixels which are neither flat nor strong edge.
  • the average luminance value may be an example of an evaluation value of luminance.
  • the average luminance calculating unit 204 may be an example of a luminance evaluation value deriving unit.
  • Average saturation calculation unit 206 calculates the average saturation of the pixels nor flat even strong edges (sometimes referred to as AVE S.).
  • the average saturation value may be an example of a saturation evaluation value.
  • the average saturation calculating unit 206 may be an example of a saturation evaluation value deriving unit.
  • the contrast calculation unit 208 calculates the contrast value of the pixel which is neither flat nor strong edge.
  • the contrast value may be an example of a contrast evaluation value.
  • the contrast calculating unit 208 may be an example of a contrast evaluation value deriving unit.
  • the contrast calculation unit 208 may generate a histogram of pixels that are neither flat nor strong edges.
  • the contrast calculation unit 208 may generate a histogram of any number of bins.
  • the contrast calculating unit 208 may calculate the histogram width (which may be described as HIST WIDTH ) by subtracting the minimum value from the maximum value of the generated histogram.
  • the contrast calculating unit 208 may subtract the minimum value from the maximum value of the bins whose values exceed the threshold value among the plurality of bins.
  • HIST WIDTH may be an example of a contrast value.
  • the contrast calculating unit 208 may output the number of bins of the histogram as the maximum width of the histogram (which may be described as MAX WIDTH ).
  • the maximum saturation acquisition unit 210 acquires the maximum saturation (which may be described as MAX S ) in the image processing system 100.
  • the weighting acquisition unit 212 acquires a weighting value (which may be described as coef) used when calculating the haze density of the image.
  • the weighting acquisition unit 212 acquires, for example, coef designated by the manufacturer or user of the image processing system 100.
  • the haze concentration calculation unit 214 calculates an estimated value (may be described as strength) of the haze concentration of the image.
  • the haze density calculation unit 214 may calculate the strength based on the evaluation value of the luminance, the evaluation value of the saturation, and the evaluation value of the contrast of the pixel which is neither flat nor strong edge.
  • the haze density calculation unit 214 is based on the average luminance value calculated by the average luminance calculation unit 204, the average saturation value calculated by the average saturation calculation unit 206, and the contrast value calculated by the contrast calculation unit 208.
  • the strength may be calculated.
  • the haze density calculation unit 214 may calculate Strength by multiplying the average luminance value, the average saturation value, and the contrast value.
  • the haze density calculation unit 214 may multiply the average saturation value, the value obtained by subtracting the average saturation value from the maximum saturation, and the value obtained by subtracting the contrast value from the maximum width of the histogram.
  • the haze density calculation unit 214 may weight the average luminance value. For example, the haze density calculation unit 214 may perform weighting such that the higher the value, the higher the value, and the lower the value, the lower the value. In addition, the haze density calculation unit 214 may weight the average saturation value. For example, the haze density calculation unit 214 may perform weighting such that the higher the value, the higher the value, and the lower the value, the lower the value.
  • the haze concentration calculation unit 214 calculates the strength, for example, according to the following equation 1.
  • the haze density calculation unit 214 can derive an estimated value of haze density that is higher as the average luminance value is higher, and can derive an estimated value of haze density that is higher as the average saturation value is lower.
  • the lower the value the higher the haze concentration estimate can be derived. Since the assumption that the image contrast is low, the average luminance is high, and the average saturation is low when the haze concentration of the image is high, according to the haze concentration calculation unit 214, the haze characteristic is reflected It is possible to calculate the estimated value of the haze concentration with high accuracy.
  • the tool screen determination unit 216 determines whether the input image is a tool screen.
  • the tool screen is, for example, a screen for setting display parameters of the display unit 120 and a screen for setting display parameters of an image.
  • the haze removing unit 400 executes the haze removing process.
  • the viewer of the surveillance camera image displays the tool screen to change the setting of the display parameter while the display unit 120 is displaying the surveillance camera image
  • the haze removal process is performed on the tool screen. If it is executed, the screen may darken or flicker unnecessarily.
  • the haze concentration estimation unit 200 when the input image is determined to be a tool screen, the haze concentration estimation unit 200 according to the present embodiment outputs 0 as an estimated value of haze concentration, and the input image is determined to be a tool screen. If not, control is performed so as to output the strength calculated by the haze concentration calculation unit 214.
  • the selector 218 receives the strength calculated by the haze density calculation unit 214 and the tool screen determination result by the tool screen determination unit 216, and if the input image is not a tool screen, the scene It is output to the control unit 300 or the haze removing unit 400, and when the input image is a tool screen, 0 is output to the scene control unit 300 or the haze removing unit 400.
  • the haze removing unit 400 can determine that the input image is a tool screen.
  • the haze removing unit 400 may decide not to execute the haze removing process.
  • the haze concentration estimation unit 200 may output an estimated value of low value instead of outputting 0.
  • the haze concentration estimation unit 200 outputs an estimated value of a value lower than the minimum value of Strength calculated by the haze concentration calculation unit 214.
  • the tool screen determination unit 216 may determine whether or not the input image is a tool screen, based on the pixels extracted by the flat and strong edge pixel extraction unit 202 which are neither flat nor strong edge.
  • the flat & strong edge pixel extraction unit 202 is a first reference for extracting pixels that are neither flat nor strong edge, which are output to the average luminance calculation unit 204, the average saturation calculation unit 206, and the contrast calculation unit 208. May extract pixels that are neither flat nor strong edge and output to the tool screen determination unit 216 according to different second criteria.
  • the second reference may be a reference that is less likely to be determined as a pixel that is neither flat nor strong edge as compared to the first reference.
  • the flat and strong edge pixel extraction unit 202 may be an example of a second pixel extraction unit.
  • the tool screen determination unit 216 determines that the tool screen is not the tool screen if the ratio of pixels having neither flat nor strong edge received from the flat & strong edge pixel extraction unit 202 to all the pixels of the input image is equal to or less than a predetermined threshold. If it is determined that the screen is larger than a predetermined threshold, it may be determined that the screen is a tool screen.
  • the tool screen determination unit 216 sets the ratio of the pixels having flat or strong edges extracted according to the second standard to the pixels having flat or strong edges extracted according to the first standard to be a predetermined threshold. In the following cases, it may be determined that it is a tool screen, and if it is larger than a predetermined threshold, it may be determined that it is not a tool screen.
  • the tool screen determination unit 216 even if the screen has a small ratio of pixels having neither flat nor strong edge in the input image, it is determined even if it is a screen of another type, not limited to the tool screen. be able to. For example, according to the tool screen determination unit 216, it can be determined whether or not the input image is an image having a high ratio of an area other than the image display area in the entire display area of the display unit 120.
  • the tool screen determination unit 216 may be an example of a haze removal processing target determination unit that determines whether or not the input image is a target on which the haze removal processing is to be performed.
  • the average luminance calculation unit 204, the average saturation calculation unit 206, and the contrast calculation unit 208 calculate the average luminance value, the average saturation value, and the contrast value of pixels that are neither flat nor strong edge
  • the average luminance calculation unit 204, the average saturation calculation unit 206, and the contrast calculation unit 208 may calculate the average luminance value, the average saturation value, and the contrast value of the entire input image. Further, the average luminance calculating unit 204, the average saturation calculating unit 206, and the contrast calculating unit 208 may calculate an average luminance value, an average saturation value, and a contrast value of a part of the input image.
  • FIG. 3 is a diagram for explaining an example of flat and strong edge pixel extraction processing.
  • the flat & strong edge pixel extraction unit 202 determines whether the target pixel 230 is flat or strong edge, first, the maximum value and the minimum value of the pixel values for seven pixels in the vertical and horizontal directions centering on the target pixel 230 To get
  • the flat & strong edge pixel extraction unit 202 calculates a value obtained by subtracting the minimum value from the maximum value for each of 7 pixels in the vertical direction and 7 pixels in the horizontal direction. Then, the flat & strong edge pixel extraction unit 202 determines that the value obtained by subtracting the minimum value from the maximum value in at least one of the vertical direction and the horizontal direction is equal to or less than the first threshold, and a value larger than the first threshold. If it is equal to or greater than the second threshold value, the pixel of interest 230 is determined as a pixel that is flat or strong edge.
  • the number of pixels in the vertical direction and the number of pixels in the horizontal direction may be other than seven.
  • the flat & strong edge pixel extraction unit 202 may use the first threshold and the second threshold when extracting pixels that are flat or strong according to the first reference, and flat or strong edge according to the second reference When extracting the pixel which is, a third threshold larger than the first threshold and smaller than the second threshold, and a fourth threshold larger than the third threshold and smaller than the second threshold may be used.
  • FIG. 4A schematically illustrates an example weighting graph 240.
  • FIG. 4B schematically illustrates an example of the weighting graph 242.
  • the weighting graph 240 shows an example of a weighting value used when the haze concentration calculator 214 weights the average luminance value.
  • 4A and 4B illustrate the case where the input signal is 10 bits.
  • the haze density calculation unit 214 weights the average luminance value according to the weighting graph 240 so that the higher the average luminance value, the higher the value, and the lower the average luminance value, the lower the weight. Can.
  • the haze density calculator 214 may use the weighting graph 240 also when weighting the average saturation value.
  • the haze density calculation unit 214 may use the weighting graph 240 having the same value when weighting the average luminance value and weighting the average saturation value, and the weighting graph 240 may have different values. May be used. For example, when weighting of the average luminance value is made heavier than the average saturation value, as shown in the weighting graph 242, the haze density calculation unit 214 uses the weighting graph 242 in which the weighting is heavier, to the average luminance value. It may be weighted.
  • FIG. 5 is a diagram for explaining the histogram value.
  • FIG. 5 exemplifies a case where the number of histogram bins is 16.
  • the contrast calculating unit 208 may calculate the HIST WIDTH by subtracting the minimum value from the maximum value of the bins whose values exceed the threshold value among the plurality of bins, as shown in FIG.
  • FIG. 6 schematically illustrates an example of a functional configuration of the scene control unit 300.
  • the scene control unit 300 includes a scene change determination unit 310, a haze reliability estimation unit 330, and a haze removal parameter adjustment unit 360.
  • the scene change determination unit 310 determines whether the moving image input by the image input unit 110 includes a scene change.
  • the scene change determination unit 310 may associate a scene change flag indicating whether the frame is a scene changed frame for each of a plurality of frames included in the moving image.
  • the haze reliability estimation unit 330 estimates the reliability of the strength output from the haze concentration estimation unit 200 for the frame included in the moving image input by the image input unit 110.
  • the haze removal parameter adjustment unit 360 is used for the haze removal process for a plurality of frames included in the moving image, based on the reliability estimated by the haze reliability estimation unit 330 and the scene change flag generated by the scene change determination unit 310. The parameters are adjusted and output to the haze removing unit 400.
  • FIG. 7 schematically illustrates an example of a functional configuration of the scene change determination unit 310.
  • the scene change determination unit 310 includes a high saturation pixel extraction unit 312, a hue histogram generation unit 314, a high saturation pixel rate measurement unit 316, a flat & strong edge pixel extraction unit 318, an average luminance calculation unit 320, an average saturation calculation unit 322, and determination processing.
  • a unit 324 is provided.
  • the high saturation pixel extraction unit 312 extracts high saturation pixels from one of the plurality of frames included in the moving image input by the image input unit 110.
  • the high saturation pixel may be a pixel whose saturation is higher than a predetermined threshold.
  • the high saturation pixel extraction unit 312 receives RGB data, the difference between the maximum value and the minimum value of the R component, the G component, and the B component for each of the plurality of pixels included in the frame is equal to or greater than a predetermined threshold. Certain pixels may be extracted as high saturation pixels.
  • the high saturation pixel extraction unit 312 may extract, for each of the plurality of pixels included in the frame, a pixel whose S component is equal to or greater than a predetermined threshold as a high saturation pixel.
  • the hue histogram generation unit 314 generates a histogram of hue (which may be described as “HueHIST”) for the high saturation pixels extracted by the high saturation pixel extraction unit 312.
  • HueHIST a histogram of hue
  • the hue histogram generation unit 314 may generate HueHIST for a frame included in the moving image input by the image input unit 110.
  • the high saturation pixel rate measuring unit 316 measures a high saturation pixel rate (which may be described as HighSatRate) indicating the proportion of high saturation pixels in one frame.
  • the high saturation pixel rate measuring unit 316 may set the ratio of light saturation pixels to all the pixels of one frame as HighSatRate.
  • the high saturation pixel rate measuring unit 316 may be an example of a high saturation pixel rate deriving unit that derives the high saturation pixel rate in one frame.
  • the flat and strong edge pixel extraction unit 318 extracts a pixel that is neither flat nor strong edge from one frame of the plurality of frames included in the moving image input by the image input unit 110.
  • the flat and strong edge pixel extraction unit 318 may extract pixels that are neither flat nor strong edge as the flat and strong edge pixel extraction unit 202 does.
  • the flat & strong edge pixel extraction unit 318 may extract pixels which are neither flat nor strong edge according to the first reference, and may extract pixels which are neither flat nor strong edge according to the second reference Also, pixels that are neither flat nor strong edges may be extracted according to other criteria.
  • the average luminance calculation unit 320 calculates AVE Y of the pixel which is neither flat nor strong edge extracted by the flat & strong edge pixel extraction unit 318.
  • the average luminance calculation unit 320 calculates the AVE Y of the pixel having neither flat nor strong edge extracted by the flat & strong edge pixel extraction unit 318.
  • the average luminance calculation unit 320 may calculate AVE Y for a frame included in the moving image input by the image input unit 110.
  • Average saturation calculation unit 322 calculates the AVE S pixel nor a strong edge in a flat extracted by flat & strong edge pixel extraction unit 318.
  • the average color saturation calculation unit 322 will be described as an example a case of calculating the AVE S pixel nor a strong edge in a flat extracted by flat & strong edge pixel extraction unit 318, to Not exclusively.
  • Average saturation calculator 322 the frame included in the moving image input by the image input unit 110 may calculate the AVE S.
  • the determination processing unit 324 executes a determination process of determining whether a moving image input by the image input unit 110 includes a scene change.
  • the determination processing unit 324 generates a scene change flag indicating whether the frame is a scene-changed frame, and outputs the scene change flag to the haze removal parameter adjustment unit 360.
  • the determination processing unit 324 determines whether the moving image includes a scene change based on different criteria depending on whether the high saturation pixel ratio measured by the high saturation pixel ratio measuring unit 316 is higher than a predetermined threshold. You may judge.
  • the determination processing unit 324 determines the hue of the one frame and the past frames of the one frame. Whether or not a scene change is included in the moving image may be determined based on the hue of.
  • the past frame of the one frame is, for example, a frame before the one frame.
  • the determination processing unit 324 performs SAD of HueHIST of the one frame generated by the hue histogram generation unit 314 and hue histogram of the previous frame of the one frame (which may be described as HueHIST_dl). Based on (Sum of Absolute Difference) (which may be described as HueHISTSAD), it may be determined whether the moving image includes a scene change.
  • determination processing unit 324 HueHISTSAD is lower than the fifth threshold value, the average luminance value of the past frame AVE Y and the one frame of the one frame (may be described as AVE Y _dl.) And the The difference absolute value is lower than the sixth threshold, and the difference absolute value between the AVE S of the one frame and the average saturation value (may be described as AVE S dl) of the past frames of the one frame is the sixth. If it is lower than the seven threshold, it is determined that the one frame is not a scene-changed frame, and otherwise, it is determined that the one frame is a scene-changed frame.
  • the scene change flag of the one frame may be set to False. If the determination processing unit 324 determines that the one frame is a scene-changed frame, the scene change flag of the one frame may be set to True.
  • the determination processing unit 324 determines HighSatRate of the one frame and the past frames of the one frame. Based on the high saturation pixel rate (which may be described as HighSatRate_dl), it may be determined whether the moving image includes a scene change.
  • a difference absolute value between HighSatRate and HighSatRate_dl is lower than the eighth threshold value
  • the difference absolute value between the AVE Y and AVE Y _dl is lower than the sixth threshold value
  • the difference between the AVE S and AVE S _dl If the absolute value is lower than the seventh threshold value, it is determined that the one frame is a scene-changed frame, and if not, it is determined that the one frame is a scene-changed frame.
  • FIG. 8 schematically illustrates an example of a functional configuration of the haze reliability estimation unit 330.
  • the haze reliability estimation unit 330 includes a flat & strong edge pixel extraction unit 332, an average luminance calculation unit 334, a high saturation pixel extraction unit 336, a high saturation pixel rate measurement unit 338, a haze concentration estimated value acquisition unit 340 and a reliability calculation unit 342. Prepare.
  • the flat and strong edge pixel extraction unit 332 extracts a pixel that is neither flat nor strong edge from one frame among a plurality of frames included in the moving image input by the image input unit 110.
  • the flat and strong edge pixel extraction unit 332 may extract pixels that are neither flat nor strong edge as the flat and strong edge pixel extraction unit 202 does.
  • the flat & strong edge pixel extraction unit 332 may extract pixels which are neither flat nor strong edge according to the first reference, and may extract pixels which are neither flat nor strong edge according to the second reference Also, pixels that are neither flat nor strong edges may be extracted according to other criteria.
  • the average luminance calculation unit 334 calculates the AVE Y of the pixel which is neither flat nor strong edge extracted by the flat & strong edge pixel extraction unit 332.
  • the average luminance calculation unit 334 may calculate AVE Y for a frame included in the moving image input by the image input unit 110.
  • the high saturation pixel extraction unit 336 extracts a high saturation pixel from one of a plurality of frames included in the moving image input by the image input unit 110.
  • the high saturation pixel extraction unit 336 extracts, as high saturation pixels, pixels in which the difference between the maximum value and the minimum value of the R component, the G component, and the B component for each of the plurality of pixels included in the frame is a predetermined threshold or more. You may
  • the high saturation pixel rate measuring unit 338 measures HighSatRate in one frame.
  • the haze concentration estimated value acquisition unit 340 acquires the strength output from the haze concentration estimation unit 200.
  • the reliability calculation unit 342 calculates the reliability of the strength acquired by the haze concentration estimated value acquisition unit 340 based on AVE Y calculated by the average luminance calculation unit 334 and HighSatRate measured by the high saturation pixel rate measurement unit 338. And output to the haze removal parameter adjustment unit 360.
  • the reliability calculation unit 342 may be an example of a reliability derivation unit that derives the reliability of the strength based on AVE Y and HighSatRate.
  • the reliability calculation unit 342 may calculate the reliability of Strength based on different criteria depending on whether the Strength acquired by the haze concentration estimated value acquisition unit 340 is larger than a predetermined threshold.
  • the reliability calculation unit 342 calculates higher reliability as the AVE Y is larger, and higher reliability as the HighSatRate is lower, when the strength acquired by the haze concentration estimated value acquisition unit 340 is larger than a predetermined threshold. You may calculate In addition, when the strength acquired by the haze concentration estimated value acquisition unit 340 is equal to or less than a predetermined threshold, the reliability calculation unit 342 calculates higher reliability as the AVE Y is smaller, and higher reliability as the HighSatRate is higher. You may calculate the degree.
  • the degree of reliability calculation unit 342 determines the strength acquired by the estimated haze value acquisition unit 340, AVE Y calculated by the average luminance calculation unit 334, and the high saturation pixel rate measurement unit 338. Each of HighSatRate measured is weighted.
  • the reliability calculation unit 342 weights the Strength and HighSatRate such that the higher the value, the higher the value, and the lower the value, the lower the value. Also, for example, with respect to AVE Y , the reliability calculation unit 342 performs weighting such that the higher the value, the lower the value, and the lower the value, the higher the value.
  • the weighted Strength may be described as StrengthWeight.
  • the AVE Y in which the weighting may be referred to as AVE Y Weight.
  • the weighted HighSatRate may be described as HighSatRateWeight.
  • the reliability calculation unit 342 sets the larger one of AVE Y Weight and HighSatRateWeight as EvalMax. Then, the reliability calculation unit 342 calculates the absolute value of the difference between EvalMax and StrengthWeight as the reliability of the estimated value of the haze concentration.
  • FIG. 9 schematically illustrates an example of the weighting graph 352.
  • the weighting graph 352 shows an example of weighting values used when the reliability calculation unit 342 weights the strength. By weighting the Strength according to the weighting graph 352, the reliability calculation unit 342 can perform weighting such that the higher the Strength, the higher the value, and the lower the Strength, the lower the value.
  • the weighting graph 352 may be used when the reliability calculation unit 342 weights HighSatRate.
  • FIG. 10 schematically illustrates an example of the weighting graph 354.
  • the weighting graph 354 shows an example of weighting values used when the reliability calculation unit 342 weights AVE Y.
  • the reliability calculation unit 342 By weighting the AVE Y according to the weighting graph 354 by the reliability calculation unit 342, the higher the AVE Y, the lower the value, and the lower the Strength, the higher the value.
  • FIG. 11 schematically illustrates an example of a functional configuration of the haze removal parameter adjustment unit 360.
  • the haze removal parameter adjustment unit 360 includes a haze concentration target value calculation unit 362 and a parameter adjustment unit 364.
  • the haze density target value calculation unit 362 calculates a haze density target value (which may be described as TargetDepth) for one frame.
  • TargetDepth indicates a haze removal parameter to be converged when the contents of one frame and a plurality of frames following the one frame do not change.
  • the haze density target value calculation unit 362 calculates TargetDepth (which may be described as Target Depth_dl) of a past frame of the one frame, Strength and reliability of the one frame received from the haze concentration estimation unit 200. Based on the reliability of the strength received from the calculation unit 342 and the scene change flag for the one frame received from the determination processing unit 324, TargetDepth for the one frame may be determined.
  • the haze density target value calculation unit 362 calculates a difference absolute value (which may be described as DiffDepth) between Strength and TargetDepth_dl. Then, when the DiffDepth is greater than the ninth threshold and the reliability of the Strength is greater than the tenth threshold, and the scene change flag is True, the haze density target value calculation unit 362 sets the Strength as the TargetDepth, and other than that. In this case, TargetDepth_dl is set as TargetDepth.
  • DiffDepth a difference absolute value between Strength and TargetDepth_dl.
  • the parameter adjustment unit 364 determines the parameter (which may be referred to as HazeRemovalStrength) used for the haze removal processing of the one frame, as the Strength or TargetDepth_dl determined by the haze concentration target value calculation unit 362 as the TargetDepth of the one frame. Adjust so as to gradually approach the value corresponding to
  • the parameter adjustment unit 364 is an absolute difference between the TargetDepth determined by the haze concentration target value calculation unit 362 and the parameter (described as HazeRemovalStrength_dl) used for the haze removal process of the past frame of the one frame.
  • the HazeRemovalStrength is determined by the haze density target value calculation unit 362 as the TargetDepth of the one frame by the value (which may be described as DiffStrength), the reliability of the Strength, and the adjustment amount according to the scene change flag.
  • the value corresponding to the strength or target depth dl may be adjusted stepwise.
  • the parameter adjustment unit 364 corresponds to the strength or TargetDepth_dl determined with the HazeRemovalStrength as the TargetDepth of the one frame by the haze density target value calculation unit 362 using the first adjustment amount. Adjust so that it approaches the value in stages.
  • the parameter adjustment unit 364 sets HazeRemovalStrength as the second adjustment amount. Adjust to gradually approach values corresponding to Strength or TargetDepth_dl determined as TargetDepth of the frame of.
  • the parameter adjustment unit 364 adjusts the HazeRemovalStrength to be gradually closer to the value corresponding to the Strength or TargetDepth_dl determined as the TargetDepth of the one frame in the third adjustment amount in other cases.
  • the first adjustment amount is larger than the second adjustment amount and the third adjustment amount
  • the second adjustment amount is larger than the third adjustment amount.
  • the haze density target value calculation unit 362 uses either TargetDepth_dl or Strength for the haze removal processing based on the reliability of Strength and the absolute value of the difference between Strength and TargetDepth_dl, or a scene change flag. It may be decided to use it to adjust the parameters.
  • the haze density target value calculation unit 362 that acquires TargetDepth_dl may be an example of a target value acquisition unit.
  • the haze density target value calculation unit 362 may be an example of a difference absolute value deriving unit that calculates the difference absolute value between Strength and TargetDepth_dl.
  • the haze density target value calculation unit 362 may be an example of a target value determination unit that determines TargetDepth for the one frame.
  • FIG. 12 schematically illustrates an example of a functional configuration of the haze removing unit 400.
  • the haze removing unit 400 includes an illumination light separating unit 402, a parameter acquiring unit 410, a removing processing unit 420, and a combining unit 426.
  • Illumination light separating unit 402 separates the illumination light component I L from the image I inputted by the image input unit 110. Illumination light separating unit 402, if it is possible to separate the illumination light component I L from the image I, may be carried out any process.
  • the illumination light separating unit 402 uses the edge-preserving low-pass filter, for separating the illumination light component I L from the image I.
  • the edge preserving low pass filter is a filter that performs smoothing while preserving edges.
  • the illumination light separation unit 402 uses, for example, a bilateral filter as an edge-preserving low-pass filter.
  • the illumination light separation unit 402 may output the illumination light component IL and the image I to the parameter acquisition unit 410.
  • the parameter acquisition unit 410 acquires a parameter used for haze removal.
  • the parameter acquisition unit 410 includes an atmospheric light calculation unit 412, a transmittance calculation unit 414, and a haze concentration estimated value acquisition unit 416.
  • the atmospheric light calculation unit 412 calculates the atmospheric light A of the image I.
  • the atmospheric light calculation unit 412 may perform any process as long as the atmospheric light A of the image I can be calculated. For example, the atmospheric light calculation unit 412 first calculates, for each pixel of the image I, the minimum value of RGB including peripheral pixels. Next, the atmospheric light calculation unit 412 extracts, from the image I, the pixel having the highest calculated 0.1%. Then, the atmospheric light calculation unit 412 sets the value of the pixel having the highest luminance among the extracted pixels as the atmospheric light A.
  • the transmittance calculation unit 414 calculates the transmittance t corresponding to the haze density for each of a plurality of pixels of the image input by the image input unit 110.
  • the transmittance calculating unit 414 may be an example of a transmittance deriving unit.
  • the transmittance calculation unit 414 may perform any process as long as the transmittance t can be calculated.
  • the transmittance calculation unit 414 calculates the transmittance t based on the Dark Channel Prior (sometimes referred to as DCP) represented by the following Equation 2.
  • I C is the color channel of I
  • ⁇ (x) is a local region centered at x.
  • the transmittance calculation unit 414 may calculate the transmittance t from the value of DCP based on the assumption that DCP in Equation 2 represents the transmittance t. For example, the transmittance calculation unit 414 may calculate the transmittance t by Equation 3 below.
  • the haze concentration estimated value acquisition unit 416 acquires the strength output from the haze concentration estimation unit 200.
  • the parameter acquisition unit 410 includes the image I, the illumination light component I L , the atmospheric light A calculated by the atmospheric light calculation unit 412, the transmittance t calculated by the transmittance calculation unit 414, and the strength acquired by the estimated haze concentration value acquisition unit 416. Is output to the removal processing unit.
  • the removal processing unit 420 executes a haze removal process on the image I based on Retinex theory represented by the following Equation 4 and an atmospheric model of a haze image represented by the following Equation 5.
  • the removal processing unit 420 may execute the haze removal processing using the atmospheric model of the haze image and the Retinex theory, on the assumption that the reflectance component included in the atmospheric light is small or can be approximated. .
  • the reflectance component included in the atmospheric light is a minimum, it can be considered that the following equation 8 holds.
  • the removal processing unit 420 further presupposes that the atmospheric model can be applied only to the respective illumination light components with respect to the atmospheric light, the original image, and the input image, the atmospheric model of the haze image and the Retinex theory
  • the haze removal process may be performed using this method. According to such a premise, the following equation 9 is established.
  • Equation 10 By applying Equations 8 and 9 to Equation 7, the following Equation 10 is obtained.
  • the removal processing unit 420 may perform haze removal processing with different degrees of haze removal on the reflectance component and the illumination light component. For example, the removal processing unit 420 may make the degree of removal of haze different by changing the transmittance t with respect to Equations 9 and 10 described above. Further, the removal processing unit 420 may make the degree of removal of haze different by weighting the results of Equation 9 and Equation 10 differently.
  • the removal processing unit 420 includes an illumination light component processing unit 422 and a reflectance component processing unit 424.
  • the illumination light component processing unit 422 performs a haze removal process on the illumination light component of the image.
  • the reflectance component processing unit 424 performs a haze removal process on the reflectance component of the image.
  • the illumination light component processing unit 422 may execute the haze removal processing using the HazeRemovalStrength received from the parameter adjustment unit 364. For example, the illumination light component processing unit 422 may calculate the illumination light component J L subjected to the haze removal processing using the illumination light component I L , the atmospheric light A, the transmittance t, HazeRemovalStrength, and Equation 9 above. The illumination light component processing unit 422 may adjust the transmittance t using HazeRemovalStrength. In addition, the illumination light component processing unit 422 may use HazeRemovalStrength instead of the transmittance t. Further, the illumination light component processing unit 422 may use a value based on HazeRemovalStrength instead of the transmittance t.
  • the parameter acquisition unit 410 may not have the haze concentration estimated value acquisition unit 416.
  • the haze concentration estimated value acquisition unit 416 may receive HazeRemovalStrength from the parameter adjustment unit 364 and may transmit the received HazeRemovalStrength to the removal processing unit 420.
  • the illumination light component processing unit 422 receives the illumination light component I received from the parameter acquisition unit 410 when the still image is input by the image input unit 110 or when the image processing system 100 does not include the scene control unit 300.
  • the illumination light component J L subjected to the haze removal processing may be calculated using L 1 , atmospheric light A, transmissivity t, strength, and Equation 9 above.
  • the illumination light component processing unit 422 may calculate the illumination light component J L by applying Strength to the transmittance t. For example, the illumination light component processing unit 422 multiplies the transmission factor t by the strength. Also, for example, the illumination light component processing unit 422 may perform weighting on the transmittance t according to the value of Strength. As a result, it is possible to realize more accurate haze removal processing using the strength estimated by the haze concentration estimation unit 200.
  • Reflectance component processor unit 424 from the image I and the illumination light component I L received from the parameter acquisition unit 410 may calculate the reflectance component I R.
  • the reflectance component processing unit 424 may execute the haze removal processing using the HazeRemovalStrength received from the parameter adjustment unit 364. For example, the reflectance component processing unit 424 calculates the reflectance component J R subjected to the haze removal processing using the illumination light component I L , the reflectance component I R , the transmittance t, the HazeRemovalStrength, and the formula 10 above. Good.
  • the reflectance component processing unit 424 may adjust the transmittance t using HazeRemovalStrength.
  • the reflectance component processing unit 424 may use HazeRemovalStrength instead of the transmittance t. Also, the reflectance component processing unit 424 may use a value based on HazeRemovalStrength instead of the transmittance t.
  • the parameter acquisition unit 410 may not have the haze concentration estimated value acquisition unit 416.
  • the haze concentration estimated value acquisition unit 416 may receive the HazeRemovalStrength from the parameter adjustment unit 364 and may transmit the received HazeRemovalStrength to the removal processing unit 420.
  • the reflectance component processing unit 424 receives the illumination light component I L and the reflectance component I R when the still image is input by the image input unit 110 or when the image processing system 100 does not include the scene control unit 300.
  • the transmittance R , the strength, and the JR subjected to the haze removal processing may be calculated using the above equation (10).
  • Reflectance component processing unit 424 applies the Strength transmittance t may calculate the J R.
  • the reflectance component processing unit 424 multiplies the transmittance t by the strength.
  • the reflectance component processing unit 424 may perform weighting on the transmittance t in accordance with the value of Strength. As a result, it is possible to realize more accurate haze removal processing using the strength estimated by the haze concentration estimation unit 200.
  • the combining unit 426 combines the illumination light component J L subjected to the haze removal processing by the illumination light component processing unit 422 and the reflectance component J R subjected to the haze removal processing by the reflectance component processing unit 424.
  • the synthesizing unit 426 generates an output image J by synthesizing J L and J R.
  • the output image J generated by the combining unit 426 may be displayed by the display unit 120.
  • the image processing system 100 is described as a display device including the haze density estimation unit 200, the scene control unit 300, and the haze removal unit 400 as an example, but the present invention is not limited thereto.
  • the image processing system 100 may be a display device including at least one of the haze density estimation unit 200, the scene control unit 300, and the haze removal unit 400.
  • the image processing system 100 is a display device including only the scene change determination unit 310 among the scene change determination unit 310, the haze reliability estimation unit 330, and the haze removal parameter adjustment unit 360 included in the scene control unit 300.
  • the image processing system 100 may be a display device including only the haze reliability estimation unit 330.
  • the haze concentration estimated value acquiring unit 340 may acquire the haze concentration estimated value estimated by another device or the like instead of the strength output by the haze concentration estimating unit 200.
  • the image processing system 100 is a display device including only the haze removing unit 400 among the haze concentration estimating unit 200, the scene control unit 300, and the haze removing unit 400
  • the haze concentration estimated value acquiring unit 416 instead of the strength output by the estimation unit 200, a haze concentration estimated value estimated by another device or the like may be acquired.
  • the image processing system 100 is a display device
  • the present invention is not limited to this.
  • Other types of devices may be used as long as the device processes an image.
  • the image processing system 100 may be a mobile phone such as a smartphone, a tablet terminal, a personal computer, and an information home appliance.
  • the image processing system 100 may be a device that does not have the display unit 120 and causes an external display unit to display an image.
  • each unit of the image processing system 100 may be realized by hardware or may be realized by software. Also, it may be realized by a combination of hardware and software.
  • the computer may function as the image processing system 100 by executing the program.
  • the program may be installed on a computer that constitutes at least a part of the image processing system 100 from a computer readable medium or a storage device connected to a network.
  • the program installed in the computer and causing the computer to function as the image processing system 100 causes the CPU or the like to cause the computer to function as each part of the image processing system 100.
  • the information processing described in these programs functions as a concrete means in which software and hardware resources of the image processing system 100 cooperate by being read into a computer.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Processing Or Creating Images (AREA)

Abstract

画像内からより適切に霧を除去する技術が求められていた。 画像の少なくとも一部の輝度の評価値を導出する輝度評価値導出部と、画像の少なくとも一部の領域の彩度の評価値を導出する彩度評価値導出部と、画像の少なくとも一部の領域のコントラストの評価値を導出するコントラスト評価値導出部と、コントラストの評価値、輝度の評価値及び彩度の評価値に基づいて、画像のヘイズ濃度の推定値を導出するヘイズ濃度推定部とを備える画像処理システムを提供する。

Description

画像処理システム及びコンピュータ読み取り可能な記録媒体
 本発明は、画像処理システム及びコンピュータ読み取り可能な記録媒体に関する。
 大気モデルに基づいて画像内の霧を除去する技術が知られていた(例えば、特許文献1参照)。
 [先行技術文献]
 [特許文献]
 [特許文献1]特開2012-168936号公報
 画像内からより適切に霧を除去する技術が求められていた。
 本発明の第1の態様によれば、画像処理システムが提供される。上記画像処理システムは、画像の少なくとも一部の領域の輝度の評価値を導出する輝度評価値導出部を備えてよい。上記画像処理システムは、画像の少なくとも一部の領域の彩度の評価値を導出する彩度評価値導出部を備えてよい。上記画像処理システムは、画像の少なくとも一部の領域のコントラストの評価値を導出するコントラスト評価値導出部を備えてよい。上記画像処理システムは、上記輝度の評価値、上記彩度の評価値及び上記コントラストの評価値に基づいて、上記画像のヘイズ濃度の推定値を導出するヘイズ濃度推定部を備えてよい。
 上記画像処理システムは、上記画像から平坦でも強エッジでもない画素を抽出する第1画素抽出部を備えてよく、上記ヘイズ濃度推定部は、上記第1画素抽出部によって抽出された上記平坦でも強エッジでもない画素の輝度の評価値、彩度の評価値及びコントラストの評価値に基づいて、上記ヘイズ濃度の推定値を導出してよい。
 本発明の第2の態様によれば、画像処理システムが提供される。上記画像処理システムは、画像から平坦でも強エッジでもない画素を抽出する第1画素抽出部を備えてよい。また上記画像処理システムは、上記第1画素抽出部によって抽出された上記平坦でも強エッジでもない画素の輝度の評価値、彩度の評価値及びコントラストの評価値の少なくとも2つに基づいて、上記画像のヘイズ濃度の推定値を導出するヘイズ濃度推定部を備えてよい。
 上記輝度の評価値は、上記領域の平均輝度値であってよい。上記彩度の評価値は、上記領域の平均彩度値であってよい。上記コントラストの評価値は、上記領域のコントラスト値であってよい。上記ヘイズ濃度推定部は、上記平均輝度値が高いほど高い値の上記ヘイズ濃度の推定値を導出してよい。上記ヘイズ濃度推定部は、上記平均彩度値が低いほど高い値の上記ヘイズ濃度の推定値を導出してよい。上記ヘイズ濃度推定部は、上記コントラスト値が低いほど高い値の上記ヘイズ濃度の推定値を導出してよい。上記画像は複数のフレームを含む動画であってよく、上記画像処理システムは、上記複数のフレームのうちの一のフレームにおける、彩度が予め定められた閾値より高い高彩度画素を抽出する高彩度画素抽出部と、上記一のフレームにおける上記高彩度画素の割合を示す高彩度画素率を導出する高彩度画素率導出部と、上記高彩度画素率が予め定められた閾値より高いか否かに応じて、異なる基準に基づいて、上記画像にシーンチェンジが含まれるか否かを判定するシーンチェンジ判定部とを備えてよい。上記画像処理システムは、上記一のフレームにおける上記高彩度画素率と、上記一のフレームの平均輝度値とに基づいて、上記一のフレームの上記ヘイズ濃度の推定値の信頼度を導出する信頼度導出部を備えてよい。上記画像処理システムは、上記信頼度導出部が導出した上記一のフレームのヘイズ濃度の推定値の信頼度と、上記一のフレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグとに基づいて、上記一のフレームに対するヘイズ除去処理に用いるパラメータを調整するパラメータ調整部を備えてよい。
 上記画像処理システムは、上記画像の複数の画素毎のヘイズ濃度に対応する透過率を導出する透過率導出部と、上記ヘイズ濃度の推定値及び上記透過率に基づいて、上記画像にヘイズ除去処理を実行するヘイズ除去部とを備えてよい。上記画像処理システムは、上記画像から平坦でも強エッジでもない画素を抽出する第2画素抽出部をさらに備えてよく、上記ヘイズ除去部は、上記第2画素抽出部によって抽出された上記平坦でも強エッジでもない画素の、上記画像における割合に基づいて、上記ヘイズ除去処理を実行するか否かを決定してよい。
 本発明の第2の態様によれば、画像処理システムが提供される。上記画像処理システムは、動画に含まれる複数のフレームのうちの一のフレームから、彩度が予め定められた閾値より高い高彩度画素を抽出する高彩度画素抽出部を備えてよい。上記画像処理システムは、上記一のフレームにおける上記高彩度画素の割合を示す高彩度画素率を導出する高彩度画素率導出部を備えてよい。上記画像処理システムは、上記一のフレームにおける上記高彩度画素率が予め定められた閾値より高いか否かに応じて、異なる基準に基づいて、上記画像にシーンチェンジが含まれるか否かを判定するシーンチェンジ判定部を備えてよい。
 上記シーンチェンジ判定部は、上記高彩度画素率が上記閾値よりも高い場合、上記一のフレームの色相と、上記一のフレームの過去のフレームの色相とに基づいて、上記画像にシーンチェンジが含まれるか否かを判定してよい。上記シーンチェンジ判定部は、上記高彩度画素率が上記閾値以下の場合、上記一のフレームの高彩度画素率と、上記一のフレームの過去のフレームの高彩度画素率とに基づいて、上記画像にシーンチェンジが含まれるか否かを判定してよい。上記画像処理システムは、上記一のフレームのヘイズ濃度の推定値を取得するヘイズ濃度推定値取得部と、上記一のフレームにおける上記高彩度画素率と、上記一のフレームの平均輝度値とに基づいて、上記ヘイズ濃度の推定値の信頼度を導出する信頼度導出部とを備えてよい。上記信頼度導出部は、上記推定値が予め定められた閾値よりも高い場合、上記平均輝度値が大きいほど高い信頼度を導出し、かつ、上記高彩度画素率が低いほど高い信頼度を導出してよい。上記信頼度導出部は、上記推定値が予め定められた閾値以下の場合、上記平均輝度値が小さいほど高い信頼度を導出し、かつ、上記高彩度画素率が高いほど高い信頼度を導出してよい。
 上記画像処理システムは、ヘイズ濃度目標値を取得する目標値取得部と、上記信頼度導出部が導出した上記信頼度に基づいて、上記目標値取得部が取得した上記一のフレームの過去のフレームのヘイズ濃度目標値と、上記ヘイズ濃度推定値取得部が取得した上記ヘイズ濃度の推定値とのいずれをヘイズ除去処理に用いるパラメータを調整するために用いるかを決定する目標値決定部とを備えてよい。上記画像処理システムは、上記目標値取得部が取得したヘイズ濃度目標値と、上記ヘイズ濃度推定値取得部が取得した上記ヘイズ濃度の推定値との差分絶対値を導出する差分絶対値導出部に備えてよく、上記目標値決定部は、上記推定値の信頼度及び上記差分絶対値、又は、上記一のフレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグに基づいて、上記目標値取得部が取得した上記ヘイズ濃度目標値と、上記ヘイズ濃度推定値取得部が取得した上記ヘイズ濃度の推定値とのいずれをヘイズ除去処理に用いるパラメータを調整するために用いるかを決定してよい。
 上記画像処理システムは、上記一のフレームのヘイズ除去処理に用いるパラメータを、上記目標値決定部によって決定された上記ヘイズ濃度目標値又は上記ヘイズ濃度の推定値に対応する値に段階的に近づけるように調整するパラメータ調整部を備えてよい。上記パラメータ調整部は、上記目標値決定部によって決定された上記ヘイズ濃度目標値又は上記ヘイズ濃度の推定値と、上記一のフレームの過去のフレームのヘイズ除去処理に用いたパラメータとの差分絶対値、上記ヘイズ濃度の推定値の信頼度、及び上記一のフレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグに応じた調整量で、上記ヘイズ除去処理に用いるパラメータを、上記目標値決定部によって決定された上記ヘイズ濃度目標値又は上記ヘイズ濃度の推定値に対応する値に段階的に近づけるように調整してよい。
 本発明の第3の態様によれば、画像処理システムが提供される。上記画像処理システムは、画像のヘイズ濃度を取得するヘイズ濃度取得部を備えてよい。上記画像処理システムは、上記ヘイズ濃度に基づいて、上記画像の反射率成分と上記画像の照明光成分に、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施す除去処理部を備えてよい。上記画像処理システムは、上記ヘイズ除去処理が施された上記反射率成分及び上記照明光成分を合成する合成部を備えてよい。上記除去処理部は、大気光に含まれる反射率成分がないと近似できることを前提として、ヘイズ画像の大気モデルとレティネックス理論とを用いて、上記画像の反射率成分と上記画像の照明光成分とに、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施してよい。上記除去処理部は、上記照明光成分のみに対して上記ヘイズ画像の大気モデルが適用できることをさらに前提として、ヘイズ画像の大気モデルとレティネックス理論とを用いて、上記画像の反射率成分と上記画像の照明光成分とに、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施してよい。
 本発明の第4の態様によれば、コンピュータを、上記画像処理システムとして機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体が提供される。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
画像処理システム100の機能構成の一例を概略的に示す。 ヘイズ濃度推定部200の機能構成の一例を概略的に示す。 平坦&強エッジ画素の抽出処理を説明するための図である。 重み付けグラフ240の一例を概略的に示す。 重み付けグラフ242の一例を概略的に示す。 ヒストグラム値について説明するための図である。 シーン制御部300の機能構成の一例を概略的に示す。 シーンチェンジ判定部310の機能構成の一例を概略的に示す。 ヘイズ信頼度推定部330の機能構成の一例を概略的に示す。 重み付けグラフ352の一例を概略的に示す。 重み付けグラフ354の一例を概略的に示す。 ヘイズ除去パラメータ調整部360の機能構成の一例を概略的に示す。 ヘイズ除去部400の機能構成の一例を概略的に示す。
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、画像処理システム100の機能構成の一例を概略的に示す。本実施形態に係る画像処理システム100は、入力画像に含まれるヘイズを除去して表示する表示装置であってよい。ヘイズとは、微粒子により視界が悪くなる大気現象全般を含む。例えば、ヘイズは霧、靄、霞、煙、粉塵、砂塵、雨及び雪等を含む。表示装置は、液晶ディスプレイ、プラズマディスプレイ及び有機ELディスプレイ等であってよい。
 画像処理システム100は、画像入力部110、表示部120、ヘイズ濃度推定部200、シーン制御部300及びヘイズ除去部400を備える。画像入力部110は、画像を入力する。画像は、動画又は静止画であってよく、また、動画に含まれるフレームであってもよい。画像入力部110は、RGBデータ、YUVデータ又はHSVデータを入力してよい。画像処理システム100は、入力されたYUVデータをRGBデータに変換してもよい。
 ヘイズ濃度推定部200は、入力された画像毎のヘイズ濃度の推定値を導出する。画像のヘイズ濃度とは、画像に含まれるヘイズの濃度である。例えば、同一の空間を撮像した場合、空間の霧の濃度が高いときの方が、空間の霧の濃度が低いときよりも、画像のヘイズ濃度が高い。
 シーン制御部300は、入力された動画にシーンチェンジが含まれるか否かを判定する。シーン制御部300は、入力された動画にシーンチェンジが含まれるか否かに基づいて、ヘイズ除去処理に用いるパラメータを生成してよい。ヘイズ除去部400は、入力された画像からヘイズを除去する。ヘイズ除去部400は、シーン制御部300によって生成されたパラメータを用いて、入力された画像からヘイズを除去してよい。表示部120は、ヘイズ除去部400によってヘイズが除去された画像を表示する。
 例えば、シーン制御部300は、動画にシーンチェンジが検出されていない場合には、複数のフレームに渡って段階的にヘイズ除去の強度を変化させるべく、ヘイズ除去処理に用いるパラメータを生成する。そして、ヘイズ除去部400は、シーン制御部300が生成したパラメータを用いることによって、動画にシーンチェンジが検出されていない場合には、複数のフレームに渡って段階的にヘイズ除去の強度を変化させる。これにより、ヘイズ除去によって画像が急激に変化してしまうことを防止でき、いわゆるフリッカーのような現象の発生を抑制できる。
 また、例えば、シーン制御部300は、動画にシーンチェンジが検出された場合には、動画にシーンチェンジが検出されていない場合よりも少ない数のフレームに渡って段階的にヘイズ除去の強度を変化させるべく、ヘイズ除去処理に用いるパラメータを生成する。そして、ヘイズ除去部400は、シーン制御部300が生成したパラメータを用いることによって、動画にシーンチェンジが検出された場合には、動画にシーンチェンジが検出されていない場合よりも少ない数のフレームに渡って段階的にヘイズ除去の強度を変化させる。
 なお、画像処理システム100は、シーン制御部300を備えなくてもよい。この場合、ヘイズ除去部400は、ヘイズ濃度推定部200によって導出された画像のヘイズ濃度の推定値に基づいて、入力された画像からヘイズを除去する。これにより、ヘイズ濃度推定部200によって推定されたヘイズ濃度に基づく、精度の高いヘイズ除去処理を実現することができる。
 図2は、ヘイズ濃度推定部200の機能構成の一例を概略的に示す。ヘイズ濃度推定部200は、平坦&強エッジ画素抽出部202、平均輝度算出部204、平均彩度算出部206、コントラスト算出部208、最大彩度取得部210、重み付け取得部212、ヘイズ濃度算出部214、ツール画面判定部216及びセレクタ218を備える。
 平坦&強エッジ画素抽出部202は、画像入力部110によって入力された画像から、平坦でも強エッジでもない画素を抽出する。平坦&強エッジ画素抽出部202は、例えば、画像から平坦又は強エッジである画素を抽出して、抽出した画素を当該画像から除外することによって、平坦でも強エッジでもない画素を抽出する。平坦&強エッジ画素抽出部202は、第1画素抽出部の一例であってよい。
 平均輝度算出部204は、平坦でも強エッジでもない画素の平均輝度値(AVEと記載する場合がある。)を算出する。平均輝度値は、輝度の評価値の一例であってよい。平均輝度算出部204は、輝度評価値導出部の一例であってよい。
 平均彩度算出部206は、平坦でも強エッジでもない画素の平均彩度値(AVEと記載する場合がある。)を算出する。平均彩度値は、彩度の評価値の一例であってよい。平均彩度算出部206は、彩度評価値導出部の一例であってよい。
 コントラスト算出部208は、平坦でも強エッジでもない画素のコントラスト値を算出する。コントラスト値は、コントラストの評価値の一例であってよい。コントラスト算出部208は、コントラスト評価値導出部の一例であってよい。
 コントラスト算出部208は、平坦でも強エッジでもない画素のヒストグラムを生成してよい。コントラスト算出部208は、任意のビン数のヒストグラムを生成してよい。そして、コントラスト算出部208は、生成したヒストグラムの最大値から最小値を減算して、ヒストグラム幅(HISTWIDTHと記載する場合がある。)を算出してよい。このとき、コントラスト算出部208は、複数のビンのうち、その値が閾値を超えているビンのうちの最大値から最小値を減算してよい。
 HISTWIDTHは、コントラスト値の一例であってよい。コントラスト算出部208は、ヒストグラムのビン数を、ヒストグラムの最大幅(MAXWIDTHと記載する場合がある。)として出力してよい。
 最大彩度取得部210は、画像処理システム100における最大彩度(MAXと記載する場合がある。)を取得する。重み付け取得部212は、画像のヘイズ濃度を算出するときに用いる重み付け値(coefと記載する場合がある。)を取得する。重み付け取得部212は、例えば、画像処理システム100の製造者又は使用者によって指定されたcoefを取得する。
 ヘイズ濃度算出部214は、画像のヘイズ濃度の推定値(Strengthと記載する場合がある。)を算出する。ヘイズ濃度算出部214は、平坦でも強エッジでもない画素の輝度の評価値、彩度の評価値及びコントラストの評価値に基づいて、Strengthを算出してよい。
 ヘイズ濃度算出部214は、平均輝度算出部204によって算出された平均輝度値と、平均彩度算出部206によって算出された平均彩度値と、コントラスト算出部208によって算出されたコントラスト値とに基づいて、Strengthを算出してよい。ヘイズ濃度算出部214は、平均輝度値と、平均彩度値と、コントラスト値とを乗算することによって、Strengthを算出してよい。ヘイズ濃度算出部214は、平均彩度値と、最大彩度から平均彩度値を減算した値と、ヒストグラムの最大幅からコントラスト値を減算した値とを乗算してよい。
 このとき、ヘイズ濃度算出部214は、平均輝度値に重み付けをしてよい。例えば、ヘイズ濃度算出部214は、値が高いほどより値が高くなり、値が低いほどより値が低くなる重み付けをしてよい。また、ヘイズ濃度算出部214は、平均彩度値に重み付けをしてよい。例えば、ヘイズ濃度算出部214は、値が高いほどより値が高くなり、値が低いほどより値が低くなる重み付けをしてよい。
 ヘイズ濃度算出部214は、例えば、下記数式1によって、Strengthを算出する。
Figure JPOXMLDOC01-appb-M000001
 これにより、ヘイズ濃度算出部214は、平均輝度値が高いほど高い値のヘイズ濃度の推定値を導出でき、平均彩度値が低いほど高い値のヘイズ濃度の推定値を導出でき、コントラスト値が低いほど高い値のヘイズ濃度の推定値を導出できる。画像のヘイズ濃度が高い場合、画像のコントラストが低く、平均の輝度が高くかつ平均の彩度が低いという仮定が成り立つことから、ヘイズ濃度算出部214によれば、ヘイズの特徴を反映した、より精度の高いヘイズ濃度の推定値を算出することができる。
 ツール画面判定部216は、入力された画像がツール画面であるか否かを判定する。ツール画面とは、例えば、表示部120の表示パラメータを設定する画面及び画像の表示パラメータを設定する画面等である。
 例えば、表示部120が監視カメラ映像を表示している間に、監視カメラ映像内にヘイズが発生したときは、ヘイズ除去部400によってヘイズ除去処理が実行されることが望ましい。一方、表示部120が監視カメラ映像を表示している間に、監視カメラ映像の閲覧者が表示パラメータの設定を変更するべくツール画面を表示させた場合、当該ツール画面に対してヘイズ除去処理が実行されてしまうと、不必要に画面が暗くなったり、ちらついたりしてしまう場合がある。
 そこで、本実施形態に係るヘイズ濃度推定部200は、入力された画像がツール画面と判定された場合には、ヘイズ濃度の推定値として0を出力し、入力された画像がツール画面と判定されなかった場合、ヘイズ濃度算出部214によって算出されたStrengthを出力するよう制御する。
 具体的には、セレクタ218が、ヘイズ濃度算出部214によって算出されたStrengthと、ツール画面判定部216によるツール画面判定結果を受信して、入力された画像がツール画面でない場合にはStrengthをシーン制御部300又はヘイズ除去部400に出力し、入力された画像がツール画面である場合には0をシーン制御部300又はヘイズ除去部400に出力する。これにより、ヘイズ除去部400は、入力された画像がツール画面であることを判別することができる。ヘイズ除去部400は、入力された画像がツール画面である場合には、ヘイズ除去処理を実行しないことを決定してよい。なお、ヘイズ濃度推定部200は、0を出力する代わりに、低い値の推定値を出力してもよい。例えば、ヘイズ濃度推定部200は、ヘイズ濃度算出部214によって算出されるStrengthの最小値よりも低い値の推定値を出力する。
 ツール画面判定部216は、平坦&強エッジ画素抽出部202によって抽出された平坦でも強エッジでもない画素に基づいて、入力された画像がツール画面であるか否かを判定してよい。ここで、平坦&強エッジ画素抽出部202は、平均輝度算出部204、平均彩度算出部206及びコントラスト算出部208に対して出力する平坦でも強エッジでもない画素を抽出する第1の基準とは異なる第2の基準に従って、ツール画面判定部216に対して出力する平坦でも強エッジでもない画素を抽出してよい。第2の基準は、第1の基準に比べて、平坦でも強エッジでもない画素と判定されにくい基準であってよい。平坦&強エッジ画素抽出部202は、第2画素抽出部の一例であってよい。
 ツール画面判定部216は、入力された画像の全画素に対する、平坦&強エッジ画素抽出部202から受信した平坦でも強エッジでもない画素の割合が、予め定められた閾値以下の場合、ツール画面でないと判定し、予め定められた閾値より大きい場合、ツール画面であると判定してよい。
 また、ツール画面判定部216は、第1の基準に従って抽出された平坦又は強エッジである画素に対する、第2の基準に従って抽出された平坦又は強エッジである画素の割合が、予め定められた閾値以下の場合に、ツール画面であると判定し、予め定められた閾値より大きい場合、ツール画面でないと判定してもよい。
 なお、ツール画面判定部216によれば、ツール画面に限らず、入力された画像における、平坦でも強エッジでもない画素の割合が小さい画面であれば、他の種類の画面であっても判定することができる。例えば、ツール画面判定部216によれば、入力された画像が、表示部120の表示領域全体における、画像表示領域以外の領域の割合が高い画像であるか否かを判定できる。ツール画面判定部216は、入力された画像が、ヘイズ除去処理を実行する対象であるか否かを判定するヘイズ除去処理対象判定部の一例であってよい。
 なお、ここでは、平均輝度算出部204、平均彩度算出部206及びコントラスト算出部208が、平坦でも強エッジでもない画素の平均輝度値、平均彩度値及びコントラスト値を算出する場合を例に挙げて説明したが、これに限らない。平均輝度算出部204、平均彩度算出部206及びコントラスト算出部208は、入力された画像の全体の平均輝度値、平均彩度値及びコントラスト値を算出してもよい。また、平均輝度算出部204、平均彩度算出部206及びコントラスト算出部208は、入力された画像の一部の平均輝度値、平均彩度値及びコントラスト値を算出してもよい。
 図3は、平坦&強エッジ画素の抽出処理の一例を説明するための図である。平坦&強エッジ画素抽出部202は、注目画素230が平坦又は強エッジであるか否かを判定する場合、まず、注目画素230を中心とした縦横それぞれ7画素について画素値の最大値及び最小値を取得する。
 次に、平坦&強エッジ画素抽出部202は、縦方向の7画素及び横方向の7画素のそれぞれについて、最大値から最小値を減算した値を算出する。そして、平坦&強エッジ画素抽出部202は、縦方向及び横方向の少なくとも一方において、最大値から最小値を減算した値が、第1閾値以下である場合、及び、第1閾値よりも大きな値の第2閾値以上である場合に、注目画素230を、平坦又は強エッジである画素として判定する。
 なお、縦方向の画素数及び横方向の画素数は7画素以外の画素数であってもよい。また、平坦&強エッジ画素抽出部202は、第1の基準に従って平坦又は強エッジである画素を抽出する場合、第1閾値及び第2閾値を用いてよく、第2の基準に従って平坦又は強エッジである画素を抽出する場合、第1閾値より大きくかつ第2閾値より小さい第3閾値と、第3閾値より大きくかつ第2閾値より小さい第4閾値とを用いてよい。
 図4Aは、重み付けグラフ240一例を概略的に示す。また、図4Bは、重み付けグラフ242の一例を概略的に示す。重み付けグラフ240は、ヘイズ濃度算出部214が、平均輝度値に対して重み付けをするときに用いる重み付け値の一例を示す。図4A及び図4Bでは、入力信号が10bitである場合を例示する。ヘイズ濃度算出部214は、重み付けグラフ240に従って平均輝度値に対して重み付けをすることによって、平均輝度値が高いほどより値が高くなり、平均輝度値が低いほどより値が低くなる重み付けをすることができる。
 ヘイズ濃度算出部214は、平均彩度値に対して重み付けをするときにも、重み付けグラフ240を用いてよい。ヘイズ濃度算出部214は、平均輝度値に対して重み付けをするときと、平均彩度値に対して重み付けをするときとで、値が同じ重み付けグラフ240を用いてよく、値が異なる重み付けグラフ240を用いてもよい。例えば、平均輝度値の重み付けを、平均彩度値よりも重くする場合、ヘイズ濃度算出部214は、重み付けグラフ242に示すように、より重み付けが重くなる重み付けグラフ242を用いて、平均輝度値に重み付けをしてよい。
 図5は、ヒストグラム値について説明するための図である。図5は、ヒストグラムのビン数を16とした場合を例示している。コントラスト算出部208は、図5に示すように、複数のビンのうち、その値が閾値を超えているビンの最大値から最小値を減算することによって、HISTWIDTHを算出してよい。
 図6は、シーン制御部300の機能構成の一例を概略的に示す。シーン制御部300は、シーンチェンジ判定部310、ヘイズ信頼度推定部330及びヘイズ除去パラメータ調整部360を備える。
 シーンチェンジ判定部310は、画像入力部110によって入力された動画にシーンチェンジが含まれるか否かを判定する。シーンチェンジ判定部310は、動画に含まれる複数のフレームのそれぞれについて、シーンチェンジしたフレームであるか否かを示すシーンチェンジフラグを対応付けてよい。
 ヘイズ信頼度推定部330は、画像入力部110によって入力された動画に含まれるフレームについて、ヘイズ濃度推定部200から出力されたStrengthの信頼度を推定する。
 ヘイズ除去パラメータ調整部360は、ヘイズ信頼度推定部330が推定した信頼度と、シーンチェンジ判定部310が生成したシーンチェンジフラグとに基づいて、動画に含まれる複数のフレームに対するヘイズ除去処理に用いるパラメータを調整して、ヘイズ除去部400に出力する。
 図7は、シーンチェンジ判定部310の機能構成の一例を概略的に示す。シーンチェンジ判定部310は、高彩度画素抽出部312、色相ヒストグラム生成部314、高彩度画素率計測部316、平坦&強エッジ画素抽出部318、平均輝度算出部320、平均彩度算出部322及び判定処理部324を備える。
 高彩度画素抽出部312は、画像入力部110によって入力された動画に含まれる複数のフレームのうちの一のフレームから、高彩度画素を抽出する。高彩度画素は、その彩度が予め定められた閾値より高い画素であってよい。高彩度画素抽出部312は、RGBデータを受信した場合、フレームに含まれる複数の画素のそれぞれについて、R成分、G成分及びB成分の最大値と最小値との差分が予め定められた閾値以上である画素を高彩度画素として抽出してよい。また、高彩度画素抽出部312は、HSVデータを受信した場合、フレームに含まれる複数の画素のそれぞれについて、S成分が予め定められた閾値以上である画素を高彩度画素として抽出してよい。
 色相ヒストグラム生成部314は、高彩度画素抽出部312によって抽出された高彩度画素について、色相のヒストグラム(HueHISTと記載する場合がある。)を生成する。なお、ここでは、色相ヒストグラム生成部314が、高彩度画素抽出部312によって抽出された高彩度画素についてHueHISTを生成する場合を例に挙げて説明するが、これに限らない。色相ヒストグラム生成部314は、画像入力部110によって入力された動画に含まれるフレームについてHueHISTを生成してもよい。
 高彩度画素率計測部316は、一のフレームにおける高彩度画素の割合を示す高彩度画素率(HighSatRateと記載する場合がある。)を計測する。高彩度画素率計測部316は、一のフレームの全画素に対する光彩度画素の割合をHighSatRateとしてよい。高彩度画素率計測部316は、一のフレームにおける高彩度画素率を導出する高彩度画素率導出部の一例であってよい。
 平坦&強エッジ画素抽出部318は、画像入力部110によって入力された動画に含まれる複数のフレームのうちの一のフレームから、平坦でも強エッジでもない画素を抽出する。平坦&強エッジ画素抽出部318は、平坦&強エッジ画素抽出部202と同様に平坦でも強エッジでもない画素を抽出してよい。このとき、平坦&強エッジ画素抽出部318は、第1の基準に従って平坦でも強エッジでもない画素を抽出してもよく、第2の基準に従って平坦でも強エッジでもない画素を抽出してもよく、また、他の基準に従って平坦でも強エッジでもない画素を抽出してもよい。
 平均輝度算出部320は、平坦&強エッジ画素抽出部318によって抽出された平坦でも強エッジでもない画素のAVEを算出する。なお、ここでは、平均輝度算出部320が、平坦&強エッジ画素抽出部318によって抽出された平坦でも強エッジでもない画素のAVEを算出する場合を例に挙げて説明するが、これに限らない。平均輝度算出部320は、画像入力部110によって入力された動画に含まれるフレームについてAVEを算出してもよい。
 平均彩度算出部322は、平坦&強エッジ画素抽出部318によって抽出された平坦でも強エッジでもない画素のAVEを算出する。なお、ここでは、平均彩度算出部322が、平坦&強エッジ画素抽出部318によって抽出された平坦でも強エッジでもない画素のAVEを算出する場合を例に挙げて説明するが、これに限らない。平均彩度算出部322は、画像入力部110によって入力された動画に含まれるフレームについてAVEを算出してもよい。
 判定処理部324は、画像入力部110によって入力された動画にシーンチェンジが含まれるか否かを判定する判定処理を実行する。判定処理部324は、フレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグを生成して、ヘイズ除去パラメータ調整部360に出力する。
 判定処理部324は、高彩度画素率計測部316が計測した高彩度画素率が予め定められた閾値より高いか否かに応じて、異なる基準に基づいて、動画にシーンチェンジが含まれるか否かを判定してよい。
 判定処理部324は、高彩度画素率計測部316が計測した一のフレームについての高彩度画素率が予め定められた閾値よりも高い場合、当該一のフレームの色相と、当該一のフレームの過去のフレームの色相とに基づいて、動画にシーンチェンジが含まれるか否かを判定してよい。当該一のフレームの過去のフレームとは、例えば、当該一のフレームの前のフレームである。
 具体的に、判定処理部324は、色相ヒストグラム生成部314が生成した当該一のフレームのHueHISTと、当該一のフレームの過去のフレームの色相ヒストグラム(HueHIST_dlと記載する場合がある。)とのSAD(Sum of Absolute Difference)(HueHISTSADと記載する場合がある。)に基づいて、動画にシーンチェンジが含まれるか否かを判定してよい。
 例えば、判定処理部324は、HueHISTSADが第5閾値より低く、当該一のフレームのAVEと当該一のフレームの過去のフレームの平均輝度値(AVE_dlと記載する場合がある。)との差分絶対値が第6閾値より低く、当該一のフレームのAVEと当該一のフレームの過去のフレームの平均彩度値(AVE_dlと記載する場合がある。)との差分絶対値が第7閾値より低い場合、当該一のフレームはシーンチェンジしたフレームではないと判定し、それ以外の場合は、当該一のフレームはシーンチェンジしたフレームであると判定する。判定処理部324は、当該一のフレームがシーンチェンジしたフレームでないと判定した場合、当該一のフレームのシーンチェンジフラグをFalseとしてよい。判定処理部324は、当該一のフレームがシーンチェンジしたフレームであると判定した場合、当該一のフレームのシーンチェンジフラグをTrueとしてよい。
 判定処理部324は、高彩度画素率計測部316が計測した一のフレームについての高彩度画素率が予め定められた閾値以下の場合、当該一のフレームのHighSatRateと、当該一のフレームの過去のフレームの高彩度画素率(HighSatRate_dlと記載する場合がある。)とに基づいて、動画にシーンチェンジが含まれるか否かを判定してよい。
 例えば、判定処理部324は、HighSatRateとHighSatRate_dlとの差分絶対値が第8閾値より低く、AVEとAVE_dlとの差分絶対値が第6閾値より低く、AVEとAVE_dlとの差分絶対値が第7閾値より低い場合、当該一のフレームはシーンチェンジしたフレームであると判定し、それ以外の場合は、当該一のフレームはシーンチェンジしたフレームであると判定する。
 図8は、ヘイズ信頼度推定部330の機能構成の一例を概略的に示す。ヘイズ信頼度推定部330は、平坦&強エッジ画素抽出部332、平均輝度算出部334、高彩度画素抽出部336、高彩度画素率計測部338、ヘイズ濃度推定値取得部340及び信頼度算出部342を備える。
 平坦&強エッジ画素抽出部332は、画像入力部110によって入力された動画に含まれる複数のフレームのうちの一のフレームから、平坦でも強エッジでもない画素を抽出する。平坦&強エッジ画素抽出部332は、平坦&強エッジ画素抽出部202と同様に平坦でも強エッジでもない画素を抽出してよい。このとき、平坦&強エッジ画素抽出部332は、第1の基準に従って平坦でも強エッジでもない画素を抽出してもよく、第2の基準に従って平坦でも強エッジでもない画素を抽出してもよく、また、他の基準に従って平坦でも強エッジでもない画素を抽出してもよい。
 平均輝度算出部334は、平坦&強エッジ画素抽出部332によって抽出された平坦でも強エッジでもない画素のAVEを算出する。なお、ここでは、平均輝度算出部334が、平坦&強エッジ画素抽出部332によって抽出された平坦でも強エッジでもない画素のAVEを算出する場合を例に挙げて説明するが、これに限らない。平均輝度算出部334は、画像入力部110によって入力された動画に含まれるフレームについてAVEを算出してもよい。
 高彩度画素抽出部336は、画像入力部110によって入力された動画に含まれる複数のフレームのうちの一のフレームから、高彩度画素を抽出する。高彩度画素抽出部336は、フレームに含まれる複数の画素のそれぞれについて、R成分、G成分及びB成分の最大値と最小値との差分が予め定められた閾値以上である画素を高彩度画素として抽出してよい。
 高彩度画素率計測部338は、一のフレームにおけるHighSatRateを計測する。ヘイズ濃度推定値取得部340は、ヘイズ濃度推定部200が出力したStrengthを取得する。
 信頼度算出部342は、平均輝度算出部334が算出したAVEと、高彩度画素率計測部338が計測したHighSatRateとに基づいて、ヘイズ濃度推定値取得部340が取得したStrengthの信頼度を算出して、ヘイズ除去パラメータ調整部360に出力する。信頼度算出部342は、AVEとHighSatRateとに基づいてStrengthの信頼度を導出する信頼度導出部の一例であってよい。信頼度算出部342は、ヘイズ濃度推定値取得部340が取得したStrengthが、予め定められた閾値よりも大きいか否かに応じて、異なる基準で、Strengthの信頼度を算出してよい。
 信頼度算出部342は、ヘイズ濃度推定値取得部340が取得したStrengthが予め定められた閾値よりも大きい場合、AVEが大きいほど高い信頼度を算出し、かつ、HighSatRateが低いほど高い信頼度を算出してよい。また、信頼度算出部342は、ヘイズ濃度推定値取得部340が取得したStrengthが予め定められた閾値以下の場合、AVEが小さいほど高い信頼度を算出し、かつ、HighSatRateが高いほど高い信頼度を算出してよい。
 信頼度を算出する処理の具体例として、まず、信頼度算出部342は、ヘイズ濃度推定値取得部340が取得したStrength、平均輝度算出部334が算出したAVE、及び高彩度画素率計測部338が計測したHighSatRateのそれぞれに対して重み付けをする。
 信頼度算出部342は、例えば、Strength及びHighSatRateに対して、値が高いほどより値が高くなり、値が低いほどより値が低くなる重み付けをする。また、信頼度算出部342は、例えば、AVEに対して、値が高いほど値が低くなり、値が低いほど値が高くなる重み付けをする。重み付けをしたStrengthをStrengthWeightと記載する場合がある。重み付けをしたAVEをAVEWeightと記載する場合がある。重み付けをしたHighSatRateをHighSatRateWeightと記載する場合がある。
 次に、信頼度算出部342は、AVEWeight及びHighSatRateWeightのうち値が大きい方を、EvalMaxとする。そして、信頼度算出部342は、EvalMaxとStrengthWeightとの差分絶対値を、ヘイズ濃度の推定値の信頼度として算出する。
 図9は、重み付けグラフ352の一例を概略的に示す。重み付けグラフ352は、信頼度算出部342が、Strengthに対して重み付けをするときに用いる重み付け値の一例を示す。信頼度算出部342が、重み付けグラフ352に従ってStrengthに対して重み付けをすることによって、Strengthが高いほどより値が高くなり、Strengthが低いほどより値が低くなる重み付けをすることができる。重み付けグラフ352は、信頼度算出部342が、HighSatRateに対して重み付けをするときに用いられてもよい。
 図10は、重み付けグラフ354の一例を概略的に示す。重み付けグラフ354は、信頼度算出部342が、AVEに対して重み付けをするときに用いる重み付け値の一例を示す。信頼度算出部342が、重み付けグラフ354に従ってAVEに対して重み付けをすることによって、AVEが高いほど値が低くなり、Strengthが低いほど値が高くなる重み付けをすることができる。
 図11は、ヘイズ除去パラメータ調整部360の機能構成の一例を概略的に示す。ヘイズ除去パラメータ調整部360は、ヘイズ濃度目標値算出部362及びパラメータ調整部364を備える。
 ヘイズ濃度目標値算出部362は、一のフレームに対するヘイズ濃度目標値(TargetDepthと記載する場合がある)を算出する。TargetDepthとは、一のフレーム及び当該一のフレームに続く複数のフレームの内容が変化しない場合に収束すべきヘイズ除去パラメータを示す。
 ヘイズ濃度目標値算出部362は、当該一のフレームの過去のフレームのTargetDepth(TargetDepth_dlと記載する場合がある。)と、ヘイズ濃度推定部200から受信した当該一のフレームについてのStrengthと、信頼度算出部342から受信した当該Strengthの信頼度と、判定処理部324から受信した当該一のフレームについてのシーンチェンジフラグとに基づいて、当該一のフレームに対するTargetDepthを決定してよい。
 例えば、まず、ヘイズ濃度目標値算出部362は、StrengthとTargetDepth_dlとの差分絶対値(DiffDepthと記載する場合がある。)を算出する。そして、ヘイズ濃度目標値算出部362は、DiffDepthが第9閾値より大きくかつStrengthの信頼度が第10閾値より大きい場合、及び、シーンチェンジフラグがTrueである場合、StrengthをTargetDepthとし、それ以外の場合、TargetDepth_dlをTargetDepthとする。
 パラメータ調整部364は、当該一のフレームのヘイズ除去処理に用いるパラメータ(HazeRemovalStrengthと記載する場合がある。)を、ヘイズ濃度目標値算出部362によって当該一のフレームのTargetDepthとして決定されたStrength又はTargetDepth_dlに対応する値に段階的に近づけるように調整する。
 パラメータ調整部364は、ヘイズ濃度目標値算出部362によって決定されたTargetDepthと、前記一のフレームの過去のフレームのヘイズ除去処理に用いたパラメータ(HazeRemovalStrength_dlと記載する場合がある。)との差分絶対値(DiffStrengthと記載する場合がある。)と、Strengthの信頼度と、シーンチェンジフラグとに応じた調整量で、HazeRemovalStrengthを、ヘイズ濃度目標値算出部362によって当該一のフレームのTargetDepthとして決定されたStrength又はTargetDepth_dlに対応する値に段階的に近づけるように調整してよい。
 例えば、パラメータ調整部364は、シーンチェンジフラグがTrueの場合、第1の調整量で、HazeRemovalStrengthを、ヘイズ濃度目標値算出部362によって当該一のフレームのTargetDepthとして決定されたStrength又はTargetDepth_dlに対応する値に段階的に近づけるように調整する。また、パラメータ調整部364は、シーンチェンジフラグがFalseであり、DiffStrengthが第11閾値より大きく、かつ、Strengthの信頼度が第12閾値より大きい場合、第2の調整量で、HazeRemovalStrengthを、当該一のフレームのTargetDepthとして決定されたStrength又はTargetDepth_dlに対応する値に段階的に近づけるように調整する。また、パラメータ調整部364は、それ以外の場合には、第3の調整量で、HazeRemovalStrengthを、当該一のフレームのTargetDepthとして決定されたStrength又はTargetDepth_dlに対応する値に段階的に近づけるように調整する。ここで、第1の調整量は、第2の調整量及び第3の調整量より多く、第2の調整量は第3の調整量より多い。
 上述したように、ヘイズ濃度目標値算出部362は、Strengthの信頼度及びStrengthとTargetDepth_dlとの差分絶対値、又は、シーンチェンジフラグに基づいて、TargetDepth_dlと、Strengthとのいずれをヘイズ除去処理に用いるパラメータを調整するために用いるかを決定してよい。
 TargetDepth_dlを取得するヘイズ濃度目標値算出部362は、目標値取得部の一例であってよい。また、ヘイズ濃度目標値算出部362は、StrengthとTargetDepth_dlとの差分絶対値を算出する差分絶対値導出部の一例であってよい。また、ヘイズ濃度目標値算出部362は、当該一のフレームに対するTargetDepthを決定する目標値決定部の一例であってよい。
 図12は、ヘイズ除去部400の機能構成の一例を概略的に示す。ヘイズ除去部400は、照明光分離部402、パラメータ取得部410、除去処理部420及び合成部426を備える。
 照明光分離部402は、画像入力部110によって入力された画像Iから照明光成分Iを分離する。照明光分離部402は、画像Iから照明光成分Iを分離することができれば、どのような処理を行ってもよい。
 例えば、照明光分離部402は、エッジ保存型ローパスフィルタを用いて、画像Iから照明光成分Iを分離する。エッジ保存型ローパスフィルタとは、エッジを保存しつつ平滑化をおこなうフィルタである。照明光分離部402は、エッジ保存型ローパスフィルタとして、例えば、バイラテラルフィルタを用いる。照明光分離部402は、照明光成分I及び画像Iをパラメータ取得部410に対して出力してよい。
 パラメータ取得部410は、ヘイズ除去に用いるパラメータを取得する。パラメータ取得部410は、大気光算出部412、透過率算出部414及びヘイズ濃度推定値取得部416を有する。
 大気光算出部412は、画像Iの大気光Aを算出する。大気光算出部412は、画像Iの大気光Aを算出できれば、どのような処理を行ってもよい。例えば、大気光算出部412は、まず、画像Iの各画素に対して周辺画素を含めたRGBの最小値を算出する。次に、大気光算出部412は、画像Iから、算出した最小値が上位0.1%の画素を抽出する。そして、大気光算出部412は、抽出した画素のうち、最も輝度が高い画素の値を大気光Aとする。
 透過率算出部414は、画像入力部110によって入力された画像の複数の画素毎のヘイズ濃度に対応する透過率tを算出する。透過率算出部414は、透過率導出部の一例であってよい。透過率算出部414は、透過率tを算出できれば、どのような処理を行ってもよい。例えば、透過率算出部414は、下記数式2によって表されるダークチャネルプライア(Dark Channel Prior)(DCPと記載する場合がある。)に基づいて、透過率tを算出する。
Figure JPOXMLDOC01-appb-M000002
 IはIの色チャネルであり、Ω(x)はxを中心とする局所領域である。
 透過率算出部414は、数式2におけるDCPが透過率tを表すとの仮定に基づいて、DCPの値から透過率tを算出してよい。例えば、透過率算出部414は、下記数式3によって、透過率tを算出してよい。
Figure JPOXMLDOC01-appb-M000003
 ヘイズ濃度推定値取得部416は、ヘイズ濃度推定部200が出力したStrengthを取得する。
 パラメータ取得部410は、画像I、照明光成分I、大気光算出部412が算出した大気光A、透過率算出部414が算出した透過率t及びヘイズ濃度推定値取得部416が取得したStrengthを除去処理部に出力する。
 除去処理部420は、下記数式4によって表されるレティネックス理論と下記数式5によって表されるヘイズ画像の大気モデルとに基づいて、画像Iに対するヘイズ除去処理を実行する。
Figure JPOXMLDOC01-appb-M000004
Figure JPOXMLDOC01-appb-M000005
 上記数式5を変形すると下記数式6となる。
Figure JPOXMLDOC01-appb-M000006
 上記数式6に、レティネックス理論を適用し、それぞれを反射率成分及び照明光成分の積で表すと、下記数式7となる。
Figure JPOXMLDOC01-appb-M000007
 ここで、除去処理部420は、大気光に含まれる反射率成分が少ない又はないと近似できることを前提として、ヘイズ画像の大気モデルとレティネックス理論とを用いて、ヘイズ除去処理を実行してよい。例えば、大気光に含まれる反射率成分が、極小であるとした場合、下記数式8が成り立つものとみなすことができる。
Figure JPOXMLDOC01-appb-M000008
 また、除去処理部420は、大気光、原画像、入力画像に対して、それぞれの照明光成分のみに対して大気モデルが適用できることをさらに前提として、ヘイズ画像の大気モデルとレティネックス理論とを用いて、ヘイズ除去処理を実行してもよい。このような前提によれば、下記数式9が成り立つ。
Figure JPOXMLDOC01-appb-M000009
 上記数式8及び数式9を、上記数式7に適用することによって、下記数式10が得られる。
Figure JPOXMLDOC01-appb-M000010
 上記数式10から、Jの値は、Iが1より大きいときにIより大きくなり、Iが1より小さいときにIより小さくなることが導かれる。
 上記数式9及び数式10を用いることによって、除去処理部420は、反射率成分と照明光成分とに、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施してよい。例えば、除去処理部420は、上記数式9及び数式10に対して、透過率tを異ならせることによって、ヘイズ除去度を異ならせてよい。また、除去処理部420は、上記数式9及び上記数式10の結果に対して異なる重み付けをすることによって、ヘイズ除去度を異ならせてもよい。
 除去処理部420は、照明光成分処理部422及び反射率成分処理部424を有する。照明光成分処理部422は、画像の照明光成分に対してヘイズ除去処理を施す。反射率成分処理部424は、画像の反射率成分に対してヘイズ除去処理を施す。
 照明光成分処理部422は、パラメータ調整部364から受信したHazeRemovalStrengthを用いて、ヘイズ除去処理を実行してよい。例えば、照明光成分処理部422は、照明光成分I、大気光A、透過率t、HazeRemovalStrength及び上記数式9を用いて、ヘイズ除去処理を施した照明光成分Jを算出してよい。照明光成分処理部422は、HazeRemovalStrengthを用いて、透過率tを調整してよい。また、照明光成分処理部422は、透過率tに代えて、HazeRemovalStrengthを用いてもよい。また、照明光成分処理部422は、透過率tに代えて、HazeRemovalStrengthに基づく値を用いてもよい。照明光成分処理部422がパラメータ調整部364から受信したHazeRemovalStrengthを用いてヘイズ除去処理を実行する場合、パラメータ取得部410は、ヘイズ濃度推定値取得部416を有さなくてよい。また、ヘイズ濃度推定値取得部416がパラメータ調整部364からHazeRemovalStrengthを受信して、当該受信したHazeRemovalStrengthを除去処理部420に送信してもよい。
 照明光成分処理部422は、画像入力部110によって静止画が入力された場合及び画像処理システム100がシーン制御部300を備えない場合等においては、パラメータ取得部410から受信した、照明光成分I、大気光A、透過率t、Strength及び上記数式9を用いて、ヘイズ除去処理を施した照明光成分Jを算出してよい。照明光成分処理部422は、透過率tにStrengthを適用して、照明光成分Jを算出してよい。例えば、照明光成分処理部422は、透過率tにStrengthを乗算する。また、例えば、照明光成分処理部422は、Strengthの値に応じた重み付けを透過率tに対して行ってもよい。これにより、ヘイズ濃度推定部200によって推定されたStrengthを用いた、より高精度なヘイズ除去処理を実現できる。
 反射率成分処理部424は、パラメータ取得部410から受信した画像I及び照明光成分Iから、反射率成分Iを算出してよい。反射率成分処理部424は、パラメータ調整部364から受信したHazeRemovalStrengthを用いて、ヘイズ除去処理を実行してよい。例えば、反射率成分処理部424は、照明光成分I、反射率成分I、透過率t、HazeRemovalStrength及び上記数式10を用いて、ヘイズ除去処理を施した反射率成分Jを算出してよい。反射率成分処理部424は、HazeRemovalStrengthを用いて、透過率tを調整してよい。また、反射率成分処理部424は、透過率tに代えて、HazeRemovalStrengthを用いてもよい。また、反射率成分処理部424は、透過率tに代えて、HazeRemovalStrengthに基づく値を用いてもよい。反射率成分処理部424がパラメータ調整部364から受信したHazeRemovalStrengthを用いてヘイズ除去処理を実行する場合、パラメータ取得部410は、ヘイズ濃度推定値取得部416を有さなくてよい。また、ヘイズ濃度推定値取得部416が、パラメータ調整部364からHazeRemovalStrengthを受信して、当該受信したHazeRemovalStrengthを除去処理部420に送信してもよい。
 反射率成分処理部424は、画像入力部110によって静止画が入力された場合及び画像処理システム100がシーン制御部300を備えない場合等においては、照明光成分I、反射率成分I、透過率t、Strength及び上記数式10を用いて、ヘイズ除去処理を施したJを算出してよい。反射率成分処理部424は、透過率tにStrengthを適用して、Jを算出してよい。例えば、反射率成分処理部424は、透過率tにStrengthを乗算する。また、例えば反射率成分処理部424は、Strengthの値に応じた重み付けを透過率tに対して行ってもよい。これにより、ヘイズ濃度推定部200によって推定されたStrengthを用いた、より高精度なヘイズ除去処理を実現できる。
 合成部426は、照明光成分処理部422によってヘイズ除去処理が施された照明光成分Jと、反射率成分処理部424によってヘイズ除去処理が施された反射率成分Jとを合成する。合成部426は、JとJとを合成することによって、出力画像Jを生成する。合成部426によって生成された出力画像Jは、表示部120によって表示されてよい。
 本実施形態では、画像処理システム100が、ヘイズ濃度推定部200、シーン制御部300及びヘイズ除去部400を備える表示装置である場合を例に挙げて説明したが、これに限らない。画像処理システム100は、ヘイズ濃度推定部200、シーン制御部300及びヘイズ除去部400のうちの少なくとも1つを備える表示装置であってもよい。
 また、画像処理システム100は、シーン制御部300が備えるシーンチェンジ判定部310、ヘイズ信頼度推定部330及びヘイズ除去パラメータ調整部360のうち、シーンチェンジ判定部310のみを備える表示装置であってもよい。また、画像処理システム100は、ヘイズ信頼度推定部330のみを備える表示装置であってもよい。このとき、ヘイズ濃度推定値取得部340は、ヘイズ濃度推定部200によって出力されたStrengthではなく、他の装置等によって推定されたヘイズ濃度推定値を取得してもよい。
 また、画像処理システム100が、ヘイズ濃度推定部200、シーン制御部300及びヘイズ除去部400のうちのヘイズ除去部400のみを備える表示装置である場合、ヘイズ濃度推定値取得部416は、ヘイズ濃度推定部200によって出力されたStrengthではなく、他の装置等によって推定されたヘイズ濃度推定値を取得してもよい。
 また、本実施形態では、画像処理システム100が表示装置である場合を例に挙げて説明したが、これに限らない。画像を処理する装置であれば、他の種類の装置であってもよい。例えば、画像処理システム100は、スマートフォン等の携帯電話、タブレット端末、パーソナルコンピュータ及び情報家電等であってよい。また、画像処理システム100は、表示部120を有さず、外部の表示部に画像を表示させる装置であってもよい。
 以上の説明において、画像処理システム100の各部は、ハードウエアにより実現されてもよく、ソフトウエアにより実現されてもよい。また、ハードウエアとソフトウエアとの組み合わせにより実現されてもよい。また、プログラムが実行されることにより、コンピュータが、画像処理システム100として機能してもよい。プログラムは、コンピュータ読み取り可能な媒体又はネットワークに接続された記憶装置から、画像処理システム100の少なくとも一部を構成するコンピュータにインストールされてよい。
 コンピュータにインストールされ、コンピュータを本実施形態に係る画像処理システム100として機能させるプログラムは、CPU等に働きかけて、コンピュータを、画像処理システム100の各部としてそれぞれ機能させる。これらのプログラムに記述された情報処理は、コンピュータに読込まれることにより、ソフトウエアと画像処理システム100のハードウエア資源とが協働した具体的手段として機能する。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
100 画像処理システム、110 画像入力部、120 表示部、200 ヘイズ濃度推定部、202 平坦&強エッジ画素抽出部、204 平均輝度算出部、206 平均彩度算出部、208 コントラスト算出部、210 最大彩度取得部、212 重み付け取得部、214 ヘイズ濃度算出部、216 ツール画面判定部、218 セレクタ、230 注目画素、240 重み付けグラフ、242 重み付けグラフ、300 シーン制御部、310 シーンチェンジ判定部、312 高彩度画素抽出部、314 色相ヒストグラム生成部、316 高彩度画素率計測部、318 平坦&強エッジ画素抽出部、320 平均輝度算出部、322 平均彩度算出部、324 判定処理部、330 ヘイズ信頼度推定部、332 平坦&強エッジ画素抽出部、334 平均輝度算出部、336 高彩度画素抽出部、338 高彩度画素率計測部、340 ヘイズ濃度推定値取得部、342 信頼度算出部、352 重み付けグラフ、354 重み付けグラフ、360 ヘイズ除去パラメータ調整部、362 ヘイズ濃度目標値算出部、364 パラメータ調整部、400 ヘイズ除去部、402 照明光分離部、410 パラメータ取得部、412 大気光算出部、414 透過率算出部、416 ヘイズ濃度推定値取得部、420 除去処理部、422 照明光成分処理部、424 反射率成分処理部、426 合成部

Claims (20)

  1.  画像の少なくとも一部の領域の輝度の評価値を導出する輝度評価値導出部と、
     前記領域の彩度の評価値を導出する彩度評価値導出部と、
     前記領域のコントラストの評価値を導出するコントラスト評価値導出部と、
     前記輝度の評価値、前記彩度の評価値及び前記コントラストの評価値に基づいて、前記画像のヘイズ濃度の推定値を導出するヘイズ濃度推定部と
     を備える画像処理システム。
  2.  前記画像から平坦でも強エッジでもない画素を抽出する第1画素抽出部
     を更に備え、
     前記ヘイズ濃度推定部は、前記第1画素抽出部によって抽出された前記平坦でも強エッジでもない画素の輝度の評価値、彩度の評価値及びコントラストの評価値に基づいて、前記ヘイズ濃度の推定値を導出する、請求項1に記載の画像処理システム。
  3.  画像から平坦でも強エッジでもない画素を抽出する第1画素抽出部と、
     前記第1画素抽出部によって抽出された前記平坦でも強エッジでもない画素の輝度の評価値、彩度の評価値及びコントラストの評価値の少なくとも2つに基づいて、前記画像のヘイズ濃度の推定値を導出するヘイズ濃度推定部と
     を備える画像処理システム。
  4.  前記輝度の評価値は、前記領域の平均輝度値であり、
     前記彩度の評価値は、前記領域の平均彩度値であり、
     前記コントラストの評価値は、前記領域のコントラスト値であり、
     前記ヘイズ濃度推定部は、前記平均輝度値が高いほど高い値の前記ヘイズ濃度の推定値を導出し、前記平均彩度値が低いほど高い値の前記ヘイズ濃度の推定値を導出し、前記コントラスト値が低いほど高い値の前記ヘイズ濃度の推定値を導出する、請求項1に記載の画像処理システム。
  5.  前記画像は複数のフレームを含む動画であり、
     前記複数のフレームのうちの一のフレームにおける、彩度が予め定められた閾値より高い高彩度画素を抽出する高彩度画素抽出部と、
     前記一のフレームにおける前記高彩度画素の割合を示す高彩度画素率を導出する高彩度画素率導出部と、
     前記高彩度画素率が予め定められた閾値より高いか否かに応じて、異なる基準に基づいて、前記画像にシーンチェンジが含まれるか否かを判定するシーンチェンジ判定部と
     を更に備える、請求項1から4のいずれか一項に記載の画像処理システム。
  6.  前記一のフレームにおける前記高彩度画素率と、前記一のフレームの平均輝度値とに基づいて、前記一のフレームの前記ヘイズ濃度の推定値の信頼度を導出する信頼度導出部
     を更に備える、請求項5に記載の画像処理システム。
  7.  前記信頼度導出部が導出した前記一のフレームのヘイズ濃度の推定値の信頼度と、前記一のフレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグとに基づいて、前記一のフレームに対するヘイズ除去処理に用いるパラメータを調整するパラメータ調整部
     を更に備える、請求項6に記載の画像処理システム。
  8.  前記画像の複数の画素毎のヘイズ濃度に対応する透過率を導出する透過率導出部と、
     前記ヘイズ濃度の推定値及び前記透過率に基づいて、前記画像にヘイズ除去処理を実行するヘイズ除去部と
     を更に備える、請求項1から4のいずれか一項に記載の画像処理システム。
  9.  前記画像から平坦でも強エッジでもない画素を抽出する第2画素抽出部
     をさらに備え、
     前記ヘイズ除去部は、前記第2画素抽出部によって抽出された前記平坦でも強エッジでもない画素の、前記画像における割合に基づいて、前記ヘイズ除去処理を実行するか否かを決定する、請求項8に記載の画像処理システム。
  10.  動画に含まれる複数のフレームのうちの一のフレームから、彩度が予め定められた閾値より高い高彩度画素を抽出する高彩度画素抽出部と、
     前記一のフレームにおける前記高彩度画素の割合を示す高彩度画素率を導出する高彩度画素率導出部と、
     前記一のフレームにおける前記高彩度画素率が予め定められた閾値より高いか否かに応じて、異なる基準に基づいて、前記動画にシーンチェンジが含まれるか否かを判定するシーンチェンジ判定部と
     を備える、画像処理システム。
  11.  前記シーンチェンジ判定部は、前記高彩度画素率が前記閾値よりも高い場合、前記一のフレームの色相と、前記一のフレームの過去のフレームの色相とに基づいて、前記画像にシーンチェンジが含まれるか否かを判定し、前記高彩度画素率が前記閾値以下の場合、前記一のフレームの高彩度画素率と、前記一のフレームの過去のフレームの高彩度画素率とに基づいて、前記画像にシーンチェンジが含まれるか否かを判定する、請求項10に記載の画像処理システム。
  12.  前記一のフレームのヘイズ濃度の推定値を取得するヘイズ濃度推定値取得部と、
     前記一のフレームにおける前記高彩度画素率と、前記一のフレームの平均輝度値とに基づいて、前記ヘイズ濃度の推定値の信頼度を導出する信頼度導出部と
     を更に備える、請求項10又は11に記載の画像処理システム。
  13.  前記信頼度導出部は、前記推定値が予め定められた閾値よりも高い場合、前記平均輝度値が大きいほど高い信頼度を導出し、かつ、前記高彩度画素率が低いほど高い信頼度を導出し、前記推定値が予め定められた閾値以下の場合、前記平均輝度値が小さいほど高い信頼度を導出し、かつ、前記高彩度画素率が高いほど高い信頼度を導出する、請求項12に記載の画像処理システム。
  14.  前記一のフレームの過去のフレームのヘイズ濃度目標値を取得する目標値取得部と、
     前記信頼度導出部が導出した前記信頼度に基づいて、前記目標値取得部が取得した前記ヘイズ濃度目標値と、前記ヘイズ濃度推定値取得部が取得した前記ヘイズ濃度の推定値とのいずれをヘイズ除去処理に用いるパラメータを調整するために用いるかを決定する目標値決定部と
     を更に備える、請求項12又は13に記載の画像処理システム。
  15.  前記目標値取得部が取得したヘイズ濃度目標値と、前記ヘイズ濃度推定値取得部が取得した前記ヘイズ濃度の推定値との差分絶対値を導出する差分絶対値導出部
     を更に備え、
     前記目標値決定部は、前記推定値の信頼度及び前記差分絶対値、又は、前記一のフレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグに基づいて、前記目標値取得部が取得した前記ヘイズ濃度目標値と、前記ヘイズ濃度推定値取得部が取得した前記ヘイズ濃度の推定値とのいずれをヘイズ除去処理に用いるパラメータを調整するために用いるかを決定する、請求項14に記載の画像処理システム。
  16.  前記一のフレームのヘイズ除去処理に用いるパラメータを、前記目標値決定部によって決定された前記ヘイズ濃度目標値又は前記ヘイズ濃度の推定値に対応する値に段階的に近づけるように調整するパラメータ調整部
     を更に備える、請求項14又は15に記載の画像処理システム。
  17.  前記パラメータ調整部は、前記目標値決定部によって決定された前記ヘイズ濃度目標値又は前記ヘイズ濃度の推定値と、前記一のフレームの過去のフレームのヘイズ除去処理に用いたパラメータとの差分絶対値、前記ヘイズ濃度の推定値の信頼度、及び前記一のフレームがシーンチェンジしたフレームであるかを示すシーンチェンジフラグに応じた調整量で、前記ヘイズ除去処理に用いるパラメータを、前記目標値決定部によって決定された前記ヘイズ濃度目標値又は前記ヘイズ濃度の推定値に対応する値に段階的に近づけるように調整する、請求項16に記載の画像処理システム。
  18.  画像のヘイズ濃度を取得するヘイズ濃度取得部と、
     前記ヘイズ濃度に基づいて、前記画像の反射率成分と前記画像の照明光成分に、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施す除去処理部と、
     前記ヘイズ除去処理が施された前記反射率成分及び前記照明光成分を合成する合成部と
     を備え、
     前記除去処理部は、大気光に含まれる反射率成分がないと近似できることを前提として、ヘイズ画像の大気モデルとレティネックス理論とを用いて、前記画像の反射率成分と前記画像の照明光成分とに、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施す、画像処理システム。
  19.  前記除去処理部は、前記照明光成分のみに対して前記ヘイズ画像の大気モデルが適用できることをさらに前提として、ヘイズ画像の大気モデルとレティネックス理論とを用いて、前記画像の反射率成分と前記画像の照明光成分とに、ヘイズ除去度がそれぞれ異なるヘイズ除去処理を施す、請求項18に記載の画像処理システム。
  20.  コンピュータを、請求項1から19のいずれか一項に記載の画像処理システムとして機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2015/056086 2014-06-12 2015-03-02 画像処理システム及びコンピュータ読み取り可能な記録媒体 WO2015190136A1 (ja)

Priority Applications (22)

Application Number Priority Date Filing Date Title
ES15805972T ES2712452T3 (es) 2014-06-12 2015-03-02 Sistema de procesamiento de imagen y soporte de registro legible por ordenador
RU2017100022A RU2664415C2 (ru) 2014-06-12 2015-03-02 Система обработки изображений и машиночитаемый записывающий носитель
AU2015272846A AU2015272846B2 (en) 2014-06-12 2015-03-02 Image processing system and computer-readable recording medium
EP15805972.5A EP3156969B1 (en) 2014-06-12 2015-03-02 Image processing system and computer-readable recording medium
JP2016527661A JP6225255B2 (ja) 2014-06-12 2015-03-02 画像処理システム及びプログラム
CN201580031438.9A CN106462953B (zh) 2014-06-12 2015-03-02 图像处理系统及计算机可读记录介质
ES15807220.7T ES2681294T3 (es) 2014-06-12 2015-04-27 Sistema de procesamiento de imágenes y medio de grabación legible por ordenador
RU2017100021A RU2654159C1 (ru) 2014-06-12 2015-04-27 Система обработки изображений и машиночитаемый записывающий носитель
JP2016527684A JP6225256B2 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
JP2016527685A JP6228671B2 (ja) 2014-06-12 2015-04-27 画像処理システム及びプログラム
AU2015272799A AU2015272799B2 (en) 2014-06-12 2015-04-27 Image processing system and computer-readable storage medium
CN201580031412.4A CN106663326B (zh) 2014-06-12 2015-04-27 图像处理系统及计算机可读记录介质
PCT/JP2015/062728 WO2015190183A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
EP15806110.1A EP3156970B1 (en) 2014-06-12 2015-04-27 Haze removal
PCT/JP2015/062729 WO2015190184A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
RU2017100023A RU2648955C1 (ru) 2014-06-12 2015-04-27 Система обработки изображений и машиночитаемый записывающий носитель
CN201580031509.5A CN106462954B (zh) 2014-06-12 2015-04-27 图像处理系统
AU2015272798A AU2015272798B2 (en) 2014-06-12 2015-04-27 Image processing system and computer-readable recording medium
EP15807220.7A EP3156971B1 (en) 2014-06-12 2015-04-27 Image processing system and computer-readable recording medium
US15/371,230 US10157451B2 (en) 2014-06-12 2016-12-07 Image processing system and computer-readable recording medium
US15/372,400 US9972074B2 (en) 2014-06-12 2016-12-08 Image processing system and computer-readable recording medium
US15/372,402 US10096092B2 (en) 2014-06-12 2016-12-08 Image processing system and computer-readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPPCT/JP2014/003131 2014-06-12
PCT/JP2014/003131 WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法

Related Parent Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2014/003131 Continuation-In-Part WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法
PCT/JP2014/003131 Continuation WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法

Related Child Applications (3)

Application Number Title Priority Date Filing Date
PCT/JP2015/062728 Continuation-In-Part WO2015190183A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
PCT/JP2015/062729 Continuation-In-Part WO2015190184A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
US15/371,230 Continuation US10157451B2 (en) 2014-06-12 2016-12-07 Image processing system and computer-readable recording medium

Publications (1)

Publication Number Publication Date
WO2015190136A1 true WO2015190136A1 (ja) 2015-12-17

Family

ID=54833008

Family Applications (4)

Application Number Title Priority Date Filing Date
PCT/JP2014/003131 WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法
PCT/JP2015/056086 WO2015190136A1 (ja) 2014-06-12 2015-03-02 画像処理システム及びコンピュータ読み取り可能な記録媒体
PCT/JP2015/062728 WO2015190183A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
PCT/JP2015/062729 WO2015190184A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/003131 WO2015189874A1 (ja) 2014-06-12 2014-06-12 霧除去装置および画像生成方法

Family Applications After (2)

Application Number Title Priority Date Filing Date
PCT/JP2015/062728 WO2015190183A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体
PCT/JP2015/062729 WO2015190184A1 (ja) 2014-06-12 2015-04-27 画像処理システム及びコンピュータ読み取り可能な記録媒体

Country Status (8)

Country Link
US (4) US10102614B2 (ja)
EP (4) EP3156968B1 (ja)
JP (4) JP6228670B2 (ja)
CN (4) CN106462947B (ja)
AU (4) AU2014397095B2 (ja)
ES (3) ES2727929T3 (ja)
RU (4) RU2658874C1 (ja)
WO (4) WO2015189874A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101976318B1 (ko) * 2018-03-22 2019-05-07 하이윈 테크놀로지스 코포레이션 디헤이즈드 의료 이미지를 보정하기 위한 방법

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017001081A1 (en) * 2015-06-30 2017-01-05 Heraeus Deutschland GmbH & Co. KG Process for the production of a pgm-enriched alloy
CN107872608B (zh) * 2016-09-26 2021-01-12 华为技术有限公司 图像采集设备及图像处理方法
KR101942198B1 (ko) * 2017-12-27 2019-04-11 중앙대학교 산학협력단 레티넥스 모델을 기반으로 하여 영상을 개선하는 단말 장치 및 방법과 이를 수행하는 기록 매체
TWI724375B (zh) * 2018-02-23 2021-04-11 富智捷股份有限公司 圖像去霧霾方法、電子設備及電腦可讀取記錄媒體
CN108416316B (zh) * 2018-03-19 2022-04-05 中南大学 一种黑烟车的检测方法及系统
JP7109317B2 (ja) 2018-09-06 2022-07-29 株式会社クボタ 水田作業機
CN109028233B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 厨房油烟浓度划分方法及油烟图像识别系统及油烟机
CN109028234B (zh) * 2018-09-29 2020-11-10 佛山市云米电器科技有限公司 一种能够对烟雾等级进行标识的油烟机
CN109242805B (zh) * 2018-10-24 2021-09-28 西南交通大学 一种基于独立分量分析的单幅图像雾霾快速去除方法
JP7421273B2 (ja) * 2019-04-25 2024-01-24 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
CN110223258A (zh) * 2019-06-12 2019-09-10 西南科技大学 一种多模式快速视频图像去雾方法及装置
CN112419162B (zh) * 2019-08-20 2024-04-05 浙江宇视科技有限公司 图像去雾方法、装置、电子设备及可读存储介质
CN111192210B (zh) * 2019-12-23 2023-05-26 杭州当虹科技股份有限公司 一种自适应增强的视频去雾方法
CN113674158A (zh) * 2020-05-13 2021-11-19 浙江宇视科技有限公司 图像处理方法、装置、设备及存储介质
CN112011696B (zh) 2020-08-19 2021-05-18 北京科技大学 一种火法富集铝基废催化剂中铂族金属的方法
US11641456B2 (en) 2020-09-14 2023-05-02 Himax Technologies Limited Image rendering method and apparatus
US11790545B2 (en) * 2020-09-14 2023-10-17 Himax Technologies Limited Method and apparatus to control light source in structured light imaging
CN114519683A (zh) * 2020-11-20 2022-05-20 北京晶视智能科技有限公司 图像处理方法及应用其的图像处理装置
US11528435B2 (en) 2020-12-25 2022-12-13 Industrial Technology Research Institute Image dehazing method and image dehazing apparatus using the same

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160146A (ja) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd 画像認識方法および画像認識装置
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
JP2007266838A (ja) * 2006-03-28 2007-10-11 Sharp Corp 記録再生装置、記録再生方法、及び、記録再生プログラムを記録した記録媒体
JP2010147969A (ja) * 2008-12-22 2010-07-01 Rohm Co Ltd 画像補正処理回路及びこれを集積化して成る半導体装置

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6085152A (en) 1997-09-19 2000-07-04 Cambridge Management Advanced Systems Corporation Apparatus and method for monitoring and reporting weather conditions
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
US9149175B2 (en) 2001-07-26 2015-10-06 Given Imaging Ltd. Apparatus and method for light control in an in-vivo imaging device
KR100512976B1 (ko) * 2003-08-09 2005-09-07 삼성전자주식회사 화면의 콘트라스트를 향상시키는 블랙/화이트 스트레칭시스템 및 그의 스트레칭 방법
JP2006155491A (ja) * 2004-12-01 2006-06-15 Samsung Yokohama Research Institute Co Ltd シーンチェンジ検出方法
JP4784452B2 (ja) 2006-09-12 2011-10-05 株式会社デンソー 車載霧判定装置
JP4475268B2 (ja) * 2006-10-27 2010-06-09 セイコーエプソン株式会社 画像表示装置、画像表示方法、画像表示プログラム、及び画像表示プログラムを記録した記録媒体、並びに電子機器
JP4241834B2 (ja) 2007-01-11 2009-03-18 株式会社デンソー 車載霧判定装置
RU2365993C1 (ru) * 2008-01-30 2009-08-27 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ адаптивного улучшения факсимильных изображений документов
US8290294B2 (en) 2008-09-16 2012-10-16 Microsoft Corporation Dehazing an image using a three-dimensional reference model
US8619071B2 (en) * 2008-09-16 2013-12-31 Microsoft Corporation Image view synthesis using a three-dimensional reference model
WO2010074012A1 (ja) * 2008-12-22 2010-07-01 ローム株式会社 画像補正処理回路、半導体装置、画像補正処理装置
US8350933B2 (en) * 2009-04-08 2013-01-08 Yissum Research Development Company Of The Hebrew University Of Jerusalem, Ltd. Method, apparatus and computer program product for single image de-hazing
US8837857B2 (en) * 2009-04-09 2014-09-16 National Ict Australia Limited Enhancing image data
JP2010276691A (ja) * 2009-05-26 2010-12-09 Toshiba Corp 画像処理装置および画像処理方法
JP4807439B2 (ja) * 2009-06-15 2011-11-02 株式会社デンソー 霧画像復元装置及び運転支援システム
JP5402504B2 (ja) * 2009-10-15 2014-01-29 株式会社Jvcケンウッド 擬似立体画像作成装置及び擬似立体画像表示システム
TWI423166B (zh) * 2009-12-04 2014-01-11 Huper Lab Co Ltd 判斷輸入影像是否為霧化影像之方法、判斷輸入影像的霧級數之方法及霧化影像濾清方法
US8284998B2 (en) * 2010-07-01 2012-10-09 Arcsoft Hangzhou Co., Ltd. Method of estimating depths from a single image displayed on display
JP2012028987A (ja) * 2010-07-22 2012-02-09 Toshiba Corp 画像処理装置
CN102637293B (zh) * 2011-02-12 2015-02-25 株式会社日立制作所 运动图像处理装置及运动图像处理方法
US20120213436A1 (en) * 2011-02-18 2012-08-23 Hexagon Technology Center Gmbh Fast Image Enhancement and Three-Dimensional Depth Calculation
JP5488530B2 (ja) * 2011-05-23 2014-05-14 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
JP5810628B2 (ja) * 2011-05-25 2015-11-11 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US8582915B2 (en) * 2011-06-27 2013-11-12 Wuxi Jinnang Technology Development Ltd. Image enhancement for challenging lighting conditions
US9197789B2 (en) * 2011-08-03 2015-11-24 Indian Institute Of Technology, Kharagpur Method and system for removal of fog, mist, or haze from images and videos
US8970691B2 (en) * 2011-08-26 2015-03-03 Microsoft Technology Licensing, Llc Removal of rayleigh scattering from images
CN103034977B (zh) * 2011-09-30 2015-09-30 株式会社日立制作所 图像除雾方法和相应的图像除雾装置
CN103164845B (zh) * 2011-12-16 2016-08-03 中国科学院沈阳自动化研究所 一种实时图像去雾装置及方法
CN103186887B (zh) * 2011-12-30 2016-08-03 株式会社日立制作所 图像除雾装置和图像除雾方法
CN103188433B (zh) * 2011-12-30 2016-01-20 株式会社日立制作所 图像除雾装置和图像除雾方法
JP2013152334A (ja) * 2012-01-25 2013-08-08 Olympus Corp 顕微鏡システムおよび顕微鏡観察方法
CN103226809B (zh) * 2012-01-31 2015-11-25 株式会社日立制作所 图像除雾装置和图像除雾方法
US20130237317A1 (en) * 2012-03-12 2013-09-12 Samsung Electronics Co., Ltd. Method and apparatus for determining content type of video content
JP5247910B1 (ja) * 2012-03-30 2013-07-24 Eizo株式会社 画像表示装置またはその方法
JP5470415B2 (ja) * 2012-03-30 2014-04-16 Eizo株式会社 イプシロンフィルタの閾値決定方法およびローパスフィルタの係数決定方法
US8885962B1 (en) * 2012-07-23 2014-11-11 Lockheed Martin Corporation Realtime long range imaging scatter reduction
CN103632339A (zh) * 2012-08-21 2014-03-12 张晓光 一种基于变分Retinex的单幅图像去雾方法及装置
CN202872972U (zh) * 2012-08-24 2013-04-10 中国人民解放军理工大学气象学院 一种图像监测处理装置
US9659237B2 (en) * 2012-10-05 2017-05-23 Micro Usa, Inc. Imaging through aerosol obscurants
KR101958910B1 (ko) * 2012-10-26 2019-03-15 에스케이 텔레콤주식회사 영상보정의 가속화를 위한 영상보정 장치 및 그 방법
CN102982537B (zh) * 2012-11-05 2015-09-02 安维思电子科技(广州)有限公司 一种检测场景变换的方法和系统
KR101736468B1 (ko) 2012-12-24 2017-05-29 한화테크윈 주식회사 영상 처리 장치 및 방법
KR101445577B1 (ko) 2013-03-11 2014-11-04 주식회사 브이아이티시스템 안개제거 추정 모델을 이용한 안개 낀 휘도영상 개선 시스템
JP2014212513A (ja) 2013-04-01 2014-11-13 パナソニック株式会社 投写型映像表示装置、映像投影制御装置、映像投影制御方法、及び映像投影制御プログラム
CN103218622B (zh) * 2013-04-22 2016-04-13 武汉大学 一种基于计算机视觉的雾霾监测方法
KR101470831B1 (ko) * 2013-05-28 2014-12-10 전남대학교산학협력단 사용자 제어가 가능한 거듭제곱근 연산자를 이용한 안개영상 개선 장치
CN103337054A (zh) * 2013-06-17 2013-10-02 西安理工大学 基于单图像的二阶段图像去雾方法
JP2017502429A (ja) * 2014-01-10 2017-01-19 富士通株式会社 画像処理装置、電子機器及び方法
WO2015125146A1 (en) * 2014-02-19 2015-08-27 Yissum Research Development Company Of The Hebrew University Of Jerusalem Ltd. Method and system for dehazing natural images using color-lines
KR102207939B1 (ko) 2014-03-27 2021-01-26 한화테크윈 주식회사 안개 제거 시스템 및 안개 제거 방법
JP6284408B2 (ja) 2014-04-03 2018-02-28 オリンパス株式会社 画像処理装置、撮像装置、判定方法、駆動方法、撮像方法およびプログラム
US9305339B2 (en) 2014-07-01 2016-04-05 Adobe Systems Incorporated Multi-feature image haze removal
US9177363B1 (en) 2014-09-02 2015-11-03 National Taipei University Of Technology Method and image processing apparatus for image visibility restoration
JP6469448B2 (ja) 2015-01-06 2019-02-13 オリンパス株式会社 画像処理装置、撮像装置、画像処理方法、および記録媒体
US9870511B2 (en) 2015-10-14 2018-01-16 Here Global B.V. Method and apparatus for providing image classification based on opacity
US9508129B1 (en) 2015-11-06 2016-11-29 Adobe Systems Incorporated Dehazing photos and videos using visual artifact suppression

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001160146A (ja) * 1999-12-01 2001-06-12 Matsushita Electric Ind Co Ltd 画像認識方法および画像認識装置
JP2003187248A (ja) * 2001-12-21 2003-07-04 Mitsubishi Electric Corp 画像処理システムおよび画像処理装置
JP2007266838A (ja) * 2006-03-28 2007-10-11 Sharp Corp 記録再生装置、記録再生方法、及び、記録再生プログラムを記録した記録媒体
JP2010147969A (ja) * 2008-12-22 2010-07-01 Rohm Co Ltd 画像補正処理回路及びこれを集積化して成る半導体装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KAIMING HE ET AL.: "Single Image Haze Removal Using Dark Channel Prior", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE (TPAMI, vol. 33, no. 12, December 2011 (2011-12-01), pages 2341 - 2353, XP011409121 *
KAZUYASU OWAKI ET AL.: "ContrastMagic technology to optimize image brightness and contrast", TOSHIBA REVIEW, vol. 64, no. 6, 1 June 2009 (2009-06-01), pages 19 - 22, XP008183195 *
See also references of EP3156969A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101976318B1 (ko) * 2018-03-22 2019-05-07 하이윈 테크놀로지스 코포레이션 디헤이즈드 의료 이미지를 보정하기 위한 방법

Also Published As

Publication number Publication date
EP3156970B1 (en) 2019-08-21
WO2015189874A1 (ja) 2015-12-17
ES2727929T3 (es) 2019-10-21
AU2015272799A1 (en) 2017-02-02
CN106462953B (zh) 2019-10-25
JPWO2015190183A1 (ja) 2017-04-20
JP6228671B2 (ja) 2017-11-08
EP3156968A1 (en) 2017-04-19
US9972074B2 (en) 2018-05-15
AU2014397095A1 (en) 2017-02-02
EP3156969B1 (en) 2018-11-21
AU2015272798B2 (en) 2017-12-14
AU2015272799B2 (en) 2018-01-04
AU2015272798A1 (en) 2017-02-02
AU2015272846A1 (en) 2017-02-02
CN106462947A (zh) 2017-02-22
EP3156971A1 (en) 2017-04-19
JPWO2015190184A1 (ja) 2017-04-20
EP3156968B1 (en) 2019-02-27
WO2015190183A1 (ja) 2015-12-17
CN106663326A (zh) 2017-05-10
EP3156968A4 (en) 2017-04-19
EP3156969A1 (en) 2017-04-19
ES2681294T3 (es) 2018-09-12
AU2014397095B2 (en) 2018-07-05
RU2017100022A (ru) 2018-07-12
US20170084042A1 (en) 2017-03-23
RU2664415C2 (ru) 2018-08-17
US20170091911A1 (en) 2017-03-30
EP3156970A4 (en) 2017-07-12
CN106663326B (zh) 2019-11-08
CN106462947B (zh) 2019-10-18
RU2658874C1 (ru) 2018-06-25
JP6225255B2 (ja) 2017-11-01
RU2017100022A3 (ja) 2018-07-12
US20170084009A1 (en) 2017-03-23
WO2015190184A1 (ja) 2015-12-17
US10157451B2 (en) 2018-12-18
JPWO2015189874A1 (ja) 2017-04-20
EP3156971A4 (en) 2017-07-12
AU2015272846B2 (en) 2018-01-25
CN106462954B (zh) 2019-09-20
RU2654159C1 (ru) 2018-05-16
JP6225256B2 (ja) 2017-11-01
EP3156969A4 (en) 2017-10-11
US20170091912A1 (en) 2017-03-30
JPWO2015190136A1 (ja) 2017-04-20
ES2712452T3 (es) 2019-05-13
RU2648955C1 (ru) 2018-03-28
CN106462954A (zh) 2017-02-22
EP3156971B1 (en) 2018-05-23
CN106462953A (zh) 2017-02-22
US10096092B2 (en) 2018-10-09
US10102614B2 (en) 2018-10-16
EP3156970A1 (en) 2017-04-19
JP6228670B2 (ja) 2017-11-08

Similar Documents

Publication Publication Date Title
JP6225255B2 (ja) 画像処理システム及びプログラム
US20150161773A1 (en) Image processing device and image processing method
CN104952045B (zh) 除雾系统和除雾方法
JP2017050683A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
CN110023957B (zh) 用于估计图像中的投射阴影区域和/或加亮区域的方法和设备
JP6161847B1 (ja) 画像処理装置及び画像処理方法
KR101024731B1 (ko) 디지털 이미지의 모스키토 노이즈를 감소시키기 위한 방법 및 시스템
CN116977228B (zh) 图像降噪方法、电子设备及存储介质
TWI680675B (zh) 影像處理裝置與相關的影像處理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15805972

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016527661

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017100022

Country of ref document: RU

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2015805972

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015805972

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2015272846

Country of ref document: AU

Date of ref document: 20150302

Kind code of ref document: A