WO2013168618A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2013168618A1
WO2013168618A1 PCT/JP2013/062445 JP2013062445W WO2013168618A1 WO 2013168618 A1 WO2013168618 A1 WO 2013168618A1 JP 2013062445 W JP2013062445 W JP 2013062445W WO 2013168618 A1 WO2013168618 A1 WO 2013168618A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
moving object
region
unit
input image
Prior art date
Application number
PCT/JP2013/062445
Other languages
English (en)
French (fr)
Inventor
昌史 高橋
信博 知原
山口 宗明
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to US14/399,876 priority Critical patent/US10521885B2/en
Publication of WO2013168618A1 publication Critical patent/WO2013168618A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for reducing image quality deterioration due to a hot flame or the like.
  • image correction such as shake correction, gradation correction, and removal of disturbances such as fog, rain, snowstorm, yellow sand, and smog plays an important role in the monitoring field that is susceptible to changes in the atmosphere and lighting.
  • image correction it has been installed in various products.
  • the purpose of these image corrections is to improve the visibility of video and increase the monitoring efficiency.
  • the shake correction (stabilizer) technology provides a highly visible image by detecting excessive movement of an image caused by strong winds or vibration of a camera fixing stand and correcting the detected movement in a canceling direction. .
  • a hot flame is a phenomenon of light refraction and progression inhibition caused by a temperature difference of air.
  • the subject will be deformed as if standing up, appear to shake irregularly, and the resolution will also decrease. For this reason, the quality of the image is greatly reduced.
  • time-series smoothing is considered to have the property that the amount of displacement when the subject is deformed due to the influence of the sun's heat statistically follows a Gaussian distribution. This is a technique for acquiring an image close to the original shape of the subject by smoothing.
  • Non-Patent Document 1 alignment is performed on the “input image” to be corrected for heat and the “average image” smoothed in time series, and the input image is corrected to match the average image.
  • a technique for correcting deformation of a subject due to a hot flame is described.
  • Input images 1200-1 to 1200-n indicate a group of images of a plurality of frames in the vicinity of time taken by a surveillance camera or the like.
  • FIG. 11 shows input images 1200-1 to 1200-4 as an example. When these images include distortion due to the heat, the shape of the subject changes around the place where the heat is generated, leading to a decrease in video visibility.
  • the time series smoothed image 1220 is an example of an image obtained by smoothing all the pixels in the screen by smoothing the input images 1200-1 to 1200-4 in a time series of the conventional image.
  • time-series smoothed image 1220 an image close to the original shape of the object can be restored in the background area where the object is stationary like a building.
  • time series smoothing is performed when a moving object is present in the input image, an image in which the moving object region blurs unnaturally is generated, leading to a significant deterioration of the corrected image.
  • the time series smoothing method can be effectively used only when there is no moving object in the screen.
  • Non-Patent Document 2 by performing super-resolution processing using a plurality of images close in time to an image that has been subjected to time-series smoothing processing for all pixels in the screen, A technique for restoring lost resolution is described.
  • Patent Document 1 in order to correct image fluctuation of input image data, a transfer function defined by one coefficient and the image data of one frame before is applied to the image data.
  • a correction unit that performs an operation to be applied; a delay unit that delays the image data corrected by the correction unit by one frame and feeds back the image data as the image data of one frame before; and the input image data
  • an extracting means for extracting a moving pixel in the image based on the image data one frame before, an identifying means for identifying a moving pixel of the moving pixels from a fluctuation pixel
  • An image processing apparatus including a control unit that controls the coefficient in accordance with an identification result by the identification unit is described (hereinafter referred to as Conventional Technology 3).
  • Prior art 3 can also reduce the influence on moving objects and correct image fluctuations.
  • Yoshimura, Shimizu, Tanaka, Okutomi “Fluctuation removal in time-series images by non-rigid registration”, 2007, Information Processing Society of Japan Research Report, 2006-CVIM-157, p. 169-176 M.M. Shimizu, S .; Yoshimura, M .; Tanaka, and M.M. Okutomi, “Super-Resolution from Image Image ununder Influencing of Hot-Air Optical Turbulence”, 2008, IEEE Computer Society Venture Conference Competition Conference Conperitance Competition 1-8
  • the conventional technique 3 has a problem that the detection accuracy of the moving object region is low because the fluctuation is corrected by paying attention only to the positional relationship between the pixels of the image one frame before.
  • This invention is made in view of such a situation, and makes it a subject to eliminate the above-mentioned subject.
  • the image processing apparatus provides a difference between a partial image with respect to an input image and a time-series smoothed image smoothed using a plurality of images close in time or a moving object removed image from which a moving object is removed.
  • a similarity information calculation unit that calculates similarity information between images by calculating, and region division that divides the input image into a moving object region and a region other than the moving object region based on the similarity information between the images
  • an image correction unit that synthesizes the input image or the time-series smoothed image for each region.
  • the region dividing unit sets two or more types of thresholds having different sizes, and is low for the region located in the spatial vicinity of the region having a pixel value equal to or higher than a high threshold. Divide the region with a threshold, otherwise with a high threshold, or with a high threshold for the region located in the spatial vicinity of the region with an evaluation value below a low threshold, otherwise In this case, the region is divided at a low threshold value.
  • the image processing apparatus of the present invention is characterized in that the image correction unit executes a smoothing filter in a spatial direction on the moving object region.
  • the image processing apparatus of the present invention performs an image alignment process between the moving object areas and / or areas other than the moving object, and performs a super-resolution process based on the alignment result. It is characterized by providing.
  • the image processing method of the present invention is an image processing method for causing a computer to execute image processing.
  • similarity information between images is calculated by calculating a difference between partial images, and the input image is divided into a moving object region and a region other than the moving object region based on the similarity information between the images.
  • a procedure for synthesizing the input image or the time-series smoothed image for each region is executed.
  • the present invention by calculating the difference between the partial image of the input image and the comparison image and recognizing the moving object, it is possible to suitably correct the deformation of the subject and the loss of resolution observed due to the influence of the heat, It is possible to provide an image processing apparatus that can improve the alignment accuracy and obtain a high-quality image.
  • FIG. 1 is a block diagram showing a control configuration of an image processing apparatus 10 according to a first embodiment of the present invention.
  • 6 is a flowchart of image quality improvement processing according to the first embodiment.
  • the conceptual diagram which concerns on the difference of the histogram in the similarity evaluation process between images which concerns on 1st Embodiment.
  • the conceptual diagram which concerns on the specific calculation of the difference of the histogram which concerns on 1st Embodiment.
  • FIG. 6 is a conceptual diagram of filter type classification in the image correction processing according to the first embodiment.
  • FIG. 1 shows an example of an image including a hot flame, which is an object to be processed by the image processing apparatus according to the embodiment.
  • the input image 210 is one frame of an image captured at a predetermined time interval by an imaging unit such as a monitoring camera, and shows a car and a building that are running. It can be understood that the input image 210 can be classified into at least a moving object region and a background region at least depending on the difference in the subject.
  • the image processing apparatus divides the input image 210 into three categories of areas of “moving object area”, “background area”, and “semi-moving object area”.
  • the “moving object area” is an area where a moving object (for example, a car) exists in the input image.
  • the “moving object region” includes a region 310 (vehicle body) where a hot flame is generated on the moving object, and a region 311 (wheel) where no hot flame is generated on the moving object.
  • the “background area” is an area where an object (for example, a building) is stationary.
  • the “background region” includes a region 320 where a flame is generated on a stationary object and a region 321 where no flame is generated on a stationary object.
  • the “semi-moving object region” indicates a region 330 after the moving object has passed in the past, although the moving object is not included in the input image. In this way, not only the regions 310 and 311 belonging to the “moving object region”, but also the region 320 belonging to the category “background region” can detect the movement of the subject due to the hot flame.
  • the image processing apparatus pays attention to the property of a histogram that is strong against deformation of an object, and evaluates a histogram difference (cost) in a partial image. This makes it possible to distinguish the “moving object region” and the “background region” in which the heat is generated, which has been difficult in the past, and perform image correction after dividing the region into different categories. This improves the image quality.
  • the image processing apparatus performs a process suitable for each area and then integrates the images of the respective areas again to achieve the flame correction.
  • the image processing apparatus performs smoothing using a spatially neighboring pixel on a moving object region, and performs smoothing using a temporally neighboring image on other regions.
  • the image processing apparatus uses, for example, a histogram having characteristics strong against deformation of an object to separate moving objects, and smoothes the input image using the input image 210 and the image input image group 200 that is temporally close. The histogram difference from the series smoothed image is calculated. Then, the image processing apparatus extracts a portion having a small difference as a moving object region.
  • the image processing apparatus corrects the flame for each divided category area, performs super-resolution processing, and improves the image quality.
  • the image processing apparatus also refers to the extraction result of the moving object region described above when performing alignment for super-resolution processing.
  • the location of the subject is limited. For example, by performing a search between moving object areas and areas other than the moving object, the search range is limited and the processing amount can be reduced.
  • the image processing apparatus 10 mainly includes an input image memory 110 (input image storage unit), a time series smoothed image memory 112 (time series smoothed image storage unit), and a moving object removal image memory 113 (moving object removal).
  • Image storage means output image memory 114 (output image storage means), calculation memory 115 (temporary storage means), time-series smoothed image update section 120 (time-series smoothed image update means), histogram analysis section 130 (similarity) Sex information calculation means, similarity information calculation section, histogram analysis means), area division section 140 (area division means), image correction section 150 (image correction means), moving object removal image update section 160 (moving object removal image update means) ), A flame distortion calculation unit 170 (a flame distortion calculation unit), a parameter optimization unit 180 (a parameter optimization unit), and an image quality improvement unit 190 (image). Configured to include an image quality means).
  • the image processing apparatus 10 includes an input image memory 110 to a calculation memory 115, a DSP (Digital A processor having a processor such as a signal processor (GPU) or a graphics processing unit (GPU) as hardware, and a processor that reads a predetermined program realizes the functions of the time-series smoothed image updating unit 120 to the image quality improving unit 190.
  • a DSP Digital A processor having a processor such as a signal processor (GPU) or a graphics processing unit (GPU) as hardware, and a processor that reads a predetermined program realizes the functions of the time-series smoothed image updating unit 120 to the image quality improving unit 190.
  • a flame correction device that corrects fluctuations and the like due to the flame from the acquired image of the monitoring camera or the like.
  • an input image 210 from a not-shown monitoring camera or the like is written as needed and stored.
  • an image acquired from a surveillance camera or the like is a still image such as JPG (Motion JPEG) or Jpeg 2000, or MPEG4 or H.264. Since it is encoded as a moving image such as H.264, it is appropriately decoded and stored as RAW data in a predetermined color format. It is desirable that the input image memory 110 always holds a new image as complete as possible at least for one frame, and therefore has a capacity of two frames or more.
  • the input image memory 110 uses the still image data (in the temporal vicinity of the input image 210) as the input image group 200 ( It is desirable to hold more frames).
  • the RAW data is, for example, bitmap data or unique format data expressed by RGB (Red, Green, Blue) values of 8 bits / 16 bits.
  • the time series smoothed image memory 112 is a recording medium that stores a time series smoothed image 220 obtained by smoothing all pixels in the screen using a plurality of input images that are close in time.
  • the time series smoothed image memory 112 mainly stores the time series smoothed image 220 created and updated by the time series smoothed image update unit 120.
  • the moving object removed image memory 113 is a recording medium that stores a moving object removed image 230 that is a “background image” obtained by performing time-series smoothing processing on an image obtained by removing a moving object from an input image.
  • the moving object removal image 230 is mainly created by the moving object removal image update unit 160 and written in the moving object removal image memory 113.
  • the time-series smoothed image 220 and the moving object removed image 230 do not necessarily need to be stored in the memories 112 and 113 in a complete form of one frame consisting of pixels at a single time, There is no problem even with an image including a part that has been updated one time before.
  • the output image memory 114 is a storage medium that stores the output image 240 that has finally been improved in image quality.
  • the calculation memory 115 is a storage medium for storing other temporary data, parameters, and the like in the image processing of this embodiment.
  • the calculation memory 115 is accessible from each control calculation part, and includes cost calculation information 252 (FIG. 8), mask setting 253 (FIG. 10), corrected images 254 and 256 (FIG. 14), and filter information 255 (FIG. 15). ), Strain intensity image 257 (FIG. 17), heat distortion level DL (FIG. 17), data used for these calculations, and the like can be stored.
  • the cost calculation information 252 can store an evaluation cost C S (FIG. 9), an evaluation cost C R (FIG.
  • the mask setting 253 can store threshold parameters and category settings.
  • This threshold parameter can store the thresholds T1 and T2 (FIG. 10) of the region division processing (FIG. 3).
  • the category setting is data that defines values representing the three types of categories “moving object area”, “background area”, and “semi-moving object area” that can be divided in the memory.
  • the calculation memory 115 also stores coordinates (i, j), a variable Tc related to the threshold, and the like. Details of these data will be described later.
  • the input image memory 110, the time-series smoothed image memory 112, the moving object removal image memory 113, the output image memory 114, and the calculation memory 115 are RAM, DSP (Digital Signal). Processor) or GPU (Graphics) It can be realized with work memory or graphic memory built in the chip of the Processing Unit.
  • the input image 210 and the output image 240 held in the input image memory 110 and the output image memory 114 are transferred to another memory using DMA (Direct Memory Access) or the like, or via a bus, an external output terminal, a network, or the like. Input / output with other devices.
  • a video display device (not shown) or an image analysis device (not shown) using a PC (Personal Computer) or the like can be used.
  • the time series smoothed image update unit 120 is activated at predetermined intervals, performs time series smoothing of the input image 210, and stores the created time series smoothed image 220 in the time series smoothed image memory 112. Smoothing can be performed using one input image 210 and the current time-series smoothed image 220. For example, image data of several frames at a predetermined interval of about 1/30 seconds to several tens of minutes can be obtained. Can be averaged.
  • the histogram analysis unit 130 is a characteristic control calculation part in the first embodiment, and for the purpose of determining the similarity between images, the histogram analysis unit 130 is provided for each window (partial image divided in a grid pattern) to be described later. A histogram is created and the difference is calculated. Specifically, the histogram analysis unit 130 evaluates the evaluation costs C S and C that are similarity information between the input image 210 and the time-series smoothed image 220 or the moving object removed image update unit 160 that is a comparison image. R (FIG. 9) and the like are created and stored in the calculation memory 115 or directly passed to the area dividing unit 140. At this time, the histogram analysis unit 130 evaluates similarity (cost) with respect to a predetermined range of partial images (hereinafter referred to as “window”).
  • window a predetermined range of partial images
  • the region dividing unit 140 is a characteristic control calculation part in the first embodiment, and is based on the evaluation costs C S and C R that are similarity information between images calculated by the histogram analysis unit 130. Are divided into predetermined categories. As a result, each window is classified into a corresponding category according to whether it is a moving object or a background. Actually, the area dividing unit 140 creates mask information M SR (FIG. 10) as area dividing information indicating to which category each window is classified, and stores it in the calculation memory 115.
  • the image correction unit 150 is a characteristic control calculation part in the first embodiment. Based on the mask information MSR that is the result of area division, the image correction unit 150 is a source image or image filter that differs for each category (hereinafter referred to as “filter”). ) Is used to create a corrected image 254. Specifically, the image correction unit 150 selects the input image 210 for the “moving object region” and executes a spatial domain smoothing filter, and the time-series smoothed image for the “background region”. 220 is selected and the time domain smoothing filter is executed, and the moving object removal image 230 is selected as the “quasi-moving object region” and the time domain smoothing filter is executed.
  • the image correction unit 150 combines the images of the respective regions and synthesizes the corrected image 254 (FIG. 14). The image correction unit 150 then executes a spatial domain filter on the corrected image 254 to create a corrected image 256 and store it in the calculation memory 115.
  • the moving object removal image update unit 160 is a control calculation part that updates the moving object removal image 230 using the mask information MSR and the input image 210.
  • the moving object removed image update unit 160 stores the created moving object removed image 230 in the moving object removed image memory 113 using a moving average or the like.
  • the hot flame distortion calculation unit 170 calculates the strength of distortion due to the hot flame based on the region division and the image correction result.
  • the flame distortion calculation unit 170 calculates the image distortion intensity image 257 due to the flame using the input image 210, the mask information MSR, and the corrected image 256, stores the image distortion intensity image 257 in the calculation memory 115, and further stores the image distortion intensity image 257. From this, the hot flame distortion level DL (FIG. 17) is calculated.
  • the parameter optimization unit 180 is a control calculation part that optimizes various parameters according to the strength of distortion caused by the heat.
  • the parameter optimization unit 180 optimizes various parameters for performing region division and image update from the hot flame distortion level DL, and stores them in the calculation memory 115.
  • the image quality enhancing unit 190 is a control calculation part that performs super-resolution processing based on the region division and image correction results.
  • the image quality improving unit 190 performs alignment using the input image 210, the corrected image 254, or 256, and a plurality of temporally close frames of the input image group 200. This alignment is performed only between moving object regions or between regions other than the moving object with reference to the mask information MSR . Thereby, the amount of alignment processing can be reduced.
  • the image quality improving unit 190 performs super-resolution processing, and stores the output image 240 in which the background area has been improved in image quality in the output image memory 114.
  • Each part of the image processing apparatus 10 may be implemented as a dedicated circuit, or may be configured such that the control unit executes the program stored in the storage unit as the above-described units.
  • the image processing apparatus 10 can be implemented by a circuit such as an application specific integrated circuit (ASIC) or a field-programmable gate array (FPGA).
  • the latter includes hardware resources such as a DSP (GPU), CPU (Central Processing Unit), MPU (Micro It can also be implemented as a program that is executed by a computer including control arithmetic means such as a processing unit and storage means such as RAM, ROM, flash memory, and HDD.
  • the above-mentioned storage means may include a removable recording medium such as an optical storage medium such as a DVD or a semiconductor storage medium such as a USB memory or an SD card. It is also possible to store various programs and data in this removable recording medium and install the program in a built-in recording medium.
  • the input image 210 and the output image 240 can be stored in a removable recording medium, and can be viewed on another PC or a mobile phone.
  • the image processing apparatus 10 includes a CCD or CMOS image sensor or the like, and may include an imaging unit such as a camera that captures a still image or a moving image.
  • the image processing apparatus 10 according to the present embodiment can include a network transmission / reception unit such as a LAN board or a portable communication part that acquires a still image or a moving image from a network or sends an output image 240.
  • the image processing apparatus 10 can also include display means such as a liquid crystal display for confirming each image, parameter, and imaging state.
  • the image processing apparatus 10 includes input means such as a keyboard, a mouse, and a touch panel, and can also detect a user instruction regarding control of each part.
  • the time-series smoothed image update unit 120 performs time-series smoothed image update processing. Specifically, the time-series smoothed image update unit 120 creates a time-series smoothed image 220 using the input image 210 stored in the input image memory 110, and stores and updates it in the time-series smoothed image memory 112. . The time-series smoothed image update unit 120 performs time-series smoothing of each pixel using, for example, a moving average calculation formula shown in Formula (1) in order to create the time-series smoothed image 220.
  • a (i, j) is the pixel value at the coordinate (i, j) on the time-series smoothed image
  • p (i, j) is the pixel value of the input image at the same coordinate (i, j).
  • S represents an update parameter (0 ⁇ s ⁇ 1)
  • an equal sign represents an operator that substitutes the right side for the left side (the same applies hereinafter).
  • the pixel values p (i, j) and a (i, j) may be in any format as long as they are the same, but the time-series smoothed image update unit 120, for example, 3 in the RGB hue space in each pixel.
  • Time-series smoothing is performed for each of the component values of the primary colors R (Red), G (Green), and B (Blue) and the component values of the HSV color space (Hue, Saturation, and Value) using Equation (1). Can do.
  • the time-series smoothed image update unit 120 performs high-speed processing by performing time-series smoothing only when the monochrome input image 210 is used or when only RGB G component values and HSV lightness component values are used. It can also be converted.
  • an image of a frame temporally close to the input image 210 can also be selected from the input image group 200.
  • the time-series smoothed image update unit 120 can use a process other than the above-described moving average as a method for creating the time-series smoothed image 220.
  • the time-smoothed image updating unit 120 can also set the pixel value of the corresponding coordinate in the time-series averaged image as the center value for the pixel value at the same coordinate in a plurality of frames.
  • the time-series smoothed image update unit 120 may use various background modeling techniques that have been developed to realize a robust background difference, for example, without performing the time-series smoothing process.
  • the background modeling method is a method of modeling a background color distribution or the like as a measure of backgroundness in units of pixels or regions.
  • a value having the highest background like the center value of the modeled background color distribution is used as a target pixel value.
  • Background modeling methods include various known methods such as “Shimada, Arita, Taniguchi; high-speed dynamic background model construction using a mixed Gaussian distribution using an adaptive method of increasing or decreasing the number of distributions. , Vol.J90-D, No. 9, pp. 2606-2614, 2007. ”can be used.
  • the background color distribution is modeled by a plurality of Gaussian distributions in units of pixels.
  • a robust background difference can be realized by updating model parameters such as the number of Gaussian distributions and the average / covariance / weight of each distribution in units of frames.
  • the histogram analysis unit 130 performs an inter-image similarity evaluation process.
  • the histogram analysis unit 130 evaluates a cost corresponding to a difference (non-similarity) between images on a pixel basis and outputs the cost to the region dividing unit 140.
  • the histogram analysis unit 130 calculates similarity information between images for the input image 210 and the comparison image stored in the input image memory 110 and evaluates them.
  • the comparison images are a time-series smoothed image 220 stored in the time-series smoothed image memory 112 and a moving object removed image 230 that is a background image stored in the moving object removed image memory 113, and each has similarity information. (Evaluation costs CS and CR ) are calculated.
  • the histogram analysis unit 130 can use this.
  • FIG. 4 shows a method for calculating similarity in a certain region.
  • the histogram analysis unit 130 creates a histogram using the windows W1 and W2 in the input image 210 and the comparison image, and calculates the difference between them.
  • the windows W1 and W2 are partial images having the same coordinates and the same size, for example, 32 pixels ⁇ 32 pixels.
  • the histogram analysis unit 130 may use any method for generating a histogram and calculating a difference, but for example, the following method can be used.
  • the histogram analysis unit 130 calculates the difference by reducing the gradation of each component value in the window for each component value of the input image 210 and the comparison image.
  • the histogram analysis unit 130 generates histograms 410 and 420 after quantizing the windows W1 and W2 to 32 gradations.
  • the horizontal axis indicates the component value
  • the vertical axis indicates the frequency such as the number of pixels.
  • the histogram analysis unit 130 calculates a difference in the number of pixels in each component value of the histograms 410 and 420.
  • histogram difference DH 32 The difference between the number of pixels the 32 gradation is referred to as histogram difference DH 32.
  • the histogram analysis unit 130 decreases the gradation number by 1/2 and creates a histogram of the input image 210 and the comparison image.
  • the histogram analysis unit 130 calculates a histogram difference D W1, W2 between the windows W1, W2 by the following equation (3).
  • equation (3) by using a histogram difference of a plurality of gradations, it is possible to make an evaluation that greatly reflects a difference in a component whose pixel values are separated on the histogram. Even a small object can be detected if it is different from the background.
  • the histogram analysis unit 130 may calculate the histogram differences D W1 and W2 using only the histogram difference based on the specific number of gradations.
  • equation (4) is an example of calculating the histogram differences D W1 and W2 using only the histogram difference of 32 gradations.
  • the histogram analysis unit 130 may calculate the histogram difference DH n in any way.
  • FIG. 5 shows an example of a specific method for calculating the histogram difference.
  • the histogram analysis unit 130 calculates a difference between F1 and F2, which are power values such as the number of pixels, for each component k in the gradation between the histogram 410 and the histogram 420.
  • the histogram analysis unit 130 may calculate the histogram difference DDH n (k) at each component value k in any way, but for example, it is preferable to use a normalization error as shown in Equation (6). .
  • F1 is a histogram value at the component value k of the window W1
  • F2 is a power value such as the number of pixels of the histogram at the pixel value k of the window W2
  • MAX () is a function that returns the maximum value
  • K is This is a constant for reducing the influence of noise data.
  • FIG. 6 shows an evaluation cost C S or C R (hereinafter referred to as either evaluation cost C S or C R) representing a difference between images in each pixel using the histogram difference D W1, W2 calculated by the above method. Is referred to as an evaluation cost C X ).
  • the histogram analysis unit 130 of this example repeatedly performs analysis while moving the window around the target pixel. For example, the histogram analysis unit 130 first sets the window so that the target pixel X is at the center, moves the window in a range in which the window continues to include the target pixel X, and repeatedly calculates the histogram difference.
  • the target pixel X is the pixel 610 on the input image 210 side and the pixel 620 on the comparison image side. Assuming that k types of windows are set on the input image 210 side and the comparison image side to be calculated, the evaluation cost C X in the target pixel X is calculated as in the following equation (8).
  • the windows on the input image 210 side are windows W 1_1 , W 1_2 ,..., W 1_k
  • the windows on the comparison image side are windows W 2_1 , W 2_2 ,.
  • D W1_t, W2_t can be reused for another target pixel. Therefore, as will be described later with reference to FIG. 8, D W1_t, W2_t may be obtained at the same number as the number of pixels in one frame.
  • Expression (8) indicates that the similarity between images is higher as the evaluation cost C X is smaller.
  • the histogram analysis unit 130 may calculate the evaluation cost C X by other methods.
  • FIG. 7 shows another example of a method for calculating the evaluation cost in each pixel using the histogram differences D W1 and W2 .
  • the histogram analysis unit 130 calculates the evaluation cost C X for the target pixel X, for example, as in Expression (9).
  • FIG. 8 shows an example of a method in which the histogram analysis unit 130 calculates the evaluation cost for one frame using the equation (8).
  • the histogram analysis unit 130 prepares cost calculation information 252 for storing similarity information between images, and initializes all of them to zero.
  • a frame (recording area) having the same number of horizontal W pixels ⁇ vertical H pixels as the input image 210 is secured in the calculation memory 115 and recorded there. .
  • the reason why the number of comparison images is one more is to record the mask information MSR .
  • the cost calculation information 252 includes three frames of data corresponding to the evaluation cost C S (i, j), the evaluation cost C R (i, j), and the mask information M SR (i, j).
  • C S (i, j) represents the value of the evaluation cost C S (including the value being calculated) at the pixel (i, j), and the same applies to others.
  • the histogram analysis unit 130 converts the window W1 on the input image 210, the window W2 on the comparison image, and the window Wm of the frame for the comparison image of the cost calculation information 252 into the X-axis (horizontal) direction, respectively.
  • the histogram difference D W1, W2 between the windows W1 and W2 is calculated and added to each element in the window Wm.
  • each element held in the frame of the cost calculation information 252 finally becomes the evaluation costs C S and C R.
  • the histogram analysis unit 130 can perform processes such as adding or normalizing the upper, lower, left, and right end portions as they are. In addition, the histogram analysis unit 130 can reduce the processing amount and increase the calculation speed by increasing the values of ⁇ x and ⁇ y. In this case, the evaluation cost becomes the same value within the block area of ⁇ x ⁇ ⁇ y. For this reason, it is desirable to separately suppress block distortion at the boundary portion of the divided region by a filter or the like which will be described later.
  • FIG. 9 schematically shows the nature of each evaluation cost generated in step S102.
  • Estimation cost C S includes an input image 210 shows a time estimation cost calculating the series smoothed image 220 as a comparison image.
  • Estimation cost C S when a moving object region of the sequence smoothed image 220, in addition to this, evaluation cost in a mobile object has passed region has a property such that high.
  • Estimation cost C R indicates the evaluation costs calculated as a comparison image a moving object removed image 230 and the input image 210.
  • Estimation cost C R is typically an increase in evaluation costs are a property as seen in the only moving object region.
  • histogram differences can be calculated and compared for the input image 210 and the time-series smoothed image 220 or the combination of the input image 210 and the moving object removed image 230, respectively.
  • the evaluation cost is calculated for each pixel uniformly in the image, but the present invention is not limited to this.
  • the histogram analysis unit 130 may calculate in units of meaningful groups by referring to the result of previous region classification or designation from the user, In addition, the histogram analysis unit 130 performs a combination of combinations different from the above, for example, comparing one frame of the input image group 200 as a target image with another image close in time to the target image. Evaluation cost may be calculated. Further, the histogram analysis unit 130 may perform histogram analysis on any type of image data.
  • the histogram analysis unit 130 creates a histogram for each window represented by spatially continuous image blocks, but is not limited thereto.
  • the histogram analysis unit 130 can also perform processing such as creating and comparing histograms by integrating a plurality of spatially separated regions.
  • step S ⁇ b> 103 the region dividing unit 140 performs region dividing processing. Specifically, the region dividing unit 140 classifies each pixel into a category of “moving object region”, “background region”, or “semi-moving object region” based on the evaluation cost calculated by the histogram analysis unit 130. Thus, the image is divided into three regions.
  • FIG. 10 shows an example of the contents of the evaluation costs C S and C R and the mask information M SR included in the cost calculation information 252 and the contents of the mask setting 253.
  • Each of C S , C R, and M SR is held for one frame, and the actual values held for an arbitrary part (6 ⁇ 6 pixels) are shown in a matrix.
  • Area dividing unit 140 uses the evaluation cost C R and evaluation cost C S histogram analyzing unit 130 calculates the mask information M SR indicating whether each pixel belongs to which category, for costing calculation memory 115 Information 252 is recorded.
  • the area dividing unit 140 compares the evaluation costs C S and C R with the threshold parameter T of the mask setting 253 to determine the category to which each pixel belongs, and determines the mask information M SR according to the category setting of the mask setting 253. Write. That is, when C S (i, j)> T and C R (i, j)> T, the pixel (i, j) is determined to be a moving object region. In other cases, if C S (i, j) ⁇ C R (i, j), it is determined that the pixel (i, j) is a background region, otherwise, the pixel (i, j ) Is determined to be a semi-moving body region.
  • the threshold value T is adjusted by the parameter optimization unit 180 in a cycle of one frame by a parameter optimization process described later.
  • the area dividing unit 140 can use various methods to calculate the mask information MSR from the two types of evaluation costs C S and C R.
  • FIG. 11 shows a recursive algorithm that suitably calculates the mask information MSR from the evaluation costs C S and C R by adaptively using a plurality of threshold values.
  • T1 and T2 two types of threshold values T1 and T2 (T1> T2) are evaluated using a low threshold value T2 for pixels adjacent to the moving object, and a high threshold value T1 otherwise. Robust region segmentation taking into account the continuity is possible.
  • step S201 the area dividing unit 140 performs an initial setting process.
  • step S202 the area dividing unit 140 determines whether the target pixel is a moving object area using T1 as a threshold value. Specifically, the region dividing unit 140 determines Yes when C S (x, y)> Tc and C R (x, y)> Tc. Otherwise, it is determined as No. In the case of Yes, the area dividing unit 140 determines that the target pixel is a moving object area, and advances the process to step S203. In No, the area division unit 140 proceeds with the process to step S205.
  • step S205 if the region is not a moving object region, the region dividing unit 140 determines whether the region is a background region. Specifically, the region dividing unit 140 determines Yes when C S (x, y) ⁇ C R (x, y). Otherwise, it is determined as No. In the case of Yes, the area dividing unit 140 proceeds with the process to step S206. In No, the area division unit 140 advances the process to S207.
  • the above-mentioned recursive call is a call of one function (procedure) that summarizes steps S202 to S207 within the function.
  • the target pixel (x, y) touches the moving object region
  • the moving object region is swiped preferentially by recursive call, and a small threshold value T2 is applied so that the vicinity of the contour of the moving object region is detected. It becomes easier to be taken into the moving body area.
  • threshold T1 and T2 can realize robust area division.
  • FIG. 12A and 12B show an operation example of area division by the above-described method.
  • the matrix of each of C S , C R and M SR is a part of the same position in one frame held in the cost calculation information 252, like that shown in FIG. It shows how the MSR is being written as it progresses.
  • the uppermost part of FIG. 12A shows an initial state, and MSR is all 0 (incomplete).
  • the area dividing unit 140 selects one pixel 710 as a target pixel from among the pixels for which area division has not been completed, and compares it with the threshold value T1 with reference to the evaluation costs C S and C R.
  • the target pixel is a moving object region
  • the value for the target pixel in the mask information MSR is set to 1.
  • the second row shows the state immediately after that.
  • the region dividing unit 140 among the pixels adjacent to the left, top, right, and bottom of the target pixel 710, the pixels 720 and 730 that have not been subjected to region division.
  • the evaluation using the threshold value T2 is recursively performed to determine mask information.
  • the region dividing unit 140 performs evaluation using such a threshold value T2 recursively until a pixel other than the moving object region is found, and calculates a part 760 of the mask information MSR .
  • the bottom row shows the state immediately after that.
  • the region dividing unit 140 returns the threshold value to T1 again.
  • the region dividing unit 140 recognizes that this pixel is a semi-moving object region, and
  • the value for the target pixel of the information MSR is set to 3.
  • the upper part of FIG. 12B shows a state immediately after that.
  • the region dividing unit 140 does not perform recursive calculation because the target pixel is not a moving object region, and continues processing on the pixels 780 and 790 that have not yet been processed with the threshold value T1. Then, since the pixel 810 is identified as the moving object region again, the region dividing unit 140 sets the threshold value to T2, and evaluates the adjacent pixel 820.
  • the middle part of FIG. 12B shows a state immediately after that. If such processing is continued, a part 830 of the mask information MSR not including the pixel of 0 is obtained, and the region division is achieved.
  • a method for recursively extending a moving object region is described. However, when it is difficult to perform recursive calculation, such as when implementing hardware, a similar result can be obtained. It is also possible to perform operations that are not recursive.
  • FIG. 13 visually shows an example of the mask information MSR calculated by the above processing. That is, when evaluation and cost C S calculated using a series smoothed image 220 and the input image 210, the moving object removed estimation cost C R calculated by using the image 230 and the input image 210 by performing the above calculation, Mask information MSR that is a result of area division into three categories can be acquired.
  • the area is divided into three categories using two types of evaluation costs C S and C R , but the type of evaluation cost and the number of categories can be arbitrarily set. It is.
  • the area dividing unit 140 only using the evaluated cost C S according to the time-series smoothed image 220 may be divided into two categories of the moving object area and the background area. Further, the area dividing unit 140 can also be divided into two categories using only evaluated cost C R of the moving object removed image 230. In this case, once the entire screen is detected as a moving object due to a camera movement or a scene change, the moving object removal image is not updated thereafter.
  • the area dividing unit 140 and detect scene changes or camera motion itself separately by set a timer or the like resets the calculation of the evaluation cost C R at a predetermined period, reliably region by suppressing the amount of calculation Division can be performed.
  • the region dividing unit 140 may divide the quasi-moving object region into four or more categories, such as setting a semi-moving object region at a plurality of levels using another comparison image.
  • step S104 the image correction unit 150 performs image correction processing. Details of the image correction processing of the present embodiment will be described with reference to FIGS.
  • the image correcting unit 150 performs the heat correction using the mask information M SR input from the region dividing unit 140, the input image 210, the time-series smoothed image 220, and the moving object removed image 230, and outputs a corrected image 254. . Then, the image correction unit 150 performs a spatial image filter on the input image 210, and outputs a natural corrected image 256 in which the region division is inconspicuous.
  • the image correction unit 150 performs the heat correction by performing different processes according to the type of category indicated by the mask information MSR .
  • the image correction unit 150 generates a corrected image 254 by selecting and synthesizing three types of images, for example, for each pixel according to the category. That is, the image correction unit 150, like the pixel group 1110 of the mask information M SR, for the identified pixels a moving object region, selecting the value of the pixel group 1010 in the same coordinates in the input image 210 .
  • the image correction unit 150 like the pixel group 1120 of the mask information M SR, for pixels identified as background area, when the value of the pixel group 1020 in the same coordinates of the series smoothed image 220 select.
  • the image correction unit 150 selects the value of the pixel group 1030 in the same coordinates of a moving object removed image 230.
  • the image correction unit 150 creates a corrected image 254 in which distortion due to the hot flame or the like is corrected in a region other than the moving object.
  • the image correction unit 150 creates a corrected image 256 from the corrected image 254 using the adaptive filter 152.
  • deformation of an object due to a hot flame is strongly observed at a boundary portion of the object and a fine texture portion.
  • the boundary with the moving object is a joint between different images in the corrected image 254, an unnatural edge may appear.
  • the image correction unit 150 executes a smoothing filter that is selectively strong against a boundary portion or a texture.
  • FIG. 15 shows an example in which the adaptive filter 152 selectively executes a smoothing filter.
  • the adaptive filter 152 included in the image correction unit 150 first includes a Sobel filter or a Prewitt filter that uses a first-order differentiation of the change in boundary (edge) with respect to the input image 210 or the corrected image 254. Etc., and the abrupt change (edge strength) of the shading of the edge is also calculated.
  • the image correction unit 150 can also calculate, for example, a value obtained by subtracting the minimum value from the maximum value of pixel values around 5 ⁇ 5 pixels of the target pixel as the edge strength.
  • the adaptive filter 152 uses the threshold values T A and T B (T A > T B ), which are two types of predetermined values, to convert the input image 210 and the like into “object boundary area” and “texture area”. The result is classified into three areas “planar area”, and the result is temporarily held as filter information 255. Specifically, the adaptive filter 152 classifies the pixel edge strength is equal to or greater than the threshold T A to the object boundary region. Further, the adaptive filter 152 classifies pixels whose edge intensity is greater than or equal to the threshold value T B and less than T A as texture regions. The adaptive filter 152, a pixel edge strength is less than the threshold T B, classified into planar region. The object boundary region is appropriately subjected to an expansion process which is a kind of morphological operation.
  • the adaptive filter 152 of the image correction unit 150 applies a different spatial filter to the corrected image 254 according to the region type indicated by the filter information 255.
  • the adaptive filter 152 includes an edge smoothing filter 152c that smooths the contour line for the object boundary region, and a bilateral filter 152t that can perform the smoothing process while leaving the contour line for the texture region.
  • the Gaussian filter 152f that does not have a strong blur intensity. Thereby, it is possible to selectively perform smoothing on a portion where deformation due to the hot flame is conspicuous.
  • the adaptive filter 152 calculates and uses the value of the dispersion of pixel values (dispersion in the spatial domain) around the target pixel, in addition to calculating the edge strength when classifying into the above filter types. You can also.
  • the adaptive filter 152 introduced a new threshold T E, by performing a determination as follows, allowing more precise processing.
  • the adaptive filter 152 the object boundary area when the edge intensity is equal to or greater than the threshold T A, is less than the edge intensity threshold value T B or T A, and Tesukucha region when the dispersion value is greater than or equal to the threshold value T E In other cases, it can be determined that the region is a planar region.
  • FIG. 16 shows an example of the edge smoothing filter 152c applied to the object boundary region in the above filter type.
  • the edge smoothing filter 152c is, for example, a filter that smoothes the boundary line by thinning out pixels once for the edge portion of the image and interpolating the remaining pixels.
  • a spline curve is preferably used as the pixel interpolation method. In this case, a smooth curve can be obtained without thinning many pixels.
  • the edge smoothing filter 152c for example, reduces the image once and then enlarges it again, and then uses an edge sharpening filter such as a Laplacian filter to make the sharpened boundary portion stand out. May be performed.
  • the adaptive filter 152 can apply other filters to each region (filter type), or does not necessarily apply a filter outside the object boundary region. Further, the adaptive filter 152 may be omitted, and the image correction unit 150 may only perform image synthesis. In addition, the image correction unit 150 calls the adaptive filter 152 while synthesizing the corrected image 254 pixel by pixel, and performs an edge smoothing filter on the original input image 210, time-series smoothed image 220, or moving object removed image 230. 152c or the like may be applied. Further, generation of the filter information 255 is not limited to reclassify the area type and further calculates the edge strength and dispersion, derivatively obtained during the calculation of the mask information M SR or below the heat haze distortion level D L Also good.
  • the image correcting unit 150 calls a super-resolution process in step S108 described later for each pixel of the “background region” and “quasi-moving object region”. May be implemented.
  • the moving object removal image update unit 160 performs moving object removal image update processing. Specifically, the moving object removal image update unit 160 uses the mask image MSR and the input image 210 input from the region division unit 140, and the moving object removal image stored in the moving object removal image memory 113. 230 is updated outside the moving area. The moving object removal image update unit 160 calculates the moving object removal image 230 by using, for example, an update expression based on the moving average shown in the following expression (10).
  • b (i, j) is the pixel value at the coordinate (i, j) on the moving object removal image
  • M SR (i, j) is the mask information M about the pixel at the coordinate (i, j).
  • the SR value, t indicates an update parameter (0 ⁇ t ⁇ 1).
  • the input image 210 itself can be used, for example, as in Expression (11).
  • the moving object removed image update unit 160 sets the value that is the center of the pixel values at the same coordinates in a plurality of frames as the corresponding value in the moving object removed image 230 even if the averaging process is not performed as described above. It is good also as a pixel value of coordinates. Moreover, the moving object removal image update part 160 is not restricted to this, You may calculate a pixel value using another method.
  • the hot flame distortion calculation unit 170 performs a distortion level output process.
  • the heat distortion distortion calculation unit 170 includes an input image 210, mask information MSR input from the region division unit 140, and a correction image 256 (or output image) input from the image correction unit 150. 240) is used to calculate the amount of image distortion due to the heat and outputs the distortion level.
  • the hot flame distortion calculation unit 170 calculates the image distortion amount due to the hot flame as the distortion intensity image 257 based on the difference between the input image 210 and the corrected image 256.
  • FIG. 17 shows an example of a method for calculating the image distortion amount.
  • heat haze distortion calculation section 170 the input image 210 corrected image 256, by calculating the absolute value of the difference for each pixel, binarized by determining more / less than a predetermined threshold T D.
  • the heat distortion distortion calculation part 170 can acquire the distortion intensity
  • the flame distortion calculation unit 170 determines that a pixel having a difference equal to or greater than a threshold value has a distortion due to the flame, and otherwise, can determine that a distortion due to the flame has not occurred.
  • the heat distortion distortion calculation unit 170 determines the maximum number of pixels whose frequency exceeds the threshold value T L among the four gradation levels using a predetermined threshold value T L set appropriately. in, obtaining the maximum value of the a shimmer distortion level D L.
  • T L a predetermined threshold value set appropriately.
  • the frequency of value 3 exceeds the threshold value, since the frequency value 4 does not exceed the threshold TL, shimmer distortion level D L is determined to be 3.
  • the hot flame distortion calculation unit 170 refers to the distortion intensity image 257 and selects data to be transmitted to another application or performs weighting calculation based on whether or not the target pixel is distorted. It can also be done.
  • the heat distortion distortion calculation unit 170 is a reliable pixel block that is free from distortion due to a heat flame in applications that handle statistical information of pixel values in the screen, such as digital camera focal length calculation and image gradation correction. The position of can be transmitted. As a result, in other applications, various processes can be performed or omitted based on the distortion intensity image 257 that is information on where the distortion occurs in the screen, and the processing accuracy of the application is improved. It is done.
  • the parameter optimization unit 180 performs parameter optimization processing. Specifically, the parameter optimization unit 180, based on the heat haze distortion level D L input from the heat haze distortion calculation section 170, and controls various parameters for performing region division and image update and optimize. For example, the update parameters s and t for updating the time-series smoothed image 220 and the moving object removed image 230 can be easily changed, and the larger the value, the higher the smoothing strength, so that strong distortion can be corrected. However, the resolution decreases. Thus, parameter optimization unit 180 may be controlled so that heat haze distortion level D L becomes large as updating parameter s, the value of t increases.
  • the parameter optimization unit 180 controls the threshold values T1 and T2, which are threshold parameters set as parameters relating to the region division, so that the threshold values T1 and T2 increase as the distortion level increases. The accuracy can be kept high.
  • the sizes of windows 610 and 620 and ⁇ x and ⁇ y in the inter-image similarity evaluation process S102 may be controlled.
  • the parameter optimization unit 180 not only optimizes the parameter based on heat haze distortion level D L calculated on the entire screen, it is also possible to optimize the parameters using the distortion intensity image 257 directly .
  • the parameter optimization unit 180 can change the parameter depending on the location in the same screen by using the distortion intensity image 257 indicating where the distortion is generated in the screen, and can perform finer optimization. Is possible.
  • the parameter optimization unit 180 can set the parameters s, t, T1, T2, etc. large in the filter type region where distortion occurs, and can set these values small in the other regions.
  • the parameter optimization process S108 does not necessarily have to be performed every time in the flow of FIG.
  • step S ⁇ b> 108 the image quality improving unit 190 performs high resolution processing.
  • the image quality improving unit 190 uses the super image with the reference image 212 as a reference image 212 with respect to the corrected image 256 in a temporally adjacent frame (excluding the same frame as the input image 210 and the like). Image processing is performed, and the result is written in the output image memory 114 as an output image 240.
  • the image quality improvement unit 190 basically uses a number of past corrected images 256 held in the calculation memory 155 as the reference image 212, but the output image one frame before held in the output image memory. 240, the moving object removal image 230, or the input image group 200 in the input image memory 110 may be substituted.
  • the mask information MSR of the corresponding frame (time) is also held.
  • various methods such as block matching for conventional positioning, subpixel accuracy is required, and the processing amount is generally high. Therefore, in this embodiment, in order to complete the process in a realistic time, the processing amount is reduced using the mask information MSR .
  • FIG. 18 shows an example of the alignment method in the present embodiment.
  • Image quality enhancement part 190 of this embodiment with reference to the mask information M SR of the input image 210 or the corrected image 256, the mask information M SR of the reference image 212 (if any), in each moving object Identify where the exists. Then, the image quality improving unit 190 performs local alignment only between moving object regions for a moving object, and performs local alignment only between regions other than the moving object for regions other than the moving object.
  • the previous search result position shift amount
  • the initial search position center of the search range
  • the image quality enhancing unit 190 performs super-resolution processing that combines and superimposes the target image and the reference image 212 by performing local alignment with decimal pixel accuracy, and outputs the result.
  • An image 240 is created. Any method may be used for this super-resolution processing. For example, a factor of image degradation such as motion or blur added until an observation image is generated from a high-resolution image is modeled, and MAP estimation or BTV is performed. It is preferable to use a reconstruction method that estimates a high-resolution image using a regularization method such as the (Bilateral Total Variation) method. For this reconstruction method, see “Tanaka, Okutomi; Reconstruction type super-resolution algorithm and its accuracy evaluation, IEICE Transactions Vol.
  • the target image is the latest output image 240 and the reference image 212 is only the latest corrected image 256 (one).
  • the latest input image that is one frame newer than the target image included in the input image group 210 may be added to obtain two reference images 212.
  • the image quality enhancement part 190 the target image is selected directly from the input images 200, when it is possible to use a series smoothed image 220 and the moving object removed image 230 in the reference image, using even mask information M SR A method in which the corrected images 256 and 254 are not used at all is also conceivable.
  • the filter information 255 the super-resolution processing may be omitted in a plane region where the edge strength is weak.
  • the heat haze distortion calculation section 170 uses the results of the registration process by the image quality enhancement part 190 may calculate a shimmer distortion level D L.
  • the result of the alignment processing can be used for a wide range of other purposes such as template analysis for moving object motion analysis and object recognition.
  • the output image 240 stored in the output image memory 114 can be read from other applications, stored and stored in a recording medium as a video file, output on a network, or output to a display means for the user. Can browse.
  • the image processing apparatus 10 uses a histogram, and a histogram of an input image and a time-series smoothed image obtained by smoothing the input image using a temporally close image. A difference is calculated, and a portion with a small difference is extracted as a moving object region. On this basis, correct heat processing is performed by performing appropriate filter processing on each region and performing region integration again.
  • the total image processing apparatus 10 corrects the deformation of the subject and the loss of resolution observed due to the influence of the hot flame without deteriorating the corrected image even when there is a moving object.
  • the image quality can be improved by correcting the flame with a realistic calculation amount. Therefore, it is possible to make an object that shakes irregularly appear to stop, and to provide a highly visible image suitable for human video surveillance.
  • the moving object separation method by area division can be used for purposes other than image correction.
  • the amount of processing can be reduced by analyzing an area identified as a moving object in a system that automatically detects an intruder from a surveillance video that includes distortion due to heat, etc., or automatically identifies the number of an approaching vehicle. Can be reduced.
  • the control configuration of the image processing apparatus 11 according to the second embodiment of the present invention will be described with reference to FIG. In FIG. 19, the same reference numerals as those of the image processing apparatus 10 according to the first embodiment in FIG. 2 indicate similar processing parts.
  • the image processing apparatus 11 uses a block analysis unit 131 (similarity information calculation unit, block analysis unit) that is a similarity information calculation unit instead of the histogram analysis unit 130 (FIG. 2) of the image processing apparatus 10. It has.
  • the block analysis unit 131 performs pixel unit for each combination of the input image 210 and the time-series smoothed image 220, and the input image 210 and the moving object removal image 230.
  • An evaluation cost representing a difference between images is calculated as similarity information between images.
  • the block analysis unit 131 is different from the histogram analysis unit 130 in that the difference between the pixel values at the same coordinates is calculated instead of the difference between the histograms. Processing other than the block analysis unit 131 is the same as that of the image processing apparatus 10 according to the first embodiment, and a description thereof is omitted.
  • FIG. 10 shows a method in which the block analysis unit 131 calculates the similarity between images in a certain region.
  • the block analysis unit 131 evaluates the pixel values in the windows W1 and W2 having the same coordinates and the same size, for example, 32 ⁇ 32 pixels in the input image 210 and the comparison image, and the difference values D W1, W2 between the windows. Is calculated.
  • the comparison image the time-series smoothed image 220 or the moving object removed image 230 can be used as an image to be compared with the input image 210 as in the first embodiment.
  • Equation (12) shows a case where the time-series smoothed image 220 is a comparative image, but the same applies to the moving object removed image 230.
  • Diff (x, y) represents the difference between the pixel value x and the pixel value y.
  • the block analysis unit 131 preferably uses an absolute value error (Absolute Difference) shown in Expression (13), a square error (Squared Difference) shown in Expression (14), or the like.
  • the block analysis unit 131 can also calculate the difference between the average values of the pixel values in the window as the difference between the windows as shown in the following equation (15). As a result, calculation considering the deformation of the subject due to the hot flame becomes possible.
  • AVE (W1 or W2) represents an average value of all the pixels included in the window W1 or W2.
  • the block analysis unit 131 can use a feature value indicating a feature of a pixel in the window such as a median value or a mode value, for example, without using an average value when calculating a difference between windows.
  • the block analysis unit 131 uses the inter-window differences D W1 and W2 calculated by the above-described method, as in the inter-image similarity evaluation process of the first embodiment.
  • An evaluation cost C X representing the difference between the images can be calculated. That is, the block analysis unit 131 may move the window around the target pixel as shown in FIG. 6 to calculate the inter-window difference repeatedly, or the target pixel as the center as shown in FIG. You may calculate the difference by setting the window to come.
  • the embodiment of the present invention is based on comparison of histograms as a region dividing means for dividing a region into “moving object region”, “background region”, “semi-moving object region”, etc. It is understood that various things can be used, such as by comparison of the values themselves. Generally speaking, the embodiments of the present invention have the following common tendency.
  • the area dividing means uses the original input image without depending on other processes and past results as much as possible. This essentially contributes to robust operation. Any image processing technique can be used as long as the output behavior of the moving object and the hot flame is slightly different. Suppression of heat and other disturbances is based on smoothing in the time domain.
  • the super-resolution processing is used as an auxiliary to recover the sense of resolution reduced by smoothing.
  • Super-resolution processing usually does not significantly degrade image quality. It can also be expected to improve the distortion caused by the hot flame when used in the moving body region.
  • the present invention can also be described as follows.
  • the image processing apparatus 10 or 11 uses the input image memory 110 for holding the input image 210 and a plurality of input image groups 200 that are close in time to all pixels in the screen.
  • a time series smoothed image memory 112 for holding the smoothed time series smoothed image 220 and a moving object removed image 230 obtained by performing time series smoothing on an image obtained by removing a moving object from the input image are stored.
  • a moving object removal image memory 113 for performing the processing, a time-series smoothed image updating unit 120 that updates the time-series smoothed image using the input image 210, and a histogram for each of the two types of partial images.
  • the histogram analysis unit 130 that evaluates the similarity between images by calculating the difference, or the similarity between images by calculating the pixel difference for each block Block analysis unit 131, region division unit 140 that performs region division based on the error calculated by histogram analysis unit 130 or block analysis unit 131, and image correction that corrects an image based on the region division result by region division unit 140 Unit 150, moving object removal image update unit 160 for performing update processing of moving object removal image 230 using the input image based on the result of region division by region division unit 140, and hot flame based on the result of region division and image correction
  • a heat distortion calculation unit 170 for calculating the strength of distortion due to the heat
  • a parameter optimization unit 180 for optimizing various parameters in accordance with the strength of the distortion due to the heat flame, and the superimposition based on the results of region segmentation and image correction.
  • the image quality improvement part 190 which performs a resolution process is provided.
  • the above image processing method calculates the similarity between the target image and a time-series smoothed image smoothed using a plurality of images that are close in time, and extracts a region with low similarity as a moving object.
  • the above image processing method uses a moving object removal image that has been time-sequentially smoothed on a portion other than the region extracted as a moving object, and uses the similarity to the target image to determine the region through which the moving object has passed in the past. It is characterized by extracting.
  • the image processing method described above is characterized in that a histogram is created for each window of an input image and a target image, and the similarity between the images is calculated by calculating a difference between them to divide the region.
  • the image processing method described above is characterized in that the input image is divided into two or more types of regions, and image correction is performed by performing different processing in each region.
  • the image processing method is characterized by applying a smoothing filter in a spatial direction to a moving object region, or applying a smoothing filter in a time direction to a region other than the moving object.
  • two or more types of threshold parameters are set when performing region segmentation on evaluation values calculated in pixel units or region units, and spatial regions having evaluation values greater than or equal to a high threshold are set.
  • the region division is performed with a low threshold for a region located in the vicinity, and with a high threshold otherwise.
  • the region located in the spatial vicinity of the region having an evaluation value equal to or lower than the low threshold is set to a high threshold, otherwise the region is set to a low threshold. It is characterized by dividing.
  • the present invention can be widely applied to, for example, water surface fluctuations, tree fluctuations, haze in the air, and underwater shooting, in addition to the heat flame, and distortion that varies with time, not limited to optical images, It can be used for all devices and methods that handle image sequences in which the intensity distribution of electromagnetic waves and particle beams is imaged.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geometry (AREA)

Abstract

【課題】陽炎等による画質劣化を軽減するための画総処理装置を提供する。 【解決手段】入力画像メモリ110は、入力画像群200及び入力画像210を記憶する。時系列平滑化画像メモリ112は、時系列平滑化した時系列平滑化画像220を記憶する。移動物体除去画像メモリ113は、背景画像である移動物体除去画像230を記憶する。ヒストグラム解析部130は、入力画像210と時系列平滑化画像220若しくは移動物体除去画像230とに対して、部分画像のヒストグラムの差分を計算して画像間の類似性情報を算出する。領域分割部140は、類似性情報により、入力画像210を移動物体領域及び該移動物体領域以外の領域に分割する。画像補正部150は、領域毎に入力画像210又は前記時系列平滑化画像220を画像合成する。

Description

画像処理装置及び画像処理方法
 本発明は、画像処理装置及び画像処理方法に係り、特に陽炎等による画質劣化を軽減するための画像処理装置及び画像処理方法に関する。
 近年、防犯・現場管理等を目的として監視カメラの需要が高まっており、半導体やネットワーク技術の発展とともにその機能も多様化している。
 その中でも揺れ補正や階調補正、霧・雨・吹雪・黄砂・スモッグ等の外乱除去に代表される画像補正は、大気や照明変化の影響を受けやすい監視分野において重要な役割を果たしており、これまでにもさまざまな製品に搭載されてきた。
 これらの画像補正は映像の視認性を改善して監視効率を高めることを目的としている。たとえば、揺れ補正(スタビライザ)の技術は、強風やカメラ固定台の振動等によって発生する画像の余分な動きを検出し、それをキャンセルする方向に補正することによって、視認性の高い映像を提供する。
 ここで、監視映像の視認性を大きく低下させる自然現象の一つとして、陽炎を挙げることができる。陽炎は、空気の温度差等によって発生する光の屈折・進行阻害現象である。陽炎が発生している箇所では、被写体がけば立ったように変形し、不規則に揺れて見え、解像感も低下する。このため、画像の品質が大きく低下する。
 実際のところ、従来から、陽炎によって発生した画像歪みを補正し、或いは陽炎を伴う画像の分解能を高めようとする試みはいくらか行われてきた。
 これらは主に、時間的に近い複数枚の画像を用いて画面内の全画素を平滑化(以下、「時系列平滑化」という。)し、陽炎による被写体の変形を緩和する技術である。
 すなわち、時系列平滑化は、陽炎の影響で被写体が変形する際の変位量が、統計的にはガウス分布に従うという性質を有していると考えられるため、複数枚の画像を用いて画素を平滑化することにより被写体本来の形状に近い画像を取得する技術である。
 たとえば、非特許文献1を参照すると、陽炎補正の対象となる「入力画像」と、時系列平滑化した「平均画像」に対して位置あわせを行い、入力画像を平均画像と合わせるように補正することによって、陽炎による被写体の変形を補正する技術が記載されている。
 図11を参照して、従来の時系列平滑化による陽炎補正方式について説明する。
 入力画像1200-1~1200-nは、監視カメラ等で動画撮影された、時間的近傍にある複数枚フレームの画像群を示す。図11では、入力画像1200-1~1200-4を例として示している。これらの画像が、陽炎による歪みを含んでいる場合、陽炎が発生している場所の周辺で被写体の形状が変化し、ビデオ視認性の低下へと繋がる。
 時系列平滑化画像1220は、この入力画像1200-1~1200-4を、従来の画像の時系列での平滑化により、画面内の全画素を平滑化した画像の例である。この時系列平滑化画像1220のように、建物のように物体が静止している背景領域では、物体本来の形状に近い画像を復元することができる。
 しかし、入力画像中に移動物体が存在する場合に時系列平滑化を行うと、移動物体領域が不自然ににじんだ画像が生成され、補正画像の大幅な劣化につながる。つまり、図11の例では、移動物体が通り過ぎた領域1250においては、移動物体とそうでない領域が不正に重畳されてしまい、所望の結果が得られないといった問題があった。
 つまり、時系列平滑化方式は、画面内に移動物体が存在しない場合にのみ効果的に用いることができる。
 また、陽炎の影響による解像感喪失に加えて、上記平滑化処理によっても解像度が低下してしまうため、補正画像の解像度を高める試みも行われている。
 たとえば、非特許文献2を参照すると、画面内の全画素に対して時系列平滑化処理を行った画像に対して、時間的に近い複数枚画像を用いた超解像処理を行うことによって、失われた解像度を復元する技術が記載されている。
 また、特許文献1を参照すると、入力された画像データの画像の揺らぎを補正するために、前記画像データに対して、1つの係数と1フレーム前の前記画像データとで規定される伝達関数を適用する演算を行う補正手段と、前記補正手段により補正された前記画像データを1フレーム遅延して、前記補正手段に1フレーム前の前記画像データとしてフィードバックする遅延手段と、入力された前記画像データと1フレーム前の前記画像データとに基づいて、前記画像中の動きのある画素を抽出する抽出手段と、前記動きのある画素のうちの動体の画素を揺らぎの画素から識別する識別手段と、前記識別手段による識別結果に応じて前記係数を制御する制御手段とを備える画像処理装置が記載されている(以下、従来技術3とする。)。
 従来技術3も、動体に与える影響を軽減し、画像の揺らぎを補正することができる。
特開2011-229030号公報
吉村,清水,田中,奥富,「非剛体レジストレーションによる時系列画像中の揺らぎ除去」,2007,情報処理学会研究報告,2006-CVIM-157,p.169-176 M.Shimizu,S.Yoshimura,M.Tanaka,and M.Okutomi,"Super-Resolution from Image Sequence under Influence of Hot-Air Optical Turbulence",2008,IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR),p.1-8
 しかしながら、従来技術1は、陽炎等を補正するために、時間的に近い画像を用いた時系列平滑化を行う場合、対象画像内に移動物体が存在すると、補正画像が大幅に劣化するといった問題があった。
 また、従来技術1のような、画面全体での時系列平滑化を行うだけでは、入力画像中に移動物体が存在した場合、上述のように平均画像が劣化してしまい、うまく位置あわせができないため、補正そのものが困難化するという問題もあった。
 また、従来技術2は、また、補正画像に対して複数枚画像を用いた超解像処理を行う場合、位置あわせのための処理量が膨大であるといった問題があった。これは、陽炎による被写体の変形は局所的にも起こり得るため、例えば、画素単位の非常に緻密な位置あわせを行う必要があるためであった。
 また、従来技術3は、1フレーム前の画像の画素の位置関係のみに注目して揺らぎを補正しているため、移動物体領域の検出精度が低いという問題があった。
 本発明は、このような状況に鑑みてなされたものであり、上述の課題を解消することを課題とする。
 本発明の画像処理装置は、入力画像と、時間的に近い複数枚の画像を用いて平滑化した時系列平滑化画像若しくは移動物体を除去した移動物体除去画像とに対して、部分画像の差分を計算することにより画像間の類似性情報を算出する類似性情報算出部と、前記画像間の類似性情報により前記入力画像を移動物体領域、及び該移動物体領域以外の領域に分割する領域分割部と、前記領域毎に前記入力画像又は前記時系列平滑化画像を画像合成する画像補正部とを備えることを特徴とする。
 本発明の画像処理装置は、前記領域分割部は、大きさの異なる2種類以上の閾値を設定し、高い閾値以上の画素値の前記領域の空間的近傍に位置する前記領域に対しては低い閾値で、そうでない場合には高い閾値で前記領域の分割を行う、又は、低い閾値以下の評価値を備える前記領域の空間的近傍に位置する前記領域に対しては高い閾値にて、そうでない場合には低い閾値にて前記領域の分割を行うことを特徴とする。
 本発明の画像処理装置は、前記画像補正部は、前記移動物体領域に対して空間方向の平滑化フィルタを実行することを特徴とする。
 本発明の画像処理装置は、前記移動物体領域同士、及び/又は前記移動物体以外の領域同士で位置合わせ処理を行い、該位置合わせの結果に基づいて超解像処理を行う画像高画質化部を備えることを特徴とする。
 本発明の画像処理方法は、コンピュータに画像処理を実行させるための画像処理方法において、前記コンピュータに、入力画像と、時間的に近い複数枚の画像を用いて平滑化した時系列平滑化画像とに対して、部分画像の差分を計算することにより画像間の類似性情報を算出し、前記画像間の類似性情報により前記入力画像を移動物体領域、及び該移動物体領域以外の領域に分割し、前記領域毎に前記入力画像又は前記時系列平滑化画像を画像合成する手順を実行させることを特徴とする。
 本発明によれば、入力画像と比較画像の部分画像の差分を計算して移動物体を認識することで、陽炎の影響により観測される被写体の変形や解像感の喪失を好適に補正し、位置合わせの精度を高め、高品質の画像を得られる画像処理装置を提供することができる。
本発明の画像処理方法等の対象となる陽炎を含む画像における、領域のカテゴリの一例を説明する図。 本発明の第1実施形態に係る画像処理装置10の制御構成を示すブロック図。 第1実施形態に係る画像品質改善処理のフローチャート。 第1実施形態に係る画像間類似性評価処理におけるヒストグラムの差分に係る概念図。 第1実施形態に係るヒストグラムの差分の具体的な計算に係る概念図。 第1実施形態に係る画像間類似性評価処理における評価コストCXの計算の概念図。 第1実施形態における別の評価コストを計算する方法の概念図。 第1実施形態における1フレーム分の評価コスト算出の概念図。 第1実施形態にて算出された評価コストの一例を示す概念図。 第1実施形態に係る領域分割処理の概要を示す概念図。 領域分割処理におけるマスク情報MSRの再帰的な算出処理のフローチャート。 第1実施形態に係る領域分割処理の動作例を示す概念図。 第1実施形態に係る領域分割処理により算出されたマスク情報MSRの概念図。 第1実施形態に係る画像補正処理の概念図。 第1実施形態に係る画像補正処理において、フィルタ種別の分類の概念図。 第1実施形態に係る画像補正処理のエッジスムージングフィルタの概念図。 第1実施形態に係る歪みレベル出力処理の概念図。 第1実施形態に係る高解像度化処理における位置合わせの概念図。 本発明の第2実施形態に係る画像処理装置11の制御構成を示すブロック図。 第2実施形態で画像間の類似性情報を計算する概念図。 従来の陽炎を軽減するための時系列平滑化による画像処理の概念図。
<実施形態に係る画像処理装置の原理>
 まず、図1を参照して、本発明の実施形態に係る画像処理装置の原理を概略的に述べる。
図1に、実施形態に係る画像処理装置が処理の対象とする、陽炎を含む画像の一例が示される。入力画像210は、監視カメラ等の撮像手段により所定時間間隔で撮像されたものの1フレームであり、走行中の車とビルが写っている。入力画像210は、少なくとも被写体の違いにより、少なくとも移動物体領域、背景領域に区別できることが理解できる。
 実施形態に係る画像処理装置は、例えば、入力画像210を、「移動物体領域」「背景領域」「準移動物体領域」の3種類のカテゴリの領域に分割する。
 「移動物体領域」は、入力画像内で移動物体(例えば車)が存在する領域である。「移動物体領域」は、移動物体上で陽炎が発生している領域310(車体)と、移動物体上で陽炎が発生していない領域311(車輪)とを含む。
 「背景領域」は、物体(例えばビル)が静止している領域である。「背景領域」は、静止する物体上で陽炎が発生している領域320と、静止する物体上で陽炎が発生していない領域321とを含む。
 「準移動物体領域」は、入力画像内に移動物体は含まれないものの、過去に移動物体が通り過ぎた後の領域330を示す。
 このように、「移動物体領域」に属する領域310、311に限らず、カテゴリ「背景領域」に属する領域320においても、陽炎に起因する被写体の動きが検出されうる。
 従来は、この「移動物体領域」と、陽炎が発生している「背景領域」とを、精度良く区別することが困難であり、精度の悪さ、つまり判断された「背景領域」内に誤って移動物体が存在することが、補正画像の画質を大きく低下させていた。
 実施形態に係る画像処理装置は、物体の変形に強いというヒストグラムの性質に着目し、部分画像におけるヒストグラム差分(コスト)を評価する。
 これにより、従来は困難であった、「移動物体領域」と陽炎が発生している「背景領域」とを区別し、別々のカテゴリに領域分割した上で画像補正を行うことができる。これにより、画像品質が改善される。
 少し具体的に説明すると、画像処理装置は、各領域に対して適した処理を行った後で、再び各領域の画像を統合することによって陽炎補正を達成する。
 たとえば、画像処理装置は、移動物体領域に対して、空間的近傍画素を用いた平滑化を行い、それ以外の領域に対しては、時間的近傍画像を用いた平滑化を行う。
 画像処理装置は、移動物体の分離には、例えば、物体の変形に強い特徴を持つヒストグラムを用い、入力画像210と、時間的に近い画像入力画像群200を用いて入力画像を平滑化した時系列平滑化画像とのヒストグラム差分を計算する。そして、画像処理装置は、差分の小さい部分を移動物体領域として抽出する。
 この上で、画像処理装置は、分割した各カテゴリの領域について、陽炎補正を行って、超解像処理を行い、画像の品質を改善する。画像処理装置は、超解像処理のための位置あわせを行う際にも、上述の移動物体領域の抽出結果を参照する。これにより、被写体の存在場所が限定されるため、例えば移動物体領域同士、および移動物体以外の領域同士で探索を行うことにより、探索範囲が限定され処理量を軽減化できる。
<第1実施形態>
〔画像処理装置10の構成〕
 まず、図2を参照して、本発明の第1実施形態に係る画像処理装置10(コンピュータ)の構成を説明する。
 画像処理装置10は、一例として、主に、入力画像メモリ110(入力画像記憶手段)、時系列平滑化画像メモリ112(時系列平滑化画像記憶手段)、移動物体除去画像メモリ113(移動物体除去画像記憶手段)、出力画像メモリ114(出力画像記憶手段)、計算用メモリ115(一時記憶手段)、時系列平滑化画像更新部120(時系列平滑化画像更新手段)、ヒストグラム解析部130(類似性情報算出手段、類似性情報算出部、ヒストグラム解析手段)、領域分割部140(領域分割手段)、画像補正部150(画像補正手段)、移動物体除去画像更新部160(移動物体除去画像更新手段)、陽炎歪み計算部170(陽炎歪み計算手段)、パラメータ最適化部180(パラメータ最適化手段)、及び画像高画質化部190(画像高画質化手段)を含んで構成される。
 画像処理装置10は、入力画像メモリ110乃至計算用メモリ115のメモリと、DSP(Digital
Signal Processor)やGPU(Graphics Processing Unit)等のプロセッサとをハードウェアとして有し、所定のプログラムを読み込んだプロセッサが、時系列平滑化画像更新部120乃至画像高画質化部190の機能を実現することによって、取得した監視カメラ等の画像から、陽炎による揺らぎ等を補正する陽炎補正装置として機能させることができる。
 入力画像メモリ110は、図示しない監視カメラ等からの入力画像210が随時書き込まれて、それを記憶する。一般に監視カメラ等から取得される画像は、JPG(MotionJPEG)やJpeg2000等の静止画像として、或いはMPEG4やH.264等の動画として符号化されているため、適宜復号し所定のカラーフォーマットのRAWデータとして記憶する。
 入力画像メモリ110は、常にできるだけ新しい画像を最低でも1フレーム分、完全な形で保持することが望ましく、そのために2フレーム分以上の容量を備える。また、画像高画質化部190での超解像処理が入力画像群200を必要とする場合、入力画像メモリ110は、入力画像群200として、入力画像210の時間的に近傍の静止画像データ(フレーム)を、より多く保持することが望ましい。RAWデータは、例えば、RGB(Red、Green、Blue)各値8ビット/16ビット等で表現したビットマップデータや独自形式データである。
 時系列平滑化画像メモリ112は、時間的に近い複数枚の入力画像を用いて画面内の全画素を平滑化した時系列平滑化画像220を記憶する記録媒体である。
 時系列平滑化画像メモリ112は、主に、時系列平滑化画像更新部120で作成して更新された時系列平滑化画像220を記憶する。
 移動物体除去画像メモリ113は、入力画像から移動物体を除去した画像に対して時系列平滑化処理を行った「背景画像」である移動物体除去画像230を記憶する記録媒体である。移動物体除去画像230は、主に、移動物体除去画像更新部160によって作成され、移動物体除去画像メモリ113に書き込まれる。
 時系列平滑化画像220や移動物体除去画像230は、必ずしも単一時刻の画素からなる1フレームを完全な形でメモリ112や113に保持される必要は無く、1フレーム内に新しく更新した部分と、1つ前の更新のままの部分とを含む画像でも、さほど問題はない。
 出力画像メモリ114は、最終的に高画質化した出力画像240を記憶する記憶媒体である。
 計算用メモリ115は、本実施形態の画像処理におけるその他の一時的なデータやパラメータ等を記憶するための記憶媒体である。
 計算用メモリ115は、各制御演算部位からアクセス可能であり、コスト計算用情報252(図8)、マスク設定253(図10)、補正画像254及び256(図14)、フィルタ情報255(図15)、歪み強度画像257(図17)、陽炎歪みレベルDL(図17)及び、これらの計算のために用いるデータ等を記憶することができる。
 また、コスト計算用情報252には、評価コストC(図9)、評価コストCR(図9)、マスク情報MSR(図10)等を記憶可能である。
 また、マスク設定253には、閾値パラメータ及びカテゴリ設定を記憶できる。この閾値パラメータは、領域分割処理(図3)の閾値T1、T2(図10)を記憶することができる。また、カテゴリ設定は、画像が分割されうる3種類のカテゴリである「移動物体領域」「背景領域」「準移動物体領域」について、メモリ上でそれらを表現する値を定義するデータである。
 この他にも、計算用メモリ115は、座標(i,j)、閾値に係る変数Tc等についても記憶する。
 これらのデータの詳細については、後述する。
 入力画像メモリ110、時系列平滑化画像メモリ112、移動物体除去画像メモリ113、出力画像メモリ114及び計算用メモリ115は、RAM、DSP(Digital Signal
Processor)やGPU(Graphics
Processing Unit)のチップに内蔵されたワークメモリやグラフィックメモリ等で実現できる。入力画像メモリ110や出力画像メモリ114の保持する入力画像210や出力画像240は、DMA(Direct Memory Access)等を用いて他のメモリに転送し、或いはバスや外部出力端子やネットワーク等を介して、他機器と入出力可能である。
 この他機器としては、PC(Personal Computer)等を用いた映像表示装置(図示せず)や画像分析装置(図示せず)を用いることができる。
 時系列平滑化画像更新部120は、所定間隔で起動して、入力画像210の、時系列平滑化を行い、作成した時系列平滑化画像220時系列平滑化画像メモリ112に記憶する。平滑化は、1枚の入力画像210と、現在の時系列平滑化画像220とを用いて行うことができ、例えば、1/30秒~数十分程度の所定間隔の数フレームの画像データを平均化することができる。
 ヒストグラム解析部130は、第1実施形態において特徴的な制御演算部位であり、画像間の類似性を判断する目的で、ヒストグラム解析部130は、後述するウィンドウ(格子状に区切った部分画像)毎にヒストグラムを作成し、その差分を計算する。具体的には、ヒストグラム解析部130は、入力画像210と、比較画像である時系列平滑化画像220若しくは移動物体除去画像更新部160との画像間の類似性情報である評価コストC、CR(図9)等を作成し、計算用メモリ115に記憶するか領域分割部140に直接渡す。
 この際に、ヒストグラム解析部130は、所定範囲の部分画像(以下、「ウィンドウ」という。)に対して、類似性(コスト)を評価する。
 領域分割部140は、第1実施形態において特徴的な制御演算部位であり、ヒストグラム解析部130によって算出された画像間の類似性情報である評価コストC、CRに基づいて、入力画像210を所定のカテゴリへ分割する。その結果、各ウィンドウは、移動体か、背景か、等に応じて、該当するカテゴリに分類される。実際には、領域分割部140は、各ウィンドウが、いずれのカテゴリへ分類されたかを示す領域分割情報としてマスク情報MSR(図10)を作成し、計算用メモリ115に記憶する。
 画像補正部150は、第1実施形態において特徴的な制御演算部位であり、領域分割結果であるマスク情報MSRに基づいて、カテゴリごとに異なるソース画像或いは画像フィルタ(以下、「フィルタ」という。)を用いて補正画像254を作成する。具合的には、画像補正部150は、「移動物体領域」には入力画像210を選択して空間領域(spatial domain)の平滑化フィルタを実行し、「背景領域」には時系列平滑化画像220を選択して時間領域の平滑化フィルタを実行し、「準移動物体領域」には移動物体除去画像230を選択して時間領域の平滑化フィルタを実行する。この上で、画像補正部150は、各領域の画像を結合し、補正画像254(図14)を合成する。
 画像補正部150は、その後、補正画像254に対して空間領域フィルタを実行して、補正画像256を作成し、計算用メモリ115に記憶する。
 移動物体除去画像更新部160は、マスク情報MSRと、入力画像210とを用いて、移動物体除去画像230を更新する制御演算部位である。
 移動物体除去画像更新部160は、移動平均等を用いて、作成した移動物体除去画像230を、移動物体除去画像メモリ113に記憶する。
 陽炎歪み計算部170は、領域分割及び画像補正結果に基づいて陽炎による歪みの強さを算出する。陽炎歪み計算部170は、入力画像210と、マスク情報MSRと、補正画像256を用い、陽炎による画像歪み強度画像257を算出し、計算用メモリ115に記憶し、更にこの画像歪み強度画像257から、陽炎歪みレベルDL(図17)を算出する。
 パラメータ最適化部180は、陽炎による歪みの強さに応じて各種パラメータを最適化する制御演算部位である。パラメータ最適化部180は、陽炎歪みレベルDLから、領域分割や画像更新を行うための各種パラメータを最適化し、計算用メモリ115に記憶する。
 画像高画質化部190は、領域分割及び画像補正結果に基づいて超解像処理を行う制御演算部位である。
 画像高画質化部190は、まず、入力画像210、補正画像254若しくは256と、入力画像群200の時間的に近い複数のフレームとを用いて位置合わせを行う。この位置あわせは、マスク情報MSRを参照して、移動物体領域間又は移動物体以外の領域間でのみ行う。これにより、位置合わせの処理量を削減できる。
 その後、画像高画質化部190は、超解像処理を行い、背景領域が高画質化された出力画像240を出力画像メモリ114に記憶する。
 なお、本実施形態の画像処理装置10の各部位は、専用の回路として実装されても、記憶手段に記憶されたプログラムを制御手段が上述の各手段として実行する構成であってもよい。前者として、画像処理装置10は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field-Programmable Gate Array)等による回路で実装できる。後者としては、ハードウェア資源として、DSPやGPUの他、PC等が備えるCPU(Central Processing Unit)、MPU(Micro
Processing Unit)等の制御演算手段と、RAM、ROM、フラッシュメモリ、HDD等の記憶手段とを備えたコンピュータが実行するプログラムとして実装することもできる。
 また、上述の記憶手段は、例えば、DVD等の光学記憶媒体、USBメモリやSDカード等半導体記憶媒体のような脱着可能な記録媒体を含んでいてもよい。この脱着可能な記録媒体にも、各種プログラムやデータを記憶し、内蔵の記録媒体へインストール等をすることも可能である。また、脱着可能な記録媒体に、入力画像210や、出力画像240を記憶し、別のPCや携帯電話等で閲覧することも可能である。
 また、本実施形態の画像処理装置10は、CCDやCMOSのイメージセンサ等を備え、静止画像や動画像を撮像するカメラ等の撮像手段を備えることもできる。
 また、本実施形態の画像処理装置10は、ネットワークから静止画像や動画像を取得したり、出力画像240を送出したりするLANボードや携帯通信部位等のネットワーク送受信手段を備えることもできる。
 さらに、画像処理装置10は、各画像、パラメータ、撮像状態を確認するための液晶ディスプレイ等の表示手段を備えることもできる。
 加えて、画像処理装置10は、キーボードやマウスやタッチパネル等の入力手段を備えて、各部位の制御についてのユーザの指示を検知することもできる。
〔画像処理装置10による画像品質改善処理〕
 次に、図3のフローチャートを参照して、本実施形態の画像品質改善処理についてステップ毎に詳しく説明する。以下の処理は、図2に示した画像処理装置10の各部が、ハードウェア資源を用いて実行する。ここでは理解を容易にするため、各ステップは、フレーム単位で処理を行うことを前提とする。つまり1フレーム分の画像データを受取り、処理して、後続のステップに渡す。
 まず、ステップS101において、時系列平滑化画像更新部120は、時系列平滑化画像更新処理を行う。
 具体的に、時系列平滑化画像更新部120は、入力画像メモリ110に記憶された入力画像210を用いて時系列平滑化画像220を作成し、時系列平滑化画像メモリ112に記憶、更新する。
 時系列平滑化画像更新部120は、時系列平滑化画像220の作成のために、例えば、式(1)に示す移動平均による計算式を用いて各画素の時系列平滑化を行う。
Figure JPOXMLDOC01-appb-M000001
 ここで、a(i,j)は時系列平滑化画像上の座標(i,j)における画素値を、p(i,j)は、同じ座標(i,j)における入力画像の画素値を、sは更新パラメータ(0<s<1)を、等号は右辺を左辺に代入する演算子を表す(以下同じ)。
 画素値p(i,j)やa(i,j)は互いに同じであればどのような形式でもよいが、時系列平滑化画像更新部120は、例えば、各画素における、RGB色相空間の3原色R(Red)、G(Green)、B(Blue)の成分値や、HSV色空間(Hue、Saturation、Value)の各成分値について、それぞれ式(1)にて時系列平滑化を行うことができる。
 なお、時系列平滑化画像更新部120は、白黒の入力画像210を用いる場合や、RGBのG成分の値、HSVの明度の成分値のみについて、時系列平滑化を行うことで、処理を高速化することもできる。
 また、a(i,j)の初期値、すなわち最初のフレームにおける時系列平滑化画像は、例えば、式(2)のように、入力画像そのものを用いることが好適である。
 なお、a(i,j)の初期値として、この他にも、入力画像群200から、入力画像210に時間的に近いフレームの画像を選択することもできる。
Figure JPOXMLDOC01-appb-M000002
 なお、時系列平滑化画像更新部120は、時系列平滑化画像220の作成方法として、上述の移動平均以外の処理を用いることもできる。
 たとえば、時系列平滑化画像更新部120は、複数フレームの同一座標における画素値に対して、その中央となる値を時系列平均化画像における該当座標の画素値とすることもできる。
 さらに、時系列平滑化画像更新部120は、時系列平滑化処理を行わなくても、例えばロバストな背景差分を実現するために開発されている各種の背景モデル化手法を用いてもよい。背景モデル化手法は、画素もしくは領域単位で背景色の分布等を背景らしさの尺度としてモデル化する手法である。この背景モデル化手法では、例えばモデル化された背景色分布の中心値等のように、最も背景らしさの高い値を対象とする画素値として用いる。これにより、時系列平滑化画像を用いた場合よりもより高精度な背景、つまり移動体を含まない背景を生成することができる。
 背景モデル化手法は、公知の各種の方式、例えば「島田,有田,谷口;適応的な分布数の増減法を利用した混合ガウス分布による高速な動的背景モデル構築,電子情報通信学会論文誌D,Vol.J90-D,No.9,pp.2606-2614,2007.」に記載の方式を用いることができる。この背景モデル化手法の方法では、画素単位で背景色の分布を複数のガウス分布によりモデル化する。そして、ガウス分布の個数、各分布の平均・共分散・重みのような、モデルのパラメータをフレーム単位で更新することにより、ロバストな背景差分を実現することができる。
 次に、ステップS102において、ヒストグラム解析部130は、画像間類似性評価処理を行う。
 この処理では、ヒストグラム解析部130は、画素単位で画像間の差(非類似性)に相当するコストを評価し、領域分割部140に出力する。
 図4~図9を参照して説明すると、ヒストグラム解析部130は、入力画像メモリ110に記憶された入力画像210と、比較画像とについて、画像間の類似性情報を算出して評価する。
 この比較画像は、時系列平滑化画像メモリ112に記憶された時系列平滑化画像220と、移動物体除去画像メモリ113に記憶された背景画像である移動物体除去画像230であり、それぞれ類似度情報(評価コストCとCR)が算出される。
 ここで、ヒストグラム解析部130は、後述する移動物体除去画像更新処理で既に作成されていた移動物体除去画像230があれば、これを用いることができる。
 図4は、ある領域における類似性を計算する方法について示している。
 ヒストグラム解析部130は、入力画像210と比較画像とにおいて、ウィンドウW1とW2とを用いて、ヒストグラムを作成し、その差分を計算する。ウィンドウW1とW2は、それぞれ同一座標で、例えば32ピクセル×32ピクセルのような同一サイズの部分画像である。
 ヒストグラム解析部130は、ヒストグラムの作成方法および差分の計算方法についてはどのようなものを用いてもよいが、例えば下記のような方法を用いることができる。
 たとえば、ヒストグラム解析部130は、入力画像210と比較画像のそれぞれの各成分値について、ウィンドウ内の各成分値の階調を減少させ、差分を計算する。
 具体的には、例えば、ヒストグラム解析部130は、それぞれのウィンドウW1とW2に対して、32階調にまで量子化した後に、ヒストグラム410及び420を作成する。それぞれのヒストグラムにおいて、横軸は成分値、縦軸は例えば画素数のような度数を示す。この上で、ヒストグラム解析部130は、ヒストグラム410及び420の各成分値における画素数の差分を算出する。この32階調の画素数の差分を、ヒストグラム差分DH32と呼ぶ。
 次に、ヒストグラム解析部130は、諧調数を1/2ずつ減少させ、入力画像210と比較画像とのヒストグラムを作成する。ヒストグラム解析部130は、このような処理を、階調数が2になるまで行い、それぞれのヒストグラム差分DHn(n=32,16,8,4,2)を計算する。
 続いて、ヒストグラム解析部130は、下記の式(3)によりウィンドウW1、W2間のヒストグラム差分DW1,W2を計算する。
Figure JPOXMLDOC01-appb-M000003
 ここで、wn(n=32,16,8,4,2)は諧調数nに対する重みを示す。
 式(3)のように、複数階調によるヒストグラム差分を用いることにより、ヒストグラム上で画素値が離れた成分における差分を大きく反映した評価が可能になり、例えば、ウィンドウのサイズに対して極端に小さい物体でも、背景とは異質のものであれば検出が可能になるといった効果が得られる。
 なお、ヒストグラム解析部130は、特定の階調数によるヒストグラム差分のみを用いてヒストグラム差分DW1,W2を計算してもよい。
 たとえば、下記の式(4)は階調数32のヒストグラム差分のみ用いて、ヒストグラム差分DW1,W2を算出する例である。
Figure JPOXMLDOC01-appb-M000004
 また、ヒストグラム解析部130は、ヒストグラム差分DHnをどのように算出してもよいが、例えば式(5)に示すように、各成分値におけるヒストグラム差分DDHn(k)(k=1,……,n)の和として算出することが好適である。
Figure JPOXMLDOC01-appb-M000005
 図5は、具体的なヒストグラム差分の計算方法の例を示す。
 ヒストグラム解析部130は、ヒストグラム410とヒストグラム420との間で、当該階調における各成分kにおいて、画素数等の度数値であるF1及びF2の差分を算出する。
 ヒストグラム解析部130は、各成分値kにおけるヒストグラム差分DDHn(k)をどのように算出してもよいが、例えば、式(6)に示すように、正規化誤差を用いることが好適である。
Figure JPOXMLDOC01-appb-M000006
 式(6)のF1はウィンドウW1の成分値kにおけるヒストグラムの値、F2はウィンドウW2の画素値kにおけるヒストグラムの画素数等の度数値、「MAX()」は最大値を返す関数、Kは雑音データの影響を緩和するための定数である。
 式(6)のように正規化誤差を用いることによって、背景領域に存在しない画素値を持つ移動物体の識別が容易になり、例えば、ウィンドウのサイズに対して極端に小さい物体でも検出が可能になるという効果が得られる。
 なお、ヒストグラム解析部130は、下記の式(7)のように、DDHn(k)を輝度値kにおけるヒストグラムの単純差分によって計算してもよい。
Figure JPOXMLDOC01-appb-M000007
 図6は、上述の方法で計算されるヒストグラム差分DW1,W2を用いて、各画素における画像間の差を表す評価コストC又はCR(以下、評価コストC又はCRのいずれかを、評価コストCXと呼ぶ。)を計算する方法の一例について示している。
 本例のヒストグラム解析部130は、対象画素の周りでウィンドウを動かしながら繰り返し解析を行う。たとえば、ヒストグラム解析部130は、最初に対象画素Xが中心になるようにウィンドウを設定し、ウィンドウが対象画素Xを含み続ける範囲でウィンドウを動かして、繰り返し、ヒストグラム差分を計算する。図6の例では、入力画像210側では画素610、比較画像側では画素620を、対象画素Xとする。
 この算出する入力画像210側と比較画像側で、各k種類のウィンドウを設定したとすると、対象画素Xにおける評価コストCXは、下記式(8)のように計算される。
Figure JPOXMLDOC01-appb-M000008
 この式(8)において、入力画像210側のウィンドウがウィンドウW1_1,W1_2,……,W1_kであり、比較画像側のウィンドウがウィンドウW2_1,W2_2,……,W2_kである。また、ウィンドウW1,tとウィンドウW2_t(t=1,2,……,k)は同一サイズかつ同一座標である。例えば、ウィンドウが32ピクセル×32ピクセルで、対象画素Xの座標から-31ピクセル~+31ピクセルの範囲でピクセル毎に動かしてウィンドウW1_t、W2_tを設定した場合、k=63×63=3969となる。実際のところ、DW1_t,W2_tの結果は別の対象画素に再利用できるので、後に図8で説明されるようにDW1_t,W2_tは最大でも、1フレーム内の画素数と同数求めればよい。
 式(8)では、評価コストCXが小さいほど画像間の類似性が高いことを表す。式(8)のようにウィンドウをずらしながら繰り返し計算して総和を求めることにより、例えば、ウィンドウが物体と物体の境界に位置する等、陽炎による被写体の変形が生じた際に誤差が不正に高くなる場合の影響を緩和することができる。
 なお、ヒストグラム解析部130は、その他の方法により、評価コストCXを計算してもよい。
 図7は、ヒストグラム差分DW1,W2を用いて各画素における評価コストを計算する方法の、別の一例を示す。
 ヒストグラム解析部130は、対象画素Xが中心になるようにウィンドウW1X、W2Xを設定した場合、対象画素Xにおける評価コストCXを、例えば、式(9)のように計算する。
Figure JPOXMLDOC01-appb-M000009
 図8は、ヒストグラム解析部130が、式(8)により、1フレーム分の評価コストを計算する方法の例を示す。
 まず、ヒストグラム解析部130は、画像間の類似性情報を記憶するコスト計算用情報252を用意し、すべて0に初期化する。
 コスト計算用情報252は、入力画像210と同じ水平Wピクセル×垂直Hピクセルの画素数のフレーム(記録領域)が、比較画像の枚数+1以上、計算用メモリ115に確保されてそこに記録される。比較画像の枚数より1多いのは、マスク情報MSRを記録するためである。本実施形態においては、コスト計算用情報252は、評価コストC(i,j)、評価コストCR(i,j)、及びマスク情報MSR(i,j)に対応する3フレームのデータである。なおC(i,j)は、画素(i,j)における評価コストCの値(計算途中の値を含む)を表し、他も同様である。また、(i,j)は、当該画素のX軸、Y軸の座標を示し、i=0,1,2,…,W-1、また、j=0,1,2,…,H-1である。
 その後、ヒストグラム解析部130は、入力画像210上のウィンドウW1と、比較画像上のウィンドウW2と、コスト計算用情報252の当該比較画像用のフレームのウィンドウWmとを、それぞれX軸(水平)方向にΔx、Y軸(垂直)方向にΔyずつずらしながら動かす。なお、以下で、各フレームの左上の座標を(X軸,Y軸)=(0,0)とし、右及び下方向に、X座標及びY座標が増える座標系を用いる。
 具体的には、ヒストグラム解析部130は、動かす毎に、ウィンドウW1とW2間のヒストグラム差分DW1,W2を計算して、ウィンドウWm内の各要素にそれぞれ足し合わせる。この際、ヒストグラム解析部130は、Δx=1、Δy=1を用いて処理を行うことができる。ウィンドウW1、W2及びWmを各フレームで右下端まで動かし終わった状態で、コスト計算用情報252のフレームに保持された各要素が、最終的に評価コストC、CRとなる。
 なお、ヒストグラム解析部130は、上下左右の端部に関しては、そのまま足したり、正規化して足す等の処理を行うことができる。
 また、ヒストグラム解析部130は、ΔxとΔyの値を増やすことで、処理量を減らして演算スピードを上げることもできる。その場合、評価コストはΔx×Δyのブロック領域内で同じ値となる。このため、別途、後述するフィルタ等で分割領域の境界部分のブロック歪みを抑えることが望ましい。
 図9は、ステップS102で生成される各評価コストの性質を模式的に表している。
 評価コストCは、入力画像210と、時系列平滑化画像220を比較画像として計算した評価コストを示している。評価コストCは、時系列平滑化画像220の移動物体領域と、これに加えて、移動物体が通り過ぎた領域において評価コストが高くなるような性質を備えている。
 評価コストCRは、入力画像210と移動物体除去画像230を比較画像として計算した評価コストを示している。評価コストCRは、通常、移動物体領域のみにおいて評価コストの増加がみられるような性質を備えている。
 このように、本実施形態では、入力画像210並びに時系列平滑化画像220、又は入力画像210並びに移動物体除去画像230の組み合わせについて、それぞれヒストグラム差分を計算し比較することができる。
 なお、画像間類似性評価処理は、ヒストグラム差分を用いて画像間の類似性を評価し、評価コストを出力するものであれば各種の手法を用いることができる。
 まず、本実施形態では画像内で一様に画素ごと評価コストを算出しているが、これに限られない。たとえば、ヒストグラム解析部130は、以前の領域分類の結果やユーザからの指定を参照して、意味のあるまとまった領域単位で計算してもよく、
 また、ヒストグラム解析部130は、例えば、入力画像群200の1つのフレームを対象画像として、当該対象画像と時間的に近い別の画像で比較する等、上述とは別の組み合わせの比較を行って、評価コストを算出してもよい。
 さらに、ヒストグラム解析部130は、どのような形式の画像データに対してヒストグラム解析を行ってもよい。たとえば、画像データが色相空間において3原色R、G、Bで表現されている場合、それぞれの成分にてヒストグラム差分を計算し、それらを足し合わせて評価コストとすると好適である。
 また、本実施形態において、ヒストグラム解析部130は、空間的に連続性のある画像ブロックにて表現されるウィンドウ単位でヒストグラムの作成を行っているが、これに限られない。ヒストグラム解析部130は、例えば、空間的に離れた複数の領域を統合してヒストグラムを作成し比較する等の処理を行うことも可能である。
 図2に戻ると、次に、ステップS103において、領域分割部140は、領域分割処理を行う。
 具体的には、領域分割部140は、ヒストグラム解析部130にて計算した評価コストに基づいて、各画素を「移動物体領域」、「背景領域」或いは「準移動物体領域」のカテゴリに分類することで、画像を3領域へ分割する。
 図10は、コスト計算用情報252に含まれる評価コストC、CR及びマスク情報MSRの内容と、マスク設定253の内容の例を示している。
 C、CR及びMSRはそれぞれ1フレーム分保持されており、その任意の一部分(6×6画素)について、保持されている実際の値をマトリクス状に示してある。
 領域分割部140は、ヒストグラム解析部130が算出した評価コストCと評価コストCRを用いて、各画素がどのカテゴリに属するかを示すマスク情報MSRを、計算用メモリ115のコスト計算用情報252に記録する。
 領域分割部140は、評価コストC、CRをマスク設定253の閾値パラメータTとそれぞれ比較することで、各画素が属するカテゴリを判断し、マスク設定253のカテゴリ設定に従い、マスク情報MSRを書き込む。すなわち、C(i,j)>TかつCR(i,j)>Tである場合には、画素(i,j)は移動体領域であると判断する。それ以外の場合で、C(i,j)<CR(i,j)であれば、画素(i,j)は背景領域であると判断し、そうでなければ、画素(i,j)は準移動体領域であると判断する。
 なお、図示された2つの閾値パラメータT1、T2の一方が、Tに相当するものとする。実際には、この閾値Tは、所定の初期値を設定した後、パラメータ最適化部180が、後述するパラメータ最適化処理により、1フレーム単位の周期で調整する。また、マスク設定253のカテゴリ設定は、図示された様に、「領域分割未完了」=0、「移動物体領域」=1、「背景領域」=2、「準移動物体領域」=3である。
(マスク情報MSRの再帰的な算出例)
 領域分割部140は、2種類の評価コストC、CRからマスク情報MSRを算出するのに、各種の手法を用いることができる。
 図11は、複数の閾値を適応的に使い分けることにより、評価コストC、CRから好適にマスク情報MSRを計算する再帰的アルゴリズムについて示している。
 このアルゴリズムでは、2種類の閾値T1、T2(T1>T2)を、移動物体に隣接する画素は低い閾値T2を、そうでない場合は高い閾値T1を用いて評価することにより、被写体領域の空間的な連続性を考慮したロバストな領域分割が可能になる。
 まず、ステップS201において、領域分割部140は、初期設定処理を行う。
 この処理において、領域分割部140は、まだ処理の完了していない画素(i,j)を対象画素として選択し、対象画素(x,y)=(i,j)、閾値に係る変数Tc=T1に初期化する。
 次に、ステップS202において、領域分割部140は、閾値にT1を用いて、対象画素が移動物体領域であるか否かを判定する。具体的に、領域分割部140は、C(x,y)>Tc且つCR(x,y)>Tcである場合、Yesと判定する。それ以外の場合は、Noと判定する。
 Yesの場合、領域分割部140は、対象画素が移動物体領域であると判断して、処理をステップS203へ進める。
 Noの場合、領域分割部140は、処理をステップS205へ進める。
 ステップS203において、(x,y)は移動物体領域なので、領域分割部140は、MSR(x,y)=1に設定する処理を行い、その後、処理をステップS204へ進める。
 次に、ステップS204において、領域分割部140は、隣接画素再帰呼び出し処理を行う。具体的には、領域分割部140は、変数Tc=T2に設定した上で、対象画素と左、上、右、下に隣接する画素(x,y)=(i-1,j)、(i,j-1)、(i+1,j)、(i,j+1)の中で処理が未完了のものに対して、ステップS202の処理を再帰的に呼び出し、その後、領域分割処理を終了する。
 ステップS205において、移動物体領域でなかった場合、領域分割部140は、背景領域であるか否かを判定する。具体的に、領域分割部140は、C(x,y)<CR(x,y)である場合には、Yesと判定する。それ以外の場合は、Noと判定する。
 Yesの場合、領域分割部140は、処理をステップS206へ進める。
 Noの場合、領域分割部140は、処理をS207へ進める。
 ステップS206において、領域分割部140は、対象画素が背景領域であると判断してMSR(x,y)=2に設定する処理を行い、対象画素(x,y)に対する、領域分割処理を終了する。
 ステップS207において、領域分割部140は、対象画素が準移動物体領域であると判断してMSR(x,y)=3に設定する処理を行い、対象画素(x,y)に対する領域分割処理を終了する。
 上述の再帰呼び出しとは、ステップS202~S207を纏めた1つの関数(手続き)を、その関数内で呼び出すことである。本例では、対象画素(x,y)が一旦、移動体領域に触れると、再帰呼び出しにより移動体領域が優先的にスワイプされ、小さい閾値T2が適用されることで移動体領域の輪郭付近がより移動体領域に取り込まれやすくなる。
 単一の閾値Tを用いた場合、背景に含まれるべき領域でも、陽炎による変形がある程度大きいと、評価コストが小さい値にならず、背景の一部が移動物体として識別され、画質が悪化する可能性がある。かと言って、閾値を高くすると、移動物体に含まれるべき領域でも、背景色に近い色を有していると、ヒストグラム解析による評価コストがあまり高い値にならず背景と判断され、出力画像から消えてしまうという致命的な問題を引き起こす。また、移動物体の輪郭付近では、陽炎による変形の影響も受けて評価コストがばらつくので、背景を移動体として誤識別しやすく、またその逆も起こり得る。これによる、移動物体の一部(輪郭)の欠損等のアーティファクトが、主観的画質の劣化の主要因となる。
 これに対して、2種類の閾値T1、T2を用いるアルゴリズムでは、ロバストな領域分割を実現することができる。閾値は変化しうるが、一例として、各画素値を0~255の8bit階調とした場合に、閾値T1=80、閾値T2=55を用いることができる。
(マスク情報MSRによる領域分割の動作例)
 図12A及び図12Bは、上述の手法による領域分割の動作例について示している。
 各図において、C、CR及びMSRそれぞれのマトリクスは、図10に示したそれと同様、コスト計算用情報252に保持されている1フレームのうち、同じ位置の一部であり、処理の進展とともにMSRが書き込まれていく様子が示される。
 図12Aの最上段は、初期の状態を示し、MSRがすべて0(未完了)である。領域分割部140は、領域分割が未完了である画素の中から1つの画素710を対象画素として選択し、その評価コストC、CRを参照して閾値T1と比較する。この場合、両方の評価コストともに、閾値T1よりも大きな値が記憶されているため、対象画素は移動物体領域であると判断し、マスク情報MSRの対象画素に対する値を1に設定する。2段目はその直後の状態を示す。
 また、領域分割部140は、この場合、対象画素が移動物体領域であったため、対象画素710の左、上、右、下に隣接する画素の中で、領域分割が未完了の画素720、730に対して、閾値T2を用いた評価を再帰的に行い、マスク情報を決定する。領域分割部140は、このような閾値T2を用いた評価を、移動物体領域以外の画素が見つかるまで再帰的に行い、マスク情報MSRの一部760を算出する。最下段は、その直後の状態を示す。
 領域分割部140は、再帰処理が完了すると再び閾値をT1に戻し、処理が未完了である画素770に対して比較評価処理を行うと、この画素は準移動物体領域であることが分かり、マスク情報MSRの対象画素に対する値を3に設定する。図12Bの上段は、その直後の状態を示す。
 このとき、領域分割部140は、対象画素が移動物体領域ではなかったため再帰計算は行わず、閾値がT1のままで、処理が未完了である画素780、790に対して処理を続ける。すると、再び画素810が移動物体領域であると識別されるため、領域分割部140は、閾値をT2に設定して、隣接する画素820の評価を行う。図12Bの中段は、その直後の状態を示す。このような処理を続けると、0の画素を含まないマスク情報MSRの一部830が得られ、領域分割が達成される。
 なお、本実施形態では再帰的に移動物体領域を拡張する方法について述べているが、ハードウェア実装を行う場合等、再帰計算を行うことが困難である場合は、同様の結果が得られるように再帰的ではない演算を行うこともできる。
 図13は、上述の処理によって計算されたマスク情報MSRの一例を視覚的に示している。
 すなわち、時系列平滑化画像220と入力画像210を用いて算出した評価コストCと、移動物体除去画像230と入力画像210を用いて算出した評価コストCRにより上述の計算を行うことで、3種類のカテゴリへの領域分割結果であるマスク情報MSRが取得できる。
 なお、本実施形態では、2種類の評価コストC、CRを用いて、3種類のカテゴリへの領域分割を行ったが、評価コストの種類やカテゴリの数を任意に設定することも可能である。
 たとえば、領域分割部140は、時系列平滑化画像220に係る評価コストCのみを用いて、移動物体領域と背景領域の2種類のカテゴリに分割してもよい。
 さらに、領域分割部140は、移動物体除去画像230に係る評価コストCRのみを用いて2種類のカテゴリに分割することもできる。この場合、カメラが動いたりシーン変化等の原因で一度、画面全体が移動物体として検出されると、それ以降は移動物体除去画像が更新されなくなる。このため、領域分割部140は、シーン変化やカメラの動き自体を別途検出したり、タイマを設定して所定期間で評価コストCRの算出をリセットする等により、計算量を抑えて確実に領域分割を行うことができる。
 加えて、領域分割部140は、別の比較画像を用い、準移動物体領域を複数のレベルで設定する等、4種類以上のカテゴリに分割してもよい。
 次に、ステップS104において、画像補正部150は、画像補正処理を行う。
 図14~図16を参照して、本実施形態の画像補正処理の詳細について説明する。
 画像補正部150は、領域分割部140から入力されたマスク情報MSR、入力画像210、時系列平滑化画像220、及び移動物体除去画像230を用いて陽炎補正を行い、補正画像254を出力する。
 この上で、画像補正部150は、入力画像210に対し、空間方向の画像フィルタを実行し、領域分割を目立たなくした自然な補正画像256を出力する。
 まず、図14を参照して、本実施形態の画像補正処理の概念について説明する。
 この処理において、画像補正部150は、マスク情報MSRで示されたカテゴリの種類に応じて、それぞれ異なる処理を行うことにより陽炎補正を行う。本実施形態では、画像補正部150は、カテゴリに応じて3種類の画像を、例えば画素毎に選択して画像合成することにより、補正画像254を生成する。
 すなわち、画像補正部150は、マスク情報MSRの画素群1110のように、移動物体領域と識別された画素に対しては、入力画像210内の同じ座標にある画素群1010の値を選択する。
 また、画像補正部150は、マスク情報MSRの画素群1120のように、背景領域と識別された画素に対しては、時系列平滑化画像220内の同じ座標にある画素群1020の値を選択する。
 同様に、マスク情報MSRの画素群1130のように、準移動物体領域と識別された画素に対しては、移動物体除去画像230内の同じ座標にある画素群1030の値を選択する。
 これにより、画像補正部150は、移動物体以外の領域において陽炎等による歪みが補正された補正画像254を作成する。
 ここで、画像補正部150は、補正画像254から適応フィルタ152を用いて補正画像256を作成する。一般に陽炎による物体の変形は、物体の境界部分及びテクスチャの細かい部分において強く観測される。また移動物体との境界は、補正画像254では異なる画像間のつなぎ目に当るため、不自然なエッジが現れうる。このため、画像補正部150は、境界部分やテクスチャに対して選択的に強い平滑化フィルタを実行することが好適である。
 図15は、適応フィルタ152が、選択的に平滑化フィルタを実行する一例を示している。
 画像補正部150が備える適応フィルタ152は、まず、入力画像210或いは補正画像254に対して境目(エッジ)の濃淡の変化を一次微分によるソーベルフィルタ(Sobel Filter)やプレウィットフィルタ(Prewitt Filter)等を用いて算出し、エッジの濃淡の変化の急激さ(エッジ強度)も算出する。この他にも、画像補正部150は、例えば、対象画素の5×5ピクセルの周辺にある画素値の最大値から最小値を引いた値を、エッジ強度として算出することもできる。
 エッジ強度を算出した後、適応フィルタ152は、2種類の所定値である閾値T、T(T>T)を用いて、入力画像210等を「物体境界領域」「テクスチャ領域」「平面領域」の3領域に分類し、その結果をフィルタ情報255として一時的に保持する。
 具体的には、適応フィルタ152は、エッジ強度が閾値T以上である画素を物体境界領域に分類する。
 また、適応フィルタ152は、エッジ強度が閾値T以上T未満となる画素を、テクスチャ領域に分類する。
 また、適応フィルタ152は、エッジ強度が閾値T未満となる画素を、平面領域に分類する。
 物体境界領域には適宜、モルフォロジー演算の一種である膨張処理を施す。
 画像補正部150の適応フィルタ152は、フィルタ情報255が示す領域種別に応じて、補正画像254に異なる空間フィルタを適用する。適応フィルタ152は、例えば、物体境界領域に対しては、輪郭線を滑らかにするエッジスムージングフィルタ152cを、テクスチャ領域に対しては、輪郭線は残しながら平滑化処理が可能なバイラテラルフィルタ152tを、平面領域に対しては、あまりぼかしの強度が強くないガウシアンフィルタ152fを適用すると好適である。これにより、陽炎による変形が目立ちやすい部分に対して、選択的に平滑化を行うことができる。
 また、適応フィルタ152は、上述のフィルタ種別への分類の際に、エッジ強度を計算する他に、対象画素の周辺における画素値の分散(空間領域での分散)の値を計算して用いることもできる。たとえば、適応フィルタ152は、新たな閾値Tを導入し、下記のように判定を行うことにより、より精密な処理が可能になる。すなわち、適応フィルタ152は、エッジ強度が閾値T以上である場合には物体境界領域、エッジ強度が閾値T以上T未満であり、かつ分散値が閾値T以上である場合はテスクチャ領域、それ以外の場合は平面領域であると判定することができる。
 図16は、上述のフィルタ種別における物体境界領域に適用するエッジスムージングフィルタ152cの一例について示している。エッジスムージングフィルタ152cは、例えば、画像のエッジ部分に対して、一度画素を大幅に間引き、残った画素を補間することにより、境界線を滑らかにするフィルタである。
 画素の補間方法として、例えばスプライン曲線を用いると好適である。この場合、画素を多く間引かなくてもスムーズな曲線を得られる。
 より簡便な方法として、エッジスムージングフィルタ152cは、例えば、一度画像を大幅に縮小したあとで再度拡大し、続いてラプラシアンフィルタのようなエッジ先鋭化フィルタを用いて、なまった境界部分を際立たせるような処理を行ってもよい。
 なお、適応フィルタ152は、各領域(フィルタ種別)に、他のフィルタを適用することも可能であり、或いは物体境界領域以外ではフィルタを必ずしも適用しなくても良い。更には適応フィルタ152をのものを省略し、画像補正部150が画像合成のみをするものとしてもよい。
 また、画像補正部150が、補正画像254を1画素ずつ合成しながら適応フィルタ152を呼び出して、元となる入力画像210、時系列平滑化画像220、或いは移動物体除去画像230上でエッジスムージングフィルタ152c等が適用されても良い。
 また、フィルタ情報255の生成は、エッジ強度や分散を更に計算して領域種別を分類しなおすものに限らず、マスク情報MSR或いは後述の陽炎歪みレベルDの計算中に派生的に得ても良い。例えばMSR=2の画素と隣接するMSR=1の画素を、物体境界領域と扱うことができる。
 また、画像補正部150が、補正画像254や補正画像256を算出する過程で、「背景領域」「準移動物体領域」のそれぞれの画素に対して、後述のステップS108の超解像処理を呼び出して実施してもよい。
 次に、ステップS105において、移動物体除去画像更新部160は、移動物体除去画像更新処理を行う。
 具体的には、移動物体除去画像更新部160は、領域分割部140から入力されたマスク画像MSRと入力画像210とを用いて、移動物体除去画像メモリ113に記憶されている移動物体除去画像230を、移動領域以外で更新する。
 移動物体除去画像更新部160は、例えば、下記の式(10)に示す移動平均による更新式を用いて、移動物体除去画像230を算出する。
Figure JPOXMLDOC01-appb-M000010
 式(10)において、b(i,j)は移動物体除去画像上の座標(i,j)における画素値を、MSR(i,j)は座標(i,j)における画素に関するマスク情報MSRの値を、tは更新パラメータ(0<t<1)を示す。
 ここで、b(i,j)の初期値、すなわち最初のフレームにおける移動物体除去画像230は、例えば式(11)のように、入力画像210そのものを用いることができる。
Figure JPOXMLDOC01-appb-M000011
 なお、移動物体除去画像更新部160は、上述のような平均化処理でなくても、複数フレームの同一座標における画素値に対して、それらの中央となる値を、移動物体除去画像230における該当座標の画素値としてもよい。
 また、移動物体除去画像更新部160は、これに限られず、他の方法を用いて画素値を算出してもよい。
 次に、ステップS106において、陽炎歪み計算部170は、歪みレベル出力処理を行う。
 図17を参照して説明すると、陽炎歪み計算部170は、入力画像210と、領域分割部140から入力されたマスク情報MSRと、画像補正部150から入力された補正画像256(或いは出力画像240)とを用いて、陽炎による画像歪み量を計算し、その歪みレベルを出力する。
 ここでは、陽炎歪み計算部170は、入力画像210と補正画像256の差分に基づいて、陽炎による画像歪み量を歪み強度画像257として算出する。
 図17は、画像歪み量を計算する方法の一例を示している。
 まず、陽炎歪み計算部170は、入力画像210と補正画像256の、画素ごとの差分の絶対値を計算して、所定の閾値T以上/未満を判定して2値化する。これにより、陽炎歪み計算部170は、各画素において陽炎による歪みが生じているか否か(2値)を表す歪み強度画像257を取得することができる。
 陽炎歪み計算部170は、差分が閾値以上である画素は陽炎による歪みが生じていると判断し、そうでなければ、陽炎による歪みが生じていないと判断できる。
 続いて、陽炎歪み計算部170は、歪み強度画像257を、互いに重ならないN×Nサイズ(例えば、N=16)のブロックに分割する。そして、陽炎歪み計算部170は、それぞれのブロックの中で、歪みが生じている画素の数をカウントして、ヒストグラム化する。
 たとえば、図17の例では、陽炎歪み計算部170は、歪みが生じている画素数について、4階調のような所定値で量子化して、ヒストグラム470を作成する。ヒストグラム470の横軸は歪みが生じている画素数、縦軸はブロックの数(度数)を示す。そして、陽炎歪み計算部170は、適切に設定された所定の閾値Tを用いて、4階調化された画素数の中で、度数が閾値Tを超える最大の画素数を判定することで、当該の最大値を陽炎歪みレベルDとして得る。
 図17の例では、ヒストグラムでは、値3の度数は閾値を超えているが、値4の度数は閾値TLを越えていないため、陽炎歪みレベルDは3であると判定される。
 なお、陽炎歪み計算部170は、歪み強度画像257を参照し、対象画素に歪みが生じているかどうかに基づいて、他のアプリケーションに送信するデータを選択したり、重み付け計算を行う等の加工を行うこともできる。
 すなわち、陽炎歪み計算部170は、例えば、デジタルカメラの焦点距離計算や画像の階調補正等、画面内の画素値の統計情報を扱うアプリケーションに、陽炎による歪みがなく信頼性の高い画素のブロックの位置を送信することができる。
 これにより他のアプリケーションでは、画面内のどの場所で歪みが生じているかの情報である歪み強度画像257に基づいて各種処理を行ったり省いたりでき、当該アプリケーションの処理精度が高くなるという効果が得られる。
 次に、ステップS107において、パラメータ最適化部180は、パラメータ最適化処理を行う。
 具体的には、パラメータ最適化部180は、陽炎歪み計算部170から入力された陽炎歪みレベルDに基づいて、領域分割や画像更新を行うための各種パラメータを制御し、最適化する。たとえば、時系列平滑化画像220や移動物体除去画像230を更新するための更新パラメータs,tは、容易に変更でき、大きな値に設定するほど平滑化の強度が大きくなるため強い歪みを補正できるが、解像度は低下する。このため、パラメータ最適化部180は、陽炎歪みレベルDが大きくなるほど更新パラメータs,tの値が大きくなるよう制御することができる。
 また、パラメータ最適化部180は、領域分割に関するパラメータとして設定される閾値パラメータである閾値T1、T2等についても、歪みのレベルが大きくなるほど閾値T1、T2が大きくなるように制御すると、領域分割の精度を高く保つことができる。
 このほか、画像間類似性評価処理S102におけるウィンドウ610、620のサイズやΔx、Δyを制御しても良い。
 なお、パラメータ最適化部180は、画面全体で計算された陽炎歪みレベルDに基づいてパラメータの最適化を行うだけでなく、歪み強度画像257を直接用いてパラメータの最適化を行うこともできる。つまり、パラメータ最適化部180は、画面内のどの場所で歪みが生じているかを表す歪み強度画像257を用いることにより、同じ画面内でも場所によってパラメータを変化させることができ、より細かな最適化が可能になる。
 たとえば、パラメータ最適化部180は、歪みが生じているフィルタ種別の領域ではパラメータs、t、T1、T2等を大きく設定し、そうでない領域ではこれらの値を小さく設定することができる。
 なお、パラメータ最適化処理S108は、図2のフローにおいて必ずしも毎回行なう必要はない。
 次に、ステップS108において、画像高画質化部190は、高解像度化処理を行う。
 図18を参照して説明すると、画像高画質化部190は、補正画像256に対して、時間的に近傍にあるフレーム(入力画像210等と同じフレームは除く)を参照画像212とした超解像処理を行い、その結果を出力画像240として出力画像メモリ114に書き込む。画像高画質化部190は、参照画像212として、基本的には計算用メモリ155内に数保持される過去の補正画像256を用いるが、出力画像メモリが保持している1フレーム前の出力画像240、移動物体除去画像230、或いは入力画像メモリ110中の入力画像群200等で代用できる場合がある。なお、参照画像212と一緒に、対応するフレーム(時刻)のマスク情報MSRも保持しておく。
 一般に、複数枚のフレームを参照する超解像処理では、対象画像に対して、一度すべての参照画像との局所位置あわせを行う必要がある。従来の位置合わせは、ブロックマッチング等様々な方法があるものの、サブピクセル精度が必要で、一般的に処理量が高い。
 よって、本実施形態では、現実的な時間で処理を完了させるために、マスク情報MSRを用いて、処理量を低減させる。
 図18は、本実施形態における位置あわせ方法の一例を示している。
 本実施例の画像高画質化部190は、入力画像210又は補正画像256のマスク情報MSRと、参照画像212のマスク情報MSR(もしあれば)とを参照して、それぞれにおいて、移動物体が存在する場所を特定する。
 そして、画像高画質化部190は、移動物体については移動物体領域間でのみ局所位置あわせを行い、移動物体以外の領域については、移動物体以外の領域間でのみ局所位置あわせを行う。
 ブロックマッチングでは通常、直前の探索結果(位置ずれ量)を、初期の探索位置(探索範囲の中心)に設定することが多い。異なる領域を跨ぐ無意味な探索を行なわないように探索範囲が制限されるので、処理量が軽減される。これは移動物体の1フレーム時間当たりの移動量が、陽炎の変位量より小さいか大きいかに係わらず有効である。
 画像高画質化部190は、位置あわせ結果に基づき、対象画像と参照画像212とを、小数点画素精度の局所的位置合わせをして合成(重ね合わせ)していく超解像処理を行い、出力画像240を作成する。
 この超解像処理は、どのような方法を用いても良いが、例えば、高解像度画像から観測画像が生成されるまでに加わった動きやぼけといった画像劣化の要因をモデル化し、MAP推定やBTV(Bilateral Total Variation)法といった正則化手法を用いて高解像度画像を推定する再構成法を用いると好適である。この再構成法については、「田中,奥富;再構成型超解像処理の高速化アルゴリズムとその精度評価, 電子情報通信学会論文誌 Vol. J88-D-II, No. 11, pp. 2200-2209, 2005.(電子情報通信学会);2005年11月」を参照することができる。
 或いは最も簡便な方法として、対象画像を直近の出力画像240、参照画像212は最新の補正画像256(1枚)のみとする方法がある。この方法に、入力画像群210が含む、対象画像より1フレーム新しい最新の入力画像を加え、参照画像212を2枚としてもよい。
 以上により、本発明の第1実施形態に係る画像品質改善処理を終了する。
 なお、対象画像や参照画像として、他の画像を用いてもよい。たとえば、画像高画質化部190は、入力画像群200から対象画像を直接選択し、時系列平滑化画像220や移動物体除去画像230を参照画像に用いてもよく、マスク情報MSRさえ用いれば補正画像256、254は一切用いない方法も考えられる。また、フィルタ情報255を参照し、エッジ強度が弱い平面領域で超解像処理を省略しても良い。
 また陽炎歪み計算部170は、画像高画質化部190による位置合わせ処理の結果を利用して、陽炎歪みレベルDを算出してもよい。位置合わせ処理の結果は、その他、移動物体の動き解析やオブジェクト認識のためのテンプレートマッチング等、幅広い用途に利用することが可能である。
 また、出力画像メモリ114に記憶された出力画像240は、他のアプリケーションから読みだしたり、映像ファイルとして記録媒体に蓄積して記憶したり、ネットワーク上に出力したり、表示手段に出力してユーザが閲覧したりすることができる。
 以上のように構成することで、以下のような効果を得ることができる。
 まず、従来技術1~2では、移動物体が存在しない領域においては好適な結果が得られるものの、移動物体が通り過ぎた領域においては、移動物体とそうでない領域が不正に重畳される残像現象が発生し、画質が劣化するといった問題があった。
 これに対して、本発明の第1実施形態に係る画像処理装置10は、ヒストグラムを用い、入力画像と、時間的に近い画像を用いて入力画像を平滑化した時系列平滑化画像とのヒストグラム差分を計算し、差分の小さい部分を移動物体領域として抽出する。この上で、各領域に対して適切なフィルタ処理を行って再び領域統合を行うことによって陽炎補正を行う。
 このような処理により、本実施形態の画総処理装置10は、移動物体が存在する場合でも補正画像を劣化させることなく、陽炎の影響により観測される被写体の変形や解像感の喪失を補正し、現実的な計算量で陽炎補正を行い画像の品質を改善できる。よって、不規則に揺れている被写体を止まって見える様にでき、人による映像監視に適した視認性の高い画像を提供できる。
 また、本実施形態の領域分割による移動物体分離方法は、画像補正以外の用途で利用することもできる。たとえば、陽炎等による歪みが含まれる監視映像内から侵入者を自動検知したり、進入車両のナンバーを自動識別するシステム等にて、移動物体として識別された領域を解析することで、処理量を低減することができる。
<第2実施形態>
〔画像処理装置11の構成〕
 次に、図19を参照して、本発明の第2実施形態に係る画像処理装置11の制御構成について説明する。図19では、図2の第1実施形態に係る画像処理装置10と同じ符号は、同様の処理部位を示している。具体的には、画像処理装置11は、画像処理装置10のヒストグラム解析部130(図2)の代わりに、類似性情報算出部であるブロック解析部131(類似性情報算出手段、ブロック解析手段)を備えている。
 ブロック解析部131は、第1実施形態のヒストグラム解析部130と同様に、入力画像210と時系列平滑化画像220、入力画像210と移動物体除去画像230の各組み合わせに対して、画素単位で、画像間の差を表す評価コストを画像間の類似性情報として算出する。ただし、ブロック解析部131は、ヒストグラムの差分ではなく同一座標における画素値の差を計算する点が、ヒストグラム解析部130と異なる。
 なお、ブロック解析部131以外の処理は、第1実施形態に係る画像処理装置10と同じであり、説明を省略する。
 図10は、ある領域においてブロック解析部131が、画像間の類似性を計算する方法について示している。
 ここでは、ブロック解析部131は、入力画像210と、比較画像において、例えば32×32ピクセルの同一座標・同一サイズのウィンドウW1とW2における画素値を評価し、ウィンドウ間の差分値DW1,W2を算出する。
 この際、比較画像として、入力画像210の比較対象となる画像として、第1実施形態と同様に、時系列平滑化画像220又は移動物体除去画像230を用いることができる。
 画素値の評価方法は、例えば、下記の式(12)に示すように、ウィンドウ内における同一座標の画素値差分を足し合わせたものを計算すると好適である。
 式(12)は、時系列平滑化画像220を比較画像とする場合について示しているが、移動物体除去画像230でも同様である。
Figure JPOXMLDOC01-appb-M000012
 ここでDiff(x,y)は、画素値xと画素値yの差分を表している。
 差分の計算方法として、ブロック解析部131は、例えば、式(13)に示す絶対値誤差(Absolute Difference)や、式(14)に示す二乗誤差(Squared Difference)等を用いると好適である。
Figure JPOXMLDOC01-appb-M000013
Figure JPOXMLDOC01-appb-M000014
 また、ブロック解析部131は、下記の式(15)に示すように、ウィンドウ内の画素値の平均値の差分をウィンドウ間の差分として計算することもできる。
 これにより、陽炎による被写体の変形を考慮した計算が可能となる。
Figure JPOXMLDOC01-appb-M000015
 ここで、AVE(W1又はW2)は、ウィンドウW1又はW2に含まれるすべての画素の平均値を表している。
 なお、ブロック解析部131は、ウィンドウ間の差分を計算する際、平均値を用いず、例えば、中央値や最頻値等、ウィンドウ内の画素の特徴を示す特徴値を用いることができる。
 本発明の第2の実施形態において、ブロック解析部131は、上述の方法で計算したウィンドウ間差分DW1,W2に基づき、第1実施形態の画像間類似性評価処理と同様に、各画素における画像間の差を表す評価コストCXを計算することができる。
 すなわち、ブロック解析部131は、図6に示されるように、対象画素の周りでウィンドウを動かし、繰り返しウィンドウ間差分を計算してもよいし、図7に示されるように、対象画素が中心に来るようにウィンドウ設定して差分を計算してもよい。
 以上の各実施形態の説明から、本発明の実施形態は、領域を「移動物体領域」「背景領域」「準移動物体領域」等に分割する領域分割手段として、ヒストグラムの比較によるものや、画素値自体の比較によるものなど、様々なものが利用できることが理解される。本発明の実施形態を総じて言えば、以下の共通の傾向を有しているといえる。
 領域分割手段は、他の処理、過去の結果になるべく依存せず、オリジナルの入力画像を利用する。これはロバストな動作に本質的に貢献する。移動体と陽炎とで、僅かでも出力の挙動が異なるものであれば、あらゆる画像処理手法が利用できる。
 陽炎その他の外乱の抑圧は、時間領域での平滑化を基本とする。これは陽炎による変位の推定が不要なため、推定の誤りに起因する画質の極端な劣化の危険がない。そして静止した背景においては効果がある。
 超解像処理を補助的に用いて、平滑化で低下した解像感を回復する。超解像処理は通常、それにより画質が大きく悪化することはない。移動体領域に用いて、陽炎による歪みの改善を期待することもできる。
 本発明は、以下のようにも述べることができる。
 本発明の一側面である画像処理装置10又は11は、入力画像210を保持するための入力画像メモリ110と、時間的に近い複数枚の入力画像群200とを用いて画面内の全画素を平滑化した時系列平滑化画像220を保持するための時系列平滑化画像メモリ112と、入力画像から移動物体を除去した画像に対して時系列平滑化処理を行った移動物体除去画像230を記憶するための移動物体除去画像メモリ113と、入力画像210を用いて時系列平滑化画像を更新する時系列平滑化画像更新部120と、2種類の画像の部分画像に対してそれぞれヒストグラムを作成し、その差分を計算することにより画像間の類似性を評価するヒストグラム解析部130、又はブロック毎に画素の差分を計算することにより画像間の類似性を評価するブロック解析部131と、ヒストグラム解析部130又はブロック解析部131によって計算された誤差に基づいて領域分割を行う領域分割部140と、領域分割部140による領域分割結果に基づいて画像を補正する画像補正部150と、領域分割部140による領域分割結果に基づいて入力画像を用いた移動物体除去画像230の更新処理を行う移動物体除去画像更新部160と、領域分割および画像補正の結果に基づいて陽炎による歪みの強さを計算するための陽炎歪み計算部170と、陽炎による歪みの強さに応じて各種パラメータを最適化するパラメータ最適化部180と、領域分割および画像補正の結果に基づいて超解像処理を行う画像高画質化部190とを備えることを特徴とする。
 上記の画像処理方法は、対象画像と、時間的に近い複数枚の画像を用いて平滑化した時系列平滑化画像の類似性を計算し、類似性の低い領域を移動物体として抽出することを特徴とする。
 上記の画像処理方法は、移動物体として抽出された領域以外の部分に対して時系列平滑化した移動物体除去画像を用い、対象画像との類似性に基づいて移動物体が過去に通過した領域を抽出することを特徴とする。
 上記の画像処理方法は、入力画像と対象画像のそれぞれのウィンドウに対するヒストグラムを作成し、これらの差分を計算することによって画像間の類似性を計算し、領域分割することを特徴とする。
 上記の画像処理方法は、入力画像を2種類以上の領域に分割し、各領域において異なる処理を施すことによって画像補正を行うことを特徴とする。
 上記の画像処理方法は、移動物体領域に対して空間方向の平滑化フィルタをかけ、又は移動物体以外の領域に対して時間方向の平滑化フィルタをかけることを特徴とする。
 上記の画像処理方法は、画素単位若しくは領域単位で計算された評価値に対して領域分割を行う際に、2種類以上の閾値パラメータを設定し、高い閾値以上の評価値を有する領域の空間的近傍に位置する領域に対しては低い閾値にて、そうでない場合には高い閾値にて領域分割を行うことを特徴とする。
 上記の画像処理方法は、領域分割を行う際に、低い閾値以下の評価値を有する領域の空間的近傍に位置する領域に対しては高い閾値にて、そうでない場合には低い閾値にて領域分割を行うことを特徴とする。
 本発明は、陽炎の他に、例えば水面の揺らぎ、木々の揺れ、大気中のもや、水中撮影時の画像の、時間的に変動する歪みに対して広く適用でき、光学像に限らず、電磁波や粒子線の強度分布等がイメージ化された画像系列を扱う装置や方法全般に利用できる。
10、11 画像処理装置
110 入力画像メモリ
112 時系列平滑化画像メモリ
113 移動物体除去画像メモリ
114 出力画像メモリ
115 計算用メモリ
120 時系列平滑化画像更新部
130 ヒストグラム解析部
131 ブロック解析部
140 領域分割部
150 画像補正部
160 移動物体除去画像更新部
170 陽炎歪み計算部
180 パラメータ最適化部
190 画像高画質化部
200 入力画像群
210、1200-1~1200-n 入力画像
212 参照画像
220、1220 時系列平滑化画像
230 移動物体除去画像
240 出力画像
252 コスト計算用情報
253 マスク設定
254、256 補正画像
255 フィルタ情報
257 歪み強度画像
310、311、320、321、330、1250 領域
410、420、430、440、450、460、470 ヒストグラム
610、620、710、720、730、770、780、790、810、820 画素
760、830 マスク情報MSRの一部
1010、1020、1030、1110、1120、1130 画素群。

Claims (5)

  1.  入力画像と、時間的に近い複数枚の画像を用いて平滑化した時系列平滑化画像若しくは移動物体を除去した移動物体除去画像とに対して、部分画像の差分を計算することにより画像間の類似性情報を算出する類似性情報算出部と、
     前記画像間の類似性情報により前記入力画像を移動物体領域、及び該移動物体領域以外の領域に分割する領域分割部と、
     前記領域毎に前記入力画像又は前記時系列平滑化画像を画像合成する画像補正部とを備える  ことを特徴とする画像処理装置。
  2.  前記領域分割部は、
      大きさの異なる2種類以上の閾値を設定し、高い閾値以上の画素値の前記領域の空間的近傍に位置する前記領域に対しては低い閾値で、そうでない場合には高い閾値で前記領域の分割を行う、又は、
      低い閾値以下の評価値を備える前記領域の空間的近傍に位置する前記領域に対しては高い閾値にて、そうでない場合には低い閾値にて前記領域の分割を行う
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記画像補正部は、
      前記移動物体領域に対して空間方向の平滑化フィルタを実行する  ことを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記移動物体領域同士、及び/又は前記移動物体以外の領域同士で位置合わせ処理を行い、該位置合わせの結果に基づいて超解像処理を行う画像高画質化部を備える
     ことを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5.  コンピュータに画像処理を実行させるための画像処理方法において、
     前記コンピュータに、
     入力画像と、時間的に近い複数枚の画像を用いて平滑化した時系列平滑化画像とに対して、部分画像の差分を計算することにより画像間の類似性情報を算出し、
     前記画像間の類似性情報により前記入力画像を移動物体領域、及び該移動物体領域以外の領域に分割し、
     前記領域毎に前記入力画像又は前記時系列平滑化画像を画像合成する  手順を実行させることを特徴とする画像処理方法。
PCT/JP2013/062445 2012-05-09 2013-04-26 画像処理装置及び画像処理方法 WO2013168618A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/399,876 US10521885B2 (en) 2012-05-09 2013-04-26 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-107470 2012-05-09
JP2012107470A JP5362878B2 (ja) 2012-05-09 2012-05-09 画像処理装置及び画像処理方法

Publications (1)

Publication Number Publication Date
WO2013168618A1 true WO2013168618A1 (ja) 2013-11-14

Family

ID=49550663

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/062445 WO2013168618A1 (ja) 2012-05-09 2013-04-26 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US10521885B2 (ja)
JP (1) JP5362878B2 (ja)
WO (1) WO2013168618A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460723A (zh) * 2018-02-05 2018-08-28 西安电子科技大学 基于邻域相似性的双边全变分图像超分辨率重建方法
CN111161225A (zh) * 2019-12-19 2020-05-15 浙江大华技术股份有限公司 一种图像差异检测方法、装置、电子设备和存储介质
CN116993679A (zh) * 2023-06-30 2023-11-03 芜湖合德传动科技有限公司 一种基于目标检测的伸缩机皮带磨损检测方法

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
WO2014126093A1 (ja) * 2013-02-14 2014-08-21 株式会社日立国際電気 画像処理装置
JP6104680B2 (ja) * 2013-03-21 2017-03-29 株式会社日立国際電気 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法
US9990004B2 (en) * 2013-04-02 2018-06-05 Samsung Dispaly Co., Ltd. Optical detection of bending motions of a flexible display
WO2015005196A1 (ja) * 2013-07-09 2015-01-15 株式会社日立国際電気 画像処理装置及び画像処理方法
KR102087986B1 (ko) * 2013-10-04 2020-03-11 삼성전자주식회사 이미지 데이터를 처리하는 방법 및 장치
JP2015130632A (ja) * 2014-01-08 2015-07-16 株式会社リコー 画像処理装置、送受信システム、画像処理方法、およびプログラム
CN104995908B (zh) * 2014-02-07 2018-01-30 株式会社摩如富 图像处理装置以及图像处理方法
EP3116213A4 (en) 2014-03-05 2017-06-07 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, monitor camera, and image processing method
JP6476898B2 (ja) * 2014-03-07 2019-03-06 株式会社リコー 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP6386670B2 (ja) * 2015-06-17 2018-09-05 株式会社日立国際電気 画像処理装置
CN107736010A (zh) * 2015-06-24 2018-02-23 奥林巴斯株式会社 图像处理装置、摄像装置、图像处理方法、图像处理程序和存储介质
US10373991B2 (en) 2015-08-19 2019-08-06 Semiconductor Energy Laboratory Co., Ltd. Imaging device, operating method thereof, and electronic device
JP6215894B2 (ja) * 2015-10-22 2017-10-18 株式会社Screenホールディングス 画像処理方法およびシェーディング基準データ作成方法
WO2017165538A1 (en) * 2016-03-22 2017-09-28 Uru, Inc. Apparatus, systems, and methods for integrating digital media content into other digital media content
US11107223B2 (en) 2016-03-31 2021-08-31 Nec Corporation Image detection device, image detection method and storage medium storing program
JP6904346B2 (ja) * 2016-06-22 2021-07-14 ソニーグループ株式会社 画像処理装置、画像処理システム、および画像処理方法、並びにプログラム
CN106101578B (zh) * 2016-06-27 2019-08-16 上海小蚁科技有限公司 图像合成方法和设备
JP6652004B2 (ja) * 2016-07-04 2020-02-19 富士通株式会社 情報処理装置、インタラクション方法、およびインタラクションプログラム
KR102493746B1 (ko) 2016-08-18 2023-02-02 삼성전자주식회사 이미지 신호 처리 방법, 이미지 신호 프로세서, 및 전자 장치
US10169548B2 (en) * 2016-08-24 2019-01-01 International Business Machines Corporation Image obfuscation
JP6772000B2 (ja) * 2016-08-26 2020-10-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN107395991B (zh) * 2017-08-31 2020-01-10 Oppo广东移动通信有限公司 图像合成方法、装置、计算机可读存储介质和计算机设备
JP6971933B2 (ja) 2018-08-07 2021-11-24 株式会社東芝 画像処理装置及び撮像装置
CN110827206B (zh) * 2018-08-14 2024-05-28 钰创科技股份有限公司 过滤信号的数位滤波器
CN110858895B (zh) * 2018-08-22 2023-01-24 虹软科技股份有限公司 一种图像处理方法和装置
US11127121B2 (en) * 2019-03-29 2021-09-21 Wipro Limited System and method of generating enhanced video by removing fog for vehicle navigation
CN111275709B (zh) * 2020-03-31 2023-08-04 深圳华声医疗技术股份有限公司 超声图像处理方法、装置、超声诊断设备及介质
CN111598796B (zh) * 2020-04-27 2023-09-05 Oppo广东移动通信有限公司 图像处理方法及装置、电子设备、存储介质
US11368672B2 (en) 2020-09-14 2022-06-21 Argo AI, LLC Validation of a camera cleaning system
JP7491401B2 (ja) * 2020-11-27 2024-05-28 日産自動車株式会社 車両支援方法及び車両支援装置
WO2022181048A1 (ja) 2021-02-25 2022-09-01 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法、及び、プログラム
CN116681702B (zh) * 2023-08-03 2023-10-17 山东华光新材料技术有限公司 一种光纤预制棒的一次拉伸评估方法及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0662283A (ja) * 1992-08-07 1994-03-04 Sharp Corp ビデオ信号のノイズ低減システム
JP2010130291A (ja) * 2008-11-27 2010-06-10 Sony Corp 画像処理装置、画像処理方法、及びプログラム
JP2011229030A (ja) * 2010-04-21 2011-11-10 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU3544995A (en) * 1994-09-20 1996-04-09 Neopath, Inc. Apparatus for identification and integration of multiple cell patterns
JP3606306B2 (ja) * 1998-10-08 2005-01-05 沖電気工業株式会社 画像符号化装置、画像復号化装置及び画像伝送システム
WO2005065028A2 (en) * 2004-01-07 2005-07-21 Ramot At Tel Aviv University Ltd. Methods and apparatus for analysing ultrasound images
US7680326B2 (en) * 2004-03-18 2010-03-16 Fujifilm Corporation Method, system, and program for correcting the image quality of a moving image
US20060245640A1 (en) * 2005-04-28 2006-11-02 Szczuka Steven J Methods and apparatus of image processing using drizzle filtering
EP1944732A3 (en) * 2007-01-12 2010-01-27 Sanyo Electric Co., Ltd. Apparatus and method for blur detection, and apparatus and method for blur correction
US8189943B2 (en) * 2009-03-17 2012-05-29 Mitsubishi Electric Research Laboratories, Inc. Method for up-sampling depth images
US8395642B2 (en) * 2009-03-17 2013-03-12 Mitsubishi Electric Research Laboratories, Inc. Method for virtual image synthesis
US8270752B2 (en) * 2009-03-17 2012-09-18 Mitsubishi Electric Research Laboratories, Inc. Depth reconstruction filter for depth coding videos
JP5052569B2 (ja) * 2009-06-25 2012-10-17 シャープ株式会社 画像圧縮装置、画像圧縮方法、画像伸張装置、画像伸張方法、画像形成装置、コンピュータプログラム及び記録媒体
US9082165B2 (en) * 2010-05-31 2015-07-14 Dvp Technologies Ltd. Inspection of region of interest
US9135718B2 (en) * 2012-03-30 2015-09-15 Canon Kabushiki Kaisha Image processing apparatus and control method therefor
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
US9330471B2 (en) * 2013-02-14 2016-05-03 Qualcomm Incorporated Camera aided motion direction and speed estimation
WO2014170886A1 (en) * 2013-04-17 2014-10-23 Digital Makeup Ltd System and method for online processing of video images in real time
WO2015076551A1 (en) * 2013-11-19 2015-05-28 Samsung Electronics Co., Ltd. X-ray imaging apparatus and method of controlling the same
US9477892B2 (en) * 2014-03-26 2016-10-25 Xerox Corporation Efficient method of offline training a special-type parked vehicle detector for video-based on-street parking occupancy detection systems
US9549130B2 (en) * 2015-05-01 2017-01-17 Seek Thermal, Inc. Compact row column noise filter for an imaging system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0662283A (ja) * 1992-08-07 1994-03-04 Sharp Corp ビデオ信号のノイズ低減システム
JP2010130291A (ja) * 2008-11-27 2010-06-10 Sony Corp 画像処理装置、画像処理方法、及びプログラム
JP2011229030A (ja) * 2010-04-21 2011-11-10 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MASAO SHIMIZU: "Image Super-Resolution with Non-Rigid Motion of Hot-air Optical Turbulence", THE JOURNAL OF THE INSTITUTE OF IMAGE ELECTRONICS ENGINEERS OF JAPAN, vol. 37, no. 4, 25 July 2008 (2008-07-25), pages 387 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108460723A (zh) * 2018-02-05 2018-08-28 西安电子科技大学 基于邻域相似性的双边全变分图像超分辨率重建方法
CN108460723B (zh) * 2018-02-05 2021-07-27 西安电子科技大学 基于邻域相似性的双边全变分图像超分辨率重建方法
CN111161225A (zh) * 2019-12-19 2020-05-15 浙江大华技术股份有限公司 一种图像差异检测方法、装置、电子设备和存储介质
CN111161225B (zh) * 2019-12-19 2023-05-12 浙江大华技术股份有限公司 一种图像差异检测方法、装置、电子设备和存储介质
CN116993679A (zh) * 2023-06-30 2023-11-03 芜湖合德传动科技有限公司 一种基于目标检测的伸缩机皮带磨损检测方法
CN116993679B (zh) * 2023-06-30 2024-04-30 芜湖合德传动科技有限公司 一种基于目标检测的伸缩机皮带磨损检测方法

Also Published As

Publication number Publication date
US20150161773A1 (en) 2015-06-11
JP5362878B2 (ja) 2013-12-11
US10521885B2 (en) 2019-12-31
JP2013236249A (ja) 2013-11-21

Similar Documents

Publication Publication Date Title
WO2013168618A1 (ja) 画像処理装置及び画像処理方法
US10339643B2 (en) Algorithm and device for image processing
Shin et al. Radiance–reflectance combined optimization and structure-guided $\ell _0 $-Norm for single image dehazing
JP5908174B2 (ja) 画像処理装置及び画像処理方法
KR101518722B1 (ko) 안개 등의 대기 산란 입자로 인한 왜곡 보정용 영상 처리 방법 및 장치
Kim et al. Optimized contrast enhancement for real-time image and video dehazing
US9569827B2 (en) Image processing apparatus and method, and program
US9135681B2 (en) Image chroma noise reduction
JP4708343B2 (ja) 背景領域および前景領域をモデリングする方法
WO2016206087A1 (zh) 一种低照度图像处理方法和装置
JP6635799B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4858609B2 (ja) ノイズ低減装置、ノイズ低減方法、及びノイズ低減プログラム
JP6818463B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN110268442B (zh) 在图像中检测背景物上的外来物的计算机实现的方法、在图像中检测背景物上的外来物的设备以及计算机程序产品
CN110298796B (zh) 基于改进Retinex与对数图像处理的低照度图像增强方法
CN109214996B (zh) 一种图像处理方法及装置
CN111183630A (zh) 一种智能终端的照片处理方法及处理装置
JP2020061080A (ja) 画像処理装置、撮像装置、画像処理方法
KR101651889B1 (ko) 극저조도 영상의 화질 개선 장치 및 방법
JP5286215B2 (ja) 輪郭抽出装置、輪郭抽出方法、および輪郭抽出プログラム
Fuh et al. Mcpa: A fast single image haze removal method based on the minimum channel and patchless approach
JP6375138B2 (ja) パープルフリンジ除去処理方法及びその処理を遂行するパープルフリンジ除去処理装置
JP6938282B2 (ja) 画像処理装置、画像処理方法及びプログラム
Tang et al. Sky-preserved image dehazing and enhancement for outdoor scenes
JP7421273B2 (ja) 画像処理装置及びその制御方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13787917

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14399876

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13787917

Country of ref document: EP

Kind code of ref document: A1