WO2015005196A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2015005196A1
WO2015005196A1 PCT/JP2014/067688 JP2014067688W WO2015005196A1 WO 2015005196 A1 WO2015005196 A1 WO 2015005196A1 JP 2014067688 W JP2014067688 W JP 2014067688W WO 2015005196 A1 WO2015005196 A1 WO 2015005196A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
correction
comparison target
index
block size
Prior art date
Application number
PCT/JP2014/067688
Other languages
English (en)
French (fr)
Inventor
佑一郎 小宮
山口 宗明
晴洋 古藤
Original Assignee
株式会社日立国際電気
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立国際電気 filed Critical 株式会社日立国際電気
Priority to US14/902,626 priority Critical patent/US9547890B2/en
Priority to JP2015526283A priority patent/JP5908174B2/ja
Priority to EP14822122.9A priority patent/EP3021575B1/en
Publication of WO2015005196A1 publication Critical patent/WO2015005196A1/ja

Links

Images

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/70
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to an image processing apparatus and an image processing method for reducing image quality deterioration due to a hot flame or the like.
  • a positive flame is a phenomenon that occurs when light is refracted by the local mixing of air with different densities due to temperature differences of the air.
  • the subject is deformed and observed. Therefore, when a captured image is reproduced, a specific area in the image appears to shake greatly. In this way, distortion is generated in the image due to a phenomenon (air fluctuation) in which air appears to fluctuate due to a hot flame or the like. For this reason, the visibility of the subject is lowered.
  • Patent Document 1 it is determined whether or not distortion in an image due to air fluctuation (hereinafter, simply referred to as “distortion”) occurs.
  • a plurality of images are generated by photographing, and a plurality of images are added (averaged) to generate an image in which one distortion is corrected.
  • Patent Document 2 performs image correction such as a hot flame by paying attention to an image one frame before.
  • An object of the present invention is to provide an image processing technique capable of reducing distortion generated in the case of an image including both a stationary region and a moving object.
  • the image processing apparatus obtains the gradation distribution (histogram) of each of the correction target frame (correction target image) and the correction frame (correction image), and the correction target frame and the correction frame according to the similarity. Then, the correction target frame is corrected using the correction frame. Further, each of the histograms of the correction target image and the correction image calculates a plurality of indexes having different robustness against the deformation of the subject from the comparison target pixel block of the correction target image and the correction image, and two indexes having different robustness are calculated. Thus, the relationship between the state of the subject in the comparison target pixel block and the comparison target pixel block size is determined, an appropriate comparison target pixel block size is determined, and the determined comparison target pixel block size is obtained.
  • the image processing apparatus can provide a high-quality image in which distortion in the image due to air fluctuation is reduced in an image including both a stationary region and a moving object.
  • FIG. 1 is a block diagram of an image processing apparatus 4 according to Embodiment 1.
  • 7 is a flowchart of a procedure for optimizing the comparison target pixel block size by the parameter control device 2 of the first embodiment.
  • FIG. 6 is a block diagram illustrating a configuration of an image processing device according to a second embodiment.
  • FIG. 3 is a functional block diagram of the fluctuation correction apparatus 1 according to the first or second embodiment.
  • the figure explaining the operation example of the image smoothing part 11.
  • FIG. The figure which shows a mode that the gradation distribution calculation part 12 calculates a gradation distribution using the pixel of the peripheral region of an object pixel.
  • FIG. A kernel of a sharpening filter used by the high resolution unit 15. 3 is a flowchart showing processing operations of the fluctuation correction apparatus 1;
  • FIG. 10 is a functional block diagram of an imaging apparatus 1500 according to the third embodiment.
  • FIG. 10 is a functional block diagram of a monitoring system 1600 according to a fourth embodiment.
  • FIG. 10 is a functional block diagram of a code decoding system 1700 according to a fifth embodiment.
  • prior application 1 Japanese Patent Application No. 2012-107470 (referred to as prior application 1) and Japanese Patent Application No. 2013-057774 (referred to as prior application 2), which avoid the problem of image quality degradation of a moving subject. did.
  • the technology to be disclosed in these applications detects a region where a subject moving in the image is present in a plurality of images taken along a time series, and has an effect of time smoothing according to the likelihood. It is characterized by adjusting.
  • the background area where the moving body does not exist is corrected by time smoothing, and the area where the moving body exists is corrected by spatial processing by weakening the effect of time smoothing.
  • a histogram is used to detect a motion caused by a moving object. Since the histogram of the pixel block centered on the pixel of interest has a strong characteristic against deformation of the object, the moving object can be detected even under the influence of fluctuation by comparing the histograms of two images that are temporally different. Is possible.
  • the image processing apparatus (fluctuation correction apparatus 1) according to the prior application 2 (described in the third embodiment described later) has a plurality of images (for example, past, present (images) taken in time series. N), future images, etc.) to create a time-smoothed image M, create histograms H1 and H2 for each pixel of image N and time-smoothed image M, and then between histograms H1 and H2.
  • the pixel correction amount is changed for each pixel according to the similarity R.
  • a moving object is basically detected from a histogram of pixel blocks having a fixed size between images.
  • An appropriate comparison target pixel block size is determined by the amount of fluctuation of the image to be processed.
  • the comparison target pixel block size is small relative to the air fluctuation, there is a risk that characteristics robust to changes in the shape of the subject in the histogram may be lost.
  • FIG. 1 is a diagram for explaining the effect of temporal smoothing of pixel values on an image.
  • a plurality of input images 101 to 103 taken at a predetermined time interval are shown in order of time flowing from left to right.
  • the input images 101 to 103 are sequentially input to the image processing apparatus and become correction target images.
  • the smoothed image 104 is obtained by averaging a plurality of input images (in this example, the input images 101 to 103) in the time domain.
  • the smoothed image 104 in an area 800 where the subject of the correction target image is stationary, distortion due to the influence of air fluctuation is corrected by time smoothing. This is the basic principle of air fluctuation removal.
  • the region 801 where the subject is moving is smoothed in the time domain, not only the displacement of the pixel due to distortion but also the displacement of the pixel due to the movement of the subject is smoothed, and there is a blur around the moving subject. It will occur. That is, the temporal smoothing of the pixel value causes deterioration of the image when a moving subject exists in the image. Thus, it can be understood that it is important to accurately estimate whether an actual subject is stationary or moving.
  • the comparison target pixel block size must be larger than the size of the distortion in the image. If the comparison target pixel block size is too large with respect to the magnitude of the distortion, it becomes difficult to separately detect the distortion and the movement of the subject based on the histogram.
  • FIG. 2 is a diagram showing the relationship between the distortion in the image and the histogram.
  • An input image 901 shown on the upper side of FIG. 2 is an enlarged view of a part of the input image (correction target image). 2 is an image obtained by smoothing the area of the input image 901 (an image used for correction). The contour of the actual smoothed image 902 is blurred.
  • Two areas A and B in the input image 901 are comparison target pixel blocks, and the size of the broken-line frame indicates the comparison target pixel block size. Region A and region B have the same center position.
  • two regions A and B at the same pixel position are also shown in the upper smoothed image 902 of FIG.
  • the block sizes of the region A and the region B are different, and the block size of the region A is larger than the block size of the region B.
  • a part of the pixel area of the input image 901 in FIG. 2 is a subject image 96 that is affected by air fluctuations (that is, distortion appears at the edge of the image).
  • the subject image 96 is smoothed to become a subject image 97 with reduced distortion in the smoothed image 902.
  • the histogram 903 to be compared on the lower side of FIG. 2 uses the region A as the comparison target pixel block, and the histogram 904 to be compared uses the region B as the comparison target pixel block.
  • the horizontal axis represents pixel values (luminance), and the vertical axis represents the number of pixels belonging to each bin.
  • a histogram 906 is a partial histogram of the correction target image when the image correction unit 14 sets the block size of the region A as the comparison target pixel block size for the input image 901.
  • a histogram 908 is a histogram of a part of the correction target image when the image correction unit 14 sets the block size of the region B as the comparison target pixel block size for the input image 901.
  • the histogram 907 is a histogram of a part of the image for correction when the image correction unit 14 sets the block size of the region A as the comparison target pixel block size for the smoothed image 902.
  • a histogram 909 is a histogram of a part of the image for correction when the image correction unit 14 sets the block size of the region B as the comparison target pixel block size for the smoothed image 902.
  • the correction image histogram 908 is compared to the correction target image histogram 908.
  • the change of becomes large That is, if the block size is small, the characteristics of the histogram that are robust to the shape change of the subject are lost.
  • FIG. 3 is a diagram for explaining that a moving subject cannot be detected when the comparison target pixel block size is large.
  • FIG. 3 corresponds to FIG. 2 except that the images in the comparison target pixel block are different.
  • the upper input image 1001 is an enlarged view of a part of the input image.
  • the upper smoothed image 1002 is an image obtained by smoothing the area of the input image 1001. Two regions A and B in the input image 1001 are comparison target pixel blocks, and the same two regions A and B are set in corresponding locations in the smoothed image 1002.
  • the lower histogram diagram 1003 in FIG. 3 uses the region A as the comparison target pixel block, and the histogram diagram 1004 uses the region B as the comparison target pixel block.
  • a histogram 1006 is a histogram calculated by the image correction unit 14 when the region A of the input image 1001 is a comparison target pixel block.
  • a histogram 1007 is a histogram when the region A of the smoothed image 1002 is a comparison target pixel block.
  • a histogram 1008 is a histogram when the region B of the input image 1001 is a comparison target pixel block.
  • a histogram 1009 is a histogram when the region B of the smoothed image 1002 is set as the comparison target pixel block size.
  • the histogram diagram 1003 when the comparison target pixel block size is large (region A), the shape change due to the presence or absence of distortion is less different from the correction image histogram 1006 in the correction image histogram 1007. .
  • the histogram diagram 1004 when the comparison target pixel block size is small (region B), the shape change due to the presence or absence of distortion is different from the correction image histogram 1008 relative to the correction image histogram 1008. Is big.
  • Several methods are known for calculating the difference or similarity between two histograms, for example, normalized histogram intersections and Bhattacharyya coefficients can be used.
  • the histogram shown in FIG. 3 is a characteristic of the histogram of the moving subject. However, when the block size is increased, the difference in the histogram is reduced in the same manner as the histogram of the non-moving subject in FIG. 2, and the moving subject is detected. Can not.
  • the moving subject 1068 is certainly shown in the input image 1001 of FIG.
  • the subject 1068 is smoothed, and as shown in the subject 1079, the subject 1068 appears as an image in which a blur (mainly the influence of multiple exposure), which is a type of distortion, appears.
  • the moving subject 1068 exists only at one place in each frame (image), but when a plurality of frames are smoothed, it appears as a blurred image like the subject 1079 of the smoothed image 1002. That is, as the comparison target pixel block size becomes relatively larger with respect to the subject 1068, the influence of the change in the pixel value due to the movement of the subject on the histogram shape becomes smaller, and it becomes difficult to distinguish from the influence of the air fluctuation.
  • Comparison target pixel block size ⁇ Misdetection and oversight of moving objects are in a trade-off relationship with the comparison target pixel block size.
  • the size of the comparison target pixel block for analysis must be larger than the amount of fluctuation (the magnitude of distortion), but if it is more than that, it should be as small as possible in order to suppress blurring due to the moving object.
  • the block size of the comparison target pixel block for analysis is an important parameter that affects the effect of distortion correction in moving object detection using an histogram in an air fluctuation environment.
  • the appropriate parameter is determined by the amount of distortion in the image.
  • the correction intensity is automatically adjusted, and the influence of image deterioration due to distortion correction is minimized.
  • FIG. 4 is a block diagram illustrating a schematic configuration of the image processing apparatus 4 according to the first embodiment.
  • the image processing device 4 is obtained by adding a parameter control device 2 and an image memory 3 to the fluctuation correction device 1 described in FIG. 8 (Example 3 described later).
  • the parameter control device 2 automatically sets parameters suitable for the input image. This parameter includes the above-described comparison target pixel block size.
  • a plurality of input images photographed in time series are input to the input unit 4i.
  • the input unit 4 i sequentially outputs a plurality of input images to the parameter control device 2, the image memory 3, and the fluctuation correction device 1.
  • the image memory 3 stores the input image and provides the parameter control device 2 with a predetermined number of frames among the stored images.
  • the predetermined number of frames is, for example, a number used by the parameter control device 2 and the fluctuation correction device 1 for time smoothing processing for creating a correction image.
  • the parameter control device 2 generates a time-smoothed image from past input images stored in the image memory. Thereafter, parameters are obtained from the input image (the image to be corrected by the fluctuation correction apparatus 1) and the generated time-smoothed image, and are output to the fluctuation correction apparatus 1.
  • This parameter is, for example, the size of a pixel block to be compared such as a histogram in the fluctuation correction apparatus 1.
  • the fluctuation correction device 1 performs distortion correction processing on the input image based on the parameters input from the parameter control device 2, creates a high resolution image, stores it, and outputs it to the outside via the output unit 4o. .
  • the image memory 3 may be a memory (90) built in the fluctuation correction apparatus 1. If the parameter control device 2 uses the time-smoothed image generated in the fluctuation correction device 1, the image memory 3 is not necessary.
  • the parameter control device 2 calculates a plurality of indices having different robustness against deformation of the subject due to air fluctuation from the comparison target pixel block of the correction target image and the correction image.
  • any index is affected by a change in pixel value due to movement of the subject.
  • An index having a characteristic robust to deformation of a subject is, for example, a kind of index in which a plurality of pixels are aggregated and compared, and one of them is the above-mentioned histogram similarity.
  • An index that is not robust to the shape of the subject is, for example, a type that directly compares individual pixel values, one of which is SAD (Sum of Absolute Difference).
  • FIG. 5 shows how to classify the distribution of two different indices.
  • the parameter control device 2 estimates the relationship between the state of the subject in the comparison target pixel block and the comparison target pixel block size based on the relationship between the two different indexes shown in FIG.
  • the horizontal axis is the index I1
  • the vertical axis is the index I2.
  • the index I1 indicates a change in the pixel value due to the movement of the subject
  • the index I2 is a histogram-based index that is robust to subject deformation.
  • the indicator I1 is divided into a state P1 and other states by a threshold Th1. Further, the index I2 is divided into a state P2 and a state P3 by the threshold value Th2.
  • state P1 is assumed. If I1 ⁇ Th1 and I2 ⁇ Th2, state P2 is set. If I1 ⁇ Th1 and I2 ⁇ Th2, state P3 is set. Under an appropriate threshold value, the state P1 is a region that is considered to be a background, the state P2 is a region that is considered to have air fluctuations or a fine moving body, and the state P3 is This is an area considered as a moving body.
  • the parameter control device 2 of this example searches for an appropriate comparison target pixel block size based on this relationship. However, since the threshold value Th1 and the threshold value Th2 depend on the comparison target pixel block size obtained from the index, it is desirable to determine appropriately for each comparison target pixel block size.
  • FIG. 6 is a flowchart of processing for optimizing the comparison target pixel block size.
  • the parameter control device 2 makes it possible to minimize oversight of a moving subject while achieving correction of fluctuations less than a given maximum width.
  • a plurality of states to be classified and threshold values of each index for classification are defined in advance.
  • the maximum width of air fluctuation is roughly calculated from the amount of pixel displacement due to fluctuation, and the image is divided into a grid with a predetermined width (block size) larger than the calculated maximum width. And image block. That is, in the region dividing step S1201, the region is first divided virtually (logically) with a coarse granularity equal to or larger than the width of fluctuation.
  • the virtual division means that an image can be easily accessed in units of image blocks, and it is sufficient if the image can be logically handled as such.
  • the moving subject and the background may be classified at this point. At that time, by reducing the image beyond the width of the fluctuation, it is possible to roughly detect the moving body while mitigating the influence of the fluctuation.
  • comparison target pixel region determination step S1202 some image blocks to be compared in the state evaluation described later are determined from among the plurality of image blocks divided in region division step S1201.
  • the target image blocks may be extracted uniformly from the entire image, or a large number may be extracted from the subject and background near their boundaries. As described above, by limiting the target region, it is possible to expect an improvement in the accuracy of determining the comparison target pixel block size and a reduction in the amount of calculation.
  • the given pixel block (initially, the image block selected in S1202) is set as a comparison target region, and each comparison target region is set in advance as described in FIG. Evaluate which state is based on the index and threshold value.
  • the entire pixel in the given pixel block is set as the comparison target pixel block, but the pixels may be thinned out.
  • the comparison target pixel block size is evaluated starting from one that can correct the fluctuation of the maximum width, and reduced for each loop (from step S1203 through step S1205 and step S1207 to return to step S1203). That is, in the second and subsequent loops, the comparison target pixel block size reduced in step S1207 is applied.
  • state information integration step S1204 information on each pixel block is integrated to calculate a value (integration information) for determining whether the block size is appropriate.
  • the fluctuation rate of the ratio (P2 ratio) that the area in the state P2 in FIG. 5 occupies in the image is calculated as integrated information.
  • the comparison target pixel block size is the initial maximum value, the region with air fluctuation and the region with fine motion are determined to be in the state P2, so the P2 ratio is high.
  • the integrated information determination step S1205 when the integrated information (for example, the change rate) calculated in the state information integration step S1204 has changed by a predetermined rate or more compared to the previous integrated information, the block size determination step S1206 Branch to processing.
  • step S1204 is step S1205 immediately after the integration information is calculated for the first time
  • step S1207 the process branches to block size reduction step S1207.
  • step S1207 the comparison target pixel block size is reduced by a predetermined ratio from the previous block size, and the process proceeds to state evaluation step S1203 as a new comparison target pixel block size.
  • steps S1203, S1204, and S1206 the comparison target pixel block size is decreased, and when the ratio of the region in the state P2 is rapidly changed, the comparison target pixel block size is less than the fluctuation width. It is determined that the process has ended, the process loop is exited, and the process proceeds to block size determination step S1206. At this timing, a part of the region that has stably belonged to the state P2 so far (fluctuating but not a moving body) belongs to the state P3, and the P2 ratio rapidly decreases. it is conceivable that.
  • block size determination step S1206 the comparison target pixel block size at this point is adopted as the final comparison target pixel block size.
  • the block size at this time is slightly smaller than the width of the fluctuation, and a part of the moving body and the air fluctuation is classified into the state P3.
  • the above processing may be performed only once when the image processing apparatus is activated, or may be executed at predetermined time intervals and the comparison target pixel block size may be updated at predetermined time intervals.
  • One pixel block size to be compared may be determined for the entire screen, or may be determined for each divided region by dividing the screen. Alternatively, a special size may be determined for an area designated by the user (particularly, an area where a video is desired to be clear).
  • the block size may be updated by an external trigger such as a change in the zoom magnification of the camera that is shooting.
  • the image processing apparatus includes an input unit that inputs an input image taken in time series, an image memory that stores the input image, a fluctuation correction apparatus, and a parameter control apparatus.
  • the image memory outputs a predetermined number of frames of the stored input image to the parameter device, and the parameter device compares the input image with an image input from the image memory.
  • the target pixel block size is obtained, and the obtained comparison target pixel block size is output to the fluctuation correction device, and the fluctuation correction device creates a time-smoothed image using the input images taken along the time series.
  • an appropriate comparison target pixel block size can be automatically determined, it is possible to generate an image in which the distortion in the image is further reduced and the resolution is improved as compared with the prior application 2.
  • FIG. 7 is a block diagram illustrating a configuration of the image processing apparatus 7 according to the second embodiment.
  • the image processing device 7 is obtained by combining the parameter control device 5 with the same fluctuation correction device 1 as in the first embodiment.
  • the parameter control device 5 performs automatic parameter setting according to the flowchart of FIG. 6 using two types of indicators as in the first embodiment.
  • FIG. 7 a plurality of input images photographed in time series are input to the input unit 4i.
  • the input unit 4 i guides the input images to the parameter control device 5 and the fluctuation correction device 1.
  • the parameter control device 5 performs delay processing as necessary in order to match the timing for inputting and outputting images.
  • the fluctuation correction device 1 performs distortion correction processing on the input image based on the parameter information input from the parameter control device 5, creates a corrected image with high resolution, and outputs the corrected image to the output unit 4 o and the parameter control device 5. To do.
  • the fluctuation correction device 1 feeds back the correction information 6 when this distortion correction processing is executed to the parameter control device 5.
  • the correction information 6 may include past input images or correction images generated by smoothing them.
  • the parameter control device 5 obtains a parameter (comparison target pixel block size) from the input image that is the correction target image and the corrected image output from the fluctuation correction device 1, and outputs it to the fluctuation correction device 1.
  • the parameter control device 5 uses the corrected image as an alternative to the averaged image, receives the region where the fluctuation correction device 1 has detected the moving body as the correction information 6 and uses it for parameter control. For example, when determining a comparison target pixel area in S1202 of FIG. 6, if a certain number of areas are sampled from areas other than the area where the moving object is detected, robustness against changes in the proportion of the moving object in the image is achieved. become.
  • FIG. 8 is a functional block diagram of the image processing apparatus according to the third embodiment of the present invention.
  • the image processing apparatus includes an input unit 10, an image smoothing unit 11, a gradation distribution calculation unit 12, a dissimilarity calculation unit 13, an image correction unit 14, a high-resolution unit 15, a recording unit 16, and a control. Part 91 is provided.
  • the input unit 10 receives moving image data taken in time series by an imaging unit (not shown).
  • the input unit 10 includes an image input terminal, a network connection terminal, and the like, or may be a TV broadcast tuner.
  • the input unit 10 continuously acquires still image data such as a JPEG format, which is captured in time series at a predetermined time interval by an imaging unit such as a monitoring camera, and a plurality of past, present, and future images. May be stored in the memory 90 as an input image.
  • the input unit 10 is provided with MPEG, H.264, and so on.
  • H.264, HD-SDI format or other compressed or uncompressed moving image data may be extracted at predetermined intervals, and a plurality of past, present, and future images may be stored in the memory 90 as input images.
  • the input unit 10 can acquire a plurality of past, present, and future input images from the memory 90 using DMA (Direct Memory Access) or the like. Further, as will be described later, the input unit 10 may store a plurality of past, present, and future input images already stored in a removable recording medium in the memory 90.
  • DMA Direct Memory Access
  • the input unit 10 performs delay processing as necessary in order to make the image at time t, which is a correction target image, the current image, the older image the past, and the new image the future image. That is, the image at time t is actually older than the current time, and the “future image” includes the current (latest) image.
  • the input unit 10 outputs the current image and the previous and subsequent images at the same pixel position to the image smoothing unit 11.
  • the image smoothing unit 11 synthesizes images at the same pixel position among a plurality of past, present (time t), and future input images in time series, and creates a smoothed image corresponding to the image at time t. To do. An example of creating a smoothed image will be described later with reference to FIG.
  • the gradation distribution calculation unit 12 calculates the gradation distribution for each image area centered on the pixel of each image for each of the input image and the smoothed image at time t. This process is performed for each pixel of the input image and the smoothed image at time t at the same pixel position.
  • An example of the tone distribution will be described later with reference to FIG.
  • the dissimilarity calculation unit 13 calculates the similarity or dissimilarity between the gradation distribution of the input image and the gradation distribution of the smoothed image calculated by the gradation distribution calculation unit 12 at time t.
  • An example of the degree of difference between the gradation distributions will be described later with reference to FIG.
  • the image correction unit 14 corrects the input image at time t by combining the input image at time t and the smoothed image.
  • the ratio of combining both is changed according to the difference calculated by the difference calculation unit 13.
  • the high resolution unit 15 creates a high resolution image at time t from the corrected image at time t. An example of increasing the resolution will be described again with reference to FIG.
  • the recording unit 16 stores the high-resolution image at time t in the memory 90 when storing the high-resolution image at time t with reduced heat. When the high resolution image at time t is not stored, the input image is stored.
  • the storage unit 16 can switch the image stored in the memory 90 according to the mode. For example, when the mode is 1, the high resolution image S obtained by the high resolution unit 15 is stored in the memory 90 or the high resolution image S is output to the outside of the fluctuation correction apparatus 1. When the mode is 0, the high-resolution image S is not stored in the memory 90 and the input image is output to the outside of the fluctuation correction apparatus 1.
  • the control unit 91 is connected to each element in the fluctuation correction apparatus 1. Each element of the fluctuation correction apparatus 1 operates autonomously or according to an instruction from the control unit 91.
  • FIG. 9 is a diagram for explaining an operation example of the image smoothing unit 11.
  • the past and future input images image N ⁇ 2, image N ⁇ 1, image N + 1, image N + 2 and the current (time t) input image N with the image N as a base point
  • a smoothed image is created (N is a natural number).
  • an image N-2, an image N-1, an image N + 1, and an image N + 2 are displayed side by side in time series, and time flows from the past to the future from the left to the right of the page.
  • the image N is the current (time t) image
  • the image N-1 on the left side is a past image
  • the image N-2 is a past image.
  • the image N + 1 on the right side is a future image
  • the image N + 2 is a future image.
  • the pixel value of the image N-2 at the coordinates (i, j) is q1 (i, j), the pixel value of the image N-1 is q2 (i, j), the pixel value of the image N is q3 (i, j), The pixel value of the image N + 1 is q4 (i, j), the pixel value of the image N + 2 is q5 (i, j), the pixel value of the smoothed image M at the coordinates (i, j) is m (i, j), Let p1 to p5 be weighting factors.
  • the image smoothing unit 11 generates a smoothed image M obtained by smoothing each image in time series by synthesizing each image using Equation 1 below.
  • i indicates the pixel position in the horizontal direction on the image
  • j indicates the pixel position in the vertical direction on the image.
  • D is the number of images used for image composition.
  • D in Equation 1 is 5.
  • the pixel value in Equation 1 may be in any format, for example, the value of each channel in an arbitrary color space, that is, R (red), G (green), B (blue) in RGB color space, or YCbCr color space. It may be Y (luminance), Cb, Cr (color difference), or each component value of the HSV color space.
  • the amount of displacement when the subject is deformed due to the influence of the sun's flame has a property of statistically following a Gaussian distribution. For this reason, an image close to the original shape of the subject can be acquired by smoothing the pixels using a plurality of past and future images.
  • the base image is reconstructed using a limited range of past and future images, unlike the case where multiple past images are synthesized repeatedly for a long period of time and smoothed, the influence of the past images is reduced. Strong reception can be suppressed.
  • FIG. 10 is a diagram illustrating a state in which the gradation distribution calculation unit 12 calculates the gradation distribution using the pixels in the peripheral region of the target pixel.
  • the gradation distribution calculation unit 12 obtains a histogram H1 representing the gradation distribution of the image area E1 (for example, 32 pixels ⁇ 32 pixels) including the target pixel 310 of the input image N corresponding to the time t.
  • the gradation distribution calculation unit 12 obtains a histogram H2 representing the gradation distribution of the image area E2 corresponding to the image area E1 in the smoothed image M.
  • the image region E ⁇ b> 2 includes the pixel 320 of the smoothed image M corresponding to the target pixel 310.
  • the horizontal axis indicates the gradation value
  • the vertical axis indicates the frequency (number of appearances) of the gradation value. Note that the horizontal axis and vertical axis of other histograms described below are the same as the histogram of FIG.
  • FIG. 11 is a diagram for explaining that the histogram H2 changes due to the movement of the moving object included in the input image.
  • the histogram of the image area E3 including the target pixel 410 of the image N is set to H1.
  • the histogram H2 of the image region E4 of the target pixel 411 of the smoothed image M has a different shape according to the speed of the moving object included in the past, current, and future images.
  • the histogram H2 When the movement of the moving object is stationary to low speed, the histogram H2 has a shape similar to the histogram H1, as shown in FIG. When the movement of the moving object is from low speed to medium speed, a little different pattern information from that of the moving object is included. Therefore, as shown in FIG. 11B, the shape of the histogram H2 is slightly different from the histogram H1. When the movement of the moving object is from medium speed to high speed, many patterns that are significantly different from the moving object are included. Therefore, as shown in FIG. 11 (3), the histogram H2 has a shape that is significantly different from the histogram H1. Therefore, by comparing the histogram H1 of the image N and the histogram of the smoothed image M, the movement of the moving object in the image can be simply checked.
  • the difference calculation unit 13 calculates the gradation distribution obtained by the gradation distribution calculation unit 12, for example, the difference between the histograms described with reference to FIGS.
  • the following formula 2 is used to obtain the distance B32 (c) between the histograms using the Bhattacharyya distance for each RGB component, and the square root of the square sum thereof is set as the dissimilarity L. Since the difference L corresponds to the distance between histograms, the smaller the value of L, the higher the difference. Note that c in Equation 2 represents any of the RGB components.
  • HA (I) represents the frequency of the gradation value I in the histogram A
  • gradation number the number of bins in the histogram
  • the gradation distribution calculation unit 12 can obtain a more reliable difference degree by creating histograms of a plurality of versions having different numbers of gradations and summing the differences between them. That is, when calculating the histograms H1 and H2 of the first version (the number of gradations is 32), a plurality of adjacent gradations are integrated to generate a version histogram with a reduced number of gradations. Such processing is recursively performed until the number of gradations becomes 2, and the difference is accumulated successively. Since distortion within the range of the class width is included in the same class, the image area deformed by the moving flame and the image area deformed by the moving object is kept low with respect to the various flame widths of the flame. Can be more accurately distinguished. A description will be given below together with specific examples.
  • the gradation distribution calculation unit 12 calculates a histogram for all pixels, and the gradation distribution calculation unit 12 calculates the degree of difference for all pixels. However, if it is necessary to reduce the calculation amount, the target pixel may be thinned out. Yes, the number of target pixels may be one for the number of pixels in the image area E1.
  • FIG. 12 is a diagram for explaining the operation of the image correction unit 14.
  • the image correction unit 14 uses the input image N and the smoothed image M to determine the pixel value of the corrected image. Specifically, using the dissimilarity L obtained by the dissimilarity calculating unit 13 and the two threshold values T1 and T2 (T1 ⁇ T2), the ratio of the input image N and the smoothed image M is changed for each pixel and blended. As a result, a corrected image is obtained.
  • L ⁇ T1 (the dissimilarity between the histograms is high) corresponds to the case where the motion of the object in the image is slow to low.
  • the region 600 and the region 601 in FIG. Region 601 may actually be moving at high speed, but a car body with less texture is treated as stationary because it does not change the image.
  • the pixel value of the smoothed image M is used as the correction value as it is.
  • T2 ⁇ L corresponds to the case where the movement of the moving object is from medium speed to high speed.
  • a moving object has existed in the past, but in the present or future, no object has passed.
  • the pixel value of the input image N is used as the correction value without using the smoothed image M.
  • T1 ⁇ L ⁇ T2 corresponds to the case where the movement of the moving object in the image is from low speed to medium speed.
  • the border of the border line of the region 610 in FIG. 12 corresponds to this, and is an intermediate case with respect to the above two cases, so that the input image N and the smoothed image M are A value obtained by blending each pixel value is set as a correction value.
  • the pixel value of the image N at the coordinates (i, j) is n (i, j)
  • the pixel value of the smoothed image M at the coordinates (i, j) is m (i, j)
  • the blend ratio R of each pixel is calculated by bilinear interpolation or a low-pass filter by convolution of discrete R and a sinc function.
  • FIG. 13 is a kernel of a sharpening filter used by the high resolution unit 15.
  • the center cell corresponds to the target pixel, and the value in each cell represents the coefficient by which the pixel at the corresponding position is multiplied.
  • the high resolution unit 15 sharpens each pixel of the corrected image using the filter kernel, and creates a high resolution image S with improved resolution.
  • FIG. 14 is a flowchart showing the operation of the fluctuation correction apparatus 1. Hereinafter, each step of FIG. 14 will be described.
  • Step S701 The input unit 10 acquires past, current, and future image frames and outputs them to the image smoothing unit 11.
  • the image smoothing unit 11 calculates a smoothed image M.
  • the subscript u in step 701 is 2.
  • Step S702 The gradation distribution calculation unit 12 calculates histograms H1 and H2 for each pixel of the image N and the smoothed image M.
  • Step S702 The difference calculation unit 13 calculates a difference L between the histograms H1 and H2.
  • Step S704 The image correction unit 14 compares the difference L with each threshold value (T1, T2). If L ⁇ T1, the process proceeds to step 705. If T1 ⁇ L, the process proceeds to step S706. (Step S705) The image correction unit 14 sets the pixel value of the smoothed image M as a correction value. (Steps S706 to S708) The image correcting unit 14 determines whether or not the dissimilarity L satisfies T1 ⁇ L ⁇ T2 with respect to the thresholds T1 and T2. If the above condition is satisfied, the process proceeds to step 707. If not satisfied (L ⁇ T1, or T2 ⁇ L), the process proceeds to step S708.
  • steps S704 and S706 only determines whether or not the relationship between the degree of difference L and the thresholds T1 and T2 satisfies T1 ⁇ L ⁇ T2. For example, in the processing step including step S704 and step S706, the process proceeds to step S705 if L ⁇ T1, proceeds to step 707 if T1 ⁇ L ⁇ T2, and proceeds to step 708 if T2 ⁇ L. move on.
  • Step S707 When the condition is satisfied in Step S706, the image correction unit 14 sets a value obtained by blending the pixel values of the image N and the smoothed image M based on Expression 3 as a correction value.
  • Step S708 When the condition is not satisfied, the pixel value of the image N is set as a correction value.
  • Step S709 The resolution increasing unit 15 creates the resolution-enhanced image S in which the resolution of the corrected image N ′ obtained by the image correcting unit 14 is improved.
  • Step S710 The image correcting unit 14 and the resolution increasing unit 15 repeat the processes in steps S702 to S709 until the correction value and the pixel value having the increased resolution are obtained for all the pixels in the target image.
  • the dissimilarity calculation unit 13 of this example estimates the speed of the moving object using only the histogram-based dissimilarity L and classifies the pixels. Like the parameter control device 5, the dissimilarity calculation unit 13 classifies the pixels using two types of indices. May be performed.
  • FIG. 15 is a functional block diagram of the imaging apparatus 1500 according to the third embodiment of the present invention.
  • the imaging device 1500 includes an imaging unit 1501, an image processing device 1503, and an image display unit 1502.
  • the imaging unit 1501 is an imaging device that receives light emitted from a subject and converts the received optical image into image data.
  • the image processing device 1503 is the image processing device 4 or 7 according to the first or second embodiment, and receives the image data captured by the imaging unit 1501 and corrects distortion caused by air fluctuation due to the generation of a hot flame.
  • the image display unit 1502 is a device such as a display that displays a corrected image output from the image processing apparatus 1503.
  • the image display unit 1502 switches the image to be displayed according to the operation mode. For example, when the mode is 1, a corrected image in which distortion caused by air fluctuation due to the occurrence of a hot flame is reduced is displayed. When the mode is 0, the input image is displayed as it is.
  • an imaging apparatus that displays to the photographer a corrected image in which distortion caused by air fluctuations due to generation of a heat flame in the entire image including both the stationary region and the moving object is reduced. Can be provided.
  • FIG. 16 is a functional block diagram of the monitoring system 1600 according to the fourth embodiment of the present invention.
  • the monitoring system 1600 includes an imaging device 1601, an image processing device 1604, a server 1602, and a display device 1603.
  • the imaging device 1601 is an imaging device such as one or more surveillance cameras that capture image data.
  • the image processing device 1604 is the image processing device 4 or 7 according to the first or second embodiment, and receives image data captured by the imaging device 1601 and corrects the heat.
  • a server 1602 is a computer on which an image processing apparatus 1604 is installed.
  • the display device 1603 is a device such as a display that displays a corrected image output from the image processing device 1604.
  • the imaging device 1601 and the server 1602 and the server 1602 and the display device 1603 can be connected via a network such as the Internet, for example, depending on the physical arrangement between the monitored location and the monitoring operator. it can.
  • a monitoring system that displays to the monitoring operator a corrected image in which distortion caused by air fluctuations due to generation of a heat flame in the entire image including both the stationary region and the moving object is reduced. Can be provided.
  • FIG. 17 is a functional block diagram of a code decoding system 1700 according to the fifth embodiment of the present invention.
  • the code decoding system 1700 includes an encoding device 1710, a decoder 1721, and a display device 1722.
  • the encoding device 1710 includes an imaging device 1711, an image processing device 1704, and an encoder 1712.
  • the imaging device 1711 is an imaging device such as a surveillance camera that captures image data.
  • the image processing device 1704 is the image processing device 4 or 7 according to the first or second embodiment, and receives image data captured by the imaging device 1711 and corrects the heat.
  • the encoder 1712 encodes the corrected image data output from the image processing apparatus 1704 and transmits the encoded image data to the decoder 1721 via the network.
  • the decoder 1721 decodes the corrected image data that has been transmitted.
  • the display device 1722 displays the image decoded by the decoder 1721.
  • a code decoding system that displays a decoded image in which distortion due to air fluctuation due to generation of a heat flame in the entire image including both a stationary region and a moving object is reduced. be able to. Furthermore, by reducing distortion caused by air fluctuations due to the occurrence of a hot flame in an image, the difference between images to be transmitted by the encoder 1712 is reduced, and the encoding efficiency is improved.
  • the image correction method of this embodiment can perform a wide range of corrections for, for example, water surface fluctuations, tree shakes, haze in the atmosphere, image distortion during underwater photography, etc. in addition to the heat wave. Yes, it can be widely used for the purpose of improving visibility by stopping an irregularly swinging subject.
  • the moving object separation method by area division according to the present embodiment can be used for purposes other than image correction.
  • the amount of processing can be reduced by analyzing an area identified as a moving object in a system that automatically detects an intruder from a surveillance video that includes distortion due to a hot flame, etc., or automatically identifies the number of an approaching vehicle. Can be reduced.
  • each configuration, function, processing unit, processing means, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor.
  • Information such as programs, tables, and files for realizing each function should be stored in a non-transitory recording medium such as a memory, a hard disk, a recording device such as SSD (Solid State Drive), an IC card, an SD card, or a DVD. Can do.

Abstract

静止領域と移動物体をともに含む画像から、陽炎による揺らぎを低減する画像処理装置を提供する。装置は、補正対象画像と補正用フレームそれぞれの階調分布のヒストグラムを求め、それらの類似度に応じて補正対象画像と補正用フレームを混合する割合を変えながら、補正用フレームを用いて補正対象画像を補正する。ヒストグラムが算出される画像ブロックのサイズを適応的に制御するため、装置は、補正対象画像と補正画像のそれぞれの画像ブロックから、被写体の変形に対する頑健性の異なる2つの指標を算出し、これらの指標の関係性に基づいて、画素ブロックサイズの妥当性を判断する。2つの指標の一方にはヒストグラム差分、他方には画素値の絶対値差分の総和(SAD)が利用できる。

Description

画像処理装置及び画像処理方法
 本発明は、画像処理装置及び画像処理方法に係り、特に陽炎等による画質劣化を軽減するための画像処理装置及び画像処理方法に関する。
 近年、防犯や現場管理等を目的として監視カメラの需要が高まっており、半導体技術やネットワーク技術の発展と共にその機能も多様化している。
 監視カメラは、大気や照明変化の影響を受け易く、これらの影響による画像の視認性を改善することは、監視カメラにとって重要な課題の1つである。中でも、揺れ補正(スタビライザ)、階調補正、外乱(霧、雨、吹雪、黄砂、スモッグ等)補正などに代表される画像補正技術は重要であり、これまでにもさまざまな製品に搭載されてきた。
 さて、監視カメラの画像の視認性を低下させる自然現象の1つとして、陽炎を挙げることができる。陽炎は、空気の温度差等によって局所的に密度の異なる大気が混ざり合うことによって光が屈折して発生する現象である。陽炎が発生すると、被写体が変形して観察されるため、撮影した画像を再生すると、画像内の特定領域が大きく揺らいで見える。このように、陽炎等によって空気が揺らいで見える現象(空気揺らぎ)に起因する歪みが画像内に発生する。このため、被写体の視認性が低下する。
 特許文献1においては、空気揺らぎに起因する画像内の歪み(本明細書では、以降、単に“歪み”と称する)が発生するか否かを判定し、歪みが発生すると判定した場合に、連続撮影により複数の画像を生成し、複数枚の画像を加算(平均化)して、1枚の歪みが補正された画像を生成している。
 また、特許文献2は、1フレーム前の画像に着目して陽炎等の画像補正を行っている。
特開2012-182625号公報 特開2011-229030号公報
 上述した特許文献1や特許文献2のように、連続撮影した過去の複数の画像を加算(平均化)すると、画像内に移動物体(移動する被写体)が含まれる場合に、移動物体が2重、3重になって映し出され、画像が大きく劣化してしまう可能性がある。
 本発明の目的は、上記課題に鑑みて為されたものであり、静止領域と移動物体を共に含む画像の場合に発生する歪みを低減することができる画像処理技術を提供することにある。
 本発明に係る画像処理装置は、補正対象フレーム(補正対象画像)と補正用フレーム(補正用画像)それぞれの階調分布(ヒストグラム)を求め、その類似度に応じて補正対象フレームと補正用フレームを用いる割合を変えた上で、補正用フレームを用いて補正対象フレームを補正する。
 また、補正対象画像と補正画像のそれぞれのヒストグラムは、補正対象画像と補正用画像の比較対象画素ブロックから、被写体の変形に対する頑健性の異なる複数の指標を算出し、頑健性の異なる2つの指標の関係性により、比較対象画素ブロック内の被写体の状態と比較対象画素ブロックサイズとの関係を判断し、適切な比較対象画素ブロックサイズを決定し、決定した比較対象画素ブロックサイズで求める。
 本発明に係る画像処理装置によれば、静止領域と移動物体を共に含む画像において、空気揺らぎに起因する画像内の歪みを低減した良質の画像を提供することができる。特に、陽炎の発生による空気揺らぎに対して、歪みを低減した良質の画像を提供することができる。
時間平滑化処理が画像に与える効果を説明する図。 画像内の歪みとヒストグラムの関係を示した図。 比較対象画素ブロックのブロックサイズが大きいと移動物体(移動する被写体)を検出できなくなることを説明する図。 実施例1の画像処理装置4のブロック図。 実施例1のパラメータ制御装置2が算出する異なる2つの指標の分布の分類の仕方の模式図。 実施例1のパラメータ制御装置2が比較対象画素ブロックサイズを最適化する手順のフローチャート。 実施例2の画像処理装置7の構成を示すブロック図。 実施例1又は2の揺らぎ補正装置1の機能ブロック図。 画像平滑化部11の動作例を説明する図。 階調分布算出部12が対象画素の周辺領域の画素を用いて階調分布を算出する様子を示す図。 過去、現在、未来の画像に含まれる移動物体の状況により、ヒストグラムH2が変化することを説明する図。 画像補正部14の動作を説明する図。 高解像度化部15が使用する鮮鋭化フィルタのカーネル。 揺らぎ補正装置1の処理動作を示すフローチャート。 実施例3に係る撮像装置1500の機能ブロック図。 実施例4に係る監視システム1600の機能ブロック図。 実施例5に係る符号復号システム1700の機能ブロック図。
 以下、本発明の実施例を、図面を参照して説明する。各図面において共通の構成要素には同一の符号を付与した。
 なお、本発明は、以下に説明する実施例に限定されるものではなく、様々な変形例が含まれる。下記の実施例は本発明を分かり易く説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることもできる。また、ある実施例の構成に他の実施例の構成を加えることもできる。また、各実施例の構成の一部について、他の構成を追加、削除、若しくは置換することもできる。
 本特許出願人は、移動する被写体の画質劣化の問題を回避した揺らぎ補正技術を特願2012-107470号(先願1と称する)と特願2013-057774号(先願2と称する)として出願した。これらの出願で開示しようとする技術は、時系列に沿って撮影した複数の画像において、画像内を移動する被写体が存在する領域の検出を行い、その尤度に応じて時間平滑化の効果を調整することを特徴としている。移動体が存在しない背景領域は時間平滑化によって補正し、移動体が存在する領域は時間平滑化の効果を弱くし空間的な処理によって補正を行うものである。
 揺らぎ影響下において、移動する被写体を検出するには、揺らぎによる画素の変位と、被写体の移動による画素の変位を分離して検出する必要がある。先願1と先願2では、移動物体による動きを検出するためにヒストグラムを用いている。注目画素を中心とする画素ブロックのヒストグラムは物体の変形に強い特性を持っているため、時間的に異なる2つの画像のヒストグラムを比較すれば、揺らぎの影響下においても移動する被写体を検出することが可能となる。
 揺らぎ影響下の画像(歪みを有する画像)において、移動する被写体を検出するには、歪みによる画素の変位と、被写体の移動による画素の変位を分離して検出する必要がある。これら先願では、時間的に異なる2つの画像のヒストグラムの比較によって、揺らぎの影響下の画像においても移動する被写体を検出することを可能にしている。この結果、先願の技術は、移動する被写体が写り込んでいても、入力される画像から陽炎等によって生じた空気揺らぎの影響を除去し、高品質な画像を提供する。
 具体的には、先願2に係る画像処理装置(揺らぎ補正装置1)(後述の実施例3で説明する)は、時系列に沿って撮影された複数の画像(例えば、過去、現在(画像N)、未来の画像、等)を用いて時間平滑化画像Mを作成し、画像Nと時間平滑化画像Mの画素毎にヒストグラムH1とH2をそれぞれ作成した後、ヒストグラムH1とH2の間の類似度Rに応じて画素毎に画素の補正量を変えている。これにより、陽炎の発生等による静止領域の空気揺らぎに起因する画像内の歪みと、移動物体の動きを切り分けることができる。この結果、先願2によれば、画像内の歪みが低減され、かつ解像度が向上した画像を生成することができる。
 即ち、先願2に基づく画像処理装置及び画像処理方法では、画像間で基本的に固定サイズの画素ブロックのヒストグラムより移動物体の検出を行っている。適切な比較対象画素ブロックサイズは、処理対象の映像の揺らぎの大きさによって決められる。しかし、比較対象画素ブロックサイズが空気揺らぎの大きさに対して小さいと、ヒストグラムの被写体の形状変化に頑健な特性が失われてしまう恐れがあった。
 図1は、画素値の時間平滑化が映像に与える効果を説明する図である。図1の上側には、所定の時間間隔で撮影され複数の入力画像101~103が、左から右に流れる時刻の順で示されている。入力画像101~103は、画像処理装置に順次入力され、補正対象画像となる。
 平滑化画像104は、複数の入力画像(本例では入力画像101~103)が時間領域で平均化されたものである。平滑化画像104は、補正対象画像の被写体が静止している領域800では、時間平滑化により空気揺らぎの影響による歪みが補正される。これが、空気揺らぎの除去の基本原理である。しかし、被写体が移動している領域801に時間領域で平滑化を施すと、歪みによる画素の変位だけでなく、被写体の移動による画素の変位を平滑化してしまい、移動する被写体の周囲に滲みが生じてしまう。つまり、画素値の時間平滑化は移動する被写体が映像内に存在する場合は、映像の劣化の原因となる。このように、実際の被写体が静止しているか移動しているかを正確に推定することが重要であることが理解できる。
 一方で、上述したように、画像内の歪みの大きさに対して、比較する画素ブロックのサイズ(比較対象画素ブロックサイズ)が小さいと、被写体の形状変化に頑健なヒストグラムの特性が失われる。従って、比較対象画素ブロックサイズは、画像内の歪みの大きさと比べて大きくなければならない。比較対象画素ブロックサイズが歪みの大きさに対して大き過ぎると、ヒストグラムに基づいて歪みと被写体の移動を分離して検出することが困難になる。
 ここで、動く被写体の検出に、比較対象画素ブロックサイズが与える影響を、図2及び図3を参照して詳細に説明する。
 図2は、画像内の歪みとヒストグラムの関係を示した図である。図2の上側に示された入力画像901は、入力画像(補正対象画像)の一部を拡大して示した図である。また、図2の上側の平滑化画像902は、入力画像901の領域を平滑化した画像(補正の用に供される画像)である。現実の平滑化画像902の輪郭は、ぼやけている。
 入力画像901内の2つの領域Aと領域Bは、比較対象画素ブロックであり、破線枠の大きさは、それぞれ比較対象画素ブロックサイズを示す。領域Aと領域Bは、中心位置が同一に設定される。同様に、図2の上側の平滑化画像902内にも、同じ画素位置(同一画角位置)における2つの領域Aと領域Bを示す。図2を見ると分かるように、領域Aと領域Bのブロックサイズは異なり、領域Aのブロックサイズは、領域Bのブロックサイズより大きい。
 図2の入力画像901の画素領域の一部は空気揺らぎの影響を受けた(即ち、画像のエッジに歪みが現れた)被写体像96となっている。この被写体像96は、平滑化されることによって、平滑化画像902内では歪みが軽減された被写体像97となる。
 図2の下側の比較されるヒストグラム903は、領域Aを比較対象画素ブロックとしており、比較されるヒストグラム904は領域Bを比較対象画素ブロックとしている。ヒストグラム906~909は、横軸が画素の値(輝度)、縦軸が各ビンに属する画素数である。ヒストグラム906は、入力画像901について、画像補正部14が領域Aのブロックサイズを比較対象画素ブロックサイズとした場合の補正対象画像の一部のヒストグラムである。また、ヒストグラム908は、入力画像901について、画像補正部14が領域Bのブロックサイズを比較対象画素ブロックサイズとした場合の補正対象画像の一部のヒストグラムである。同様に、ヒストグラム907は、平滑化画像902について、画像補正部14が領域Aのブロックサイズを比較対象画素ブロックサイズとした場合の補正用画像の一部のヒストグラムである。また、ヒストグラム909は、平滑化画像902について、画像補正部14が領域Bのブロックサイズを比較対象画素ブロックサイズとした場合の補正用画像の一部のヒストグラムである。
 比較されるヒストグラム903を見ると分かるように、比較対象画素ブロックサイズが大きい(領域A)と、歪みの有無による形状変化があっても、補正対象画像のヒストグラム906に対して補正用画像のヒストグラム907の変化が小さくなる。
 また、ヒストグラム図904を見ると分かるように、比較対象画素ブロックサイズが小さい(領域B)と、歪みの有無による形状変化があると、補正対象画像のヒストグラム908に対して補正用画像のヒストグラム908の変化が大きくなる。つまり、ブロックサイズが小さいと、ヒストグラムの、被写体の形状変化に頑健な特性が失われてしまう。
 しかし、比較対象画素ブロックサイズは、必ずしも大きければ良いというわけではない。
 図3は、比較対象画素ブロックサイズが大きいと移動する被写体を検出できなくなることを説明する図である。図3は、比較対象画素ブロック内の画像が異なる以外は、図2と対応している。上側の入力画像1001は、入力画像の一部を拡大して示した図である。また、上側の平滑化画像1002は、入力画像1001の領域を平滑化した画像である。入力画像1001内の2つの領域Aと領域Bは、比較対象画素ブロックであり、平滑化画像1002の対応する場所にも、同じ2つの領域Aと領域Bが設定される。
 図3の下側のヒストグラム図1003は領域Aを比較対象画素ブロックとしており、ヒストグラム図1004は領域Bを比較対象画素ブロックとしている。ヒストグラム1006は、入力画像1001の領域Aを比較対象画素ブロックとした場合に画像補正部14が算出するヒストグラムである。ヒストグラム1007は、平滑化画像1002の領域Aを比較対象画素ブロックとした場合のヒストグラムである。また、ヒストグラム1008は、入力画像1001の領域Bを比較対象画素ブロックとした場合のヒストグラムである。ヒストグラム1009は、平滑化画像1002の領域Bを比較対象画素ブロックサイズとした場合のヒストグラムである。
 ヒストグラム図1003を見ると分かるように、比較対象画素ブロックサイズが大きい(領域A)と、歪みの有無による形状変化は、補正対象画像のヒストグラム1006に対して補正用画像のヒストグラム1007の相違が小さい。
 また、ヒストグラム図1004を見ると分かるように、比較対象画素ブロックサイズが小さい(領域B)と、歪みの有無による形状変化は、補正対象画像のヒストグラム1008に対して補正用画像のヒストグラム1008の相違が大きい。
 2つのヒストグラム間の相違または類似度を計算する方法はいくつか知られるが、例えば正規化されたヒストグラム・インターセクションやBhattacharyya係数が利用できる。
 上記図3のヒストグラムは、移動する被写体についてのヒストグラムの特性であるが、ブロックサイズを大きくすると、図2の移動しない被写体のヒストグラムとほぼ同様に、ヒストグラムの相違が小さくなり、移動する被写体が検出できない。
 しかし、図3の入力画像1001内に移動する被写体1068が確かに写っている。この被写体1068は、平滑化されることによって、被写体1079に示されるように、歪みの一種であるぼやけ(主に多重露出の影響)が現れた画像として写ってくる。
 移動する被写体1068は、1枚ずつのフレーム(画像)では、1箇所に存在するだけであるが、複数フレームを平滑化すると平滑化画像1002の被写体1079のようにぼやけた画像となって現れる。即ち、被写体1068に対して比較対象画素ブロックサイズが相対的に大きくなればなるほど、被写体の移動による画素値の変化がヒストグラムの形状に与える影響も小さくなり、空気揺らぎの影響と区別し難くなる。このため、ヒストグラムの単純な比較に基づいて移動体を判定し時間平滑化の強度を調整すると、移動する被写体の輪郭に滲みが生じ易くなる。更に小さな被写体は、被写体と判定されることなく時間平滑画像に埋もれてしまう。
 移動する被写体の誤検出と見逃しは、比較対象画素ブロックサイズとトレードオフの関係にある。解析するための比較対象画素ブロックサイズの大きさは揺らぎの変位量(歪みの大きさ)より大きくなければならないが、それ以上であれば移動体による滲みを抑えるためになるべく小さい方が良い。
 上述の通り、ヒストグラムを用いた空気揺らぎ環境下における移動体検出では、解析するための比較対象画素ブロックのブロックサイズが、歪み補正の効果に影響する重要なパラメータであることが理解された。この場合、適切なパラメータは、画像内の歪みの大きさにより決定される。本実施例1では、画像内に生じる空気揺らぎに起因する歪みの大きさを自動検出することにより、補正強度を自動調整し、かつ歪み補正による映像劣化の影響を最小限にする。
 図4は、本実施例1の画像処理装置4の概略構成を示すブロック図である。画像処理装置4は、図8(後述の実施例3)で説明する揺らぎ補正装置1に、パラメータ制御装置2及び画像メモリ3を加えたものである。パラメータ制御装置2は、入力画像に適したパラメータを自動的に設定する。このパラメータは、上述の比較対象画素ブロックサイズを含む。
 図4において、時系列に沿って撮影された複数の入力画像は、入力部4iに入力される。入力部4iは、入力された複数の入力画像を、パラメータ制御装置2、画像メモリ3、及び揺らぎ補正装置1に逐次出力する。
 画像メモリ3は、入力された画像を蓄積し、蓄積された画像のうちの所定のフレーム数の画像をパラメータ制御装置2に提供する。所定のフレーム数は、例えば、パラメータ制御装置2及び揺らぎ補正装置1が補正用画像を作成するための時間平滑化処理に使用する数である。
 パラメータ制御装置2は、画像メモリに蓄積された過去の入力画像から、時間平滑化画像を生成する。その後、入力画像(揺らぎ補正装置1による補正対象となる画像である)と生成された時間平滑化画像とからパラメータを求め、揺らぎ補正装置1に出力する。このパラメータは、例えば、揺らぎ補正装置1においてヒストグラム等の比較対象となる画素ブロックのサイズである。
 揺らぎ補正装置1は、パラメータ制御装置2から入力されたパラメータに基づいて、入力画像に歪み補正処理を施し、高解像度化画像を作成し、記憶すると共に、出力部4oを介して外部に出力する。
 なお、画像メモリ3は、揺らぎ補正装置1が内蔵するメモリ(90)を用いても良い。パラメータ制御装置2が、揺らぎ補正装置1内で生成される時間平滑化画像を流用するのであれば、画像メモリ3は不要である。
 パラメータ制御装置2は、補正対象画像と補正用画像の比較対象画素ブロックから、空気揺らぎに起因する被写体の変形に対する頑健性の異なる複数の指標を算出する。なお、どの指標も被写体の移動による画素値の変化の影響は受けるものとする。
 被写体の変形に頑健な特性をもつ指標は、例えば、複数の画素をビンに集計して比較するような種類のもので、その1つに上述のヒストグラムの類似度がある。画素ブロック内の画素値を直接集計する場合、補正対象画像と補正用画像を縮小してから画素値を比較することにより、被写体の形状変化に強い特性が得られる。或いは画素値の勾配(エッジ)の方向やパターンを集計したヒストグラムを用いてもよい。
 また、被写体の形状に頑健でない指標は、例えば、個々の画素値を直接比較するような種類のもので、その1つにSAD(Sum of Absolute Difference)がある。
 図5に、異なる2つの指標の分布の分類の仕方を示す。パラメータ制御装置2は、図5に示される異なる2つの指標の関係性より、比較対象画素ブロック内の被写体の状態と比較対象画素ブロックサイズの関係を推定する。
 図5において、横軸は指標I1、縦軸は指標I2である。ここで、指標I1は、被写体の移動による画素値の変化を示し、指標I2は、ヒストグラムベースの、被写体の変形に頑健な指標とする。
 指標I1は、閾値Th1によって状態P1とそれ以外の状態と分けられる。さらに、指標I2は、閾値Th2によって状態P2と状態P3とに分けられる。例えば、
 I1<Th1の場合には、状態P1とする。
 I1≧Th1、かつ、I2<Th2の場合には、状態P2とする。
 I1≧Th1、かつ、I2≧Th2の場合には、状態P3とする。
 適切な閾値の下では、状態P1は、背景であると考えられる領域であり、状態P2は空気揺らぎが生じている、或いは細かな移動体が映っていると考えられる領域であり、状態P3は、移動体と考えられる領域である。
 本例のパラメータ制御装置2は、この関係性をもとに、適切な比較対象画素ブロックサイズを探索する。ただし、閾値Th1及び閾値Th2は、そこから指標を得た比較対象画素ブロックサイズに依存するので、比較対象画素ブロックサイズごとに適切に決定することが望ましい。
 図6は、比較対象画素ブロックサイズを最適化する処理のフローチャートである。パラメータ制御装置2は、この処理手順を実行することによって、与えられた最大幅以下の揺らぎの補正を達成しつつ、移動する被写体の見逃しを最低限にすること可能とする。なお、図6の処理を実行する前には、初期設定として、図5で説明したように、分類される複数の状態と、分類するため各指標の閾値を予め定義しておく。
 最初に、領域分割ステップS1201では、空気揺らぎの最大幅を揺らぎによる画素の変位量等から概算的に算出し、その算出した最大幅より大きい所定幅(ブロックサイズ)でもって画像を格子状に分割し、画像ブロック化する。
 即ち、領域分割ステップS1201では、まず揺らぎの幅以上の粗い粒度で領域を仮想的(論理的)に分割する。仮想的な分割とは、画像ブロック単位で画像に容易にアクセスできるようにすることを意味し、そのように論理的に扱うことができれば十分である。なお、移動する被写体と背景をこの時点で分類しても良い。その際、揺らぎの幅以上に画像を縮小することにより、揺らぎの影響を緩和しながら大まかな移動体の検出が可能となる。
 次に、比較対象画素領域決定ステップS1202では、領域分割ステップS1201で分割された複数の画像ブロックの中から、後述の状態評価において比較対象とする一部の画像ブロックを決定する。対象とする画像ブロックは、画像全体の中から均一に抽出してもよく、それらの境界付近の被写体及び背景から多く抽出してもよい。このように、対象とする領域を限定することにより、比較対象画素ブロックサイズ決定の精度の向上と演算量の削減が見込むことができる。
 次に状態評価ステップS1203では、与えられた画素ブロック(初期的には、S1202で選定された画像ブロック)を比較対象領域とし、各比較対象領域について、図5で説明したように、予め設定されていた指標と閾値によってどの状態であるかを評価する。
 このとき基本的には、与えられた画素ブロック内の画素全体を比較対象画素ブロックに設定するが、画素は間引かれても良い。
 また、比較対象画素ブロックサイズは、最大幅の揺らぎを補正できるものから始め、ループ(ステップS1203からステップS1205及びステップS1207を経てステップS1203に戻る)毎に縮小して評価を行う。即ち、2度目以降のループでは、ステップS1207で縮小された比較対象画素ブロックサイズが適用される。
 次に、状態情報統合ステップS1204では、各画素ブロックの情報を統合して、ブロックサイズが適切であるかどうか判断するための値(統合情報)を算出する。本例では、図5の状態P2となる領域が画像内に占める割合(P2割合)の変動率を統合情報として算出する。比較対象画素ブロックサイズが初期の最大値の場合には、空気揺らぎがある領域と細かい動きのある領域は状態P2と判断されるので、P2割合は高い。
 次に統合情報判定ステップS1205では、状態情報統合ステップS1204で算出された統合情報(例えば、変動率)が前回の統合情報に比べて所定の割合以上変化した場合には、ブロックサイズ決定ステップS1206の処理に分岐する。また、前回の統合情報に比べて所定の割合未満しか変化していない場合には、ブロックサイズ縮小ステップS1207の処理に分岐する。また、前回の統合情報が無い(ステップS1204が初めて統合情報を算出した直後のステップS1205である)場合には、ブロックサイズ縮小ステップS1207の処理に分岐する。
 ブロックサイズ縮小ステップS1207では、比較対象画素ブロックサイズを前回のブロックサイズよりも所定の比率で小さく縮小して、新しい比較対象画素ブロックサイズとして状態評価ステップS1203の処理に移行する。
 このように、ステップS1203、S1204、及びS1206では、比較対象画素ブロックサイズを小さくしていき、状態P2の領域の割合が急激に変化した場合には、比較対象画素ブロックサイズが揺らぎの幅以下になったと判定し、処理ループから抜け、ブロックサイズ決定ステップS1206に移行する。このタイミングでは、これまで安定的に状態P2に属していた領域(揺らいでいるが移動体ではない)の一部が、状態P3に属するようになって、P2割合の急激な減少が起こっていると考えられる。
 ブロックサイズ決定ステップS1206では、この時点の比較対象画素ブロックサイズを最終的な比較対象画素ブロックサイズとして採用する。このときのブロックサイズは、揺らぎの幅より若干小さく、移動体及び空気揺らぎの一部が状態P3に分類されるようになる。
 上記処理は、画像処理装置の起動時に、一度だけ行うだけでも良いし、所定時間間隔で実行し、所定時間間隔で比較対象画素ブロックサイズを更新しても良い。また、比較対象画素ブロックサイズは、画面全体に対して1つ決定しても良いし、画面を分割して分割された領域毎に決定するようにしても良く、背景か移動体かの分類毎に決定しても良いし、ユーザが指定した領域(特に映像を鮮明にしたい領域)に対して特別なサイズを決定しても良い。
 さらに、撮影しているカメラのズーム倍率が変化したなどの、外部からのきっかけでブロックサイズを更新しても良い。
 即ち、実施例1の画像処理装置は、時系列に沿って撮影された入力画像を入力する入力部、前記入力画像を蓄積する画像メモリ、揺らぎ補正装置、及びパラメータ制御装置を備えた画像処理装置であって、前記画像メモリは、蓄積した前記入力画像のうちの所定のフレーム数の画像を前記パラメータ装置に出力し、前記パラメータ装置は、前記入力画像と前記画像メモリから入力された画像から比較対象画素ブロックサイズを求め、求めた比較対象画素ブロックサイズを前記揺らぎ補正装置に出力し、前記揺らぎ補正装置は、前記時系列に沿って撮影された入力画像を用いて時間平滑化画像を作成し、前記入力画像のうちの補正対象画像と前記時間平滑化画像の画素毎に前記比較対象画素ブロックサイズのヒストグラムをそれぞれ作成し、それぞれのヒストグラムの類似度に応じて画素ごとに画素の補正量を変えて前記補正対象画像を補正することによって、陽炎の発生等による静止領域の空気揺らぎに起因する画像内の歪みと、移動物体の動きを切り分け、画像内の歪みを補正する。
 実施例1によれば、適切な比較対象画素ブロックサイズを自動的に決定できるため、先願2よりさらに画像内の歪みが低減され、かつ解像度が向上した画像を生成することができる。
 図7によって、本発明の実施例2を説明する。図7は、実施例2の画像処理装置7の構成を示すブロック図である。画像処理装置7は、実施例1と同じ揺らぎ補正装置1に、パラメータ制御装置5を結合したものである。このパラメータ制御装置5は、実施例1同様に2種類の指標を用いて図6のフローチャートに従いパラメータの自動設定を行う。
 図7において、時系列に沿って撮影された複数の入力画像は、入力部4iに入力される。入力部4iは、入力された複数の入力画像を、パラメータ制御装置5及び揺らぎ補正装置1に導く。パラメータ制御装置5は、画像を入出力するタイミングを合わせるために、必要に応じて遅延処理を施す。
 揺らぎ補正装置1は、パラメータ制御装置5から入力されたパラメータ情報に基づいて、入力画像に歪み補正処理を施し、高解像度化された補正画像を作成し、出力部4o及びパラメータ制御装置5に出力する。揺らぎ補正装置1は、この歪み補正処理を実行した時の補正情報6をパラメータ制御装置5にフィードバックする。補正情報6は、過去の入力画像或いはそれらを平滑化して生成した補正用画像を含んでもよい。
 パラメータ制御装置5は、補正対象画像である入力画像と揺らぎ補正装置1から出力されたの補正画像から、パラメータ(比較対象画素ブロックサイズ)を求め、揺らぎ補正装置1に出力する。パラメータ制御装置5は、平均化画像の代替として補正画像を用い、また揺らぎ補正装置1が移動体を検出した領域を補正情報6として受け取り、パラメータの制御に利用する。例えば、図6のS1202の比較対象画素領域の決定に際し、移動体を検出した領域以外から、一定数の領域をサンプルするようにすれば、画像中に移動体が占める割合の変化に対してロバストになる。
 ここから、図8~図14を参照して、本実施例2の揺らぎ補正装置1の詳細について説明する。この揺らぎ補正装置1は、先願2に記載されたもので、本発明の他の実施例にも適用できる。なお画像処理装置(揺らぎ補正装置1)本体は、先願1や先願2で開示されるものだけではなく、空気揺らぎによる画素の変位と被写体の移動による画素の変位を分離してから、揺らぎを補正するものであればよく、先願1または先願2に限定されない。
 図8は、本発明の実施例3に係る画像処理装置の機能ブロック図である。画像処理装置(揺らぎ補正装置1)は、入力部10、画像平滑化部11、階調分布算出部12、相違度算出部13、画像補正部14、高解像度化部15、記録部16、制御部91を備える。
 図8において、入力部10は、図示しない撮像手段が時系列に沿って撮影した動画像データを受信する。例えば入力部10は、画像入力端子、ネットワーク接続端子などを備え、あるいはTV放送用のチューナーであっても良い。また入力部10は、監視カメラ等の撮像手段が、所定時間間隔で時系列に沿って撮影した、JPEG形式等の静止画像データを連続的に取得して、過去、現在、未来の複数の画像を入力画像としてメモリ90に記憶しても良い。また入力部10は、MPEG、H.264、HD-SDI形式等の圧縮又は非圧縮の動画像データから、所定間隔毎に静止画像データを抜き出して、過去、現在、未来の複数の画像を入力画像としてメモリ90に記憶しても良い。また入力部10は、過去、現在、未来の複数の入力画像を、DMA( Direct Memory Access)等を用いてメモリ90から取得することができる。また入力部10は、後述するように、脱着可能な記録媒体に既に記憶された、過去、現在、未来の複数の入力画像を、メモリ90に記憶しても良い。
 入力部10は、補正対象画像となる時刻tの画像を現在のものとし、それより古いものを過去、新しいものを未来の画像とするため、必要に応じて遅延処理を実施する。つまり時刻tの画像は、実際には現在より古く、「未来の画像」が現在の(最新の)画像を含む。入力部10は、同一画素位置における、現在画像とその前後の画像を画像平滑化部11へ出力する。
 画像平滑化部11は、過去、現在(時刻t)、未来の複数の入力画像のうちの同一画素位置の画像を時系列に沿って合成し、時刻tの画像に対応する平滑化画像を作成する。平滑化画像を作成する例については後述の図9で改めて説明する。
 階調分布算出部12は、時刻tの入力画像と平滑化画像それぞれについて、各画像の画素を中心とする画像領域毎に、階調分布を算出する。この処理は、同一画素位置において、時刻tの入力画像と平滑化画像それぞれの画素毎に実施される。階調分布の例については後述の図10で改めて説明する。
 相違度算出部13は、階調分布算出部12が算出した、時刻tの入力画像の階調分布と平滑化画像の階調分布との間の類似度或いは相違度を算出する。階調分布間の相違度の例については後述の図11で改めて説明する。
 画像補正部14は、時刻tの入力画像と平滑化画像を合成することにより、時刻tの入力画像を補正する。両者を合成する割合は、相違度算出部13が算出した相違度に応じて変更する。上記補正により、歪みを低減した時刻tの補正後画像を作成する。補正処理の例については後述の図11~図12を用いて改めて説明する。
 高解像度化部15は、時刻tの補正後画像から時刻tの高解像度化画像を作成する。高解像度化の例については後述の図4を用いて改めて説明する。
 記録部16は、陽炎を低減した時刻tの高解像度化画像を保存する場合は、時刻tの高解像度化画像をメモリ90に保存する。時刻tの高解像度化画像を保存しない場合は、入力画像を保存する。
 記憶部16は、モードに応じてメモリ90に保存する画像を切替えることができる。例えばモードが1の場合、高解像度化部15が求めた高解像度化画像Sをメモリ90に保存し、または高解像度化画像Sを揺らぎ補正装置1の外部に出力する。モードが0の場合、高解像度化画像Sをメモリ90に保存せず、入力画像を揺らぎ補正装置1の外部に出力する。
 制御部91は、揺らぎ補正装置1内の各要素に接続される。揺らぎ補正装置1の各要素は、自律的または制御部91の指示により、動作する。
 図9は、画像平滑化部11の動作例を説明する図である。図9においては一例として、画像Nを基点として、過去および未来の入力画像(画像N-2、画像N-1、画像N+1、画像N+2)と現在(時刻t)の入力画像Nを用いて、平滑化画像を作成する(Nは自然数)。図9において、画像N-2、画像N-1、画像N+1、画像N+2は時系列に沿って並べて表示され、紙面左から右に時間が過去から未来に流れる。例えば、画像Nを現在(時刻t)の画像とすると、その左側の画像N-1は、過去の画像であり、画像N-2はさらに過去の画像である。同様に、画像Nを現在の画像とすると、その右側の画像N+1は、未来の画像であり、画像N+2はさらに未来の画像である。
 座標(i,j)における画像N-2の画素値をq1(i,j)、画像N-1の画素値をq2(i,j)、画像Nの画素値をq3(i,j)、画像N+1の画素値をq4(i,j)、画像N+2の画素値をq5(i,j)とし、座標(i,j)における平滑化画像Mの画素値をm(i,j)とし、p1~p5を重み係数とする。画像平滑化部11は、下記式1を用いて各画像を合成することにより、各画像を時系列に沿って平滑化した平滑化画像Mを作成する。
 なお、座標(i,j)のうち、iは画像上の水平方向の画素位置を示し、jは画像上の垂直方向の画素位置を示す。
Figure JPOXMLDOC01-appb-M000001
 Dは画像合成に用いる枚数であり、過去、現在、未来の画像の枚数が5枚の場合、式1のDは5となる。式1における画素値はどのような形式でも良く、例えば、任意の色空間における各チャンネルの値、すなわちRGB色空間におけるR(赤色)、G(緑色)、B(青色)や、YCbCr色空間におけるY(輝度)、Cb,Cr(色差)や、HSV色空間の各成分値でも良い。
 陽炎の影響で被写体が変形する際の変位量は、統計的にはガウス分布に従うという性質を有していると考えられる。このため、過去および未来の複数の画像を用いて画素を平滑化することにより、被写体本来の形状に近い画像を取得することができる。また、限られた範囲の過去および未来の画像を用いて基点となる画像を再構成しているので、長期間複数の過去画像を繰り返し合成して平滑化した場合と異なり、過去画像の影響を強く受けることを抑制することができる。さらに、入力画像内に移動物体が存在していても、移動物体の画像の歪みを低減することができる情報を含む平滑化画像Mを作成することができる。
 図10は、階調分布算出部12が対象画素の周辺領域の画素を用いて階調分布を算出する様子を示す図である。階調分布算出部12は、時刻tに対応する入力画像Nの対象画素310を含む画像領域E1(例えば、32画素×32画素)の階調分布を表すヒストグラムH1を求める。階調分布算出部12は同様に、平滑化画像Mのうち画像領域E1に対応する画像領域E2の階調分布を表すヒストグラムH2を求める。ここで、画像領域E2は、対象画素310に対応した平滑化画像Mの画素320を含む。
 ヒストグラムH1とH2の横軸は階調値、縦軸はその階調値の度数(出現数)を示す。なお、以下に説明するその他のヒストグラムの横軸及び縦軸についても、図10のヒストグラムと同様である。
 図11は、入力画像に含まれる移動物体の移動により、ヒストグラムH2が変化することを説明する図である。画像Nの対象画素410を含む画像領域E3のヒストグラムをH1とする。平滑化画像Mの対象画素411の画像領域E4のヒストグラムH2は、過去、現在、未来の画像に含まれる移動物体の速さに応じて形状が異なる。
 移動物体の動きが静止から低速の場合、図11(1)に示すように、ヒストグラムH2はヒストグラムH1に類似した形状となる。移動物体の動きが低速から中速の場合、移動物体とは異なる絵柄の情報が少し含まれるため、図11(2)に示すように、ヒストグラムH2はヒストグラムH1とは少し形状が異なる。移動物体の動きが中速から高速の場合、移動物体とは大きく異なる絵柄が多く含まれるため、図11(3)に示すように、ヒストグラムH2はヒストグラムH1とは大きく異なる形状となる。したがって、画像NのヒストグラムH1と平滑化画像Mのヒストグラムを比較することにより、画像内の移動物体の動きを簡易的に調べることができる。
 相違度算出部13は、階調分布算出部12が求めた階調分布、例えば図10~図11で説明した各ヒストグラム間の相違度を算出する。例えば下記式2を用いて、RGB成分毎にBhattacharyya距離を利用してヒストグラム間の距離B32(c)を求め、それらの自乗和の平方根を相違度Lとする。相違度Lはヒストグラム間の距離に相当するので、Lの値が小さいほど相違度が高いことになる。なお式2におけるcは、RGB成分のどれかを表す。
Figure JPOXMLDOC01-appb-M000002
ここで、HA(I)は、ヒストグラムAにおける階調値Iの度数を表し、階調数(ヒストグラムのビンの数)は32である。
 階調分布算出部12は、階調数の異なる複数のバージョンのヒストグラムを作成し、それらの間の相違度を合計することで、より信頼性の高い相違度を得ることができる。つまり、最初のバージョン(階調数が32)のヒストグラムH1とH2を計算する際に、隣り合う複数の階調を統合することにより、階調数を減らしたバージョンのヒストグラムを生成する。この様な処理を階調数が2になるまで再帰的に行って、逐次、相違度を累算していく。その階級幅の範囲内に収まる歪みが同一の階級内に含まれるので、様々な揺れ幅の陽炎に対して、相違度が低く保たれ、陽炎により変形した画像領域と移動物体により変形した画像領域をより正確に区別することができる。以下に具体例と共に説明する。
 階調分布算出部12が全画素についてヒストグラムを計算し、階調分布算出部12が全画素について相違度を計算することが望ましいが、計算量を減らす必要があれば、対象画素を間引くことができ、画像領域E1の画素数に対し対象画素を1つにしてもよい。
 図12は、画像補正部14の動作を説明する図である。画像補正部14は、入力画像Nと平滑化画像Mを用いて、補正後画像の画素値を決定する。具体的には、相違度算出部13が求めた相違度Lと2つの閾値T1、T2(T1<T2)を用いて、画素毎に入力画像Nと平滑化画像Mの比率を変えてブレンドすることにより、補正後画像を得る。
 相違度Lと閾値T1、T2の関係において、L≦T1である(ヒストグラム間の相違度が高い)場合は、画像内の物体の動きが静止から低速である場合に相当する。例えば、図12の領域600や領域601がこれに該当する。領域601は実際には高速で動いているかもしれないが、テクスチャの少ない車のボディは、画像に変化をもたらさないので静止しているものと扱われる。この場合には、平滑化画像Mを用いた補正を強くかけてよいため、平滑化画像Mの画素値をそのまま補正値とする。
 T2<Lの場合は、移動物体の動きが中速から高速である場合に相当する。例えば、図12の領域620や領域621では、過去には移動物体が存在したが、現在あるい未来では、物体は通り過ぎて存在しない。このように、移動物体の動きが中速から高速である場合には、平滑化画像Mを用いて補正を実施すると、移動物体の動きが平滑化されたぼやけた画像になってしまう。従って、平滑化画像Mを用いずに入力画像Nの画素値を補正値とする。
 T1<L≦T2の場合は、画像内の移動物体の動きが低速から中速である場合に相当する。例えば、図12の領域610の枠線の境界がこれに該当し、上記の2つの場合に対して中間的な場合であるため、下記式3を用いて、入力画像Nと平滑化画像Mの各画素値をブレンドした値を補正値とする。座標(i,j)における画像Nの画素値をn(i,j)、座標(i,j)における平滑化画像Mの画素値をm(i,j)、、e(i,j)=m(i,j)、f(i,j)=n(i,j)とすると、各画素値をブレンドした値d(i,j)は、
Figure JPOXMLDOC01-appb-M000003
 なお、L≦T1の場合はブレンド比R=0、T2<Lの場合はR=1であるとみなせる。相違度Lが画素毎に得られていない場合、各画素のブレンド比Rは、バイリニア補間や、離散的なRとsinc関数との畳み込みによるローパスフィルタにより、計算する。
 図13は、高解像度化部15が使用する鮮鋭化フィルタのカーネルである。中心のますが対象画素に対応し、各ますの中の値は、対応する位置の画素に乗算される係数を表す。高解像度化部15は、このフィルタカーネルを用いて補正後画像の各画素を鮮鋭化し、解像度を向上した高解像度化画像Sを作成する。
 平滑化画像Mは解像度が低下する場合があるので、図12の領域600や領域601のように変形が小さい領域については、例えば図13(1)や図13(2)のK=1.0とし、鮮鋭化の度合いを強くする。画像Nと平滑化画像Mの画素値をブレンドした値を用いる図12の領域610の枠線の境界については、例えば中間的なK=0.75とする。画像Nの画素値を用いる図12の領域620や領域621については、ノイズを強調しないように、例えばK=0.5とする。上述の処理を全ての画素について実施することにより、静止領域と移動物体を含む画像全体の歪みを低減しつつ解像度を向上させた高解像度化画像Sを作成することができる。
 図14は、揺らぎ補正装置1の動作を示すフローチャートである。以下、図14の各ステップについて説明する。
 (ステップS701) 入力部10は、過去、現在、未来の画像フレームを取得して画像平滑化部11に出力する。画像平滑化部11は平滑化画像Mを算出する。過去、現在、未来の画像の合計枚数が5の場合、ステップ701の添字uは2となる。
 (ステップS702) 階調分布算出部12は、画像Nと平滑化画像Mの画素毎に、ヒストグラムH1とH2を算出する。
 (ステップS702) 相違度算出部13は、ヒストグラムH1とH2の間の相違度Lを算出する。
 (ステップS704) 画像補正部14は、相違度Lと各閾値(T1、T2)とを比較する。L≦T1の場合にはステップ705に進む。T1<Lの場合にはステップS706に進む。
 (ステップS705) 画像補正部14は、補正値として平滑化画像Mの画素値を設定する。
 (ステップS706~S708)   画像補正部14は、相違度Lが、閾値T1、T2に対して、T1<L≦T2を満たすか否かを判定する。上記条件を満足した場合にはステップ707に進み、満足しない(L≦T1、またはT2<L)場合にはステップS708に進む。
 なお、ステップS704及びステップS706の処理は、相違度Lと閾値T1、T2の関係がT1<L≦T2であるか否かを判定するだけであるので、必ずしもこの手順でなくても良い。例えば、ステップS704及びステップS706を合わせた処理ステップでは、L≦T1の場合にはステップS705に進み、T1<L≦T2の場合にはステップ707に進み、T2<Lの場合にはステップ708に進む。
 (ステップS707) 画像補正部14は、ステップS706において条件を満たした場合は、画像Nと平滑化画像Mの画素値を式3に基づきブレンドした値を補正値として設定する。
 (ステップS708) 条件を満たさなかった場合は、画像Nの画素値を補正値に設定する。
 (ステップS709) 高解像度化部15は、画像補正部14が求めた補正後画像N’の解像度を向上した高解像度化画像Sを作成する。
 (ステップS710) 画像補正部14と高解像度化部15は、対象画像内の全ての画素について、補正値および高解像度化した画素値を求めるまで、上記ステップS702~S709の処理を繰り返す。
 本例の相違度算出部13は、ヒストグラムベースの相違度Lのみを用いて移動物体の速度を推定し画素を分類したが、パラメータ制御装置5同様に、2種類の指標を用いて画素の分類を行ってもよい。
 図15は、本発明の実施例3に係る撮像装置1500の機能ブロック図である。撮像装置1500は、撮像部1501、画像処理装置1503、画像表示部1502を備える。撮像部1501は、被写体から発する光を受光し、受光した光学像を画像データに変換する撮像デバイスである。画像処理装置1503は、実施例1または2の画像処理装置4または7であり、撮像部1501が撮影した画像データを受け取って陽炎の発生による空気揺らぎに起因する歪みを補正する。画像表示部1502は、画像処理装置1503が出力する補正後画像を表示するディスプレイなどのデバイスである。
 画像表示部1502は、動作モードに応じて表示する画像を切り替える。例えば、モードが1の場合、陽炎の発生による空気揺らぎに起因する歪みを低減した補正後画像を表示し、モードが0の場合、入力画像をそのまま表示する。
 本実施例3に係る撮像装置1500によれば、静止領域と移動物体を共に含む画像全体の陽炎の発生による空気揺らぎに起因する歪みを低減した補正後画像を撮影者に対して表示する撮像装置を提供することができる。
 図16は、本発明の実施例4に係る監視システム1600の機能ブロック図である。監視システム1600は、撮像装置1601、画像処理装置1604、サーバ1602、表示装置1603を備える。撮像装置1601は、画像データを撮影する1以上の監視カメラなどの撮像装置である。画像処理装置1604は、実施例1または2の画像処理装置4または7であり、撮像装置1601が撮影した画像データを受け取って陽炎を補正する。サーバ1602は、画像処理装置1604を搭載したコンピュータである。表示装置1603は、画像処理装置1604が出力する補正後画像を表示するディスプレイなどのデバイスである。
 撮像装置1601とサーバ1602の間、およびサーバ1602と表示装置1603の間は、被監視場所と監視オペレータとの間の物理的配置などに応じて、例えばインターネットなどのネットワークを介して接続することができる。
 本実施例4に係る監視システム1600によれば、静止領域と移動物体を共に含む画像全体の陽炎の発生による空気揺らぎに起因する歪みを低減した補正後画像を監視オペレータに対して表示する監視システムを提供することができる。
 図17は、本発明の実施例5に係る符号復号システム1700の機能ブロック図である。符号復号システム1700は、符号化装置1710、復号器1721、表示装置1722を備える。符号化装置1710は、撮像装置1711、画像処理装置1704、および符号器1712を備える。
 撮像装置1711は、画像データを撮影する監視カメラなどの撮像装置である。画像処理装置1704は、実施例1又は2の画像処理装置4または7であり、撮像装置1711が撮影した画像データを受け取って陽炎を補正する。符号器1712は、画像処理装置1704が出力する補正後画像データを符号化し、ネットワークを介して復号器1721へ伝送する。復号器1721は、伝送されてきた補正後画像データを復号化する。表示装置1722は、復号器1721が復号化した画像を表示する。
 本実施例5に係る符号復号システム1700によれば、静止領域と移動物体を共に含む画像全体の陽炎の発生による空気揺らぎに起因する歪みを低減した復号後画像を表示する符号復号システムを提供することができる。さらに、画像内の陽炎の発生による空気揺らぎに起因する歪みを低減することにより、符号器1712が伝送すべき画像間の差分が小さくなり、符号化効率が向上する。
 なお、本実施例の画像補正方法は、陽炎の他に、例えば水面の揺らぎ、木々の揺れ、大気中のもや、水中撮影時の画像の歪み等に対して幅広く補正を行うことが可能であり、不規則に揺れている被写体を止めて視認性を高める用途に広く利用することができる。
 また、本実施例の領域分割による移動物体分離方法を、画像補正以外の用途で利用することもできる。例えば、陽炎等による歪みが含まれる監視映像内から侵入者を自動検知したり、進入車両のナンバーを自動識別するシステム等にて、移動物体として識別された領域を解析することで、処理量を低減することができる。
 実施例1~5において、各構成、機能、処理部、処理手段等は、それらの一部や全部を、例えば集積回路で設計する等によりハードウェアで実現しても良い。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記録装置、ICカード、SDカード、DVD等の非一過性の記録媒体に格納することができる。
 1:揺らぎ補正装置、 4、7:画像処理装置、 2、5:パラメータ制御装置、 3:画像メモリ、 4i:入力部、 4o:出力部、 6:補正情報、
 10:入力部、 11:画像平滑化部、 12:階調分布算出部、 13:相違度算出部、 14:画像補正部、 15:高解像度化部、 16:記録部、 91:制御部、
 1111:除去画像生成部、 1500:撮像装置、 1600:監視システム、 1700:符号復号システム。

Claims (6)

  1.  時系列に沿って撮影された入力画像を入力する入力部、前記入力画像を蓄積する画像メモリ、揺らぎ補正装置、及びパラメータ制御装置を備えた画像処理装置であって、
     前記画像メモリは、蓄積した前記入力画像のうちの所定のフレーム数の画像を前記パラメータ装置に出力し、
     前記パラメータ装置は、前記入力画像と前記画像メモリから入力された画像から比較対象画素ブロックサイズを求め、求めた比較対象画素ブロックサイズを前記揺らぎ補正装置に出力し、
     前記揺らぎ補正装置は、前記時系列に沿って撮影された入力画像を用いて時間平滑化画像を作成し、前記入力画像のうちの補正対象画像と前記時間平滑化画像の画素毎に前記比較対象画素ブロックサイズのヒストグラムをそれぞれ作成し、それぞれのヒストグラムの類似度に応じて画素ごとに画素の補正量を変えて前記補正対象画像を補正することを特徴とする画像処理装置。
  2.  時系列に沿って撮影された複数の画像フレームを受け取る入力部と、
     前記画像フレームのうち補正対象とする対象フレーム内における第1画像領域の第1階調分布を算出するとともに、前記画像フレームのうち前記対象フレームを補正するために用いる補正用フレーム内における前記第1画像領域に対応する第2画像領域の第2階調分布を算出する階調算出部(12)と、
     対象フレーム及び補正用フレームから、被写体の変形に対する頑健性の異なる2つの指標のセットを算出し、該2つの指標の関係に基づいて前記第1画像領域及び第2画像領域のサイズを制御するパラメータ制御部(5)と、
     前記第1階調分布と前記第2階調分布との間の第1類似度を算出する類似度算出部(13)と、
     前記補正用フレームを用いて前記対象フレームを補正する画像補正部(14)と、
     前記画像補正部が補正した前記対象フレームを出力する出力部と、を備え、
     前記画像補正部は、前記第1類似度に応じて前記対象フレームと前記補正用フレームを使用する割合を変更した上で、前記補正用フレームを用いて前記対象フレームを補正することを特徴とする画像処理装置。
  3.  前記セットの一方の指標は、前記第1画像領域及び第2画像領域における複数の画素の間の相違に基づく第1指標であり、前記セットの他方の指標は、前記第1画像領域及び第2画像領域における個々の画素間の相違に基づく第2指標であることを特徴とする請求項2記載の画像処理装置。
  4.  前記セットの一方の指標は、前記第1画像領域及び第2画像領域における画素値のヒストグラムの相違に基づく第1指標であり、前記セットの他方の指標は、前記第1画像領域及び第2画像領域における画素値の絶対差分総和に基づく第2指標であることを特徴とする請求項2記載の画像処理装置。
  5.  前記パラメータ制御部は、前記第1指標及び第2指標に対応させて第1閾値及び第2閾値を設定し、画像フレーム内の複数の位置に設けた前記第1画像領域及び第2画像領域から複数の前記セットをそれぞれ算出し、前記第1指標が前記第1閾値以上で且つ前記第2指標が前記第2閾値未満となる該セットの数に基づいて、前記サイズを制御することを特徴とする請求項3又は4記載の画像処理装置。
  6.  比較対象画像を比較対象画素ブロックと定義して、被写体の変形に頑健でない第1の指標と、該第1の指標を使って第1の状態とそれ以外の状態に分ける第1の閾値と、被写体の変形に頑健な第2の指標と、該第2の指標を使って前記それ以外の状態を第2の状態と第3の状態に分ける第2の閾値とを設ける初期設定ステップと、
     時系列に沿って撮影された複数の画像を取得する入力ステップと、
     空気揺らぎの最大幅を揺らぎによる画素の変位量から算出し、算出した最大幅より所定幅大きいブロックサイズの領域に画像を分割する領域分割ステップ(S1201)と、
     比較対象画素ブロックサイズを決定するために、補正対象画像と補正用画像の中で比較対象画像を決定する比較対象画素領域決定ステップ(S1202)と、
     前記比較対象画像内の画素全体を比較対象画素ブロックとして定義し、定義された比較対象画素ブロックについて、前記第1の指標、前記第2の指標、前記第1の閾値、及び前記第2の閾値によってどの状態であるかを評価する状態評価ステップ(S1203)と、
     各画素ブロックの情報を統合して、ブロックサイズが適切であるかどうか判断するための統合情報を算出する状態情報統合ステップ(S1204)と、
     前記統合情報が前回の統合情報に比べて所定の割合以上変化したか否かを判定する統合情報判定ステップ(S1205)と、
     前記統合情報が前回の統合情報に比べて所定の割合以上変化した場合には、前記比較対象画素ブロックサイズを前回のブロックサイズよりも所定の比率で小さく縮小して、前記状態評価ステップ、前記状態情報統合ステップ、及び前記統合情報判定ステップを実行し、前記統合情報が前回の統合情報に比べて所定の割合未満しか変化していない場合には、この時点の比較対象画素ブロックサイズを最終的な比較対象画素ブロックサイズとして決定するステップ(S1206)と、
     前記決定された比較対象画素ブロックサイズをパラメータとして揺らぎ補正処理を実行するステップと、を有する画像処理方法。
PCT/JP2014/067688 2013-07-09 2014-07-02 画像処理装置及び画像処理方法 WO2015005196A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/902,626 US9547890B2 (en) 2013-07-09 2014-07-02 Image processing apparatus and image processing method
JP2015526283A JP5908174B2 (ja) 2013-07-09 2014-07-02 画像処理装置及び画像処理方法
EP14822122.9A EP3021575B1 (en) 2013-07-09 2014-07-02 Image processing device and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-143702 2013-07-09
JP2013143702 2013-07-09

Publications (1)

Publication Number Publication Date
WO2015005196A1 true WO2015005196A1 (ja) 2015-01-15

Family

ID=52279881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/067688 WO2015005196A1 (ja) 2013-07-09 2014-07-02 画像処理装置及び画像処理方法

Country Status (4)

Country Link
US (1) US9547890B2 (ja)
EP (1) EP3021575B1 (ja)
JP (1) JP5908174B2 (ja)
WO (1) WO2015005196A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016136151A1 (ja) * 2015-02-25 2016-09-01 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法及びそれを実行させるためのプログラム
WO2016147957A1 (ja) * 2015-03-13 2016-09-22 リコーイメージング株式会社 撮像装置および撮像方法
CN107018315A (zh) * 2015-11-26 2017-08-04 佳能株式会社 摄像设备、运动矢量检测装置及其控制方法
WO2018011870A1 (ja) * 2016-07-11 2018-01-18 三菱電機株式会社 動画像処理装置、動画像処理方法及び動画像処理プログラム
CN111062870A (zh) * 2019-12-16 2020-04-24 联想(北京)有限公司 一种处理方法及装置
CN111292268A (zh) * 2020-02-07 2020-06-16 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180352177A1 (en) * 2015-09-18 2018-12-06 Hitachi Kokusai Electric Inc. Image-processing device
US9710911B2 (en) * 2015-11-30 2017-07-18 Raytheon Company System and method for generating a background reference image from a series of images to facilitate moving object identification
JP6772000B2 (ja) * 2016-08-26 2020-10-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10176557B2 (en) * 2016-09-07 2019-01-08 The Boeing Company Apparatus, system, and method for enhancing image video data
CN108228679B (zh) * 2016-12-22 2022-02-18 阿里巴巴集团控股有限公司 时序数据计量方法和时序数据计量装置
KR101905128B1 (ko) 2017-03-13 2018-10-05 김창민 빛의 불규칙성을 기반으로 하는 동작영역 검출 제어 방법 및 그 방법을 이용한 동작영역 검출 장치
US10549853B2 (en) 2017-05-26 2020-02-04 The Boeing Company Apparatus, system, and method for determining an object's location in image video data
US10789682B2 (en) 2017-06-16 2020-09-29 The Boeing Company Apparatus, system, and method for enhancing an image
WO2019157717A1 (zh) * 2018-02-14 2019-08-22 北京大学 运动补偿的方法、装置和计算机系统
CN108681990B (zh) * 2018-04-04 2022-05-24 高明合 一种实时雾霾预警方法及系统
CN110533666B (zh) * 2018-05-25 2022-09-23 杭州海康威视数字技术股份有限公司 一种获取数据块尺寸的方法、处理数据的方法及装置
US11544873B2 (en) * 2019-03-05 2023-01-03 Artilux, Inc. High resolution 3D image processing apparatus and method thereof
JP7421273B2 (ja) 2019-04-25 2024-01-24 キヤノン株式会社 画像処理装置及びその制御方法及びプログラム
EP3935601A4 (en) * 2019-08-06 2022-04-27 Samsung Electronics Co., Ltd. LOCAL HISTOGRAM MATCHING WITH GLOBAL REGULARIZATION AND MOTION EXCLUSION FOR MULTI-EXPOSURE IMAGE BLENDING
CN111401406B (zh) * 2020-02-21 2023-07-18 华为技术有限公司 一种神经网络训练方法、视频帧处理方法以及相关设备
CN111479115B (zh) * 2020-04-14 2022-09-27 腾讯科技(深圳)有限公司 一种视频图像处理方法、装置及计算机可读存储介质
KR102374840B1 (ko) * 2020-10-20 2022-03-15 두산중공업 주식회사 딥러닝 학습용 결함 이미지 생성 방법 및 이를 위한 시스템

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302115A (ja) * 2005-04-22 2006-11-02 Fujitsu Ltd 物体検出方法および物体検出装置
JP2008160733A (ja) * 2006-12-26 2008-07-10 Sony Corp 撮像装置、撮像信号処理方法及びプログラム
JP2011215695A (ja) * 2010-03-31 2011-10-27 Sony Corp 移動物体検出装置及び方法、並びにプログラム
JP2011229030A (ja) 2010-04-21 2011-11-10 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2012107470A (ja) 2010-11-19 2012-06-07 Kmew Co Ltd 建築用板材
JP2012182625A (ja) 2011-03-01 2012-09-20 Nikon Corp 撮像装置
JP2013057774A (ja) 2011-09-08 2013-03-28 Kyocera Document Solutions Inc 定着装置及びそれを備えた画像形成装置
JP2013122639A (ja) * 2011-12-09 2013-06-20 Hitachi Kokusai Electric Inc 画像処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4541316B2 (ja) * 2006-04-06 2010-09-08 三菱電機株式会社 映像監視検索システム
JP4650560B2 (ja) * 2008-11-27 2011-03-16 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP5362878B2 (ja) * 2012-05-09 2013-12-11 株式会社日立国際電気 画像処理装置及び画像処理方法
JP5706594B2 (ja) * 2012-10-29 2015-04-22 株式会社日立国際電気 画像処理装置
JP6104680B2 (ja) * 2013-03-21 2017-03-29 株式会社日立国際電気 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006302115A (ja) * 2005-04-22 2006-11-02 Fujitsu Ltd 物体検出方法および物体検出装置
JP2008160733A (ja) * 2006-12-26 2008-07-10 Sony Corp 撮像装置、撮像信号処理方法及びプログラム
JP2011215695A (ja) * 2010-03-31 2011-10-27 Sony Corp 移動物体検出装置及び方法、並びにプログラム
JP2011229030A (ja) 2010-04-21 2011-11-10 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
JP2012107470A (ja) 2010-11-19 2012-06-07 Kmew Co Ltd 建築用板材
JP2012182625A (ja) 2011-03-01 2012-09-20 Nikon Corp 撮像装置
JP2013057774A (ja) 2011-09-08 2013-03-28 Kyocera Document Solutions Inc 定着装置及びそれを備えた画像形成装置
JP2013122639A (ja) * 2011-12-09 2013-06-20 Hitachi Kokusai Electric Inc 画像処理装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3021575A4

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016136151A1 (ja) * 2015-02-25 2016-09-01 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法及びそれを実行させるためのプログラム
JPWO2016136151A1 (ja) * 2015-02-25 2017-04-27 パナソニックIpマネジメント株式会社 画像処理装置、画像処理方法及びそれを実行させるためのプログラム
EP3131283A4 (en) * 2015-02-25 2017-06-21 Panasonic Intellectual Property Management Co., Ltd. Image processing device, image processing method and program for executing same
WO2016147957A1 (ja) * 2015-03-13 2016-09-22 リコーイメージング株式会社 撮像装置および撮像方法
JP2016171511A (ja) * 2015-03-13 2016-09-23 リコーイメージング株式会社 撮像装置および撮像方法
CN107018315A (zh) * 2015-11-26 2017-08-04 佳能株式会社 摄像设备、运动矢量检测装置及其控制方法
WO2018011870A1 (ja) * 2016-07-11 2018-01-18 三菱電機株式会社 動画像処理装置、動画像処理方法及び動画像処理プログラム
JPWO2018011870A1 (ja) * 2016-07-11 2018-10-25 三菱電機株式会社 動画像処理装置、動画像処理方法及び動画像処理プログラム
CN109478319A (zh) * 2016-07-11 2019-03-15 三菱电机株式会社 动态图像处理装置、动态图像处理方法及动态图像处理程序
CN111062870A (zh) * 2019-12-16 2020-04-24 联想(北京)有限公司 一种处理方法及装置
CN111292268A (zh) * 2020-02-07 2020-06-16 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN111292268B (zh) * 2020-02-07 2023-07-25 抖音视界有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Also Published As

Publication number Publication date
JP5908174B2 (ja) 2016-04-26
US9547890B2 (en) 2017-01-17
US20160171664A1 (en) 2016-06-16
EP3021575B1 (en) 2020-06-17
JPWO2015005196A1 (ja) 2017-03-02
EP3021575A1 (en) 2016-05-18
EP3021575A4 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
JP5908174B2 (ja) 画像処理装置及び画像処理方法
US10521885B2 (en) Image processing device and image processing method
Shin et al. Radiance–reflectance combined optimization and structure-guided $\ell _0 $-Norm for single image dehazing
Rao et al. A Survey of Video Enhancement Techniques.
US9247155B2 (en) Method and system for robust scene modelling in an image sequence
JP6505237B2 (ja) 画像処理装置
US9202263B2 (en) System and method for spatio video image enhancement
JP6104680B2 (ja) 画像処理装置、撮像装置、監視システム、符号化装置、画像処理方法
US20190199898A1 (en) Image capturing apparatus, image processing apparatus, control method, and storage medium
US20140177960A1 (en) Apparatus and method of processing image
US10013772B2 (en) Method of controlling a quality measure and system thereof
JP2009093323A (ja) 画像処理装置およびプログラム
US9165345B2 (en) Method and system for noise reduction in video systems
CN104335565A (zh) 采用具有自适应滤芯的细节增强滤波器的图像处理方法
US9355435B2 (en) Method and system for adaptive pixel replacement
Fuh et al. Mcpa: A fast single image haze removal method based on the minimum channel and patchless approach
KR102136716B1 (ko) 관심영역 기반의 화질개선 장치와 그를 위한 컴퓨터로 읽을 수 있는 기록 매체
JP6938282B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9686449B1 (en) Methods and systems for detection of blur artifact in digital video due to high quantization
CN107292853B (zh) 图像处理方法、装置、计算机可读存储介质和移动终端
CN111091136B (zh) 一种视频场景变换检测方法和系统
US11636576B2 (en) Image processing apparatus for reducing influence of fine particle in an image, control method of same, and non-transitory computer-readable storage medium
Rakhshanfar Automated Estimation, Reduction, and Quality Assessment of Video Noise from Different Sources
WO2015040731A1 (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14822122

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015526283

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14902626

Country of ref document: US

Ref document number: 2014822122

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE