WO2021117148A1 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
WO2021117148A1
WO2021117148A1 PCT/JP2019/048362 JP2019048362W WO2021117148A1 WO 2021117148 A1 WO2021117148 A1 WO 2021117148A1 JP 2019048362 W JP2019048362 W JP 2019048362W WO 2021117148 A1 WO2021117148 A1 WO 2021117148A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
frame image
frame
map
moving object
Prior art date
Application number
PCT/JP2019/048362
Other languages
English (en)
French (fr)
Inventor
佐藤 秀彦
Original Assignee
株式会社ソシオネクスト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソシオネクスト filed Critical 株式会社ソシオネクスト
Priority to PCT/JP2019/048362 priority Critical patent/WO2021117148A1/ja
Priority to JP2021563501A priority patent/JP7480787B2/ja
Publication of WO2021117148A1 publication Critical patent/WO2021117148A1/ja
Priority to US17/834,535 priority patent/US20220301191A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Definitions

  • the present invention relates to an image processing apparatus, an image processing method and a program.
  • the image processing apparatus disclosed in the present application has, in one embodiment, a first frame image among a plurality of continuously input frame images and the latest past that is continuous with the first frame image in chronological order.
  • a first generation unit that generates a first motion map showing an existing region of a moving object included in the frame image from the second frame image of the frame, and a frame past the first frame image. By subtracting the first movement map from the past map image showing the existing area of the moving object included in the image, a second moving object passing map showing the moving body passing area through which the moving object has passed is generated.
  • a third generation unit that generates a second motion map by integrating the generation unit, the first motion map, and the moving object passage map multiplied by the first value, and the second motion map. Based on the above, the first frame image and the second frame image are provided with an adjusting unit for adjusting parameters related to noise reduction processing.
  • FIG. 1 is a diagram showing an example of the configuration of the image processing apparatus according to the first embodiment.
  • FIG. 2 is a diagram showing an example of the function of the afterimage processing unit of the first embodiment.
  • FIG. 3 is a diagram for explaining an example of a parameter adjustment method according to the first embodiment.
  • FIG. 4 is an explanatory diagram for explaining the overall operation of the image processing apparatus according to the first embodiment.
  • FIG. 5 is an explanatory diagram for explaining the operation of the first generation unit and the afterimage processing unit according to the first embodiment.
  • FIG. 6 is a flowchart showing an example of processing performed by the first generation unit, the afterimage processing unit, and the synthesis processing unit of the first embodiment.
  • FIG. 7 is an explanatory diagram for explaining the overall operation of the image processing apparatus according to the first modification of the first embodiment.
  • FIG. 8 is a diagram showing an example of the configuration of the image processing apparatus according to the second modification of the first embodiment.
  • FIG. 9 is an explanatory diagram for explaining the overall operation of the image processing apparatus according to the second modification of the first embodiment.
  • FIG. 10 is a diagram showing an example of the configuration of the image processing apparatus according to the second embodiment.
  • FIG. 11 is a diagram showing an example of the function of the afterimage processing unit of the second embodiment.
  • FIG. 12 is an explanatory diagram for explaining the overall operation of the image processing apparatus according to the second embodiment.
  • FIG. 13 is an explanatory diagram for explaining the operation of the first generation unit and the afterimage processing unit according to the second embodiment.
  • FIG. 14 is a flowchart showing an example of processing performed by the first generation unit, the afterimage processing unit, and the synthesis processing unit of the second embodiment.
  • FIG. 1 is a diagram showing an example of the configuration of the image processing device 1 according to the present embodiment.
  • the image processing device 1 is an image processing device capable of sequentially performing three-dimensional noise reduction (3DNR) processing on a plurality of frame images that are continuously input.
  • 3DNR three-dimensional noise reduction
  • the image processing device 1 outputs a moving image in which noise included in the frame image is reduced by performing three-dimensional noise reduction processing on a moving image composed of a plurality of frame images.
  • the latest frame image (current frame) in chronological order will be referred to as a frame image Image (n).
  • the frame image past or future from the current frame is expressed based on the index "n" of the current frame.
  • a frame image one frame past from the current frame is referred to as Image (n-1).
  • Image (n + 1) a frame image one frame from the current frame in the future is expressed as Image (n + 1).
  • the image processing apparatus 1 includes a first 2DNR processing unit 11, a second 2DNR processing unit 12, a first generation unit 13, an afterimage processing unit 14, and a composition processing unit 15. To be equipped.
  • the first 2DNR processing unit 11 and the second 2DNR processing unit 12 are examples of the two-dimensional noise reduction processing unit.
  • the first generation unit 13 is an example of the first generation unit.
  • the synthesis processing unit 15 is an example of the synthesis processing unit.
  • the first 2DNR processing unit 11, the second 2DNR processing unit 12, and the synthesis processing unit 15 function as the 3DNR processing unit 16 which is an example of the three-dimensional noise reduction processing unit.
  • a part or all of the first 2DNR processing unit 11, the second 2DNR processing unit 12, the first generation unit 13, the afterimage processing unit 14, and the synthesis processing unit 15 have a hardware configuration such as a dedicated circuit or the like. May be realized by. Further, a part or all of the first 2DNR processing unit 11, the second 2DNR processing unit 12, the first generation unit 13, the afterimage processing unit 14, and the synthesis processing unit 15 are processors included in a computer such as a microcomputer. And, it may be realized by a software configuration in collaboration with a program. Examples of processors include CPU (Central Processing Unit), DSP (Digital Signal Processor), FPGA (Field Programmable Gate Array), GPU (Graphics Processing Unit), and the like.
  • CPU Central Processing Unit
  • DSP Digital Signal Processor
  • FPGA Field Programmable Gate Array
  • GPU Graphics Processing Unit
  • the image processing device 1 includes a first storage unit 21 and a second storage unit 22.
  • the first storage unit 21 and the second storage unit 22 are storage devices such as, for example, an SDRAM (Synchronous Dynamic Random Access Memory).
  • the first storage unit 21 and the second storage unit 22 may be realized by individual storage devices, or may be realized by two storage areas provided in the same storage device.
  • the first 2DNR processing unit 11 executes two-dimensional noise reduction (2DNR) processing on the frame image Image (n) of the current frame.
  • 2DNR two-dimensional noise reduction
  • the first 2DNR processing unit 11 smoothes the pixels constituting the Image (n) in units of pixel blocks such as “3 ⁇ 3”, “5 ⁇ 5”, and “7 ⁇ 7”.
  • the frame image Image (n) is a color of 24 bits or more in which the pixel value is represented by a multi-value of 8 bits or more (10 bits, 12 bits, etc.) for each color of RGB or YCbCr (luminance and saturation), for example. It is an image.
  • the second 2DNR processing unit 12 executes the same 2DNR processing as the first 2DNR processing unit 11 on the frame image Image (n-1) one frame past the current frame.
  • the frame image Image (n-1) is a three-dimensional noise reduction (3DNR) process described later, which is generated based on the preceding frame image Image (n-1) and the frame image Image (n-2).
  • 3DNR three-dimensional noise reduction
  • the frame image DNR_Image (n-1) is, for example, 24 bits or more in which the value of each color of RGB or YCbCr (luminance and saturation) is represented by a multi-value of 8 bits or more (10 bits, 12 bits, etc.). It is a color image.
  • the first 2DNR processing unit 11 sends a detection signal for detecting the frame image Image (n) to the second 2DNR processing unit 12.
  • the second 2DNR processing unit 12 receives the detection signal and reads out the frame image DNR_Image (n-1) from the second storage unit 22.
  • the method for reading the frame image DNR_Image (n-1) is not limited to this.
  • an input (not shown) that collectively controls the input timing of the frame image Image (n) and the read timing of the frame image DNR_Image (n-1) from the second storage unit 22 inside or outside the image processing device 1.
  • An output control unit may be provided.
  • the first generation unit 13 is based on the frame image Image (n) and the frame image Image (n-1), and the first motion map Mask (n) showing the existence region of the moving object included between the frame images. ) Is generated.
  • the frame image Image (n-1) is a three-dimensional noise reduction (3DNR) process described later, which is generated based on the preceding frame image Image (n-1) and the frame image Image (n-2). Corresponds to the completed frame image DNR_Image (n-1).
  • the first generation unit 13 when the first generation unit 13 detects the frame image Image (n), the first generation unit 13 reads the frame image DNR_Image (n-1) from the second storage unit 22.
  • the method for reading the frame image DNR_Image (n-1) is not limited to this.
  • an input (not shown) that collectively controls the input timing of the frame image Image (n) and the read timing of the frame image DNR_Image (n-1) from the second storage unit 22 inside or outside the image processing device 1.
  • An output control unit may be provided.
  • the first generation unit 13 compares the frame image Image (n) and the frame image Image (n-1), and expresses the difference between the values of the pixels at the same pixel position as a multi-value such as binary or 8-bit.
  • the resulting image is generated as a first motion map Mask (n).
  • the first generation unit 13 generates a first motion map Mask (n) of a black-and-white image in which the pixel position where the difference between the pixel values is smaller than the threshold value is represented by 0 and the pixel position above the threshold value is represented by 1. .. Further, for example, the first generation unit 13 generates a first motion map Mask (n) of a monochrome image in which the pixel positions of the pixels are represented by multiple values such as 0 to 255 according to the difference between the pixels.
  • the first motion map Mask (n) is not limited to a black-and-white image or a monochrome image, and may be a color image having a color component such as RGB.
  • the first motion map Mask (n) generated in this way indicates the pixel positions of the region where the moving object exists in the frame image Image (n) and the frame image Image (n-1). Further, since the first motion map Mask (n) is a black-and-white image or a monochrome image, the bit depth of the first motion map Mask (n) is the original frame image Image (n) and the frame image Image (n). It is lower than the bit depth of -1). That is, since the afterimage processing unit 14 after the first generation unit 13 can proceed with the processing based on the first motion map Mask (n) whose bit depth is reduced, the memory capacity related to the processing and the memory capacity related to the processing can be increased. The processing load can be suppressed.
  • the afterimage processing unit 14 is input with a first motion map Mask (n) related to the current frame and a second motion map Mask (n-1) related to a past frame one frame past the current frame, which will be described later. Will be done. Specifically, when the afterimage processing unit 14 detects the first motion map Mask (n) from the first generation unit 13, the second motion map Mask (n-1) described later from the first storage unit 21 ) Is read.
  • the method of reading the second motion map MergeMask (n-1) is not limited to this.
  • the input timing of the first motion map Mask (n) and the read timing of the second motion map Mask (n-1) from the first storage unit 21 are summarized inside or outside the image processing device 1.
  • An input / output control unit (not shown) may be provided for control.
  • the afterimage processing unit 14 extracts a region through which the moving object has passed (moving object passing region) based on the first motion map Mask (n) and the second motion map MergeMask (n-1) described later, and presents the present. A second motion map MergeMask (n) related to the frame is generated. Then, the afterimage processing unit 14 adjusts the parameters related to the 3DNR processing of the 3DNR processing unit 16 based on the second motion map MergeMask (n).
  • the afterimage processing unit 14 has the functional configuration shown in FIG. 2 in order to realize the above-mentioned functions.
  • FIG. 2 is a diagram showing an example of the function of the afterimage processing unit 14.
  • the afterimage processing unit 14 has a second generation unit 141, a third generation unit 142, and an adjustment unit 143.
  • the second generation unit 141 is an example of the second generation unit.
  • the third generation unit 142 is an example of the third generation unit.
  • the second generation unit 141 subtracts the first motion map Mask (n) from the second motion map MergeMask (n-1), thereby indicating the moving object passing region through which the moving object has passed. n) is generated. Specifically, the second generation unit 141 is based on the values of each pixel constituting the second motion map MergeMask (n-1), and the first motion map Mask (n) located at the same pixel position as the pixel. Subtract the pixel value of. Then, the second generation unit 141 determines that it is a moving object passing region when the subtracted value becomes a positive value, and associates each pixel position with a value corresponding to the subtraction result, and the moving object passing map PassMask (n). To generate.
  • each pixel constituting the moving object passage map PassMask (n) is associated with a multi-value such as a binary value or an 8-bit value according to the subtraction result.
  • the second generation unit 141 generates a binary moving object passage map PassMask (n) of a black-and-white image in which the pixel position where the pixel difference is 0 or less is represented by 0 and the pixel position where the pixel difference is larger than 0 is represented by 1. Generate. Further, for example, the second generation unit 141 represents the pixel position where the pixel difference is 0 or less as 0, and the pixel position of the pixel whose pixel difference is larger than 0 is set to a multi-value such as 0 to 255 according to the difference. A moving object passage map PassMask (n) of the represented monochrome image is generated.
  • the moving object represented by the first movement map Mask (n) has passed until the state of the first movement map Mask (n) is reached. It indicates the pixel position of the area (moving object passing area). Further, since the moving object passing map PassMask (n) is a black-and-white image or a monochrome image, the bit depth of the moving object passing map PassMask (n) is the same as that of the original frame image Image (n) and the frame image Image (n-1). It will be lower than the bit depth.
  • the processing can proceed based on the moving object passage map PassMask (n) whose bit depth is reduced, so that the memory capacity related to the processing and the memory capacity related to the processing can be increased.
  • the processing load can be suppressed.
  • the third generation unit 142 relates to the current frame by integrating (hereinafter, also referred to as merging) the first motion map Mask (n) and the moving object passage map PassMask (n) multiplied by a predetermined intensity.
  • a second motion map, MergeMask (n) is generated.
  • the third generation unit 142 merges the first motion map Mask (n) and the moving object passage map PassMask (n) for each pixel at the same pixel position based on the following equation (1). ..
  • MergeMask (n) Mask (n) + ⁇ PMRATIO x PassMask (n) ⁇ ... (1)
  • PMRATIO is an afterimage suppression strength.
  • the afterimage suppression strength corresponds to the first value and is an element that contributes to the parameter adjustment in the adjustment unit 143, which will be described later.
  • the afterimage suppression intensity is set to a value larger than "0.0" and smaller than "1.0".
  • the value of the afterimage suppression strength can be set arbitrarily, it may be configured to be set automatically.
  • the third generation unit 142 may be configured to increase or decrease the afterimage suppression intensity according to the size of the moving body passing region represented by the moving body passing map PassMask (n). In this case, it is preferable that the third generation unit 142 increases the afterimage suppression strength as the moving object passing region becomes larger.
  • the second motion map MergeMask (n) generated based on the above equation (1) includes the existing region of the moving object represented by the first motion map Mask (n) and the passage of the moving object through which the moving object has passed. It indicates the pixel position of the area.
  • the value of each pixel constituting the moving body passing region is given a larger value as the moving body passing region is closer in time series.
  • the value of each pixel constituting the second motion map MergeMask (n) is also referred to as motion information.
  • the second motion map MergeMask (n) generated by the third generation unit 142 is delivered to the adjustment unit 143 and stored in the first storage unit 21 (see FIG. 1).
  • the first motion map Mask (n + 1) related to the frame image Image (n + 1) of the next frame is input to the afterimage processing unit 14.
  • the first storage unit 21 displays the second motion map MergeMask (n-1) generated for the past frame one frame past when viewed from the newly input latest frame image Image (n).
  • the latest first motion map Mask (n) is the afterimage processing unit 14. Is input to the afterimage processing unit 14.
  • the second motion map MergeMask (for example, n-1) generated for the preceding two frame images is generated as a past frame. It is recursively used as a past map image related to. Then, the second generation unit 141 generates the moving object passage map PassMask (n) by subtracting the first motion map Mask (for example, n) related to the newly input current frame from the past map image. To do.
  • the adjustment unit 143 adjusts the parameters related to the 3DNR processing of the 3DNR processing unit 16 based on the second movement map MergeMask (n) related to the current frame. In the present embodiment, the adjustment unit 143 adjusts the parameter PR1 related to the operation of the synthesis processing unit 15.
  • the adjusting unit 143 combines the frame image Image (n) and the frame image Image (n-1) based on the motion information of each pixel constituting the second motion map MergeMask (n). Is adjusted in pixel units.
  • the adjustment unit 143 adjusts the parameter PR1 so that the larger the value of the motion information, the larger the composition ratio of the frame image Image (n) of the current frame.
  • FIG. 3 is a diagram for explaining an example of the adjustment method of the parameter PR1.
  • the vertical axis represents the composite ratio (%) of the frame image Image (n) of the current frame.
  • the horizontal axis means the value of motion information. Note that FIG. 3 shows an example in which motion information is represented by a value from 0 to 255, but the present invention is not limited to this.
  • the adjustment unit 143 determines the composition ratio of the frame image Image (n) at the corresponding pixel position based on the value of the motion information of each pixel constituting the second motion map MergeMask (n). decide.
  • the composition ratio of the frame image Image (n) is 10% for the pixels whose motion information value is “0”, that is, the pixels in the stationary region other than the moving object existing region and the moving object passing region.
  • the parameter PR1 is adjusted so as to be. Further, for example, the adjustment unit 143 adjusts the parameter PR1 so that the composition ratio of the frame image Image (n) is 55% for the pixel whose motion information value is “100”. Further, the adjustment unit 143 adjusts the parameter PR1 so that the ratio of the frame image Image (n) is 100% for the pixels whose motion information value is “200” or more.
  • FIG. 3 shows an example in which the composition ratio of the frame image Image (n) is increased in proportion to the value of the motion information, but the adjustment method of the composition parameters is not limited to this.
  • the composition ratio of the frame image Image (n) may be increased stepwise according to the value of the motion information.
  • the 2DNR-completed frame image Image (n) and the frame image Image (n-1) processed by the first 2DNR processing unit 11 and the second 2DNR processing unit 12 Is entered.
  • the compositing processing unit 15 executes a compositing process (also referred to as alpha blending) in which the frame image Image (n) and the frame image Image (n-1) are combined based on the parameter PR1 instructed by the afterimage processing unit 14.
  • the composition processing unit 15 pixels the composition ratio of the frame image Image (n) and the frame image Image (n-1) based on the parameter PR1 instructed by the afterimage processing unit 14 (adjustment unit 143). Set in units. Then, the compositing processing unit 15 synthesizes the frame image Image (n) and the frame image Image (n-1) at the set compositing ratio, and outputs the 3DNR-completed frame image DNR_Image (n).
  • the 3DNR processing unit 16 including the first 2DNR processing unit 11, the second 2DNR processing unit 12, and the synthesis processing unit 15 performs 3DNR processing based on the current frame and the past frame past the current frame. To execute.
  • noise may be generated in the stationary region after the moving object has passed, that is, the moving object passing region.
  • the moving body passing region through which the moving body has passed in the past frame is treated as a mere stationary region in the current frame. Further, since the composite ratio of the current frame and the past frame in the stationary region is larger in the past frame, the influence of the past frame becomes dominant.
  • the moving object existing in the past frame remains in the frame image after composition, and this remaining part may generate noise (afterimage noise) that trails behind the moving object. It was. Further, since the processing result of the 2DNR processing performed in the past frame is strongly reflected in the moving object passing region in the current frame, there is a possibility that the resolution deterioration due to the 2DNR processing may appear in the frame image after synthesis.
  • the image processing device 1 of the present embodiment extracts the existing region of the moving object and the moving object passing region of the moving object from the frame images of at least the latest three frames. Then, the image processing device 1 sets the frame image Image (n) and the frame image based on the second motion map MergeMask (n) in which the existing region of the moving object and the moving object passing region multiplied by the afterimage suppression intensity are merged. The synthesis ratio with Image (n-1) is adjusted.
  • the composition ratio of the frame image Image (n) in the moving object passing region can be adjusted to be larger than that of the frame image Image (n-1).
  • the afterimage noise generated in the moving object passing region is derived from the past frame rather than the current frame. Therefore, the afterimage noise can be reduced by increasing the composition ratio of the frame image Image (n) of the current frame.
  • the pixel having a larger value of motion information that is, the pixel having a high possibility of remaining after compositing, can increase the compositing ratio of the frame image Image (n), so that the afterimage noise derived from the past frame can be efficiently eliminated. Can be reduced to.
  • the frame image DNR_Image (n) after 3DNR is output from the image processing device 1 to an external device such as a display device, and is stored in the second storage unit 22.
  • the frame image DNR_Image (n) stored in the second storage unit 22 is used when the frame image Image (n + 1) of the next frame is input to the first 2DNR processing unit 11 and the first generation unit 13.
  • the frame image Image (n) is input to the second 2DNR processing unit 12 and the first generation unit 13. That is, the second storage unit 22 stores the frame image DNR_Image (n-1) generated for the past frame one frame past when viewed from the newly input latest frame image Image (n). keeping.
  • the latest frame image Image (n) is the first 2DNR processing unit 11 and the first. Is input to the second 2DNR processing unit 12 and the first generation unit 13 as a frame image Image (n-1).
  • the 3DNR-completed frame image DNR_Image (for example, n-1) generated for the preceding two frame images is the past frame. Is used recursively as a frame image Image (eg, n-1) of.
  • FIG. 4 is an explanatory diagram for explaining the overall operation of the image processing device 1.
  • FIG. 5 is an explanatory diagram for explaining the operation of the first generation unit 13 and the afterimage processing unit 14.
  • FIG. 4 the operations of the first 2DNR processing unit 11, the second 2DNR processing unit 12, the first generation unit 13, the afterimage processing unit 14, and the composition processing unit 15 are in the left region divided by the broken line. Is shown. Further, in the area on the right side divided by the broken line, the first storage unit 21 and the second storage unit 22 shown in FIG. 1 are shown.
  • the frame images Image (n-2) to Image (n) mean three consecutive frame images in chronological order.
  • the hatched area in the frame image means a position where a moving object exists, and represents a state in which the same moving object moves from the left side to the right side in the figure.
  • the codes A to D attached to each of the moving objects are identifiers for identifying which frame image the moving object is derived from.
  • the moving object B is a moving object included in the frame image Image (n-2)
  • the moving object C is a moving object included in the frame image Image (n-1).
  • the moving object A means a moving object included in a frame image Image (n-3) (not shown).
  • 3DNR processing has been completed up to the stage of the frame image Image (n-1) one frame past the current frame, that is, the first motion map Mask (n-1), the second. It is assumed that the motion map MergeMask (n-1) and the 3DNR-completed frame image DNR_Image (n-1) have been generated.
  • the first generation unit 13 is based on the frame image Image (n) of the current frame and the frame image Image (n-1) one frame past the current frame, and the first motion map Mask (n). ) Is generated (step S11).
  • the frame image image (n-1) one frame past is corresponding to the frame image DNR_Image (n-1) that has been 3DNR related to the past frame one frame past stored in the second storage unit 22. Is.
  • the first motion map Mask (n) is an existing region in which a moving object exists in both the frame image Image (n) and the frame image Image (n-1), as shown in FIG. It becomes an image showing.
  • the second generation unit 141 is the first movement map MergeMask (n-1) relating to the past frame one frame stored in the first storage unit 21 to obtain the first frame relating to the current frame.
  • the moving object passage map PassMask (n) is generated (step S12).
  • the moving body passage map PassMask (n) is a first movement map from the existing area of the moving object and the moving body passing area represented by the second movement map MergeMask (n-1).
  • the image is obtained by removing the existing region of the moving object represented by Mask (n). That is, in the moving object passage map PassMask (n), at least the existing region of the moving object included in the frame image Image (n-2) past the frame image Image (n-1) is represented as the moving object passing region. become.
  • the third generation unit 142 merges the moving object passage map PassMask (n) multiplied by the afterimage suppression intensity into the first movement map Mask (n) based on the above equation (1).
  • a second motion map, MergeMask (n), is generated (step S13).
  • the second motion map MergeMask (n) becomes an image obtained by merging the existing region of the moving object and the moving object passing region multiplied by the afterimage suppression intensity, as shown in FIG.
  • the magnitude relationship of motion information is represented by the shade of hatching.
  • the third generation unit 142 stores the generated second movement map MergeMask (n) in the first storage unit 21 (step S14).
  • the second motion map MergeMask (n-1) stored in the first storage unit 21 relates to the past frame one frame past when the frame image Image (n) is input.
  • the second motion map MergeMask (n-1) it is used to generate the moving object passage map PassMask (n).
  • the second motion map MergeMask (n) stored in the first storage unit 21 in accordance with the processing of the frame image Image (n) is used when the frame image Image (n + 1) of a new frame is input. It is used to generate the moving object passage map PassMask (n + 1) as the second motion map MergeMask (n) related to the past frame one frame in the past.
  • the second motion map MergeMask (example: n-1) generated for the frame images for the preceding two frames is generated. ) Is recursively used as a past map image related to the past frame.
  • the adjusting unit 143 adjusts the composition ratio of the frame image Image (n) and the frame image Image (n-1) based on the value of the motion information of each pixel constituting the second motion map MergeMask (n).
  • the parameter PR1 is adjusted (step S15).
  • the first 2DNR processing unit 11 and the second 2DNR processing unit 12 perform 2DNR processing on each of the input frame image Image (n) and frame image Image (n-1) (step S16, step S16, S17).
  • the synthesis processing unit 15 synthesizes the frame image Image (n) after 2DNR processing and the frame image Image (n-1) based on the parameter PR1 adjusted by the adjustment unit 143, and the frame image after 3DNR.
  • Output DNR_Image (n) (step S18).
  • the synthesis processing unit 15 stores the frame image DNR_Image (n) in the second storage unit 22 (step S19).
  • the frame image DNR_Image (n-1) stored in the second storage unit 22 is a frame image image related to the past frame one frame past when the frame image Image (n) is input. As (n-1), it is used to generate the frame image DNR_Image (n). Further, the frame image DNR_Image (n) stored in the second storage unit 22 due to the processing of the frame image Image (n) is for one frame when the frame image Image (n + 1) of a new frame is input. It is used to generate the frame image DNR_Image (n + 1) as the frame image Image (n) related to the past past frame.
  • the 3DNR-processed frame image DNR_Image (example: n-1) generated for the frame images for the preceding two frames is the past frame. It is used recursively as a frame image Image (eg n-1) of.
  • FIG. 6 is a flowchart showing an example of the processing performed by the first generation unit 13, the afterimage processing unit 14, and the composition processing unit 15.
  • the operation when processing a future frame image input after this Image (n + X) with the latest frame image Image (n + X) as a base point will be described.
  • "X" is an integer.
  • the first generation unit 13 detects the input of the frame image Image (n + X) (step S21), the first generation unit 13 is based on the frame image Image (n + X) and the frame image Image (n + X-1).
  • a motion map Mask (n + X) is generated (step S22).
  • the frame image Image (n + X-1) corresponds to the frame image DNR_Image (n + X-1) held in the second storage unit 22.
  • the second generation unit 141 subtracts the first motion map Mask (n + X) from the second motion map MergeMask (n + X-1), and passes through a moving object representing a pixel whose subtraction result is a positive value. Generate the map PassMask (n + X) (step S23).
  • the third generation unit 142 generates the second movement map MergeMask (n + X) by merging the moving object passage map PassMask (n + X) and the first movement map Mask (n + X). Specifically, the third generation unit 142 sets the motion information of each pixel by executing the following processing for each pixel position of each pixel constituting the second motion map MergeMask (n + X).
  • the third generation unit 142 refers to the value of each pixel constituting the moving object passage map PassMask (n + X), and determines whether or not the value is a positive value (step S24).
  • the third generation unit 142 determines that it is a moving object passing region (step S24; Yes).
  • the third generation unit 142 adds the value obtained by multiplying the value of the pixel determined to be the moving object passing region by the afterimage suppression strength to the value held by the first motion map Mask (n + X), and adds the second value. It is set to the motion information of the corresponding pixel of the motion map MergeMask (n + X) (step S25).
  • the third generation unit 142 determines that it is a moving body region or a stationary region (step S24; No). In this case, the third generation unit 142 sets the value of the same pixel position held by the first motion map Mask (n + X) as the motion information of the corresponding pixel of the second motion map MergeMask (n + X) ( Step S26).
  • the adjusting unit 143 adjusts the parameter PR1 related to the synthesis processing of the synthesis processing unit 15 based on the second motion map MergeMask (n + X) generated by the third generation unit 142 (step S27).
  • the synthesis processing unit 15 synthesizes the frame image Image (n + X) after 2DNR and the frame image Image (n + X-1) based on the parameter PR1 adjusted by the adjustment unit 143 (step S28). Then, the composition processing unit 15 outputs the combined frame image as a frame image DNR_Image (n + X) after 3DNR (step S29).
  • the first generation unit 13 determines whether or not a new frame image Image (n + X + 1) has been input (step S30).
  • the first generation unit 13 processes the input frame image Image (n + X + 1) as the current frame, so that "X + 1" is changed to "X”. (Step S31), and the process is returned to step S22.
  • the processes of steps S22 to S31 described above are sequentially executed for the frame image Image (n + X).
  • the value of "X" is incremented by 1 each time a new frame image is input, and the frame image Image (n + X-1) and the second motion map MergeMask corresponding to the X value are incremented. (N + X-1) is used in steps S22 and S23.
  • step S30 If the input of the frame image Image (n + X + 1) is not detected in step S30, such as when the input of the frame image is temporarily interrupted (step S30; No), the process ends. Then, when the input of the frame image is started again, the process is started from step S21.
  • the image processing device 1 has a frame image Image (n) and a frame image Image (n-1) for the most recent two frames among a plurality of frame images continuously input. ) Generates the first motion map Mask (n). Further, the image processing device 1 has a first motion map Mask from a second motion map MergeMask (n-1) indicating an existing region of the moving object included in the frame image past the frame image Image (n). By subtracting (n), a moving object passage map PassMask (n) is generated.
  • the image processing device 1 merges the first motion map Mask (n) and the moving object passage map PassMask (n) obtained by multiplying the afterimage suppression intensity to generate the second motion map MergeMask (n). Then, the image processing device 1 adjusts the parameter PR1 related to the compositing process of the frame image Image (n) and the frame image Image (n-1) based on the second motion map MergeMask (n).
  • the image processing device 1 can change the composition ratio of the frame image Image (n) in the moving body passing region according to the parameter PR1, so that the afterimage noise generated in the moving body passing region can be reduced. Can be done. Therefore, the image processing device 1 can output a frame image (DNR_Image (n)) in which afterimage noise is suppressed.
  • parameters related to 3DNR processing are used by using the first motion map, the moving object passage map, and the second motion map whose bit depth is reduced as compared with the frame image. Make adjustments.
  • the image processing device 1 can reduce the processing load and memory usage related to the parameter adjustment, so that the processing efficiency can be improved.
  • the existing position of the moving object and the moving object passing region included in the frame images for at least three frames can be aggregated and held in the second motion map.
  • the image processing device 1 can reduce the memory capacity and the number of memories used, as compared with a configuration in which frame images for three frames are individually held, for example, so that processing efficiency can be improved. ..
  • the adjustment unit 143 has described a mode in which the parameter PR1 related to the operation of the synthesis processing unit 15 is adjusted as a parameter related to the 3DNR processing.
  • the parameters to be adjusted are not limited to those related to the synthesis processing unit 15.
  • the first 2DNR processing unit 11 and the second 2DNR processing unit 12 are connected to the afterimage processing unit 14 (see the broken line portion in FIG. 1). ).
  • Each of the first 2DNR processing unit 11 and the second 2DNR processing unit 12 determines the intensity of 2DNR processing and the like based on the parameters PR2 and PR3 adjusted by the afterimage processing unit 14 (adjusting unit 143).
  • the method of changing the intensity of the 2DNR treatment is not particularly limited, for example, changing the size or coefficient of the filter.
  • the adjusting unit 143 has the first 2DNR processing unit 11 and the second 2DNR processing unit 12 based on the second motion map MergeMask (n) generated by the third generation unit 142.
  • the parameters PR2 and PR3 related to the operation of are adjusted.
  • the adjusting unit 143 performs 2DNR processing performed by the first 2DNR processing unit 11 and the second 2DNR processing unit 12 based on the motion information of each pixel constituting the second motion map MergeMask (n).
  • the intensity of is adjusted on a pixel-by-pixel basis.
  • the adjusting unit 143 adjusts the parameter PR2 of the first 2DNR processing unit 11 so that the larger the value of the motion information is, the stronger the intensity of the 2DNR processing executed for the frame image Image (n) is. To do. Further, the adjustment unit 143 increases the intensity of the 2DNR processing executed on the frame image Image (n-1) as the pixel has a larger value of the motion information, so that the parameter PR3 of the second 2DNR processing unit 12 increases. To adjust.
  • the adjusting unit 143 may specify the intensity of 2DNR of the first 2DNR processing unit 11 and the second 2DNR processing unit 12 as a ratio in the same manner as the synthesis ratio of the synthesis processing unit 15 described above.
  • Each strength may be specified by an independent standard.
  • the image processing device 1 has the first 2DNR processing unit 11 and the first 2DNR processing unit 11 for the moving body passing region according to the movement information of the moving body passing region represented by the second movement map MergeMask (n).
  • the intensity of the 2DNR processing performed by the 2DNR processing unit 12 of 2 can be adjusted.
  • FIG. 7 is an explanatory diagram for explaining the overall operation of the image processing device 1 according to the modification 1.
  • FIG. 7 as in FIG. 4 described above, the operations of the first 2DNR processing unit 11, the second 2DNR processing unit 12, the first generation unit 13, the afterimage processing unit 14, and the synthesis processing unit 15 and the first operation.
  • the state of data input / output to the storage unit 21 and the second storage unit 22 of 1 is shown in the left and right regions divided by broken lines. Since steps S41 to S44 are the same as steps S11 to S14 described with reference to FIG. 4, the description thereof will be omitted.
  • the adjusting unit 143 adjusts the parameter PR1 of the synthesis processing unit 15 based on the second motion map MergeMask (n), and also adjusts the parameter PR1 of the first 2DNR processing unit 11 and the second 2DNR processing unit 12.
  • the parameters PR2 and PR3 are adjusted (step S45).
  • the first 2DNR processing unit 11 executes 2DNR processing on the frame image Image (n) with the intensity corresponding to the adjusted parameter PR2 (step S46). Further, the second 2DNR processing unit 12 executes 2DNR processing on the frame image Image (n-1) with the intensity corresponding to the adjusted parameter PR3 (step S47).
  • step S48 the synthesis processing unit 15 synthesizes the frame image Image (n) after 2DNR and the frame image Image (n-1) based on the parameter PR1 instructed by the adjustment unit 143 to synthesize the frame after 3DNR.
  • the image DNR_Image (n) is output (step S48). Note that step S49 is the same as step S19 described with reference to FIG.
  • the intensity of the 2DNR processing with respect to the moving body passing region can be changed by adjusting the parameters PR2 and PR3, so that the afterimage noise generated in the moving body passing region can be changed. It can be reduced. Therefore, the image processing device 1 can output a frame image (DNR_Image (n)) in which afterimage noise is suppressed. Further, since the compositing ratio of the frame image Image (n) can be adjusted together with the intensity of the 2DNR processing with respect to the moving body passing region, the afterimage noise generated in the moving body passing region can be further reduced.
  • both the parameter PR2 and the parameter PR3 are adjusted, but only one of them (for example, only the parameter PR3) may be adjusted. Further, the parameter PR1 may not be adjusted, and the parameters PR2 and PR3 may be adjusted only.
  • Modification 2 In the above-described embodiment, the configuration of the image processing device 1 has been described with reference to FIG. 1, but the configuration of the image processing device 1 is not limited to this.
  • the image processing device 1 may further include functions related to efficiency improvement of 3DNR processing, stabilization of a frame image, and the like.
  • this modification another configuration example of the image processing apparatus 1 will be described.
  • FIG. 8 is a diagram showing an example of the configuration of the image processing device 1 according to this modified example.
  • the image processing device 1 according to this modification includes a motion amount estimation unit 31, a motion compensation unit 32, a moving image blur removing unit 33, and an alignment unit 34, in addition to the configuration of FIG. 1 described above. Further prepare.
  • the motion amount estimation unit 31 is an example of the motion amount estimation unit.
  • the motion compensation unit 32 is an example of the motion compensation unit.
  • a part or all of the motion amount estimation unit 31, the motion compensation unit 32, the moving image blur removing unit 33, and the positioning unit 34 may be realized by a hardware configuration such as a dedicated circuit. Further, a part or all of the motion amount estimation unit 31, the motion compensation unit 32, the moving image blur removal unit 33, and the alignment unit 34 are configured by a software configuration in cooperation with a processor provided in a computer such as a microcomputer and a program. It may be realized. Examples of processors include CPUs, DSPs, FPGAs, GPUs and the like.
  • the motion amount estimation unit 31 receives the frame image Image (n) of the current frame and the frame image Image (n-1) one frame past the current frame, that is, after 3DNR generated based on the preceding frame image.
  • the frame image DNR_Image (n-1) is input.
  • the motion amount estimation unit 31 executes a process (ME: Motion Estimation) for estimating the movement amount of a moving object included in both frame images based on the frame image Image (n) and the frame image Image (n-1). .. Then, the motion amount estimation unit 31 outputs the movement amount of the moving object, which is the estimation result, to the motion compensation unit 32.
  • ME Motion Estimation
  • FIG. 8 shows an example in which the synthesis processing unit 15 and the motion amount estimation unit 31 are directly connected
  • the motion amount estimation unit 31 may be configured to read the frame image DNR_Image (n-1) from the second storage unit 22 when the frame image Image (n) is detected.
  • the method for reading the frame image DNR_Image (n-1) is not limited to this.
  • an input (not shown) that collectively controls the input timing of the frame image Image (n) and the read timing of the frame image DNR_Image (n-1) from the second storage unit 22 inside or outside the image processing device 1.
  • An output control unit may be provided.
  • the motion amount estimation unit 31 may be in a form of executing the ME process by using the frame image DNR_Image (n) in which the bit depth or the image size is reduced.
  • the motion amount estimation unit 31 may execute ME processing using a frame image in which the bit depth of the frame image DNR_Image (n) or the image size is reduced to 1/4 or the like in order to suppress the processing load.
  • a known technique can be used for the ME process executed by the motion amount estimation unit 31.
  • the motion compensation unit 32 In the motion compensation unit 32, the frame image Image (n) of the current frame and the frame image Image (n-1) already aligned by the alignment unit 34, which will be described later, are input together with the movement amount of the moving object described above. To.
  • the motion compensation unit 32 executes motion compensation (MC: Motion Compensation) processing such as inter-frame prediction based on these input information. Then, the motion compensation unit 32 outputs the frame image Image (n-1) after the MC processing to the second 2DNR processing unit 12 and the first generation unit 13.
  • MC Motion Compensation
  • the frame image Image (n) of the current frame is input to the moving image blur removing unit 33.
  • the moving image blur removing unit 33 estimates the shaking direction of the frame image Image (n) from the continuously input frame image Image (n), and shifts the frame image image (n) in the direction opposite to the shaking direction to cause camera shake or the like that occurs during imaging. Removes video blurring.
  • the frame image Image (n) from which the moving image blur is removed is output to the alignment unit 34.
  • a known technique can be used for the process executed by the moving image blur removing unit 33.
  • the frame image Image (n) after removing the moving image blur and the frame image Image (n-1) are input to the alignment unit 34.
  • the frame image Image (n-1) corresponds to the 3DNR-processed frame image DNR_Image (n-1) generated based on the preceding frame image.
  • the alignment unit 34 when the alignment unit 34 detects the frame image Image (n) after removing the moving image blur, the alignment unit 34 reads out the frame image DNR_Image (n-1) from the second storage unit 22.
  • the method for reading the frame image DNR_Image (n-1) is not limited to this.
  • the input timing of the frame image Image (n) after removing the moving image blur and the reading timing of the frame image DNR_Image (n-1) from the second storage unit 22 are collectively stored inside or outside the image processing device 1.
  • An input / output control unit (not shown) to be controlled may be provided.
  • the alignment unit 34 is based on the correlation between the frame image Image (n) and the frame image Image (n-1), and the frame image Image (n-1) is aligned with the object included in the frame image Image (n). ) Align.
  • the frame image Image (n) after alignment is output to the motion compensation unit 32.
  • a known technique can be used for the process executed by the moving image blur removing unit 33.
  • the second 2DNR processing unit 12 executes 2DNR processing on the frame image Image (n-1) after MC processing input from the motion compensation unit 32.
  • the second 2DNR processing unit 12 can perform the 2DNR processing by utilizing the result of the MC processing, so that the noise contained in the frame image Image (n-1) can be removed more efficiently. Can be done.
  • the first generation unit 13 is a frame image in which the frame image Image (n-1) and the frame image Image (n) after removing the moving image blur are aligned and then motion compensation processing is performed.
  • a first motion map Mask (n) is generated based on the Image (n-1) and the frame image Image (n).
  • the first generation unit 13 can efficiently extract the existence region in which the moving object exists from the frame image Image (n) and the frame image Image (n-1).
  • FIG. 9 is an explanatory diagram for explaining the overall operation of the image processing device 1 according to the present modification.
  • the first 2DNR processing unit 11, the second 2DNR processing unit 12, the first generation unit 13, the afterimage processing unit 14, the synthesis processing unit 15, and the amount of movement are shown.
  • the first storage unit 21 and the second storage unit 22 shown in FIG. 8 are shown.
  • the moving image blur removing unit 33 executes a process of removing moving image blur on the frame image Image (n) of the current frame (step S51).
  • the alignment unit 34 aligns the frame image Image (n-1) based on the frame image Image (n) from which the moving image blur has been removed (step S52).
  • the motion amount estimation unit 31 executes ME processing for estimating the motion amount of the moving object included in both frame images based on the frame image Image (n) and the frame image Image (n-1) (step). S53).
  • the motion compensation unit 32 executes the motion compensation (MC) process based on the processing results of the frame image Image (n), the aligned frame image Image (n-1), and the ME process (step S54).
  • the first generation unit 13 generates the first motion map Mask (n) based on the frame image Image (n) and the frame image Image (n-1) after the alignment and motion compensation processing. (Step S55). Subsequent steps S56 to S59 are the same as steps S12 to S15 described with reference to FIG. 4, and thus the description thereof will be omitted.
  • the first 2DNR processing unit 11 executes 2DNR on the frame image Image (n) (step S60). Further, the second 2DNR processing unit 12 executes 2DNR on the aligned frame image Image (n-1) using the result of the MC processing (step S61). Subsequent steps S62 and S63 are the same as steps S18 and S19 described with reference to FIG. 4, and thus the description thereof will be omitted.
  • the motion amount estimation unit 31, the motion compensation unit 32, the moving image blur removing unit 33, and the positioning unit 34 are further provided. This makes it possible to improve the efficiency of 3DNR processing and stabilize the frame image. For example, when the 2DNR processing is performed using the processing result of the MC processing, the generation of afterimage noise can be suppressed as compared with the configuration in which the processing result is not used, so that the afterimage noise can be further reduced.
  • the afterimage suppression strength is a value that takes into account the noise suppression effect of the motion compensation unit 32 (MC processing).
  • the third generation unit 142 may change the value of the afterimage suppression intensity depending on whether or not the processing result of the MC processing is input to the second 2DNR processing unit 12.
  • the third generation unit 142 sets the afterimage suppression strength by a predetermined amount as compared with the configuration in which the processing result is not input. Decrease.
  • the intensity of the 2DNR processing performed by the second 2DNR processing unit 12 with respect to the moving object passing region is made variable depending on whether or not the processing result of the MC processing is input to the second 2DNR processing unit 12. be able to. Therefore, the third generation unit 142 can set the intensity of the 2DNR processing suitable for reducing the afterimage noise in the second 2DNR processing unit 12.
  • the 2DNR processing executed by the first 2DNR processing unit 11 also has a strength suitable for reducing the afterimage noise.
  • the composition ratio (PR1) of the frame image Image (n) and the frame image Image (n-1) in the composition processing unit 15 is also the effect of 3DNR by setting the composition ratio suitable for reducing the afterimage noise. Can be further enhanced.
  • FIG. 10 is a diagram showing an example of the configuration of the image processing device 1a according to the present embodiment.
  • the image processing device 1a includes a first 2DNR processing unit 11, a second 2DNR processing unit 12, a first generation unit 13a, an afterimage processing unit 14a, and a synthesis processing unit 15. Further, the image processing device 1a includes a first storage unit 21a and a second storage unit 22.
  • the first generation unit 13a generates the first motion map Mask (n) based on the frame image Image (n) and the frame image Image (n-1), similarly to the first generation unit 13. ..
  • the generated first motion map Mask (n) is output to the afterimage processing unit 14a.
  • the frame image Image (n-1) corresponds to the 3DNR-processed frame image DNR_Image (n-1) stored in the second storage unit 22 and relating to the past frame one frame past.
  • the first generation unit 13a when the first generation unit 13a detects the frame image Image (n), the first generation unit 13a reads out the frame image DNR_Image (n-1) from the second storage unit 22.
  • the method for reading the frame image DNR_Image (n-1) is not limited to this.
  • an input (not shown) that collectively controls the input timing of the frame image Image (n) and the read timing of the frame image DNR_Image (n-1) from the second storage unit 22 inside or outside the image processing device 1.
  • An output control unit may be provided.
  • the first generation unit 13a stores the generated first movement map Mask (n) in the first storage unit 21a.
  • the first storage unit 21a has a storable dose of, for example, two frames of the first movement map, and the stored first movement map can be read out in a FIFO (First In First Out) format. ing.
  • the afterimage processing unit 14a is input with the first motion map Mask (n) related to the current frame and the first motion map Mask (n-1) related to the past frame one frame past the current frame. ..
  • the afterimage processing unit 14a detects the first motion map Mask (n) from the first generation unit 13, the afterimage processing unit 14a of the first storage unit 21a to the first motion map Mask (n-1). Read out.
  • the method of reading the first motion map Mask (n-1) is not limited to this.
  • the input timing of the first motion map Mask (n) and the read timing of the first motion map Mask (n-1) from the first storage unit 21 are summarized inside or outside the image processing device 1.
  • An input / output control unit (not shown) may be provided for control.
  • FIG. 11 is a diagram showing an example of the function of the afterimage processing unit 14a.
  • the afterimage processing unit 14a includes a second generation unit 141a, a third generation unit 142, and an adjustment unit 143.
  • the second generation unit 141a subtracts the first motion map Mask (n) from the first motion map Mask (n-1), thereby indicating the moving object passing region through which the moving object has passed. n) is generated. Specifically, the second generation unit 141a sets the first motion map Mask (n) at the same pixel position as the pixel from the value of each pixel constituting the first motion map Mask (n-1). Subtract the pixel value of. Then, the second generation unit 141a generates a moving object passage map PassMask (n) in which the value corresponding to the subtraction result is associated with each pixel position where the subtracted value becomes a positive value.
  • each pixel constituting the moving object passage map PassMask (n) is associated with a multi-value such as a binary value or an 8-bit value according to the subtraction result.
  • FIG. 12 is an explanatory diagram for explaining the overall operation of the image processing device 1.
  • FIG. 13 is an explanatory diagram for explaining the operation of the first generation unit 13 and the afterimage processing unit 14.
  • FIG. 12 the operations of the first 2DNR processing unit 11, the second 2DNR processing unit 12, the first generation unit 13a, the afterimage processing unit 14a, and the synthesis processing unit 15 are in the left region divided by the broken line. Is shown. Further, in the area on the right side divided by the broken line, the first storage unit 21a and the second storage unit 22 shown in FIG. 10 are shown.
  • the frame images Image (n-2) to Image (n) mean three consecutive frame images in chronological order.
  • the hatched area in the frame image means the position where the moving object exists.
  • the 3DNR treatment has been completed up to the stage of the frame image Image (n-1) one frame past the current frame, that is, the first motion map Mask (n). -1) and the frame image DNR_Image (n-1) processed by 3DNR have been generated.
  • the first motion map Mask (n) is based on the frame image Image (n) of the current frame and the frame image Image (n-1) one frame past the current frame. Is generated (step S71).
  • the frame image Image (n-1) one frame in the past corresponds to the frame image DNR_Image (n-1) that has undergone 3DNR processing.
  • the first motion map Mask (n) has a moving object in which a moving object exists in both the frame image Image (n) and the frame image Image (n-1). It is an image showing the area.
  • the first generation unit 13a stores the generated first motion map Mask (n) in the first storage unit 21a (step S72).
  • the first motion map Mask (n-1) previously stored in the first storage unit 21a is input to the afterimage processing unit 14a.
  • the second generation unit 141a is the first movement map Mask (n-1) relating to the past frame one frame stored in the first storage unit 21 to the first motion map Mask (n-1) relating to the current frame.
  • the moving object passage map PassMask (n) is generated (step S73).
  • the moving object passage map PassMask (n) is a first movement map Mask (n) from the existence region of the moving object represented by the first movement map Mask (n-1).
  • the image is obtained by removing the existing area of the moving object shown in. That is, in the moving object passage map PassMask (n), at least the existing region of the moving object included in the frame image Image (n-2) past the frame image Image (n-1) is represented as the moving object passing region. become.
  • the third generation unit 142 merges the moving object passage map PassMask (n) multiplied by the afterimage suppression intensity into the first movement map Mask (n) based on the above equation (1).
  • a second motion map MergeMask (n) related to the current frame is generated (step S74).
  • the second motion map MergeMask (n) becomes an image obtained by merging the existing region of the moving object and the moving object passing region multiplied by the afterimage suppression intensity, as shown in FIG.
  • the magnitude relationship of the motion information is represented by the shade of hatching.
  • FIG. 14 is a flowchart showing an example of the processing performed by the first generation unit 13a, the afterimage processing unit 14a, and the synthesis processing unit 15.
  • this processing as in FIG. 6, the operation when processing the future frame image input after this Image (n + X) with the latest frame image Image (n + X) as the base point will be described.
  • "X" is an integer.
  • the first generation unit 13a detects the input of the frame image Image (n + X) (step S81), the first generation unit 13a is based on the frame image Image (n + X) and the frame image Image (n + X-1).
  • a motion map Mask (n + X) is generated (step S82).
  • the frame image Image (n + X-1) corresponds to the frame image DNR_Image (n + X-1) held in the second storage unit 22.
  • the second generation unit 141a subtracts the first motion map Mask (n + X) from the first motion map Mask (n + X-1), and passes through a moving body representing a pixel whose subtraction result is a positive value.
  • a map PassMask (n + X) is generated (step S83).
  • the image processing apparatus 1a has the frame image Image (n) and the frame image Image (n-1) for the most recent two frames among the plurality of frame images continuously input. ) Generates the first motion map Mask (n). Further, the image processing device 1a has a first motion map Mask (n-1) to a first motion map Mask (n-1) indicating an existing region of the moving object included in the frame image past the frame image Image (n). By subtracting (n), a moving object passage map PassMask (n) is generated. Further, the image processing device 1a merges the first motion map Mask (n) and the moving object passage map PassMask (n) obtained by multiplying the afterimage suppression intensity to generate the second motion map MergeMask (n). Then, the image processing device 1a adjusts the parameter PR1 related to the composition processing of the frame image Image (n) and the frame image Image (n-1) based on the second motion map MergeMask (n).
  • the image processing device 1a can change the composition ratio of the frame image Image (n) in the moving body passing region according to the parameter PR1, so that the afterimage noise generated in the moving body passing region can be reduced. Can be done. Therefore, the image processing device 1a can output a frame image (DNR_Image (n)) in which afterimage noise is suppressed.
  • parameters related to 3DNR processing are used by using the first motion map, the moving object passage map, and the second motion map whose bit depth is reduced as compared with the frame image. Make adjustments.
  • the image processing device 1a can reduce the processing load and the amount of memory used for parameter adjustment, so that the processing efficiency can be improved.
  • the existing position of the moving object and the moving object passing region included in the frame images for three frames can be aggregated and held in the second motion map.
  • the image processing device 1 can reduce the memory capacity and the number of memories used, as compared with a configuration in which frame images for three frames are individually held, for example, so that processing efficiency can be improved. ..
  • the image processing apparatus and the image processing method disclosed in the present application are not limited to the above-described embodiments as they are, and at the implementation stage, the components are modified within a range that does not deviate from the gist thereof. Can be embodied.
  • various inventions can be formed by an appropriate combination of the plurality of components disclosed in the above-described embodiment. For example, some components may be removed from all the components shown in the embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

画像処理装置(1)は、一つの態様において、第1の生成部(13)と、第2の生成部(141)と、第3の生成部(142)と、調整部(143)とを備える。第1の生成部(13)は、連続して入力される複数のフレーム画像のうち、第1のフレーム画像と、当該第1のフレーム画像と時系列的に連続する直近の過去のフレームの第2のフレーム画像とから、当該フレーム画像に含まれた動体物の存在領域を示す第1の動きマップを生成する。第2の生成部(141)は、前記第1のフレーム画像より過去のフレーム画像に含まれた前記動体物の存在領域を示す過去マップ画像から、前記第1の動きマップを減算することで、前記動体物が通過した動体通過領域を示す動体通過マップを生成する。第3の生成部(142)は、前記第1の動きマップと、第1の値を乗算した前記動体通過マップとを統合して、第2の動きマップを生成する。調整部(143)は、前記第2の動きマップに基づいて、前記第1のフレーム画像と前記第2のフレーム画像とのノイズリダクション処理に係るパラメータを調整する。

Description

画像処理装置、画像処理方法及びプログラム
 本発明は、画像処理装置、画像処理方法及びプログラムに関する。
 従来、動画像等の複数のフレーム画像に対するノイズリダクション技術に関し、時系列的に連続する3フレーム分のフレーム画像を用いて3次元ノイズリダクション(3DNR)処理を行う装置が知られている(例えば、特許文献1参照)。
特開2006-237716号公報
 しかしながら、従来では、フレーム画像中に動体物が存在するような場合に、当該動体物が通過した領域に尾を引くようなノイズ(残像ノイズ)が発生する可能性があった。このため、従来では、残像ノイズを低減したフレーム画像を提供することは困難であった。
 1つの側面では、本発明は、動体物が通過した領域に発生するノイズの低減化を図ることができる、画像処理装置、画像処理方法及びプログラムを提供することを目的とする。
 本願の開示する画像処理装置は、一つの態様において、連続して入力される複数のフレーム画像のうち、第1のフレーム画像と、当該第1のフレーム画像と時系列的に連続する直近の過去のフレームの第2のフレーム画像とから、当該フレーム画像に含まれた動体物の存在領域を示す第1の動きマップを生成する第1の生成部と、前記第1のフレーム画像より過去のフレーム画像に含まれた前記動体物の存在領域を示す過去マップ画像から、前記第1の動きマップを減算することで、前記動体物が通過した動体通過領域を示す動体通過マップを生成する第2の生成部と、前記第1の動きマップと、第1の値を乗算した前記動体通過マップとを統合して、第2の動きマップを生成する第3の生成部と、前記第2の動きマップに基づいて、前記第1のフレーム画像と前記第2のフレーム画像とのノイズリダクション処理に係るパラメータを調整する調整部と、を備える。
 本願の開示する画像処理装置の一つの態様によれば、動体物が通過した領域に発生するノイズの低減化を図ることができる。
図1は、第1の実施形態に係る画像処理装置の構成の一例を示す図である。 図2は、第1の実施形態の残像処理部が有する機能の一例を示す図である。 図3は、第1の実施形態に係るパラメータの調整方法の一例を説明するための図である。 図4は、第1の実施形態に係る画像処理装置の全体動作を説明するための説明図である。 図5は、第1の実施形態に係る第1の生成部及び残像処理部の動作を説明するための説明図である。 図6は、第1の実施形態の第1の生成部、残像処理部及び合成処理部が行う処理の一例を示すフローチャートである。 図7は、第1の実施形態の変形例1に係る画像処理装置の全体動作を説明するための説明図である。 図8は、第1の実施形態の変形例2に係る画像処理装置の構成の一例を示す図である。 図9は、第1の実施形態の変形例2に係る画像処理装置の全体動作を説明するための説明図である。 図10は、第2の実施形態に係る画像処理装置の構成の一例を示す図である。 図11は、第2の実施形態の残像処理部が有する機能の一例を示す図である。 図12は、第2の実施形態に係る画像処理装置の全体動作を説明するための説明図である。 図13は、第2の実施形態に係る第1の生成部及び残像処理部の動作を説明するための説明図である。 図14は、第2の実施形態の第1の生成部、残像処理部及び合成処理部が行う処理の一例を示すフローチャートである。
 以下、添付図面を参照しながら、本願の開示する画像処理装置、画像処理方法及びプログラムの実施形態を詳細に説明する。なお、以下の実施形態は開示の技術を限定するものではない。そして、各実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
[第1の実施形態]
 図1は、本実施形態に係る画像処理装置1の構成の一例を示す図である。画像処理装置1は、連続して入力される複数のフレーム画像に対し、3次元ノイズリダクション(3DNR)処理を順次行うことが可能な画像処理装置である。例えば、画像処理装置1は、複数のフレーム画像で構成された動画に対し3次元ノイズリダクション処理を行うことで、フレーム画像に含まれるノイズを低減化した動画を出力する。
 以下では、画像処理装置1に入力されるフレーム画像のうち、時系列的に最新のフレーム画像(現フレーム)をフレーム画像Image(n)と表記する。また、現フレームよりも過去又は将来のフレーム画像を、現フレームのインデックス“n”に基づいて表記する。例えば、現フレームから1フレーム分過去のフレーム画像をImage(n-1)と表記する。例えば、現フレームから1フレーム分将来のフレーム画像をImage(n+1)と表記する。
 図1に示すように、画像処理装置1は、第1の2DNR処理部11と、第2の2DNR処理部12と、第1の生成部13と、残像処理部14と、合成処理部15とを備える。
 ここで、第1の2DNR処理部11及び第2の2DNR処理部12は、2次元ノイズリダクション処理部の一例である。第1の生成部13は、第1の生成部の一例である。合成処理部15は、合成処理部の一例である。また、第1の2DNR処理部11、第2の2DNR処理部12及び合成処理部15は、3次元ノイズリダクション処理部の一例である3DNR処理部16として機能する。
 なお、第1の2DNR処理部11、第2の2DNR処理部12、第1の生成部13、残像処理部14、及び合成処理部15の一部又は全部は、例えば専用回路等のハードウェア構成によって実現されてもよい。また、第1の2DNR処理部11、第2の2DNR処理部12、第1の生成部13、残像処理部14、及び合成処理部15の一部又は全部は、マイクロコンピュータ等のコンピュータが備えるプロセッサと、プログラムとの協働によるソフトウェア構成によって実現されてもよい。プロセッサの一例として、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)等が挙げられる。
 また、画像処理装置1は、第1の記憶部21と、第2の記憶部22とを備える。第1の記憶部21及び第2の記憶部22は、例えばSDRAM(Synchronous Dynamic Random Access Memory)等の記憶装置である。なお、第1の記憶部21及び第2の記憶部22は、個別の記憶装置によって実現されてもよいし、同一の記憶装置内に設けられた二つの記憶エリアによって実現されてもよい。
 第1の2DNR処理部11は、現フレームのフレーム画像Image(n)に対し2次元ノイズリダクション(2DNR)処理を実行する。例えば、第1の2DNR処理部11は、Image(n)を構成する画素に対し、「3×3」や「5×5」、「7×7」等の画素ブロックの単位で平滑化処理を実行する。ここで、フレーム画像Image(n)は、例えばRGB又はYCbCr(輝度と彩度)の各色に画素の値を8ビット以上(10ビット、12ビット等)の多値で表した24ビット以上のカラー画像である。
 第2の2DNR処理部12は、現フレームより1フレーム分過去のフレーム画像Image(n-1)に対し、第1の2DNR処理部11と同様の2DNR処理を実行する。ここで、フレーム画像Image(n-1)は、先行するフレーム画像Image(n-1)とフレーム画像Image(n-2)とを基に生成された、後述する3次元ノイズリダクション(3DNR)処理済のフレーム画像DNR_Image(n-1)に対応する。フレーム画像DNR_Image(n-1)は、例えば、RGB又はYCbCr(輝度と彩度)の各色の画素の値を、8ビット以上(10ビット、12ビット等)の多値で表した24ビット以上のカラー画像である。
 本実施形態では、第1の2DNR処理部11は、フレーム画像Image(n)を検出した検出信号を、第2の2DNR処理部12に送る。第2の2DNR処理部12は、検出信号を受け、第2の記憶部22からフレーム画像DNR_Image(n-1)の読み出しを行う。なお、フレーム画像DNR_Image(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、フレーム画像Image(n)の入力タイミング及び第2の記憶部22からのフレーム画像DNR_Image(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 第1の生成部13は、フレーム画像Image(n)とフレーム画像Image(n-1)とに基づき、両フレーム画像間に含まれた動体物の存在領域を示す第1の動きマップMask(n)を生成する。ここで、フレーム画像Image(n-1)は、先行するフレーム画像Image(n-1)とフレーム画像Image(n-2)とを基に生成された、後述する3次元ノイズリダクション(3DNR)処理済のフレーム画像DNR_Image(n-1)に対応する。
 本実施形態では、第1の生成部13は、フレーム画像Image(n)を検出すると、第2の記憶部22からフレーム画像DNR_Image(n-1)の読み出しを行う。なお、フレーム画像DNR_Image(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、フレーム画像Image(n)の入力タイミング及び第2の記憶部22からのフレーム画像DNR_Image(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 第1の生成部13は、フレーム画像Image(n)とフレーム画像Image(n-1)とを比較し,同じ画素位置にある画素の値の差を二値や8ビット等の多値で表した画像を、第1の動きマップMask(n)として生成する。
 例えば、第1の生成部13は、画素の値の差が閾値よりも小さい画素位置を0、閾値以上の画素位置を1で表した白黒画像の第1の動きマップMask(n)を生成する。また、例えば、第1の生成部13は、画素の差分に応じて当該画素の画素位置を0~255等の多値で表したモノクロ画像の第1の動きマップMask(n)を生成する。なお、第1の動きマップMask(n)は、白黒画像やモノクロ画像に限定される訳ではなく、RGB等の色成分をもつカラー画像であってもよい。
 このように生成される第1の動きマップMask(n)は、フレーム画像Image(n)とフレーム画像Image(n-1)とにおいて、動体物が存在する領域の画素位置を示すものとなる。また、第1の動きマップMask(n)は、白黒画像やモノクロ画像であるため、第1の動きマップMask(n)のビット深度は、元のフレーム画像Image(n)及びフレーム画像Image(n-1)のビット深度よりも低くなる。つまり、第1の生成部13より後段の残像処理部14では、ビット深度が低減化された第1の動きマップMask(n)を基に処理を進めることができるため、処理に係るメモリ容量や処理負荷を抑えることができる。
 残像処理部14には、現フレームに係る第1の動きマップMask(n)と、現フレームより1フレーム分過去の過去フレームに係る後述する第2の動きマップMergeMask(n-1)とが入力される。具体的には、残像処理部14は、第1の生成部13から第1の動きマップMask(n)を検出すると、第1の記憶部21から後述する第2の動きマップMergeMask(n-1)の読み出しを行う。なお、第2の動きマップMergeMask(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、第1の動きマップMask(n)の入力タイミング及び第1の記憶部21からの第2の動きマップMergeMask(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 残像処理部14は、第1の動きマップMask(n)と後述する第2の動きマップMergeMask(n-1)とに基づいて、動体物が通過した領域(動体通過領域)を抽出し、現フレームに係る第2の動きマップMergeMask(n)を生成する。そして、残像処理部14は、第2の動きマップMergeMask(n)を基に、3DNR処理部16の3DNR処理に係るパラメータを調整する。
 具体的には、残像処理部14は、上述した機能を実現するため、図2に示す機能構成を有する。ここで、図2は、残像処理部14が有する機能の一例を示す図である。
 図2に示すように、残像処理部14は、第2の生成部141と、第3の生成部142と、調整部143とを有する。ここで、第2の生成部141は、第2の生成部の一例である。第3の生成部142は、第3の生成部の一例である。
 第2の生成部141は、第2の動きマップMergeMask(n-1)から第1の動きマップMask(n)を減算することで、動体物が通過した動体通過領域を示す動体通過マップPassMask(n)を生成する。具体的には、第2の生成部141は、第2の動きマップMergeMask(n-1)を構成する各画素の値から、当該画素と同じ画素位置にある第1の動きマップMask(n)の画素の値を減算する。そして、第2の生成部141は、減算した値が正値となる場合に動体通過領域と判断し、各画素位置に、その減算結果に応じた値を対応付けた動体通過マップPassMask(n)を生成する。ここで、動体通過マップPassMask(n)を構成する各画素には、減算結果に応じた値が二値や8ビット等の多値が対応付けられる。
 例えば、第2の生成部141は、画素の差が0以下の画素位置を0、画素の差が0より大きい画素位置を1で表した白黒画像の二値の動体通過マップPassMask(n)を生成する。また、例えば、第2の生成部141は、画素の差が0以下の画素位置を0で表し、画素の差が0より大きい画素の画素位置を差分に応じた0~255等の多値で表したモノクロ画像の動体通過マップPassMask(n)を生成する。
 このように生成される動体通過マップPassMask(n)は、第1の動きマップMask(n)に表された動体物が、当該第1の動きマップMask(n)の状態に至るまでに通過してきた領域(動体通過領域)の画素位置を示すものとなる。また、動体通過マップPassMask(n)は、白黒画像やモノクロ画像であるため、動体通過マップPassMask(n)のビット深度は、元のフレーム画像Image(n)及びフレーム画像Image(n-1)のビット深度よりも低くなる。つまり、第2の生成部141より後段の第3の生成部142では、ビット深度が低減化された動体通過マップPassMask(n)を基に処理を進めることができるため、処理に係るメモリ容量や処理負荷を抑えることができる。
 第3の生成部142は、第1の動きマップMask(n)と、所定の強度を乗算した動体通過マップPassMask(n)とを統合(以下、マージともいう)することで、現フレームに係る第2の動きマップMergeMask(n)を生成する。具体的には、第3の生成部142は、下記式(1)に基づいて、第1の動きマップMask(n)と動体通過マップPassMask(n)とを同じ画素位置の画素毎にマージする。
 MergeMask(n)=
   Mask(n)+{PMRATIO×PassMask(n)}…(1)
 ここで、PMRATIOは、残像抑制強度である。残像抑制強度は、第1の値に対応し、後述する調整部143でのパラメータ調整に寄与する要素である。残像抑制強度には、“0.0”より大きく“1.0”より小さい値が設定される。残像抑制強度により大きな値を設定することで、動体物の移動に伴い発生するノイズ(残像ノイズ)の低減化に係る強度(残像抑制強度)を大きくすることができる。
 なお、残像抑制強度の値は任意に設定することが可能であるが、自動で設定するよう構成してもよい。例えば、第3の生成部142は、動体通過マップPassMask(n)に表された動体通過領域の大きさに応じて、残像抑制強度を増減させる構成としてもよい。この場合、第3の生成部142は、動体通過領域が大きいほど、残像抑制強度を増加させることが好ましい。
 上記式(1)に基づき生成される第2の動きマップMergeMask(n)は、第1の動きマップMask(n)に表された動体物の存在領域と、当該動体物が通過してきた動体通過領域の画素位置とを示すものとなる。また、動体通過領域を構成する各画素の値は、時系列的に近時の動体通過領域であるほど、より大きな値が付されることになる。以下では、第2の動きマップMergeMask(n)を構成する各画素の値を動き情報ともいう。
 第3の生成部142で生成された第2の動きマップMergeMask(n)は、調整部143に引き渡されるとともに、第1の記憶部21(図1参照)に記憶される。第1の記憶部21に記憶された第2の動きマップMergeMask(n)は、次のフレームのフレーム画像Image(n+1)に係る第1の動きマップMask(n+1)が残像処理部14に入力される際に、残像処理部14に入力される。つまり、第1の記憶部21は、新たに入力される最新のフレーム画像Image(n)から見て、1フレーム分過去の過去フレームについて生成された第2の動きマップMergeMask(n-1)を記憶し、保持している。そして、第1の記憶部21に記憶された1フレーム分過去の過去フレームに係る第2の動きマップMergeMask(n-1)は、最新の第1の動きマップMask(n)が残像処理部14に入力される際に、残像処理部14に入力される。
 このように、画像処理装置1では、新たなフレーム画像が入力される毎に、先行する2フレーム分のフレーム画像について生成された第2の動きマップMergeMask(例えば、n-1)が、過去フレームに係る過去マップ画像として再帰的に使用される。そして、第2の生成部141は、過去マップ画像から、新たに入力された現フレームに係る第1の動きマップMask(例えば、n)を減算することで、動体通過マップPassMask(n)を生成する。
 調整部143は、現フレームに係る第2の動きマップMergeMask(n)に基づいて、3DNR処理部16の3DNR処理に係るパラメータを調整する。本実施形態では、調整部143は、合成処理部15の動作に係るパラメータPR1を調整する。
 具体的には、調整部143は、第2の動きマップMergeMask(n)を構成する各画素の動き情報に基づいて、フレーム画像Image(n)とフレーム画像Image(n-1)との合成比率を画素単位で調整する。ここで、調整部143は、動き情報の値が大きい画素ほど、現フレームのフレーム画像Image(n)の合成比率が大きくなるようにパラメータPR1を調整する。
 図3は、パラメータPR1の調整方法の一例を説明するための図である。図3において、縦軸は、現フレームのフレーム画像Image(n)の合成比率(%)を意味する。横軸は、動き情報の値を意味する。なお、図3では、動き情報を0~255の値で表した例を示しているが、これに限らないものとする。
 図3の調整方法において、調整部143は、第2の動きマップMergeMask(n)を構成する各画素の動き情報の値に基づき、対応する画素位置でのフレーム画像Image(n)の合成比率を決定する。
 例えば、調整部143は、動き情報の値が“0”の画素、つまり動体物の存在領域及び動体通過領域以外の静止領域の画素について、フレーム画像Image(n)の合成比率が10%となるようにパラメータPR1を調整する。また、例えば、調整部143は、動き情報の値が“100”の画素について、フレーム画像Image(n)の合成比率が55%となるようにパラメータPR1を調整する。また、調整部143は、動き情報の値が“200”以上の画素について、フレーム画像Image(n)の比率が100%となるようにパラメータPR1を調整する。
 なお、図3では、動き情報の値に比例して、フレーム画像Image(n)の合成比率を上昇させる例を示したが、合成パラメータの調整方法はこれに限定されるものではない。例えば、動き情報の値に応じて、フレーム画像Image(n)の合成比率を段階的に上昇させてもよい。
 図1に戻り、合成処理部15には、第1の2DNR処理部11及び第2の2DNR処理部12で処理された、2DNR済みのフレーム画像Image(n)及びフレーム画像Image(n-1)が入力される。合成処理部15は、残像処理部14から指示されるパラメータPR1に基づき、フレーム画像Image(n)とフレーム画像Image(n-1)とを合成する合成処理(アルファブレンドともいう)を実行する。
 具体的には、合成処理部15は、残像処理部14(調整部143)から指示されるパラメータPR1に基づき、フレーム画像Image(n)とフレーム画像Image(n-1)との合成比率を画素単位で設定する。そして、合成処理部15は、設定した合成比率でフレーム画像Image(n)とフレーム画像Image(n-1)とを合成し、3DNR済みのフレーム画像DNR_Image(n)を出力する。
 このように、第1の2DNR処理部11、第2の2DNR処理部12及び合成処理部15で構成される3DNR処理部16は、現フレームと現フレームより過去の過去フレームとに基づいた3DNR処理を実行する。
 ところで、従来の3DNR処理の手法では、動体物が通過した後の静止領域、つまり動体通過領域にノイズが発生する可能性がある。具体的には、従来の手法では、過去フレームで動体が通過した動体通過領域は、現フレームでは単なる静止領域として処理される。また、静止領域における現フレームと過去フレームとの合成比率は過去フレームの方が大きくなるため、過去フレームの影響が支配的となる。
 そのため、従来の手法では、過去フレームに存在した動体物が合成後のフレーム画像に残存し、この残存部分は動体物の後ろに尾を引くようなノイズ(残像ノイズ)を発生させる可能性があった。また、現フレーム中の動体通過領域に、過去フレームで行われた2DNR処理の処理結果が強く反映されるため、2DNR処理に伴う解像劣化が合成後のフレーム画像に現れる可能性があった。
 一方、本実施形態の画像処理装置1は、少なくとも直近の3フレーム分のフレーム画像から、動体物の存在領域とその動体物の動体通過領域とを抽出する。そして、画像処理装置1は、動体物の存在領域と、残像抑制強度を乗算した動体通過領域とをマージした第2の動きマップMergeMask(n)に基づいて、フレーム画像Image(n)とフレーム画像Image(n-1)との合成比率を調整する。
 これにより、画像処理装置1では、動体通過領域でのフレーム画像Image(n)の合成比率が、フレーム画像Image(n-1)より大きくなるように調整することができる。上述したように、動体通過領域に発生する残像ノイズは、現フレームよりも過去フレームに由来するため、現フレームのフレーム画像Image(n)の合成比率を大きくすることで、残像ノイズの低減化を図ることができる。また、動き情報の値が大きい画素、つまり合成後も残存する可能性の高い画素ほど、フレーム画像Image(n)の合成比率を大きくすることができるため、過去フレームに由来する残像ノイズを効率的に低減することができる。
 なお、3DNR後のフレーム画像DNR_Image(n)は、画像処理装置1から表示装置等の外部装置に出力されるとともに、第2の記憶部22に記憶される。第2の記憶部22に記憶されたフレーム画像DNR_Image(n)は、次のフレームのフレーム画像Image(n+1)が第1の2DNR処理部11及び第1の生成部13に入力される際に、フレーム画像Image(n)として、第2の2DNR処理部12及び第1の生成部13に入力される。つまり、第2の記憶部22は、新たに入力される最新のフレーム画像Image(n)から見て、1フレーム分過去の過去フレームについて生成されたフレーム画像DNR_Image(n-1)を記憶し、保持している。そして、第2の記憶部22に記憶された1フレーム過去分の過去フレームに係るフレーム画像DNR_Image(n-1)は、最新のフレーム画像Image(n)が第1の2DNR処理部11及び第1の生成部13に入力される際に、フレーム画像Image(n-1)として、第2の2DNR処理部12及び第1の生成部13に入力される。
 このように、画像処理装置1では、新たなフレーム画像が入力される毎に、先行する2フレーム分のフレーム画像について生成された3DNR済みのフレーム画像DNR_Image(例えば、n-1)が、過去フレームのフレーム画像Image(例えば、n-1)として再帰的に使用される。
 次に、図4及び図5を参照して、本実施形態に係る画像処理装置1の動作について説明する。ここで、図4は、画像処理装置1の全体動作を説明するための説明図である。また、図5は、第1の生成部13及び残像処理部14の動作を説明するための説明図である。
 なお、図4では、破線で区分した左側の領域に、第1の2DNR処理部11、第2の2DNR処理部12、第1の生成部13、残像処理部14、及び合成処理部15の動作を示している。また、破線で区分した右側の領域には、図1に示した第1の記憶部21及び第2の記憶部22を示している。
 また、図5において、フレーム画像Image(n-2)~Image(n)は、時系列的に連続する3つのフレーム画像を意味する。また、フレーム画像中のハッチング領域は、動体物が存在する位置を意味し、同一の動体物が図中左方から右方に移動する状態を表している。また、動体物の各々に付した符号A~Dは、何れのフレーム画像に由来する動体物かを識別するための識別子である。具体的には、動体物Bは、フレーム画像Image(n-2)に含まれた動体物を、動体物Cは、フレーム画像Image(n-1)に含まれた動体物を、動体物Dは、フレーム画像Image(n)に含まれた動体物を意味する。なお、動体物Aは、図示しないフレーム画像Image(n-3)に含まれた動体物を意味する。
 また、図4及び図5では、現フレームより1フレーム分過去のフレーム画像Image(n-1)の段階まで、3DNR処理が完了済み、つまり第1の動きマップMask(n-1)、第2の動きマップMergeMask(n-1)及び3DNR済みのフレーム画像DNR_Image(n-1)が生成済みであるとする。
 まず、第1の生成部13は、現フレームのフレーム画像Image(n)と、現フレームより1フレーム分過去のフレーム画像Image(n-1)とに基づいて、第1の動きマップMask(n)を生成する(ステップS11)。1フレーム分過去のフレーム画像Image(n-1)は、第2の記憶部22に記憶された、1フレーム分過去の過去フレームに係る3DNR済みのフレーム画像DNR_Image(n-1)に対応するものである。
 ここで、第1の動きマップMask(n)は、図5に示すように、フレーム画像Image(n)とフレーム画像Image(n-1)との両フレーム画像において、動体物が存在する存在領域を表す画像となる。
 続いて、第2の生成部141は、第1の記憶部21に記憶された1フレーム分過去の過去フレームに係る第2の動きマップMergeMask(n-1)から、現フレームに係る第1の動きマップMask(n)を減算することで、動体通過マップPassMask(n)を生成する(ステップS12)。
 ここで、動体通過マップPassMask(n)は、図5に示すように、第2の動きマップMergeMask(n-1)に表された動体物の存在領域及び動体通過領域から、第1の動きマップMask(n)に表された動体物の存在領域を取り除いた画像となる。つまり、動体通過マップPassMask(n)には、少なくともフレーム画像Image(n-1)より過去のフレーム画像Image(n-2)に含まれた動体物の存在領域が動体通過領域として表されることになる。
 続いて、第3の生成部142は、上述した式(1)に基づき、残像抑制強度を乗算した動体通過マップPassMask(n)を、第1の動きマップMask(n)にマージすることで、第2の動きマップMergeMask(n)を生成する(ステップS13)。
 これにより、第2の動きマップMergeMask(n)は、図5に示すように、動体物の存在領域と、残像抑制強度が乗算された動体通過領域とをマージした画像となる。図5では、動き情報の大小関係をハッチングの濃淡で表している。ここで、動き情報の大小関係は、動体物A<動体物B<動体物C=動体物Dとなる。つまり、動き情報の値は、時系列的に新しいフレームに由来する動体通過領域ほど大きくなり、より過去のフレームに由来する動体通過領域であるほど残像抑制強度の乗算回数が増えるため小さくなる。
 また、第3の生成部142は、生成した第2の動きマップMergeMask(n)を、第1の記憶部21に記憶する(ステップS14)。
 上述したように、第1の記憶部21に記憶された第2の動きマップMergeMask(n-1)は、フレーム画像Image(n)が入力された場合に、1フレーム分過去の過去フレームに係る第2の動きマップMergeMask(n-1)として、動体通過マップPassMask(n)の生成に使用される。また、フレーム画像Image(n)の処理に伴い第1の記憶部21に記憶された第2の動きマップMergeMask(n)は、新たなフレームのフレーム画像Image(n+1)が入力された際に、1フレーム分過去の過去フレームに係る第2の動きマップMergeMask(n)として、動体通過マップPassMask(n+1)の生成に使用される。
 このように、画像処理装置1では、新たなフレーム画像(例:n)が入力される毎に、先行する2フレーム分のフレーム画像について生成された第2の動きマップMergeMask(例:n-1)が、過去フレームに係る過去マップ画像として再帰的に使用される。
 続いて、調整部143は、第2の動きマップMergeMask(n)を構成する各画素の動き情報の値に基づき、フレーム画像Image(n)とフレーム画像Image(n-1)との合成比率に係るパラメータPR1を調整する(ステップS15)。
 一方、第1の2DNR処理部11及び第2の2DNR処理部12は、入力されたフレーム画像Image(n)及びフレーム画像Image(n-1)の各々に対し、2DNR処理を行う(ステップS16、S17)。
 続いて、合成処理部15は、調整部143で調整されたパラメータPR1に基づき、2DNR処理後のフレーム画像Image(n)とフレーム画像Image(n-1)とを合成し、3DNR後のフレーム画像DNR_Image(n)を出力する(ステップS18)。
 また、合成処理部15は、フレーム画像DNR_Image(n)を第2の記憶部22に記憶する(ステップS19)。
 上述したように、第2の記憶部22に記憶されたフレーム画像DNR_Image(n-1)は、フレーム画像Image(n)が入力された際に、1フレーム分過去の過去フレームに係るフレーム画像Image(n-1)として、フレーム画像DNR_Image(n)の生成に使用される。また、フレーム画像Image(n)の処理に伴い第2の記憶部22に記憶されたフレーム画像DNR_Image(n)は、新たなフレームのフレーム画像Image(n+1)が入力された際に、1フレーム分過去の過去フレームに係るフレーム画像Image(n)として、フレーム画像DNR_Image(n+1)の生成に使用される。
 このように、新たなフレーム画像(例:n)が入力される毎に、先行する2フレーム分のフレーム画像について生成された3DNR処理済のフレーム画像DNR_Image(例:n-1)が、過去フレームのフレーム画像Image(例:n-1)として再帰的に使用される。
 次に、図6を参照して、上述した第1の生成部13、残像処理部14及び合成処理部15が行う処理の流れについて説明する。図6は、第1の生成部13、残像処理部14及び合成処理部15が行う処理の一例を示すフローチャートである。本処理では、最新のフレーム画像Image(n+X)を基点とし、このImage(n+X)以降に入力される将来のフレーム画像を処理する場合の動作について説明する。なお、「X」は整数である。
 まず、第1の生成部13は、フレーム画像Image(n+X)の入力を検出すると(ステップS21)、フレーム画像Image(n+X)と、フレーム画像Image(n+X-1)とに基づいて、第1の動きマップMask(n+X)を生成する(ステップS22)。ここで、フレーム画像Image(n+X-1)は、第2の記憶部22に保持されたフレーム画像DNR_Image(n+X-1)に対応するものである。
 続いて、第2の生成部141は、第2の動きマップMergeMask(n+X-1)から第1の動きマップMask(n+X)を減算し、減算の結果が正値となる画素を表した動体通過マップPassMask(n+X)を生成する(ステップS23)。
 続いて、第3の生成部142は、動体通過マップPassMask(n+X)と第1の動きマップMask(n+X)とをマージすることで、第2の動きマップMergeMask(n+X)を生成する。具体的には、第3の生成部142は、第2の動きマップMergeMask(n+X)を構成する各画素の画素位置毎に以下の処理を実行することで、各画素の動き情報を設定する。
 まず、第3の生成部142は、動体通過マップPassMask(n+X)を構成する各画素の値を参照し、その値が正値か否かを判定する(ステップS24)。ここで、第3の生成部142は、画素が正値の場合は動体通過領域と判断する(ステップS24;Yes)。この場合、第3の生成部142は、動体通過領域と判断した画素の値に残像抑制強度を乗算した値を、第1の動きマップMask(n+X)が保持する値に加算し、第2の動きマップMergeMask(n+X)の対応する画素の動き情報に設定する(ステップS25)。また、第3の生成部142は、画素が正値ではない場合は動体領域、又は静止領域と判断する(ステップS24;No)。この場合、第3の生成部142は、第1の動きマップMask(n+X)が保持する同じ画素位置の値を、第2の動きマップMergeMask(n+X)の対応する画素の動き情報に設定する(ステップS26)。
 続いて、調整部143は、第3の生成部142で生成された第2の動きマップMergeMask(n+X)に基づいて、合成処理部15の合成処理に係るパラメータPR1を調整する(ステップS27)。
 続いて、合成処理部15は、調整部143で調整されたパラメータPR1に基づいて、2DNR後のフレーム画像Image(n+X)とフレーム画像Image(n+X-1)とを合成する(ステップS28)。そして、合成処理部15は、合成したフレーム画像を、3DNR後のフレーム画像DNR_Image(n+X)として出力する(ステップS29)。
 続いて、第1の生成部13は、新たなフレーム画像Image(n+X+1)が入力されたか否かを判定する(ステップS30)。ここで、入力が検出された場合には(ステップS30;Yes)、第1の生成部13は、入力されたフレーム画像Image(n+X+1)を現フレームとして処理するため、「X+1」を「X」とし(ステップS31)、ステップS22に処理を戻す。これにより、フレーム画像Image(n+X)に対し、上述したステップS22~S31の処理が順次実行される。このように、本処理では、新たなフレーム画像が入力される毎に「X」の値が1インクリメントされ、そのXの値に応じたフレーム画像Image(n+X-1)及び第2の動きマップMergeMask(n+X-1)が、ステップS22、S23で使用される。
 なお、フレーム画像の入力が一時的に途絶えた場合等、ステップS30でフレーム画像Image(n+X+1)の入力が検出されない場合には(ステップS30;No)、処理を終了する。そして、フレーム画像の入力が再び開始された場合には、ステップS21から処理を開始する。
 以上説明したように、本実施形態に係る画像処理装置1は、連続して入力される複数のフレーム画像のうち、直近の2フレーム分のフレーム画像Image(n)、フレーム画像Image(n-1)から第1の動きマップMask(n)を生成する。また、画像処理装置1は、フレーム画像Image(n)より過去のフレーム画像に含まれた前記動体物の存在領域を示す第2の動きマップMergeMask(n-1)から、第1の動きマップMask(n)を減算することで、動体通過マップPassMask(n)を生成する。また、画像処理装置1は、第1の動きマップMask(n)と、残像抑制強度を乗算した動体通過マップPassMask(n)とをマージし、第2の動きマップMergeMask(n)を生成する。そして、画像処理装置1は、第2の動きマップMergeMask(n)に基づいて、フレーム画像Image(n)とフレーム画像Image(n-1)との合成処理に係るパラメータPR1を調整する。
 これにより、画像処理装置1は、動体通過領域でのフレーム画像Image(n)の合成比率をパラメータPR1に応じて変化させることができるため、動体通過領域に発生する残像ノイズの低減化を図ることができる。したがって、画像処理装置1は、残像ノイズが抑制されたフレーム画像(DNR_Image(n))を出力することができる。
 また、本実施形態に係る画像処理装置1では、フレーム画像と比較し、ビット深度が低減化された第1の動きマップ、動体通過マップ及び第2の動きマップを用いて、3DNR処理に係るパラメータの調整を行う。これにより、画像処理装置1は、パラメータ調整に係る処理負荷やメモリの使用量を抑えることができるため、処理の効率化を図ることができる。
 また、本実施形態に係る画像処理装置1では、少なくとも3フレーム分のフレーム画像に含まれた動体物の存在位置及び動体通過領域を、第2の動きマップに集約して保持することができる。これにより、画像処理装置1は、例えば3フレーム分のフレーム画像を個別に保持する構成と比較し、使用するメモリ容量やメモリの個数を減らすことができるため、処理の効率化を図ることができる。
 なお、上述した実施形態は、画像処理装置1が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する変形例は、個別に実施されてもよいし、適宜組み合わせて実施されてもよい。
(変形例1)
 上述の実施形態では、調整部143は、3DNR処理に係るパラメータとして、合成処理部15の動作に係るパラメータPR1を調整する形態を説明した。しかしながら、調整の対象となるパラメータは、合成処理部15に関するものに限らない。
 そこで、本変形例では、調整部143が、第1の2DNR処理部11及び第2の2DNR処理部12の動作に係るパラメータPR2、PR3を調整する形態について説明する。
 本変形例に係る画像処理装置1では、図1に示すように、第1の2DNR処理部11及び第2の2DNR処理部12が、残像処理部14に接続される(図1の破線部参照)。
 第1の2DNR処理部11及び第2の2DNR処理部12の各々は、残像処理部14(調整部143)で調整されたパラメータPR2、PR3に基づいて2DNR処理の強度等を決定する。なお、2DNR処理の強度の変更方法は、例えばフィルタのサイズや係数を変更する等、特に限定されないものとする。
 また、本変形例に係る調整部143は、第3の生成部142で生成された第2の動きマップMergeMask(n)に基づいて、第1の2DNR処理部11及び第2の2DNR処理部12の動作に係るパラメータPR2、PR3を調整する。具体的には、調整部143は、第2の動きマップMergeMask(n)を構成する各画素の動き情報に基づいて、第1の2DNR処理部11及び第2の2DNR処理部12が行う2DNR処理の強度を画素単位で調整する。
 例えば、調整部143は、動き情報の値が大きい画素ほど、フレーム画像Image(n)に対して実行される2DNR処理の強度が大きくなるように、第1の2DNR処理部11のパラメータPR2を調整する。また、調整部143は、動き情報の値が大きい画素ほど、フレーム画像Image(n-1)に対して実行される2DNR処理の強度が大きくなるように、第2の2DNR処理部12のパラメータPR3を調整する。
 ここで、調整部143は、上述した合成処理部15の合成比率と同様に、第1の2DNR処理部11及び第2の2DNR処理部12の2DNRの強度を比率で指定してもよいし、各々の強度を独立した基準で指定してもよい。
 上記の構成により、画像処理装置1は、第2の動きマップMergeMask(n)に表された動体通過領域の動き情報に応じて、当該動体通過領域に対して第1の2DNR処理部11及び第2の2DNR処理部12が行う2DNR処理の強度を調整することができる。
 次に、図7を参照して、本変形例に係る画像処理装置1の動作について説明する。ここで、図7は、変形例1に係る画像処理装置1の全体動作を説明するための説明図である。
 図7では、上述した図4と同様に、第1の2DNR処理部11、第2の2DNR処理部12、第1の生成部13、残像処理部14、及び合成処理部15の動作と、第1の記憶部21及び第2の記憶部22に対するデータの入出力の状態とを、破線により区分した左右の領域に示している。なお、ステップS41~S44は、図4で説明したステップS11~S14と同様であるため説明を省略する。
 ステップS44の後、調整部143は、第2の動きマップMergeMask(n)に基づき、合成処理部15のパラメータPR1を調整するとともに、第1の2DNR処理部11及び第2の2DNR処理部12のパラメータPR2、PR3を調整する(ステップS45)。
 第1の2DNR処理部11は、調整後のパラメータPR2に応じた強度で、フレーム画像Image(n)に対し2DNR処理を実行する(ステップS46)。また、第2の2DNR処理部12は、調整後のパラメータPR3に応じた強度で、フレーム画像Image(n-1)に対し2DNR処理を実行する(ステップS47)。
 続いて、合成処理部15は、調整部143から指示されたパラメータPR1に基づき、2DNR後のフレーム画像Image(n)とフレーム画像Image(n-1)とを合成することで、3DNR後のフレーム画像DNR_Image(n)を出力する(ステップS48)。なお、ステップS49は、図4で説明したステップS19と同様である。
 以上のように、本変形例に係る画像処理装置1によれば、動体通過領域に対する2DNR処理の強度をパラメータPR2、PR3の調整により変化させることができるため、動体通過領域に発生する残像ノイズの低減化を図ることができる。したがって、画像処理装置1は、残像ノイズが抑制されたフレーム画像(DNR_Image(n))を出力することができる。また、動体通過領域に対する2DNR処理の強度とともに、フレーム画像Image(n)の合成比率も調整することができるため、動体通過領域に発生する残像ノイズの更なる低減化を図ることができる。
 なお、本変形例では、パラメータPR2及びパラメータPR3の両方を調整する形態としたが、何れか一方のみ(例えばパラメータPR3のみ)を調整する形態としてもよい。また、パラメータPR1の調整を行わず、パラメータPR2、PR3の調整のみ行う形態としてもよい。
(変形例2)
 上述の実施形態では、図1を用いて画像処理装置1の構成を説明したが、画像処理装置1の構成はこれに限定されるものではない。例えば、画像処理装置1は、3DNR処理の効率化やフレーム画像の安定化等に係る機能を更に備えてもよい。本変形例では、画像処理装置1の他の構成例について説明する。
 図8は、本変形例に係る画像処理装置1の構成の一例を示す図である。本変形例に係る画像処理装置1は、図8に示すように、上述した図1の構成に加え、動き量推定部31、動き補償部32、動画ぶれ除去部33、及び位置合わせ部34を更に備える。ここで、動き量推定部31は、動き量推定部の一例である。動き補償部32は、動き補償部の一例である。
 なお、動き量推定部31、動き補償部32、動画ぶれ除去部33、及び位置合わせ部34の一部又は全部は、専用回路等のハードウェア構成によって実現されてもよい。また、動き量推定部31、動き補償部32、動画ぶれ除去部33、及び位置合わせ部34の一部又は全部は、マイクロコンピュータ等のコンピュータが備えるプロセッサと、プログラムとの協働によるソフトウェア構成によって実現されてもよい。プロセッサの一例として、CPU、DSP、FPGA、GPU等が挙げられる。
 動き量推定部31には、現フレームのフレーム画像Image(n)と、現フレームより1フレーム分過去のフレーム画像Image(n-1)、つまり先行するフレーム画像を基に生成された3DNR後のフレーム画像DNR_Image(n-1)とが入力される。動き量推定部31は、フレーム画像Image(n)とフレーム画像Image(n-1)に基づき、両フレーム画像に含まれた動体物の移動量を推定する処理(ME:Motion Estimation)を実行する。そして、動き量推定部31は、推定結果となる動体物の移動量を動き補償部32に出力する。
 なお、図8では、合成処理部15と動き量推定部31とを直接接続した例を示しているが、合成処理部15と第2の記憶部22とを接続する構成としてもよい。例えば、動き量推定部31は、フレーム画像Image(n)を検出すると、第2の記憶部22からフレーム画像DNR_Image(n-1)の読み出しを行う構成としてもよい。なお、フレーム画像DNR_Image(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、フレーム画像Image(n)の入力タイミング及び第2の記憶部22からのフレーム画像DNR_Image(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 また、動き量推定部31は、ビット深度又は画像サイズを低減したフレーム画像DNR_Image(n)を用いて、ME処理を実行する形態としてもよい。例えば、動き量推定部31は、処理負荷を抑えるため、フレーム画像DNR_Image(n)のビット深度又は画像サイズを1/4等に縮小したフレーム画像を用いてME処理を実行してもよい。また、動き量推定部31が実行するME処理は、公知の技術を用いることが可能である。
 動き補償部32には、上述した動体物の移動量とともに、現フレームのフレーム画像Image(n)と、後述する位置合わせ部34で位置合わせ済のフレーム画像Image(n-1)とが入力される。動き補償部32は、これらの入力情報を基に、フレーム間予測等の動き補償(MC:Motion Compensation)処理を実行する。そして、動き補償部32は、MC処理後のフレーム画像Image(n-1)を第2の2DNR処理部12及び第1の生成部13に出力する。なお、動き補償部32が実行するMC処理は、公知の技術を用いることが可能である。
 動画ぶれ除去部33には、現フレームのフレーム画像Image(n)が入力される。動画ぶれ除去部33は、連続して入力されるフレーム画像Image(n)から、当該フレーム画像Image(n)の揺れ方向を推定し、揺れ方向と反対にシフトすることで撮像時に生じた手ぶれ等の動画ぶれを除去する。動画ぶれが除去されたフレーム画像Image(n)は、位置合わせ部34に出力される。なお、動画ぶれ除去部33が実行する処理は、公知の技術を用いることが可能である。
 位置合わせ部34には、動画ぶれ除去後のフレーム画像Image(n)と、フレーム画像Image(n-1)とが入力される。ここで、フレーム画像Image(n-1)は、先行するフレーム画像を基に生成された3DNR処理済のフレーム画像DNR_Image(n-1)に対応する。
 本実施形態では、位置合わせ部34は、動画ぶれ除去後のフレーム画像Image(n)を検出すると、第2の記憶部22からフレーム画像DNR_Image(n-1)の読み出しを行う。なお、フレーム画像DNR_Image(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、動画ぶれ除去後のフレーム画像Image(n)の入力タイミング及び第2の記憶部22からのフレーム画像DNR_Image(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 位置合わせ部34は、フレーム画像Image(n)とフレーム画像Image(n-1)との相関に基づき、フレーム画像Image(n)に含まれた物体と位置が合うようフレーム画像Image(n-1)の位置合わせを行う。位置合わせ後のフレーム画像Image(n)は、動き補償部32に出力される。なお、動画ぶれ除去部33が実行する処理は、公知の技術を用いることが可能である。
 上記の構成において、第2の2DNR処理部12は、動き補償部32から入力されるMC処理後のフレーム画像Image(n-1)に対し2DNR処理を実行する。これにより、第2の2DNR処理部12は、MC処理の結果を活用して2DNR処理を行うことができるため、フレーム画像Image(n-1)に含まれたノイズをより効率的に除去することができる。
 また、第1の生成部13は、フレーム画像Image(n-1)と動画ぶれ除去後のフレーム画像Image(n)との間で位置合わせが行われ、その後動き補償処理が行われたフレーム画像Image(n-1)と、フレーム画像Image(n)とに基づき、第1の動きマップMask(n)を生成する。これにより、第1の生成部13は、フレーム画像Image(n)とフレーム画像Image(n-1)とから、動体物が存在する存在領域の抽出を効率的に行うことができる。
 次に、図9を参照して、本変形例に係る画像処理装置1の動作について説明する。ここで、図9は、本変形例に係る画像処理装置1の全体動作を説明するための説明図である。なお、図9では、破線により区分した左側の領域に、第1の2DNR処理部11、第2の2DNR処理部12、第1の生成部13、残像処理部14、合成処理部15、動き量推定部31、動き補償部32、動画ぶれ除去部33、及び位置合わせ部34の動作を示している。また、破線で区分した右側の領域には、図8に示した第1の記憶部21及び第2の記憶部22を示している。
 まず、動画ぶれ除去部33は、現フレームのフレーム画像Image(n)に対し動画ぶれを除去する処理を実行する(ステップS51)。次いで、位置合わせ部34は、動画ぶれが除去されたフレーム画像Image(n)を基に、フレーム画像Image(n-1)の位置合わせを行う(ステップS52)。
 一方、動き量推定部31は、フレーム画像Image(n)とフレーム画像Image(n-1)とに基づき、両フレーム画像に含まれた動体物の動き量を推定するME処理を実行する(ステップS53)。次いで、動き補償部32は、フレーム画像Image(n)、位置合わせ後のフレーム画像Image(n-1)及びME処理の処理結果に基づき、動き補償(MC)処理を実行する(ステップS54)。
 続いて、第1の生成部13は、フレーム画像Image(n)と、位置合わせ及び動き補償処理後のフレーム画像Image(n-1)とに基づき、第1の動きマップMask(n)を生成する(ステップS55)。続くステップS56~S59は、図4で説明したステップS12~S15と同様であるため説明を省略する。
 続いて、第1の2DNR処理部11は、フレーム画像Image(n)に対し2DNRを実行する(ステップS60)。また、第2の2DNR処理部12は、MC処理の結果を用いて、位置合わせ後のフレーム画像Image(n-1)に対し2DNRを実行する(ステップS61)。続くステップS62、S63は、図4で説明したステップS18、S19と同様であるため説明を省略する。
 以上のように、本変形例に係る画像処理装置1によれば、動き量推定部31、動き補償部32、動画ぶれ除去部33、及び位置合わせ部34を更に備える。これにより、3DNR処理の効率化やフレーム画像の安定化を図ることができる。例えば、MC処理の処理結果を用いて2DNR処理を行う場合、処理結果を用いない構成と比較し、残像ノイズの発生を抑えることができるため、残像ノイズの更なる低減化を図ることができる。
 なお、本変形例の構成において、パラメータPR3を調整する場合には、残像抑制強度は、動き補償部32(MC処理)によるノイズ抑制効果を加味した値とすることが好ましい。一例として、第3の生成部142は、MC処理の処理結果が第2の2DNR処理部12に入力されるか否かに応じて、残像抑制強度の値を変更してもよい。
 例えば、第3の生成部142は、MC処理の処理結果が第2の2DNR処理部12に入力される構成の場合には、当該処理結果が入力されない構成と比較し、残像抑制強度を所定量低下させる。これにより、MC処理の処理結果が第2の2DNR処理部12に入力されるか否かに応じて、動体通過領域に対して第2の2DNR処理部12が行う2DNR処理の強度を可変とすることができる。したがって、第3の生成部142は、残像ノイズの低減化に適した2DNR処理の強度を第2の2DNR処理部12に設定することができる。また、同様に、残像抑制強度の変更にともなって、第1の2DNR処理部11が実行する2DNR処理も残像ノイズの低減化に適した強度となる。同様に、合成処理部15におけるフレーム画像Image(n)とフレーム画像Image(n-1)との合成比率(PR1)も残像ノイズの低減化に適した合成比率を設定することで、3DNRの効果をより高めることができる。
[第2の実施形態]
 上述した第1の実施形態では、動体通過マップPassMask(n)の生成に、過去フレームに係る過去マップ画像として第2の動きマップMergeMask(n-1)を用いる形態を説明した。第2の実施形態では、第2の動きマップMergeMask(n-1)に代えて、過去フレームに係る過去マップ画像として第1の動きマップMask(n-1)を用いる形態について説明する。なお、第1の実施形態と同じ機能及び構成の部分には、同一の符号を付与し説明を省略する。
 図10は、本実施形態に係る画像処理装置1aの構成の一例を示す図である。画像処理装置1aは、第1の2DNR処理部11と、第2の2DNR処理部12と、第1の生成部13aと、残像処理部14aと、合成処理部15とを備える。また、画像処理装置1aは、第1の記憶部21aと、第2の記憶部22とを備える。
 第1の生成部13aは、第1の生成部13と同様に、フレーム画像Image(n)とフレーム画像Image(n-1)とに基づいて、第1の動きマップMask(n)を生成する。生成された第1の動きマップMask(n)は、残像処理部14aに出力される。ここで、フレーム画像Image(n-1)は、第2の記憶部22に記憶された、1フレーム分過去の過去フレームに係る3DNR処理済のフレーム画像DNR_Image(n-1)に対応する。
 本実施形態では、第1の生成部13aは、フレーム画像Image(n)を検出すると、第2の記憶部22からフレーム画像DNR_Image(n-1)の読み出しを行う。なお、フレーム画像DNR_Image(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、フレーム画像Image(n)の入力タイミング及び第2の記憶部22からのフレーム画像DNR_Image(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 また、第1の生成部13aは、生成した第1の動きマップMask(n)を第1の記憶部21aに記憶する。第1の記憶部21aは、例えば2フレーム分の第1の動きマップを記憶可能な用量を有し、記憶した第1の動きマップをFIFO(First In First Out)形式で読み出すことが可能となっている。
 残像処理部14aには、現フレームに係る第1の動きマップMask(n)と、現フレームより1フレーム分過去の過去フレームに係る第1の動きマップMask(n-1)とが入力される。
 具体的には、残像処理部14aは、第1の生成部13から第1の動きマップMask(n)を検出すると、第1の記憶部21aから第1の動きマップMask(n-1)の読み出しを行う。なお、第1の動きマップMask(n-1)の読み出し方法はこれに限らないものとする。例えば、画像処理装置1の内部若しくは外部に、第1の動きマップMask(n)の入力タイミング及び第1の記憶部21からの第1の動きマップMask(n-1)の読み出しタイミング等をまとめて制御する図示しない入出力制御部を設けてもよい。
 ここで、図11は、残像処理部14aが有する機能の一例を示す図である。図11に示すように、残像処理部14aは、第2の生成部141aと、第3の生成部142と、調整部143とを有する。
 第2の生成部141aは、第1の動きマップMask(n-1)から第1の動きマップMask(n)を減算することで、動体物が通過した動体通過領域を示す動体通過マップPassMask(n)を生成する。具体的には、第2の生成部141aは、第1の動きマップMask(n-1)を構成する各画素の値から、当該画素と同じ画素位置にある第1の動きマップMask(n)の画素の値を減算する。そして、第2の生成部141aは、減算した値が正値となる各画素位置に、その減算結果に応じた値を対応付けた動体通過マップPassMask(n)を生成する。ここで、動体通過マップPassMask(n)を構成する各画素には、減算結果に応じた値が二値や8ビット等の多値が対応付けられる。
 次に、図12及び図13を参照して、本実施形態に係る画像処理装置1の動作について説明する。ここで、図12は、画像処理装置1の全体動作を説明するための説明図である。また、図13は、第1の生成部13及び残像処理部14の動作を説明するための説明図である。
 なお、図12では、破線により区分した左側の領域に、第1の2DNR処理部11、第2の2DNR処理部12、第1の生成部13a、残像処理部14a、及び合成処理部15の動作を示している。また、破線で区分した右側の領域には、図10に示した第1の記憶部21a及び第2の記憶部22を示している。
 また、図13において、フレーム画像Image(n-2)~Image(n)は、時系列的に連続する3つのフレーム画像を意味する。また、フレーム画像中のハッチング領域は、動体物が存在する位置を意味する。また、図12及び図13では、説明の簡略化のため、現フレームより1フレーム分過去のフレーム画像Image(n-1)の段階まで3DNR処置が完了済み、つまり第1の動きマップMask(n-1)及び3DNR処理済のフレーム画像DNR_Image(n-1)が生成済みであるとする。
 まず、第1の生成部13aでは、現フレームのフレーム画像Image(n)と、現フレームより1フレーム分過去のフレーム画像Image(n-1)とに基づき、第1の動きマップMask(n)を生成する(ステップS71)。1フレーム分過去のフレーム画像Image(n-1)は、3DNR処理済のフレーム画像DNR_Image(n-1)に対応するものである。
 ここで、第1の動きマップMask(n)は、図13に示すように、フレーム画像Image(n)とフレーム画像Image(n-1)との両フレーム画像において、動体物が存在する動体存在領域を表す画像となる。
 また、第1の生成部13aは、生成した第1の動きマップMask(n)を第1の記憶部21aに記憶する(ステップS72)。これにより、第1の記憶部21aに先に記憶された第1の動きマップMask(n-1)が残像処理部14aに入力される。
 続いて、第2の生成部141aは、第1の記憶部21に記憶された1フレーム分過去の過去フレームに係る第1の動きマップMask(n-1)から、現フレームに係る第1の動きマップMask(n)を減算することで、動体通過マップPassMask(n)を生成する(ステップS73)。
 ここで、動体通過マップPassMask(n)は、図13に示すように、第1の動きマップMask(n-1)に表された動体物の存在領域から、第1の動きマップMask(n)に表された動体物の存在領域を取り除いた画像となる。つまり、動体通過マップPassMask(n)には、少なくともフレーム画像Image(n-1)より過去のフレーム画像Image(n-2)に含まれた動体物の存在領域が動体通過領域として表されることになる。
 続いて、第3の生成部142は、上述した式(1)に基づき、残像抑制強度を乗算した動体通過マップPassMask(n)を、第1の動きマップMask(n)にマージすることで、現フレームに係る第2の動きマップMergeMask(n)を生成する(ステップS74)。
 これにより、第2の動きマップMergeMask(n)は、図13に示すように、動体物の存在領域と、残像抑制強度が乗算された動体通過領域とをマージした画像となる。図13では、図5と同様に、動き情報の大小関係をハッチングの濃淡で表している。ここで、動き情報の大小関係は、動体物B<動体物C=動体物Dとなる。なお、ステップS75~S79は、図4のステップS15~S19と同様であるため説明を省略する。
 次に、図14を参照して、上述した第1の生成部13a、残像処理部14a及び合成処理部15が行う処理の流れについて説明する。図14は、第1の生成部13a、残像処理部14a及び合成処理部15が行う処理の一例を示すフローチャートである。本処理では、図6と同様に、最新のフレーム画像Image(n+X)を基点とし、このImage(n+X)以降に入力される将来のフレーム画像を処理する場合の動作について説明する。なお、「X」は整数である。
 まず、第1の生成部13aは、フレーム画像Image(n+X)の入力を検出すると(ステップS81)、フレーム画像Image(n+X)と、フレーム画像Image(n+X-1)とに基づいて、第1の動きマップMask(n+X)を生成する(ステップS82)。ここで、フレーム画像Image(n+X-1)は、第2の記憶部22に保持されたフレーム画像DNR_Image(n+X-1)に対応するものである。
 続いて、第2の生成部141aは、第1の動きマップMask(n+X-1)から第1の動きマップMask(n+X)を減算し、減算の結果が正値となる画素を表した動体通過マップPassMask(n+X)を生成する(ステップS83)。以下、ステップS84~S91は、図6で説明したステップS24~S31と同様であるため説明を省略する。
 以上説明したように、本実施形態に係る画像処理装置1aは、連続して入力される複数のフレーム画像のうち、直近の2フレーム分のフレーム画像Image(n)、フレーム画像Image(n-1)から第1の動きマップMask(n)を生成する。また、画像処理装置1aは、フレーム画像Image(n)より過去のフレーム画像に含まれた前記動体物の存在領域を示す第1の動きマップMask(n-1)から、第1の動きマップMask(n)を減算することで、動体通過マップPassMask(n)を生成する。また、画像処理装置1aは、第1の動きマップMask(n)と、残像抑制強度を乗算した動体通過マップPassMask(n)とをマージし、第2の動きマップMergeMask(n)を生成する。そして、画像処理装置1aは、第2の動きマップMergeMask(n)に基づいて、フレーム画像Image(n)とフレーム画像Image(n-1)との合成処理に係るパラメータPR1を調整する。
 これにより、画像処理装置1aは、動体通過領域でのフレーム画像Image(n)の合成比率をパラメータPR1に応じて変化させることができるため、動体通過領域に発生する残像ノイズの低減化を図ることができる。したがって、画像処理装置1aは、残像ノイズが抑制されたフレーム画像(DNR_Image(n))を出力することができる。
 また、本実施形態に係る画像処理装置1aでは、フレーム画像と比較し、ビット深度が低減化された第1の動きマップ、動体通過マップ及び第2の動きマップを用いて、3DNR処理に係るパラメータの調整を行う。これにより、画像処理装置1aは、パラメータ調整に係る処理負荷やメモリの使用量を抑えることができるため、処理の効率化を図ることができる。
 また、本実施形態に係る画像処理装置1aでは、3フレーム分のフレーム画像に含まれた動体物の存在位置及び動体通過領域を、第2の動きマップに集約して保持することができる。これにより、画像処理装置1は、例えば3フレーム分のフレーム画像を個別に保持する構成と比較し、使用するメモリ容量やメモリの個数を減らすことができるため、処理の効率化を図ることができる。
 以上、実施形態について説明したが、本願の開示する画像処理装置及び画像処理方法は、上述の実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上述の実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。
 1、1a 画像処理装置
 11 第1の2DNR処理部
 12 第2の2DNR処理部
 13、13a 第1の生成部
 14、14a 残像処理部
 141、141a 第2の生成部
 142 第3の生成部
 143 調整部
 15 合成処理部
 16 3DNR処理部
 21、21a 第1の記憶部
 22 第2の記憶部
 31 動き量推定部
 32 動き補償部
 33 動画ぶれ除去部
 34 位置合わせ部

Claims (11)

  1.  連続して入力される複数のフレーム画像のうち、第1のフレーム画像と、当該第1のフレーム画像と時系列的に連続する直近の過去のフレームの第2のフレーム画像とから、当該フレーム画像に含まれた動体物の存在領域を示す第1の動きマップを生成する第1の生成部と、
     前記第1のフレーム画像より過去のフレーム画像に含まれた前記動体物の存在領域を示す過去マップ画像から、前記第1の動きマップを減算することで、前記動体物が通過した動体通過領域を示す動体通過マップを生成する第2の生成部と、
     前記第1の動きマップと、第1の値を乗算した前記動体通過マップとを統合して、第2の動きマップを生成する第3の生成部と、
     前記第2の動きマップに基づいて、前記第1のフレーム画像と前記第2のフレーム画像とのノイズリダクション処理に係るパラメータを調整する調整部と、
     を備える画像処理装置。
  2.  前記第2の生成部は、前記過去マップ画像を構成する各画素の値から、当該画素と同じ画素位置にある前記第1の動きマップの画素の値を減算し、減算した値が正値となる各画素位置に減算結果に応じた値を対応付けた前記動体通過マップを生成する請求項1に記載の画像処理装置。
  3.  前記第3の生成部は、前記第1の動きマップを構成する各画素の値と、前記動体通過マップを構成する各画素の値に前記第1の値を乗算した値とを画素位置毎に統合して、前記第2の動きマップを生成し、
     前記調整部は、前記第2の動きマップを構成する各画素の値に基づいて、前記ノイズリダクション処理に係るパラメータを画素単位で調整する請求項2に記載の画像処理装置。
  4.  前記第2の生成部は、新たなフレーム画像が入力される毎に、先行する前記第1のフレーム画像と前記第2のフレーム画像とについて生成された前記第1の動きマップを前記過去マップ画像として、前記動体通過マップを生成する請求項1又は2に記載の画像処理装置。
  5.  前記第2の生成部は、新たなフレーム画像が入力される毎に、先行する前記第1のフレーム画像と前記第2のフレーム画像とについて生成された前記第2の動きマップを前記過去マップ画像として、前記動体通過マップを生成する請求項1又は2に記載の画像処理装置。
  6.  前記調整部で調整されたパラメータに基づき前記ノイズリダクション処理を行うことで、前記第1のフレーム画像と前記第2のフレーム画像とから1フレーム分のフレーム画像を出力する3次元ノイズリダクション処理部を更に備え、
     前記第1の生成部は、新たなフレーム画像が入力されると、先行する前記第1のフレーム画像と前記第2のフレーム画像とを基に前記3次元ノイズリダクション処理部で出力されたフレーム画像を、前記新たなフレーム画像より1フレーム分過去のフレーム画像として、前記第1の動きマップを生成する請求項1に記載の画像処理装置。
  7.  前記3次元ノイズリダクション処理部は、前記第1のフレーム画像と前記第2のフレーム画像との各々に2次元ノイズリダクション処理を施す2次元ノイズリダクション処理部と、前記2次元ノイズリダクション処理部で処理された前記第1のフレーム画像と前記第2のフレーム画像とを合成し、1フレーム分のフレーム画像を出力する合成処理部とを有し、
     前記調整部は、前記2次元ノイズリダクション処理部又は前記合成処理部の動作に係るパラメータを調整する請求項6に記載の画像処理装置。
  8.  前記第1のフレーム画像と前記第2のフレーム画像とに基づき、両フレーム画像に含まれた動体物の動き量を推定する動き量推定部と、
     前記動き量推定部の推定結果を用いて、前記第2のフレーム画像に動き補償処理を実行する動き補償部と、
     を更に備え、
     前記第3の生成部は、前記動き補償部の処理結果が前記3次元ノイズリダクション処理部に入力されるか否かに応じて、前記動体通過マップに乗算する前記第1の値を変更する請求項6又は7に記載の画像処理装置。
  9.  前記第1の動きマップ及び前記第2の動きマップのビット深度は、前記フレーム画像のビット深度より低減化されている請求項1に記載の画像処理装置。
  10.  連続して入力される複数のフレーム画像のうち、第1のフレーム画像と、当該第1のフレーム画像と時系列的に連続する直近の過去のフレームの第2のフレーム画像とから、当該フレーム画像に含まれた動体物の存在領域を示す第1の動きマップを生成し、
     前記第1のフレーム画像より過去のフレーム画像に含まれた前記動体物の存在領域を示す過去マップ画像から、前記第1の動きマップを減算することで、前記動体物が通過した動体通過領域を示す動体通過マップを生成し、
     前記第1の動きマップと、第1の値を乗算した前記動体通過マップとを統合して、第2の動きマップを生成し、
     前記第2の動きマップに基づいて、前記第1のフレーム画像と前記第2のフレーム画像とのノイズリダクション処理に係るパラメータを調整する、
     処理をコンピュータが実行する画像処理方法。
  11.  連続して入力される複数のフレーム画像のうち、第1のフレーム画像と、当該第1のフレーム画像と時系列的に連続する直近の過去のフレームの第2のフレーム画像とから、当該フレーム画像に含まれた動体物の存在領域を示す第1の動きマップを生成し、
     前記第1のフレーム画像より過去のフレーム画像に含まれた前記動体物の存在領域を示す過去マップ画像から、前記第1の動きマップを減算することで、前記動体物が通過した動体通過領域を示す動体通過マップを生成し、
     前記第1の動きマップと、第1の値を乗算した前記動体通過マップとを統合して、第2の動きマップを生成し、
     前記第2の動きマップに基づいて、前記第1のフレーム画像と前記第2のフレーム画像とのノイズリダクション処理に係るパラメータを調整する、
     処理をコンピュータに実行させるためのプログラム。
PCT/JP2019/048362 2019-12-10 2019-12-10 画像処理装置、画像処理方法及びプログラム WO2021117148A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/048362 WO2021117148A1 (ja) 2019-12-10 2019-12-10 画像処理装置、画像処理方法及びプログラム
JP2021563501A JP7480787B2 (ja) 2019-12-10 2019-12-10 画像処理装置、画像処理方法及びプログラム
US17/834,535 US20220301191A1 (en) 2019-12-10 2022-06-07 Image processing apparatus, image processing method and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/048362 WO2021117148A1 (ja) 2019-12-10 2019-12-10 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/834,535 Continuation US20220301191A1 (en) 2019-12-10 2022-06-07 Image processing apparatus, image processing method and computer-readable medium

Publications (1)

Publication Number Publication Date
WO2021117148A1 true WO2021117148A1 (ja) 2021-06-17

Family

ID=76329983

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/048362 WO2021117148A1 (ja) 2019-12-10 2019-12-10 画像処理装置、画像処理方法及びプログラム

Country Status (3)

Country Link
US (1) US20220301191A1 (ja)
JP (1) JP7480787B2 (ja)
WO (1) WO2021117148A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260049A (ja) * 2005-03-16 2006-09-28 Sony Corp 移動物体検出装置及び方法並びにプログラム
JP2007036743A (ja) * 2005-07-27 2007-02-08 Matsushita Electric Works Ltd 複数画像合成方法及び撮像装置
JP2013258445A (ja) * 2012-06-11 2013-12-26 Olympus Corp 画像処理装置、画像処理方法及びプログラム
JP2016213628A (ja) * 2015-05-07 2016-12-15 ソニー株式会社 撮像装置、撮像方法、およびプログラム、並びに画像処理装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361520B2 (en) * 2014-04-10 2016-06-07 Disney Enterprises, Inc. Method and system for tracking objects
JP2016024735A (ja) 2014-07-23 2016-02-08 株式会社ソシオネクスト 画像処理装置、および画像処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006260049A (ja) * 2005-03-16 2006-09-28 Sony Corp 移動物体検出装置及び方法並びにプログラム
JP2007036743A (ja) * 2005-07-27 2007-02-08 Matsushita Electric Works Ltd 複数画像合成方法及び撮像装置
JP2013258445A (ja) * 2012-06-11 2013-12-26 Olympus Corp 画像処理装置、画像処理方法及びプログラム
JP2016213628A (ja) * 2015-05-07 2016-12-15 ソニー株式会社 撮像装置、撮像方法、およびプログラム、並びに画像処理装置

Also Published As

Publication number Publication date
JP7480787B2 (ja) 2024-05-10
JPWO2021117148A1 (ja) 2021-06-17
US20220301191A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
JP4666012B2 (ja) 画像処理装置、画像処理方法、プログラム
KR101225482B1 (ko) 디지털 영상 처리 방법, 장치, 및 컴퓨터로 판독 가능한 기록 매체
US7912323B2 (en) Image processing apparatus, image processing method, and image display apparatus
US9262811B2 (en) System and method for spatio temporal video image enhancement
JP5974250B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
US8189947B2 (en) Image edge correction apparatus and method
WO2017154630A1 (ja) 画像処理装置、画像処理方法および記録媒体
JP6017279B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9208546B2 (en) Image processing apparatus, method and imaging apparatus
JP2006325274A (ja) 撮像装置
KR20030070228A (ko) 윤곽 보정 방법 및 이에 적합한 장치
JP2005150903A (ja) 画像処理装置、ノイズ除去方法及びノイズ除去プログラム
CN103858421B (zh) 影像处理装置以及影像处理方法
JP4658875B2 (ja) 画像処理装置
WO2021117148A1 (ja) 画像処理装置、画像処理方法及びプログラム
US10264212B1 (en) Low-complexity deinterlacing with motion detection and overlay compensation
US9007494B2 (en) Image processing apparatus, method for controlling the same and storage medium
JP6826472B2 (ja) 画像処理装置およびその制御方法
US11373316B2 (en) Apparatus and method for calculating motion vector
JP6582994B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2015079329A (ja) 画像処理装置、画像処理方法およびプログラム
US20240249388A1 (en) Image processing apparatus capable of both improving image quality and reducing afterimages when combining plurality of images, control method for image processing apparatus, and storage medium
JP2010141813A (ja) 映像処理装置および映像処理装置の制御方法
JP2010015483A (ja) 画像処理装置、画像処理方法、及びプログラム
CN109754370B (zh) 图像去噪方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19955470

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021563501

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19955470

Country of ref document: EP

Kind code of ref document: A1