WO2013073476A1 - 画像処理装置及び方法、並びに画像表示装置及び方法 - Google Patents

画像処理装置及び方法、並びに画像表示装置及び方法 Download PDF

Info

Publication number
WO2013073476A1
WO2013073476A1 PCT/JP2012/079139 JP2012079139W WO2013073476A1 WO 2013073476 A1 WO2013073476 A1 WO 2013073476A1 JP 2012079139 W JP2012079139 W JP 2012079139W WO 2013073476 A1 WO2013073476 A1 WO 2013073476A1
Authority
WO
WIPO (PCT)
Prior art keywords
video signal
image
motion vector
frame
unit
Prior art date
Application number
PCT/JP2012/079139
Other languages
English (en)
French (fr)
Inventor
俊明 久保
督 那須
直之 藤山
良樹 小野
知篤 堀部
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2013544249A priority Critical patent/JP5550794B2/ja
Priority to CN201280056204.6A priority patent/CN103947181A/zh
Publication of WO2013073476A1 publication Critical patent/WO2013073476A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/182Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a pixel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20008Globally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction

Definitions

  • the present invention relates to an image processing apparatus and method, and an image display apparatus and method for performing image quality improvement processing by referring to a motion vector.
  • the present invention has been made in view of the above, and an object of the present invention is to prevent deterioration of image quality when many errors are included in detected motion vectors.
  • An image processing apparatus includes: The first video signal based on a first video signal obtained by delaying an input video signal and a video signal that is temporally before or after one frame from the first video signal.
  • a motion vector detection unit for detecting a motion vector in An image correction processing unit that performs image correction processing on the first video signal using the motion vector detected by the motion vector detection unit;
  • a high frequency component detection unit that detects a high frequency component using the motion vector detected by the motion vector detection unit;
  • a determination unit configured to determine the reliability of the detection result of the motion vector in each frame based on the high-frequency component detected by the high-frequency component detection unit; Based on the determination result in the determination unit, a video signal generated as a result of the image correction processing by the image correction processing unit and the input video signal or a video signal obtained by delaying the input video signal are selected.
  • an image selection unit for outputting the output.
  • the original video signal is output without using the video signal after the image correction processing, so that the signal deteriorated from the original video signal. Can be prevented from being output.
  • FIG. 2 is a block diagram illustrating a configuration example of an input image delay unit 4 in FIG. 1. It is a block diagram which shows the structural example of the motion vector detection part 5 of FIG. (A) And (b) is a figure which shows an example of the search range of a motion vector in the video signal of 2 continuous frames. It is a block diagram which shows the structural example of the image correction process part 6 of FIG. It is a figure which shows the relationship between a frame period and an imaging period. It is a figure which shows an example of the effective filtering area
  • FIG. 1 It is a block diagram which shows the image display apparatus which concerns on Embodiment 4 of this invention.
  • (A) to (l) are time charts for explaining the operation of the image input apparatus of FIG.
  • (A)-(f) is a time chart explaining operation
  • FIG. 1 shows a configuration of an image display apparatus including an image processing apparatus according to Embodiment 1 of the present invention.
  • the illustrated image display device 1 includes an image processing device 2 and an image display unit 3.
  • the image processing device 2 includes an input image delay unit 4, a motion vector detection unit 5, an image correction processing unit 6, and a processing.
  • An image delay unit 7, a high frequency component detection unit 8, a determination unit 9, and an image selection unit 10 are provided.
  • the image processing device 2 receives the input video signal D0 and performs motion blur correction processing.
  • the video signal D0 is composed of a sequence of signals representing pixel values of a plurality of pixels constituting an image, and the image processing device 2 performs blur correction processing with the plurality of pixels of each frame in turn as correction target pixels (target pixels).
  • a corrected video signal E0 (consisting of a sequence of signals having corrected pixel values) is generated, and a video signal E1 obtained by delaying the corrected video signal E0 by one frame and an input video signal D0 are obtained.
  • One of the video signals D3 delayed by two frames is selected and output as the final output video signal F.
  • the video signal D0 (FIG. 2B) input to the image processing device 2 is supplied to the input image delay unit 4.
  • the input image delay unit 4 uses the frame memory to delay the frame of the input signal and performs video signals D1, D2, and D3 of three different frames (FIGS. 2D, 2E, and 2F). ) Is generated. 2A to 2I, symbols T0, T1, T2,... Represent each frame period.
  • the video signal D1 has no delay with respect to the video signal D0
  • the video signal D2 has a delay of 1 frame with respect to the video signal D0
  • the video signal D3 has a delay of 2 frames with respect to the video signal D0. is there.
  • the video signals D2 and D1 are output to the motion vector detection unit 5, the video signal D2 is output to the image correction processing unit 6, and the video signal D3 is output to the image selection unit 10.
  • the motion vector detection unit 5 detects the motion vector V (FIG. 2 (i)) included in the video signal D2 using the video signals D2 and D1 of two different frames output from the input image delay unit 4.
  • the detected motion vector V is output to the image correction processing unit 6 and the high frequency component detection unit 8.
  • the image correction processing unit 6 receives the motion vector V output from the motion vector detection unit 5 as an input, and the video signal D2 output from the input image delay unit 4 is a video image that has deteriorated due to the motion of the subject or the motion of the camera. Motion blur is reduced, and the corrected video signal E0 (F0c, F1c, F2c,... In FIG. 2G) is output to the processed image delay unit 7.
  • the processed image delay unit 7 delays and outputs the corrected video signal E0 output from the image correction processing unit 6 by one frame.
  • the output of the processed image delay unit 7 is corrected and supplied to the image selection unit 10 as a delayed video signal E1 (F0c, F1c, F2c,... In FIG. 2H).
  • the high frequency component detector 8 receives the motion vector V (FIG. 2 (i)) output from the motion vector detector 5, and extracts a high frequency component of the motion vector for each pixel by a high pass filter (high pass filter).
  • the extracted high-frequency component value is compared with the threshold value C1 input from the outside, and the comparison result is output as the high-frequency component detection result H for the pixel.
  • the high frequency component detection result H takes a value “0” when the value of the high frequency component is smaller than the threshold C1, and takes a value “1” when the value of the high frequency component is equal to or greater than the threshold C1.
  • the high-frequency component for each pixel is obtained by applying a high-pass filter to the motion vector for each pixel and the motion vectors of the neighboring pixels in the array.
  • the value of the high frequency component is equal to or greater than the threshold C1
  • the motion vector V for the pixel is estimated and processed as being erroneously detected.
  • the threshold value C1 can be set and changed from the outside of the image processing apparatus by, for example, a user using an operation key (not shown).
  • the determination unit 9 receives the high-frequency component detection result H output from the high-frequency component detection unit 8 and counts the number of high-frequency component detection results H taking the value “1” over one frame. Then, the count result Nhf (the number of occurrences of the high-frequency component detection result H taking the value “1” in one frame) is compared with the threshold value C2 input from the outside, and the comparison result is used as the selection control signal R to the image selection unit 10. Output. Specifically, when the counting result Nfh is smaller than the threshold C2, the value of the selection control signal R is set to “0”, and when the counting result Nfh is equal to or higher than the threshold C2, the value of the selection control signal R is set to “1” (FIG. 2 ( j)).
  • the threshold value C2 can also be set and changed by inputting from the outside of the image processing apparatus, for example, using an operation key (not shown).
  • the image selection unit 10 selects the corrected video signal E1 output from the processed image delay unit 7 and outputs it as the final output video signal F (FIG. 2 (k).
  • the selection control signal R is “1”
  • the video signal D3 output from the input image delay unit 4 is selected and output as the final output video signal F (FIG. 2 (l)).
  • the image selection unit 10 does not select the video signal E1 obtained as a result of the image correction processing performed using the motion vector V, but the original video signal (video signal not subjected to the image correction processing) D3. Select to output.
  • the motion vector V output from the motion vector detection unit 5 is for each pixel of the 1-frame delayed video signal D2, and motion
  • the summation of the high-frequency component detection result H of the vector V over each frame ends, and the value of the selection control signal R is determined substantially at the end of the frame period. Therefore, the value of the selection control signal R generated based on the motion vector V of the video signal D2 of each frame is the 2-frame delayed video signal D3 and the corrected video signal E1 delayed by 1 frame to the image selection unit 10.
  • the supplied image is used for selection in the image selection unit 10 in the next frame period T (n + 1).
  • the selection control signal R (F0) based on the video signal D2 of the frame F0 output from the input image delay unit 4 and input to the motion vector detection unit 5 in the frame period T1 corresponds to the video signal D3 of the frame F0.
  • the video signal E1 (F0c) after the correction processing is supplied to the image selection unit 10 in the next frame period T2 input to the image selection unit 10, and the image selection unit 10 receives the selection control signal R (F0). Based on this, the video signal D3 (F0) or the video signal E1 (F0c) is selected in the frame period T2.
  • the image display unit 3 displays an image based on the video signal F output from the image selection unit 10.
  • the user can adjust the severity of determination in the high-frequency component detection unit 8 (when the value of the high-frequency component is estimated to be false detection).
  • the severity of determination in the determination unit 9 (based on the number Nhf of pixels estimated to have erroneously detected a motion vector in each frame, the detection result of the motion vector for that frame) Criteria for determining reliability, that is, the number of pixels Nhf that is estimated to have been erroneously detected in each frame is low, the reliability of the motion vector detection result for the frame is low, and image correction Whether to decide not to select the processed video signal) can be adjusted.
  • the image size is assumed to be M pixels in the vertical direction and N pixels in the horizontal direction.
  • the variables i and j are defined as 1 ⁇ i ⁇ M and 1 ⁇ j ⁇ N, respectively, the coordinates indicating the position of the pixel are indicated by (i, j), and the pixel at the position represented by the coordinates is defined as P (i, j). That is, the variable i represents the vertical position, and the variable j represents the horizontal position.
  • FIG. 3 shows a configuration example of the input image delay unit 4.
  • the illustrated input image delay unit 4 includes a frame memory 11 and a frame memory control unit 12.
  • the frame memory 11 has a capacity capable of storing the input video signal for at least two frames.
  • the frame memory control unit 12 performs writing of the input video signal and reading of the stored video signal according to the memory address generated based on the synchronization signal included in the input video signal D0.
  • Video signals D1, D2, and D3 are generated.
  • the video signal D1 has no frame delay with respect to the input video signal D0, and is also called a current frame video signal.
  • the video signal D2 is a signal temporally one frame period obtained by delaying one frame from the video signal D1, and is also called a one-frame delayed video signal.
  • the video signal D3 is a signal two frames before in time obtained by delaying the video signal D1 by two frames, and is also called a two-frame delayed video signal.
  • the video signal D2 may be referred to as a focused frame video signal and the video signal D1 may be referred to as a post-frame video signal.
  • the video signals D1, D2, and D3 are composed of a sequence of signals of a plurality of pixels constituting an image, and the pixel value of the pixel P (i, j) at the position of the coordinates (i, j) is D1. (I, j), D2 (i, j), and D3 (i, j).
  • FIG. 4 shows a configuration example of the motion vector detection unit 5.
  • the illustrated motion vector detection unit 5 includes a first video signal (D2) input from the outside and a first video signal (D2) input from the outside of the first video signal before or after one frame at a time before or after one frame.
  • the motion vector detector 5 detects a motion vector in the first video signal (D2) based on the second video signal (D1).
  • a cutout unit 22 and a motion vector determination unit 23 are provided.
  • the target frame block cutout unit 21 has a height (vertical direction) centered on a peripheral region of the target pixel P (i, j), for example, the target pixel, as shown in FIG.
  • the rear frame block cutout unit 22 sets a set of coordinates defined for each pixel of interest P (i, j) with respect to the video signal D1.
  • S (i, j) ⁇ (i + k, j + l) ⁇ (1) (However, -SV ⁇ k ⁇ SV, -SH ⁇ l ⁇ SH SV and SH are predetermined values. )
  • a rectangular area D1B (i + k, j + l) having the same size as the rectangular area D2B (i, j) is cut out with the position (i + k, j + l) included in the center (FIG. 5B).
  • S (i, j) is also referred to as a motion vector search range for the pixel of interest P (i, j).
  • the search range defined in this way is a rectangular area with 2 * H + 1 in the horizontal direction and 2 * V + 1 in the vertical direction.
  • the motion vector determination unit 23 is respectively connected between the rectangular area D2B (i, j) input from the target frame block cutout unit 21 and the block D1B (i + k, j + l) input from the subsequent frame block cutout unit 22.
  • SAD sum of absolute values of differences
  • the motion vector determination unit 23 estimates the region in which the rectangular region D2B (i, j) of the attention frame video signal D2 has moved, and the estimated region D1B of the estimated region D1B.
  • the relative position with respect to the rectangular area D2B (i, j) is expressed as a motion vector V for the pixel of interest P (i, j) (“V (i, j)” for distinction from motion vectors for other pixels). Are also output).
  • the motion vector detection as described above is performed on all the pixels of the video signal D2 output from the input image delay unit 4, a motion vector is detected for each pixel, and the motion vector thus obtained is motion blurred. It is used for mitigation.
  • the pixels outside the upper end, the lower end, the left end, and the right end of the image become a part of the rectangular regions D2B (i, j) and D1B (i + k, j + l),
  • the processing may be performed assuming that the pixels outside the upper end, the lower end, the left end, and the right end have the same values as the pixels at the upper end, the lower end, the left end, and the right end, respectively.
  • the processing method of the motion vector detection unit 5 in the present invention is not limited to the above-described method.
  • the video signal one frame before the attention frame video signal is processed.
  • a technique for obtaining using a phase correlation function may be employed.
  • FIG. 6 shows a configuration example of the image correction processing unit 6.
  • the illustrated image correction processing unit 6 includes a correction calculation unit 30, an operation signal processing unit 31, a motion blur estimation unit 32, a filter coefficient storage unit 33, a filtering unit 34, an average value calculation unit 37, and a correction intensity.
  • An adjustment unit 38 and a gain calculation unit 39 are provided.
  • the correction calculation unit 30 receives the video signal D2, performs correction processing for each pixel with a gain GAIN described later, and outputs the corrected video signal E to the image selection unit 10.
  • the operation signal processing unit 31 analyzes the signal PR input by using an interface (not shown) from the user, and outputs a parameter obtained as an analysis result.
  • the parameters output from the operation signal processing unit 31 include an adjustment parameter ADJ, a correction intensity parameter BST0, and threshold values TH1 and TH2.
  • the adjustment parameter ADJ is for calculating the motion blur amount from the motion vector, and is supplied to the motion blur estimation unit 32.
  • the threshold value TH1 is for adjusting the characteristics of the filtering unit 34, and is supplied to the filtering unit 34.
  • the correction strength parameter BST0 determines the correction strength, and the threshold value TH2 is used for discrimination of image characteristics, and these are supplied to the correction strength adjustment unit 38.
  • the component size and angle
  • the direction A (degree) and the magnitude LM (pixel) of the motion vector are calculated by the following equations, assuming that the direction of the motion vector is rightward in the horizontal direction.
  • the adjustment parameter ADJ has a value corresponding to the length Ts of the imaging period, for example, the ratio (Ts / Tf) of the charge accumulation time to the length Tf of the frame period.
  • the ratio (Ts / Tf) of the charge accumulation time to the length Tf of the frame period is determined based on the typical value, average value, or intermediate value of the imaging period under the conditions targeted by this embodiment. Also good. For example, when an intermediate value is used, if the imaging period is in the range of EXS times to EXL times (both EXS and EXL are less than 1) the frame period, the intermediate value (EXS + EXL) / 2 is determined as ADJ. Multiplying the adjustment parameter ADJ in this way is that the motion vector V is detected between frames and thus reflects the amount of motion per frame period, whereas motion blur is the subject during the imaging period. This is because it is caused by the movement of.
  • the filter coefficient storage unit 33 stores a plurality of low-pass filter coefficients (two-dimensional FIR filter coefficients) in a table format in advance in association with a combination of a plurality of motion blur directions and sizes. This filter coefficient is for reducing a motion blur component from a video signal including motion blur in a specific direction and size.
  • the motion blur estimation unit 32 reads out the filter coefficient corresponding to the combination of the motion blur direction A and the magnitude LB calculated as described above from the table, so that the pointer from the motion blur direction A and the magnitude LB to the table is read. IND is calculated and input to the filter coefficient storage unit 33.
  • the filter coefficient storage unit 33 reads out the filter coefficient CF (p, q) stored corresponding to the input pointer IND, and outputs it to the filtering unit 34.
  • the motion blur estimation unit 32 supplies the pointer IND to the filter coefficient storage unit 33, so that the direction A and the magnitude of the estimated motion blur are selected from the filter coefficients stored in the filter coefficient storage unit 33.
  • a filter coefficient CF (p, q) corresponding to the length LB is selected.
  • the filtering unit 34 performs filtering using the filter coefficient CF (p, q) selected by the motion blur estimation unit 32. That is, the filtering unit 34 uses the filter coefficient CF (p, q) (where ⁇ P ⁇ p ⁇ P, ⁇ Q ⁇ q ⁇ Q) read from the filter coefficient storage unit 33 as described above, Filtering is performed using the pixel values of the pixels in the peripheral region of each pixel of interest P (i, j) of the signal D2, and the result of filtering FL1 (i, j) is output. And a low-pass filter 36.
  • the nonlinear processing unit 35 receives the difference between the pixel value D2 (i, j) of the pixel of interest and the pixel value D2 (ip, jq) of the pixel in the peripheral area, and the input from the operation signal processing unit 31. Based on the threshold value TH1, the non-linear processing represented by the following equations (6a) to (6f) is performed.
  • the low-pass filter 36 is a value D2b (ip) obtained as a result of the above nonlinear processing in a peripheral region of each pixel of interest D2 (i, j), that is, a range composed of (2P + 1) * (2Q + 1) pixels. , J ⁇ p) is multiplied by the corresponding filter coefficient CF (p, q), and the sum of the multiplication results is obtained as the filtering result FL1 (i, j).
  • the filter coefficient CF (p, q) used in the low-pass filter 36 will be described below.
  • the filter coefficient is defined for pixels in the region of ⁇ P ⁇ p ⁇ P and ⁇ Q ⁇ q ⁇ Q centering on the target pixel.
  • the filter coefficient CF (p, q) is determined based on the motion blur angle A and the magnitude LB. 8 to 10 show regions in which the filter coefficient is defined to a value other than 0 for some examples of motion blur among the regions in which the filter coefficient is defined.
  • an area where the filter coefficient is a value other than 0 is referred to as an effective filtering area EFA.
  • the sum of filter coefficients at pixel positions in the effective filtering area EFA is 1.
  • the band-shaped area corresponding to the motion blur magnitude LB and its angle A is defined as an effective filtering area EFA.
  • region EFA is given with respect to the pixel included in the effective filtering area
  • the value is a value proportional to the proportion of the pixel included in the effective filtering area EFA.
  • This band-like region extends in the direction of motion blur, and its length is a predetermined number of times, for example, twice the size LB of motion blur, for example, before and after the start and end of motion blur.
  • the length is extended by a predetermined amount, for example, by 0.5 times the magnitude LB of motion blur.
  • the width of the band-like region is equivalent to the size of one pixel.
  • FIGS. 8 to 10 are shown assuming that the size of one pixel is the same in the vertical direction and the horizontal direction. 8 to 10, it is assumed that the start point of motion blur is at a position indicated by coordinates (i, j).
  • the motion blur is horizontally directed to the right and its size LB is 4 pixels.
  • the motion blur is regarded as extending from the center of the pixel Ps (coordinate (i, j)) at the start point of the motion blur to the center of the end pixel Pe (coordinate (i, j + 4)).
  • Two pixels (0.5 ⁇ 4 pixels) in length are added to the front and rear, that is, backward from the center of the starting pixel Ps by two pixels (leftward in FIG. 8) (moved leftward in the figure).
  • a position that is, a position advanced from the center of the pixel at the coordinates (i, j-2) by two pixels forward (rightward in FIG.
  • the effective range is the range of the coordinates (i, j + 6) to the center of the pixel, and a weighting coefficient corresponding to the ratio included in the effective filtering area EFA is given to these pixels.
  • the number of pixels included only in half in the effective filtering area EFA is 2, and the number of pixels completely included in the effective filtering area EFA is 6, so that it is completely included in the effective filtering area EFA.
  • a 1/7 weighting coefficient is given to the pixels to be assigned, and a 1/14 weighting coefficient is given to the pixels that are only half of the effective filtering area EFA.
  • the motion blur is horizontally directed to the right, and its size LB is 3 pixels.
  • the motion blur is assumed to extend from the center of the start pixel Ps (pixel of coordinates (i, j)) to the center of the end pixel Pe (coordinates (i, j + 3)).
  • a length of 1.5 pixels 0.5 ⁇ 3 pixels is added, that is, a position retracted by 1.5 pixels backward (leftward in FIG. 9) from the center of the starting point pixel Ps, that is, coordinates ( From the left end of the pixel at i, j ⁇ 1) to the position advanced by 1.5 pixels forward (rightward in FIG.
  • the magnitude LB of motion blur is 3 pixels, which is the same as in FIG. 9, and the effective filtering area EFA has the same length and width as in FIG.
  • the angle of motion blur is 30 degrees, and as a result, there are a large number of pixels that are only partially included in the effective filtering area EFA.
  • a weighting coefficient for each pixel is obtained.
  • the weighting coefficient is not calculated for all the values that the magnitude LB and the angle A of the motion blur can take, but for each of the magnitude LB and the angle A, the representative values LR and AR for each predetermined range. Weighting coefficients are obtained and stored in the filter coefficient storage unit 33 as filter coefficients, and the magnitude LB and angle A within the respective ranges are obtained and stored for the representative values LR and AR. Use filter coefficients.
  • the representative values LR and AR (or values corresponding thereto) are used for generating a pointer IND described later. These points will be described in more detail later.
  • the effective filtering area EFA has a length obtained by extending the motion blur from the start end and the end of the effective filtering area EFA by 0.5 times the motion blur magnitude LB. May be a predetermined value not related to the magnitude LB of motion blur, for example, the extension amount may be 0.5 pixels. Further, the extension amount may be zero. Also, a moving average filter having a configuration in which weighting according to the ratio included in the effective filtering area EFA is performed on the pixels included in the effective filtering area EFA while weighting according to the distance from the target pixel is not performed. However, a configuration in which weighting according to the distance from the target pixel may be performed. An example of such a filter is a Gaussian filter.
  • the low-pass filter 36 applies the value D2b (ip, jp) obtained as a result of the nonlinear processing for the pixels in the peripheral region of each pixel of interest D2 (i, j) to
  • the corresponding filter coefficient CF (p, q) read from the filter coefficient storage unit 33 is multiplied, and the sum of the multiplication results is obtained as the filtering result FL1 (i, j).
  • This filtering is expressed by the following equation.
  • the filter result FL1 (i, j) according to Expression (7) is output to the gain calculation unit 39.
  • the average value calculation unit 37 outputs an average value FL2 (i, j) of pixel values of pixels in the peripheral region of each target pixel D2 (i, j) of the video signal D2.
  • the peripheral region referred to here is, for example, a range composed of (2P + 1) * (2Q + 1) pixels, and the average value calculation unit 37 calculates the average of the pixel values D2 (ip, jq) within the range.
  • a value FL2 (i, j), that is, a value represented by the following equation (8) is calculated and output to the correction intensity adjusting unit 38.
  • the correction intensity adjustment unit 38 determines the degree or magnitude of the change in the pixel value in the vicinity of the target pixel, for example, the pixel value D2 (i, j) of the target pixel and the average value FL2 (i of the pixel values of the pixels in the peripheral region. , J), the correction strength for the pixel of interest is adjusted according to the difference from it.
  • the correction intensity is adjusted by adjusting the correction intensity parameter BST1 (i, j) as described below.
  • the correction intensity adjustment unit 38 outputs the adjusted correction intensity parameter BST1 based on the correction intensity parameter BST0 input from the operation signal processing unit 31, and is input from the input image delay unit 4.
  • the absolute value of the difference between the pixel value D2 (i, j) of the target pixel of the received video signal D2 and the average value FL2 (i, j) from the average value calculation unit 37 is input from the operation signal processing unit 31. If the threshold value TH2 is smaller than the threshold value TH2, the corrected correction strength parameter BST1 (i, j) smaller than the correction strength parameter BST0 input from the operation signal processing unit 31 is generated and output to the gain calculation unit 39.
  • the corrected correction strength parameter BST (i, j) for example, the one given by BST0 ⁇ ⁇ ( ⁇ ⁇ 1) can be used.
  • the gain calculation unit 39 includes the filter result FL1 (i, j) obtained from the filtering unit 34, the adjusted correction strength parameter BST1 (i, j) output from the correction strength adjustment unit 38, and the input image delay unit 4
  • the filter result FL1 (i, j) obtained from the filtering unit 34 the adjusted correction strength parameter BST1 (i, j) output from the correction strength adjustment unit 38, and the input image delay unit 4
  • the multiplication coefficient or gain GAIN (i, j) used in the correction processing is calculated based on the following equation.
  • GAIN (i, j) 1 + BST1 (i, j) -BST1 (i, j) * FL1 (i, j) / D2 (i, j) (9)
  • the correction calculation unit 30 obtains a pixel value E (i, j) by calculation based on the following equation for the pixel value D2 (i, j) of the target pixel of the video signal D2 input from the input image delay unit 4, The pixel value of the pixel P (i, j) of the corrected video signal is output to the image selection unit 10.
  • E (i, j) GAIN (i, j) * D2 (i, j) (10)
  • FIG. 12 shows a configuration example of the processing image delay unit 7.
  • the illustrated processed image delay unit 7 includes a frame memory 41 and a frame memory control unit 42.
  • the frame memory 41 has a capacity capable of storing the input video signal E0 for at least one frame.
  • the frame memory control unit 42 writes the input video signal E0 and reads the stored video signal according to the memory address generated based on the synchronization signal included in the input video signal E0. Specifically, the input video signal E0 is delayed by one frame and output as a video signal E1.
  • This determination is performed by the high-frequency component detection unit 8 and the determination unit 9, and the motion vector for each pixel in each frame is unlikely to be significantly different from the motion vector for the surrounding pixels. It is based on. That is, although the motion vector is detected by the motion vector detection unit 5, the motion vector V (Vy (i, j), Vx (i, j)) at the target pixel (i, j) The motion vector V may change greatly. However, in many cases, a video signal is considered to have two-dimensionally arranged pixels with strong correlation in a certain region, and is considered to constitute meaningful two-dimensional information.
  • the high-frequency component detection unit 8 calculates a two-dimensional second-order difference such as the following equation with respect to a vertical motion vector and a horizontal motion vector (output from the motion vector detection unit 5), and Is added as a high-frequency component L (i, j) of the pixel of interest (i, j).
  • L (i, j)
  • the high frequency component L (i, j) is compared with the threshold value C1, and the high frequency component detection result H as a comparison result is obtained as follows.
  • the determination unit 9 counts or integrates the high frequency component detection result H output from the high frequency component detection unit 8 for one frame. That is, the total T for one frame of the high frequency component detection result H is obtained by the following equation (16).
  • M is the vertical size (number of pixels) of the image
  • N is the horizontal size (number of pixels) of the image.
  • the determination result R output from the determination unit 9 is input to the image selection unit 10, and the image selection unit 10 corrects the corrected video signal output from the processed image delay unit 7 when the selection control signal R is “0”.
  • E1 (FIG. 2 (h)) is selected and output as the final output video signal F (FIG. 2 (k)).
  • the selection control signal R is “1”
  • the video signal output from the input image delay unit 4 D3 (FIG. 2 (f)) is selected and output as the final output video signal F (FIG. 2 (l)).
  • the final output video signal F output from the image selection unit 10 is displayed on the image display unit 3.
  • the input image delay unit 4, the motion vector detection unit 5, and the image correction processing unit 6 process only the luminance signal (Y), thereby causing deterioration due to the movement of the subject or the movement of the camera.
  • the motion blur of the generated video can be reduced.
  • not only the luminance signal (Y) but also the red signal (R), blue signal (G), and green signal (B) may be processed individually.
  • the gain GAIN (i, j) of Expression (9) is obtained from a signal representing the sum of R, G, and B, and the operation of the image correction processing unit 6 is processed individually for R, G, and B in Expression (10). You may do it.
  • the luminance signal (Y) and the color difference signals (Cb, Cr) may be processed individually.
  • the gain GAIN (i, j) is obtained from the luminance signal (Y), and the obtained gain GAIN (i, j) is used for each of the luminance signal (Y) and the color difference signals (Cb, Cr). You may process separately by the calculation of 10). Similar processing can be performed with other color representation formats.
  • the video signal D0 input to the image processing device 2 is input to the input image delay unit 4.
  • 2A to 2I are diagrams for explaining the relationship between the video signal D0 input to the input image delay unit 4 and the video signals D1, D2, and D3 output from the input image delay unit 4.
  • FIG. 2B In synchronization with the input vertical synchronization signal SYI shown in FIG. 2A, as shown in FIG. 2B, the input video signals D0 of the frames F0, F1, F2, F3, and F4 are sequentially input.
  • the frame memory control unit 12 generates a frame memory write address based on the input vertical synchronization signal SYI, stores the input video signal D0 in the frame memory 11, and outputs the output vertical synchronization signal SYO (input vertical) shown in FIG.
  • the video signal D1 (frames F0, F1,. F2, F3, and F4 video signals) are output.
  • the frame memory control unit 12 also generates a frame memory read address based on the output vertical synchronization signal SYO, and stores the 1 frame delayed video signal D2 (FIG. 2 (e)) and 2 frame delayed video stored in the frame memory 11.
  • the signal D3 (FIG. 2 (f)) is read and output.
  • three consecutive frames of video signals D1, D2, and D3 are simultaneously output from the input image delay unit 4. That is, at the timing (frame period) when the video signal of frame F2 is input as video signal D0, the video signals of frames F2, F1, and F0 are output as video signals D1, D2, and D3, and the video signal of frame F3 is video. Video signals of frames F3, F2, and F1 are output as video signals D1, D2, and D3 at the timing (frame period) that is input as the signal D0.
  • Two consecutive frames of video signals D1 and D2 output from the input image delay unit 4 are supplied to the motion vector detection unit 5, the video signal D2 is also supplied to the image correction processing unit 6, and the video signal D3 is an image. Supplied to the selector 10.
  • the video signals D1 and D2 input to the motion vector detection unit 5 are input to the subsequent frame block cutout unit 22 and the target frame block cutout unit 21, respectively.
  • the motion vector detection unit 5 detects a motion vector using a difference absolute value sum SAD often used in video coding, and outputs a detected motion vector value V (FIG. 2 (i)).
  • the difference absolute value sum SAD is calculated for each pixel, and the motion vector is obtained from the minimum value.
  • the amount of calculation becomes enormous. Therefore, as in the case of video encoding, blocks for detecting a motion vector overlap with each other. For pixels that are processed so that no motion vector is detected, interpolation may be performed from motion vectors detected in the vicinity.
  • the block size used in the motion vector detection unit 5 is a rectangular area having the same size in the vertical and horizontal directions around the pixel of interest P (i, j), and the height and width of the rectangular area are ( 2 * BM + 1) and odd numbers represented by (2 * BN + 1).
  • the height and width of the rectangular area do not have to be odd numbers, and the position of the target pixel in the rectangular area may not be exactly the center or may be slightly shifted.
  • the search range is defined as ⁇ SV ⁇ k ⁇ SV and ⁇ SH ⁇ l ⁇ SH, and the sum of absolute differences SAD is calculated for all k and l included in this range. Calculated. However, for the purpose of reducing the amount of calculation, k and l may be appropriately thinned and the absolute difference sum SAD may be calculated. In this case, the position (i + k, j + l) that has been thinned out (removed by the thinning) may be used after interpolation from the sum of absolute differences SAD (i + k, j + l) for the surrounding positions. Further, the accuracy of the motion vector is examined, and if there is no problem in accuracy, the difference absolute value sum SAD obtained by thinning may be used.
  • the image correction processing unit 6 performs a correction process on the video signal D2 (FIG. 2 (e)) and outputs a corrected video signal E0 (FIG. 2 (g)).
  • the motion vector V input to the image correction processing unit 6 is first input to the motion blur estimation unit 32. Since the motion vector V input to the motion blur estimation unit 32 is represented by a vertical component Vy (i, j) and a horizontal component Vx (i, j) as shown in FIG.
  • the direction A (degree) of the motion vector is calculated from 3), and the magnitude LM (pixel) of the motion vector is calculated from Equation (4).
  • FIGS. 14A and 14B show an example of the movement of the elements of the image represented by the continuous three frames of video signals imaged at this time.
  • the magnitude LB of the motion blur is 4 pixels in the horizontal direction and 0 pixel in the vertical direction. .
  • the magnitude of motion blur LB is the motion vector as shown in FIGS. 15 (a) and 15 (b).
  • the ratio is smaller than the size LM, and the ratio corresponds to the ratio (Ts / Tf) of the length of the imaging period Ts to the one frame period Tf.
  • the adjustment parameter ADJ may be determined based on the actual imaging period length Ts of each frame, may be determined empirically, or may be set by the user.
  • the filter coefficient stored in the filter coefficient storage unit 33 has an angle and size of 15 degrees from 0 degrees to 165 degrees as a representative value of the angle (assuming that the unit is “degree”). It is assumed that it is defined for odd numbers from 1 to 21 as representative values.
  • the motion blur angle A is converted to a value AR2 corresponding to the representative value AR by performing the above processing.
  • FIG. 16 shows a specific example of a table for obtaining the pointer IND from AR2 and LR based on Expression (11).
  • the filter coefficient storage unit 33 supplies the filter coefficient CF (p, q) corresponding to the input pointer IND to the low-pass filter 36.
  • the filter coefficient stored in the filter coefficient storage unit 33 can be freely designed by the user.
  • the filter coefficient only needs to realize a low-pass filter, and it is a feature of this embodiment that it is relatively easy to design.
  • the purpose of this embodiment is to appropriately reduce motion blur in a region where motion blur has occurred due to subject motion or camera motion, and is based on a technique using a low-pass filter expressed by the following equation.
  • E (i, j) D2 (i, j) + BST1 (i, j) * (D2 (i, j) -FL1 (i, j)) (12)
  • Expression (12) When Expression (12) is transformed, Expression (9) and Expression (10) are obtained. If processing is performed based on the concept of Expression (12), for example, the calculation according to Expression (9) is performed using the green signal (G) to obtain the gain GAIN (i, j), and the correction calculation unit 30 In this case, there is an advantage that the amount of calculation can be reduced by performing the calculation of Expression (10) using the same gain GAIN (i, j) for a plurality of color signals of the same pixel. However, the method using Expression (12) has the following drawbacks, and therefore the following processing is performed.
  • the method according to Expression (12) uses the filter coefficient CF (p, q) output from the filter coefficient storage unit 33, performs low-pass filtering on the video signal D2 input to the image correction processing unit 6, and the filter result FL1 (I, j) is output to the gain calculator 39.
  • the motion blur correction process using low-pass filtering based on Expression (12) is liable to cause an adverse effect of overshooting at a strong edge portion in the corrected image.
  • a non-linear processing unit 35 is inserted before the low-pass filter 36 to perform non-linear processing that can suppress overshoot at strong edges.
  • nonlinear processing is performed using the threshold value TH1 input from the operation signal processing unit 31 to suppress overshoot.
  • Ip, jq) D2 (i, j) ⁇ D2 (ip, jq) is clipped by the threshold value TH1.
  • the filtering unit 34 determines the difference DIF (ip, j, j) between the pixel value D2 (i, j) of the target pixel and each pixel value D2 (ip, jq) of the pixels in the surrounding area.
  • a clipping process is performed on each pixel value pixel value D2 (ip, jq) of each pixel in the peripheral region so that the absolute value of -q) does not exceed a predetermined threshold TH1;
  • Using the pixel value D2b (ip, jq) after the clipping process low-pass filtering is performed on the pixels in the peripheral region. Accordingly, if no suppression is performed, the difference value DIF (ip, jq) is large, and the gain GAIN (i, j) calculated by the gain calculation unit 39 is large at the edge portion of the image.
  • the gain can be appropriately controlled.
  • the correction intensity adjustment unit 38 is for suppressing the deterioration of the quality of the motion blur correction image due to the noise amplification effect after the motion blur correction process.
  • the correction intensity parameter BST0 input from the operation signal processing unit 31 is The image is reduced or set to 0 according to image characteristics, for example, flatness, and the corrected correction intensity parameter BST1 is output to the gain calculation unit 39.
  • the video signal D2 is input, a change in the pixel value (for example, luminance value) of the pixel in the peripheral region of the target pixel is detected, and the corrected correction intensity parameter BST1 is adjusted according to the magnitude of the change. Determine the value.
  • an index representing the change in the pixel value an absolute value of a difference value between the pixel value D2 (i, j) of the target pixel and the average value FL2 (i, j) output from the average value calculation unit 37 is used. For example, if the absolute value is smaller than the threshold value TH2 input from the operation signal processing unit 31, it is determined that the change in the pixel value in the peripheral region of the target pixel is small, and the adjusted correction strength parameter BST1 is adjusted, for example.
  • the pre-adjustment correction intensity parameter BST0 is directly used as the post-adjustment correction intensity parameter BST1. . Then, the corrected correction strength parameter BST1 determined in this way is output to the gain calculation unit 39.
  • the process for reducing the motion blur in the region where the motion blur is caused by the motion of the subject or the camera moves amplifies the noise in the video signal incidentally.
  • the effect is visually small, and correction processing may be weak. If correction is performed using the correction intensity parameter value BST0 as it is in such a region, noise is greatly amplified, and the quality of the motion blur correction result is degraded. Therefore, a flat region is detected, and in such a region, adaptive processing is performed using a smaller value instead of the correction strength parameter BST0.
  • the difference between the pixel value D2 (i, j) of the pixel of interest and the average FL2 of the pixel values of the pixels in the surrounding region is taken, Judgment is based on the size. For this reason, the simple average value of the pixel values of all pixels in the region of ⁇ P ⁇ p ⁇ P and ⁇ Q ⁇ q ⁇ Q calculated by the average value calculation unit 37 as described above is used. ing.
  • the gain calculation unit 39 outputs the output FL1 (i, j) of the filtering unit 34, the corrected correction intensity parameter BST1 (i, j) output from the correction intensity adjustment unit 38, and the pixel value D2 of the target pixel of the video signal D2.
  • the gain GAIN (i, j) is calculated based on the above equation (9) using (i, j), and the calculated gain GAIN (i, j) is supplied to the correction calculation unit 30.
  • the gain GAIN (i, j) obtained by the above calculation is output to the correction calculation unit 30.
  • the correction calculation unit 30 performs motion blur correction by multiplying the supplied gain GAIN (i, j) by the pixel value D2 (i, j).
  • the multiplication result is output as a pixel value E (i, j) that has undergone motion blur correction, and is supplied to the image selection unit 10.
  • the high frequency component detection unit 8 and the determination unit 9 receive the motion vector V output from the motion vector detection unit 5, and whether or not there are few motion vector detection errors in each frame, that is, the motion vector detection result is reliable. Judge whether it is high enough. This determination is based on the following idea.
  • the motion vector V (Vy (i, j), Vx (i, j)) at the target pixel (i, j) is erroneously detected when it greatly changes from the motion vector V at the surrounding pixels. Probability is high. Even if there is a portion where the change of the motion vector is large locally, it rarely extends to the entire frame. Therefore, when there are many changes in the motion vector over the entire frame, it is determined that there are many errors in motion vector detection and the reliability is low.
  • the motion vector of the pixel existing in the boundary area between the background and the moving object is in a certain direction with the pixel having the motion vector of 0.
  • Pixels having a large value are adjacent to each other.
  • the difference in motion vector between adjacent pixels is not large except in the boundary region. That is, in many video signals, pixels with strong correlation are arranged two-dimensionally in a certain region, and it is considered that meaningful two-dimensional information is configured. Therefore, when many motion vector changes as described above occur in one frame, it can be determined that there are many errors in motion vector detection.
  • the above change is captured, and it is determined whether the motion vector for each pixel is erroneously detected by comparison with the threshold C1.
  • the threshold C2 the number of pixels estimated by the component detection unit 8 and estimated by the determination unit 9 to be detected as a motion vector in each frame is greater than the threshold C2, the detection of the motion vector for the frame is performed. Judged that there are many errors and the reliability is low.
  • the determination unit 9 calculates the total T for one frame of the high frequency component detection result H output from the high frequency component detection unit 8. In other words, the number of pixels that are estimated to have detected the motion vector erroneously in each frame is obtained. In addition, since important content is often placed at the center of the video and shot, the calculation for obtaining the high frequency component detection and the sum of the high frequency component detection results H only in the central region of the video is required to reduce the amount of calculation. You may use for.
  • a determination result R is obtained by comparing the threshold value C2 with the number of pixels estimated to have detected a motion vector in each frame, but the characteristics of the input video signal are used in advance. In the case where it is possible, a preset value may be used as the threshold C2.
  • the second-order difference is calculated for each of the vertical direction motion vector and the horizontal direction motion vector as a method of detecting the high frequency component in the high frequency component detection unit 8, and the absolute values thereof are added together. If the nature of the input video signal can be used in advance, high-pass filtering using an appropriate cutoff frequency may be applied. Moreover, when detecting a high frequency component, it is based on the comparison with the threshold value C1 which a user inputs from the outside. However, when the cut-off frequency can be set clearly, a preset value may be used as the threshold value C1. .
  • the image selection unit 10 selects the corrected video signal E1 output from the processed image delay unit 7 when the selection control signal R is “0”, and finally When the selection control signal R is “1”, the video signal D3 output from the input image delay unit 4 is selected and output as the final output video signal F.
  • a motion vector in the video signal is detected and detected based on the video signal and a video signal that is temporally before or after one frame from the video signal.
  • the motion blur correction process is performed using the motion vector, and a high frequency component of the detected motion vector is detected to estimate whether the motion vector is erroneously detected for each pixel. Further, in each frame, the motion vector is estimated. The degree of reliability is evaluated based on the number of pixels estimated to be erroneously detected, and based on the result of the evaluation, either the corrected video signal or the original video signal is selected and displayed. As a result, an optimal video can be selected and displayed according to the degree of motion vector detection error.
  • FIG. FIG. 18 shows a configuration of an image display device including an image processing device according to Embodiment 2 of the present invention.
  • the illustrated image display device 1 includes an image processing device 2 b and an image display unit 3, and the image processing device 2 b is the same as the image processing device 2 of FIG. 1, and an input image delay unit 4 and a motion vector detection unit 5.
  • the image processing device 2b receives the input video signal D0 and generates a video signal with a high frame rate. For this purpose, a new frame (interpolated frame) is generated between the frames of the input video signal. ) Video signal is generated by interpolation.
  • the video signal D0 is composed of a sequence of signals representing pixel values of a plurality of pixels constituting the image, and the image processing device 2b generates a video signal of an interpolated frame between frames before and after the input video signal, and performs interpolation.
  • a video signal J1 obtained by delaying the generated video signal J0 (consisting of a sequence of signals having pixel values generated by interpolation) by one frame is arranged between a video signal D2 obtained by delaying the input video signal D0 by two frames.
  • the video signal K composed of the frame sequence and the input video signal D0 are delayed by two frames, and further, either the video signal I whose frame rate is converted is selected and output as the final output video signal F.
  • the video signal D0 (FIG. 19A) input to the image processing device 2b is supplied to the input image delay unit 4.
  • the input image delay unit 4 uses a frame memory to delay the frame of the input signal, and the video signals D1, D2, and D3 of three different frames (FIGS. 19B, 19C, and 19D). ) Is generated.
  • symbols T0, T1, T2,... represent each frame period of the input video signal.
  • the video signal D1 has no delay with respect to the video signal D0
  • the video signal D2 has a delay of 1 frame with respect to the video signal D0
  • the video signal D3 has a delay of 2 frames with respect to the video signal D0. is there.
  • the video signals D2 and D1 are output to the motion vector detection unit 5 and the image correction processing unit 16,
  • the video signal D3 is output to the frame rate conversion unit 15.
  • the frame rate conversion unit 15 outputs the video signal I obtained by doubling the frame frequency of the video signal D3 (FIG. 19 (i)).
  • the video signal I is obtained by repeating each frame of the video signal D3 twice with a reproduction time reduced to 1 ⁇ 2.
  • the motion vector detection unit 5 uses the video signals D2 and D1 of two different frames output from the input image delay unit 4, and uses the motion vector V ( FIG. 19 (e)) is detected.
  • the detected motion vector V is output to the image correction processing unit 16 and the high frequency component detection unit 8.
  • the motion vector V is a relative position between the block of the target frame and the block of the subsequent frame between the blocks at which the sum of absolute differences expressed by the equation (2) is minimized.
  • the image correction processing unit 16 receives the motion vector V output from the motion vector detection unit 5 and the sum of absolute differences mv_sad (i, j), and the video signal D2 of each frame output from the input image delay unit 4
  • One frame presumed to exist at an intermediate position in time between the video signal D1 of the next frame is generated by interpolation, thereby generating a video signal J0 composed of a sequence of generated interpolation frames.
  • Each frame of the video signal J0 is indicated by reference numerals F0h, F1h, F2h,... In FIG.
  • the generated video signal J0 is output to the image composition unit 17.
  • the image correction processing unit 16 outputs the input video signal D2 as it is to the image composition unit 17 as a video signal G0 (data having the same contents as D2 and shown in FIG. 19C).
  • the image synthesizing unit 17 delays the video signals G0 and J0 output from the image correction processing unit 16 by one frame, respectively, and the video signal G1 (data having the same contents as D3 and shown in FIG. 19D) , J1 (F0h, F1h, F2h,... In FIG. 19 (g)) are generated and arranged alternately in the order of the video signals G1, J1 to obtain a video signal K having a frequency twice the frame frequency of the video signal D0. It outputs to the image selection part 10 (F0, F0h, F1, F1h, F2, F2h, ... of FIG.19 (h)).
  • a video signal I obtained by converting the video signal D3 into a double frame frequency is input to the image selection unit 10 by the frame rate conversion unit 15.
  • This video signal I is obtained by repeating each frame of the video signal D3 twice by reducing the reproduction time by 1 ⁇ 2 (F0, F0, F1, F1, F2, F2, ).
  • the high frequency component detection unit 8 receives the motion vector V (FIG. 19 (e)) output from the motion vector detection unit 5, and extracts a high frequency component for each pixel by a high pass filter (high pass filter).
  • the value of the high frequency component is compared with the threshold value C1 input from the outside, and the comparison result is output as the high frequency component detection result H for the pixel.
  • the high frequency component detection result H takes a value “0” when the value of the high frequency component is smaller than the threshold C1, and takes a value “1” when the value of the high frequency component is equal to or greater than the threshold C1.
  • the greater the value of the high-frequency component of the motion vector V for each pixel the higher the possibility that the motion vector V is erroneously detected.
  • the motion vector V for the pixel is estimated and processed as erroneously detected.
  • the determination unit 9 receives the high-frequency component detection result H output from the high-frequency component detection unit 8 and counts the number of high-frequency component detection results H taking the value “1” over one frame. Then, the number of occurrences of the high-frequency component detection result H having the value “1” in one frame is compared with the threshold value C2 input from the outside, and the comparison result is output to the image selection unit 10 as the selection control signal R. Specifically, the value of the selection control signal R is set to “0” when the number of high-frequency component detection results H that take the value “1” in one frame is smaller than the threshold C2, and the selection is performed when the value is greater than or equal to the threshold C2. The value of the control signal R is set to “1” (FIG. 19 (j)).
  • the image selection unit 10 selects the video signal K (FIG. 19H) output from the image synthesis unit 17 and outputs it as the final output video signal F (FIG. 19).
  • the selection control signal R is “0”
  • the image selection unit 10 selects the video signal K (FIG. 19H) output from the image synthesis unit 17 and outputs it as the final output video signal F (FIG. 19).
  • the selection control signal R is “1”
  • the video signal I (FIG. 19 (i)) output from the frame rate converter 15 is selected and output as the final output video signal F (FIG. 19). (L)).
  • the image selection unit 10 does not select the video signal K obtained as a result of the image correction process performed using the motion vector V, and the original video signal (video signal not subjected to the image correction process) I is selected. Select to output.
  • the motion vector V output from the motion vector detection unit 5 is for each pixel of the 1-frame delayed video signal D2, and motion
  • the video signal K formed by combining the interpolated video signal J1 is supplied to the image selection unit 10 and used for selection in the image selection unit 10 in the next frame period T (n + 1).
  • the selection control signal R (F0) based on the video signal D2 of the frame F0 output from the input image delay unit 4 and input to the motion vector detection unit 5 in the frame period T1 corresponds to the video signal D3 of the frame F0.
  • a video signal K (F0, F0h) obtained by combining the frame rate conversion signal I (F0, F0) and the corresponding video signal G1 (F0) and the corresponding interpolated video signal J1 (F0h) is input to the image selection unit 10.
  • the image selection unit 10 supplies the video signal I (F0, F0) or the video signal K in the frame period T2 based on the selection control signal R (F0). (F0, F0h) is selected.
  • the image display unit 3 displays an image based on the video signal F output from the image selection unit 10.
  • the user can adjust the severity of determination in the high-frequency component detection unit 8 (when the value of the high-frequency component is estimated to be false detection). Further, by changing the threshold value C2, the severity of determination in the determination unit 9 (when the number of pixels estimated to be erroneously detected as a motion vector in each frame is high, the motion vector of the frame is determined. The reliability of the detection result is low and it is determined that the video signal subjected to the image correction process is not selected).
  • the input image delay unit 4 used in the second embodiment has the same configuration as the input image delay unit 4 in FIG. 3, but unlike the input image delay unit 4 in FIG.
  • a video signal D1 having no frame delay with respect to the input video signal D0 and a video signal D2 delayed by one frame with respect to the video signal D1 are output. This is because the image correction processing unit 16 generates the video signal J0 by interpolation between two frames.
  • FIG. 20 shows a configuration example of the image composition unit 17.
  • the image composition unit 17 in FIG. 20 is the same as the processing image delay unit 7 in FIG. 12, but unlike the processing image delay unit 7 in FIG. 12, the video signals G0 and J0 are each delayed by one frame to generate the video signal G1. , J1 is output, and therefore a frame memory for two frames is required.
  • the video signal J0 is a video signal (video signal of an interpolation frame) generated by interpolation in the image correction processing unit 16.
  • the video signal G0 is obtained by the image correction processing unit 16 through-outputting (outputting as it is) the input video signal D2.
  • the image correction processing unit 16 can also interpolate a plurality of video signals between two frames. In that case, a memory for the number of frames to be interpolated + 1 frame may be prepared.
  • the image correction processing unit 16 receives the motion vector V output from the motion vector detection unit 5 and receives the video signal D2 of the target frame and the video signal D1 of the subsequent frame output from the input image delay unit 4.
  • the video signal J0 is generated by interpolation during this period.
  • the video signals D2 and D1 from the input image delay unit 4 are input to the image correction processing unit 16, and the motion vector of the frame of interest is input from the motion vector detection unit 5.
  • V (Vy, Vx) and the sum of absolute differences SAD are input.
  • the image correction processing unit 16 receives the motion vector V (Vy, Vx) and the difference absolute value sum SAD of the target frame D2, and calculates the motion vector (Vhy, Vhx) and the corresponding difference absolute value sum SADh on the interpolation frame J0. Ask.
  • the motion vectors Vhy and Vhx and the sum of absolute differences SADh in the interpolation frame calculated by the equations (18a), (18b) and (18c) are at all positions (i, j) on the interpolation frame. It is not always obtained. For this reason, correction or interpolation processing (hereinafter simply referred to as correction processing) of the motion vector values Vhy, Vhx and the difference absolute value sum SADh is required for the pixel position from which the motion vectors Vhy, Vhx were not obtained.
  • correction processing correction or interpolation processing
  • the motion vectors Vhy and Vhx are corrected by calculating the difference absolute value sum corresponding to the motion vector already obtained for each pixel position within a predetermined range around the pixel of the interpolation frame J0, for example, 3 ⁇ 3.
  • the process includes a process for finding the smallest one and a process for newly setting a motion vector when it is determined that no motion vector exists in the 3 ⁇ 3 range.
  • Such processing may be performed only for the pixels for which the motion vectors Vhy and Vhx have been obtained and the pixels for which the motion vectors Vhy and Vhx have not been obtained by the calculations according to the equations (18a), (18b), and (18c). ),
  • the expression (18b) and the expression (18c) the calculation may be performed for all the pixels including the pixel for which the motion vectors Vhy and Vhx are obtained.
  • the motion vector corresponding to the minimum difference absolute value is found and used as a motion vector correction value for each pixel position. That is, the motion vector (Vhy (i + ci, j + cj), Vhx (i + ci, j + cj)) at the position where the sum of absolute differences is determined to be the minimum is converted to the corrected value Vcy (i, j) of the motion vector at the position (i, j). ), Vcx (i, j). This process is represented by the following equation.
  • Vcy (i, j) Vhy (i + ci, j + cj)
  • Vcx (i, j) Vhx (i + ci, j + cj) (19) And At this time, (ci, cj) is
  • the motion vectors Vcy (i, j) and Vcx (i, j) in the interpolated frame are obtained, and these values are used to refer to the values of the video signal D2 of the target frame and the video signal D1 of the subsequent frame, and perform interpolation. Find the frame J0.
  • bi i-round [Vcy (i, j)]
  • bj j-round [Vcx (i, j)]
  • ai i + fix [Vcy (i, j)]
  • aj j + fix [Vcx (i, j)]
  • fix [*] indicates truncation of * in the 0 direction.
  • the motion vector between the input video signals D1 and D2 of the two frames is detected for each pixel, and the video signal J0 of the interpolated frame is detected between the two frames by referring to the detected motion vector.
  • the generated interpolated frame video signal J0 is output to the image composition unit 17 together with the video signal G0.
  • a motion vector in the video signal is detected and detected based on the video signal and a video signal that is temporally before or after one frame from the video signal.
  • it is estimated whether or not a motion vector has been erroneously detected for each pixel.
  • the degree of reliability is evaluated based on the number of pixels estimated to be detected, and based on the result of the evaluation, the video signal obtained by interpolation processing and the video with the frame rate of the original video signal increased.
  • FIG. 21 shows a configuration of an image display device including an image processing device according to Embodiment 3 of the present invention.
  • the illustrated image display device 1 includes an image processing device 2c and an image display unit 3.
  • the image processing device 2c is similar to the image processing device 2 in FIG. And a high-frequency component detection unit 8 and an image correction processing unit 6b, a processed image delay unit 7b, a determination unit 59, and an image selection unit 60.
  • the image correction processing unit 6 b includes a first correction processing unit 51 and a second correction processing unit 52.
  • the processed image delay unit 7 b includes a first image delay unit 53 and a second image delay unit 54.
  • the input image delay unit 4, the motion vector detection unit 5, and the high frequency component detection unit 8 are the same as those shown in FIG.
  • the image processing apparatus 2c receives the input video signal D0 and performs motion blur correction processing.
  • the video signal D0 is composed of a sequence of signals representing the pixel values of a plurality of pixels constituting the image, and the image processing device 2c performs blurring processing using the plurality of pixels of each frame in order as correction target pixels (target pixels), Generated video signals Ea0 and Eb0 (consisting of a sequence of signals having corrected pixel values) after correction processing, and video signals Ea1 and Ea1 obtained by delaying the corrected video signals Ea0 and Eb0 by 1 frame, respectively, One of the video signals D3 obtained by delaying the input video signal D0 by 2 frames is selected and output as the final output video signal F.
  • the video signal D0 input to the image processing device 2c (FIG. 22B) is supplied to the input image delay unit 4.
  • the input image delay unit 4 uses a frame memory to delay the frame of the input signal and performs video signals D1, D2, and D3 of three different frames (FIGS. 22D, 22E, and 22F). ) Is generated.
  • the video signals D1 and D2 are output to the motion vector detection unit 5, the video signal D2 is output to the first and second correction processing units 51 and 52, and the video signal D3 is output to the image selection unit 60.
  • the motion vector detection unit 5 uses the video signals D2 and D1 of two different frames output from the input image delay unit 4, and uses the motion vector V (see FIG. 22) included in the video signal D2. (K)) is detected.
  • the detected motion vector V is output to the first and second correction processing units 51 and 52 and the high frequency component detection unit 8.
  • Each of the first and second correction processing units 51 and 52 performs the same operation as the image correction processing unit 6 of the first embodiment to correct an image. However, instead of the signal PR input to the image correction processing unit 6, the signal PR1 input to the first correction processing unit 51 is input and the signal PR2 is input to the second correction processing unit 52. .
  • the first correction processing unit 51 receives the motion vector V output from the motion vector detection unit 5, and the video signal D2 output from the input image delay unit 4 is deteriorated due to the motion of the subject or the motion of the camera.
  • the motion blur of the video is reduced, and the corrected video signal Ea0 (F0a, F1a, F2a,... In FIG. 22G) is output to the first image delay unit 53.
  • the second correction processing unit 52 receives the motion vector V output from the motion vector detection unit 5, and the video signal D2 output from the input image delay unit 4 has deteriorated due to the motion of the subject or the motion of the camera.
  • the motion blur of the video is reduced, and the corrected video signal Eb0 (F0b, F1b, F2b,... In FIG. 22 (i)) is output to the second image delay unit 54.
  • the second correction processing unit 52 has a smaller correction strength (that is, a smaller amount to reduce motion blur of the video) than the first correction processing unit 51.
  • the parameter represented by the signal PR1 input to the first correction processing unit 51 and the second correction processing unit 52 It is only necessary to use a parameter having a different value from the parameter represented by the signal PR2 input to 52. That is, the parameters BST0 and TH2 represented by the signals PR1 and PR2 may be partially or entirely used with different values.
  • the parameter BST0 is multiplied by the coefficient ⁇ to become the parameter BST1, and as shown in the equation (9), as the parameter BST1 increases, the gain GAIN multiplied by the video signal D2 by the correction calculation unit 30 increases. Therefore, the greater the parameter BST0, the greater the correction strength. For the same reason, the greater the coefficient ⁇ , the greater the correction strength.
  • the threshold value TH2 is used for discriminating the characteristics of the image.
  • the pixel value D2 (i, j) of the target pixel of the video signal D2 and the average value FL2 (i, j) of the pixel values of the surrounding pixels are used.
  • the parameter BST1 is multiplied by a coefficient ⁇ smaller than 1 to obtain an adjusted parameter BST1, otherwise the parameter BST0 is used as it is as the parameter BST1, so the threshold value TH2 Is larger, the parameter BST1 is larger, and the correction strength is larger. Further, when the parameter ADJ is increased, motion blur is evaluated more greatly (Equation (5)), and thus stronger correction is applied to motion blur.
  • the first image delay unit 53 delays and outputs the corrected video signal Ea0 output from the first correction processing unit 51 by one frame.
  • the output of the first image delay unit 53 is corrected and supplied to the image selection unit 60 as a delayed video signal Ea1 (F0a, F1a, F2a,... In FIG. 22H).
  • the second image delay unit 54 delays the corrected video signal Eb0 output from the second correction processing unit 52 by one frame and outputs it.
  • the output of the second image delay unit 54 is corrected and supplied to the image selection unit 60 as a delayed video signal Eb1 (F0b, F1b, F2b,... In FIG. 22J).
  • the high-frequency component detection unit 8 receives the motion vector V (FIG. 22 (k)) output from the motion vector detection unit 5 and inputs a high-pass filter (high-pass filter). ), The high frequency component for each pixel is extracted, the value of the extracted high frequency component is compared with the threshold value C1 input from the outside, and the comparison result is output as the high frequency component detection result for each pixel.
  • the high frequency component detection result H takes a value “0” when the value of the high frequency component is smaller than the threshold C1, and takes a value “1” when the value of the high frequency component is equal to or greater than the threshold C1.
  • the threshold value C1 can be set and changed from the outside of the image processing apparatus by, for example, a user using an operation key (not shown).
  • the determination unit 59 receives the high-frequency component detection result H output from the high-frequency component detection unit 8 and counts the number of high-frequency component detection results H that take the value “1” over one frame. Then, the count result Nhf (the number of occurrences of the high-frequency component detection result H taking the value “1” in one frame) is compared with the threshold values C2A and C2B (C2B> C2A) input from the outside, and the comparison result is selected as a selection control signal. R is output to the image selection unit 60.
  • the value of the selection control signal R is “0”, and when the counting result Nhf is equal to or larger than the threshold C2A and smaller than the threshold C2B, the value of the selection control signal R is “1”. If the value is equal to or greater than the threshold C2B, the value of the selection control signal R is set to “2” (FIG. 22 (l)).
  • Threshold values C2A and C2B can also be set and changed from the outside of the image processing apparatus by, for example, a user using an operation key (not shown).
  • the image selection unit 60 When the selection control signal R is “0”, the image selection unit 60 outputs the corrected video signal Ea1 (FIG. 22 (h)) output from the first image delay unit 53 as the final output video signal F.
  • the selection control signal R is “1”
  • the corrected video signal Eb1 (FIG. 22 (j)) output from the second image delay unit 54 is output as the final output video signal F
  • the video signal D3 (FIG. 22 (f)) output from the input image delay unit 4 is output as the final output video signal F.
  • the counting result Nhf (the high frequency component detection result H that takes the value “1” for each frame) increases, there is a higher possibility that the motion vector V is erroneously detected in the frame, and it can be estimated that the reliability is low.
  • the count result Nhf is large, the video signal D3 that has not been subjected to image correction processing is selected, and the video signal that has been subjected to stronger image correction processing is selected as the count result Nhf is small. That is, when the count result Nhf is equal to or greater than the threshold value C2B, the video signal D3 that has not been subjected to the correction process is selected.
  • the video signal that has undergone the correction process (Ea1 or Eb1) is selected, but a selection is made between the video signal Ea1 that has undergone stronger correction processing and the video signal Eb1 that has undergone weaker correction processing depending on whether the counting result Nhf is greater than or equal to the threshold value C2B.
  • the motion vector V output from the motion vector detection unit 5 is a one-frame delayed video. This is for each pixel of the signal D2, and the summation of the high-frequency component detection result H of the motion vector V over each frame ends, and the value of the selection control signal R is determined approximately at the end of the frame period. Therefore, the value of the selection control signal R generated based on the motion vector V of the video signal D2 of each frame is the image selection unit including the 2-frame delayed video signal D3 and the corrected video signals Ea1 and Eb1 delayed by 1 frame. 60 is used for selection in the image selection unit 60 in the next frame period T (n + 1).
  • the image display unit 3 displays an image based on the video signal F output from the image selection unit 60.
  • the determination unit 59 determines the severity of the motion (detection of the motion vector for the frame based on the number Nhf of pixels estimated to be erroneously detected in each frame) It is possible to adjust the criteria for determination of the reliability of the result.
  • the input image delay unit 4, the motion vector detection unit 5, the first correction processing unit 51, and the second correction processing unit 52 process only the luminance signal (Y), It is possible to reduce motion blur of an image that has deteriorated due to movement of a subject or camera.
  • the luminance signal (Y) not only the luminance signal (Y) but also the red signal (R), blue signal (G), and green signal (B) may be processed individually.
  • a gain GAIN (i, j) of the equation (9) is obtained from a signal representing the sum of R, G, and B, and in the operations of the first correction processing unit 51 and the second correction processing unit 52, the equation (10) ), R, G, and B may be processed individually.
  • the luminance signal (Y) and the color difference signals (Cb, Cr) may be processed individually.
  • the gain GAIN (i, j) is obtained from the luminance signal (Y), and the obtained gain GAIN (i, j) is used for each of the luminance signal (Y) and the color difference signals (Cb, Cr). You may process separately by the calculation of 10). Similar processing can be performed with other color representation formats.
  • a motion vector in the video signal is detected and detected based on the video signal and a video signal that is temporally before or after one frame from the video signal. While performing motion blur correction processing using the motion vector, it is estimated whether the motion vector is erroneously detected for each pixel by detecting the high frequency component of the detected motion vector, Furthermore, in each frame, the degree of reliability is evaluated based on the number of pixels that are estimated to have detected a motion vector erroneously, and based on the result of the evaluation, a strongly corrected video signal and a weakly corrected signal are processed. By selecting and displaying either the video signal or the original video signal, it is possible to select and display the optimal video according to the degree of motion vector detection error.
  • FIG. FIG. 23 shows a configuration of an image display device including an image processing device according to Embodiment 4 of the present invention.
  • the illustrated image display device 1 includes an image processing device 2 d and an image display unit 3, and the image processing device 2 d is similar to the image processing device in FIG. 21, the input image delay unit 4, the motion vector detection unit 5,
  • the image correction processing unit 16b includes a first correction processing unit 71 and a second correction processing unit 72.
  • the image composition unit 17 b includes a first composition unit 73 and a second composition unit 74.
  • the image processing device 2d receives the input video signal D0 and generates a video signal with an increased frame rate.
  • the frame of the input video signal is used.
  • One or more frames (interpolated frames) are generated by interpolation in between.
  • the frame rate is increased by 5 will be described as an example.
  • the video signal D0 is composed of a sequence of signals representing the pixel values of a plurality of pixels constituting the image, and the image processing device 2d is capable of a plurality of, for example, first and second, frames between adjacent frames of the input video signal D0.
  • this interpolation method one or two or more interpolation frames are generated, and each of the video signals Ja0 and Jb0 including the generated interpolation frame is combined with the input video signal (the input video signal frame and the interpolation frame are set to a predetermined value).
  • a plurality of video signals Ka and Kb having a high frame rate are generated (by outputting them in order), and a video signal If having a high frame rate is generated by repeating each frame of the input video signal a plurality of times. Any one of the video signals Ka, Kb, and If is selected based on the determination result in the determination unit 59 and output as the final output video signal F That.
  • the video signal D0 (FIG. 24A) input to the image processing device 2d is supplied to the input image delay unit 4.
  • the input image delay unit 4 uses the frame memory to delay the frame of the input signal, and the video signals D1, D2, D3 of three different frames (FIGS. 24B, 24C, 24D). ) Is generated. 24A to 24L, symbols T0, T1, T2,... Represent each frame period of the input video signal.
  • the video signal D1 has no delay with respect to the video signal D0
  • the video signal D2 has a delay of 1 frame with respect to the video signal D0
  • the video signal D3 has a delay of 2 frames with respect to the video signal D0. is there.
  • the video signals D2 and D1 are output to the motion vector detection unit 5 and the first and second correction processing units 71 and 72,
  • the video signal D3 is output to the frame rate conversion unit 70.
  • the frame rate conversion unit 70 outputs the video signal If obtained by multiplying the frame frequency of the video signal D3 by 5 (FIG. 24 (k)).
  • the video signal If is obtained by repeating each frame of the video signal D3 five times with a reproduction time shortened to 1/5. The details are shown in FIG.
  • the motion vector detection unit 5 uses the video signals D2 and D1 of two different frames output from the input image delay unit 4, and uses the motion vector V ( FIG. 24 (f)) is detected.
  • the detected motion vector V is output to the first and second correction processing units 71 and 72 and the high frequency component detection unit 8.
  • the motion vector V is a relative position between the block of the target frame and the block of the subsequent frame between the blocks at which the sum of absolute differences expressed by the equation (2) is minimized.
  • This embodiment corresponds to (km, lm)
  • the absolute value sum SAD (i + km, j + lm) is output to the first and second correction processing units 71 and 72 as the difference absolute value sum mv_sad (i, j) corresponding to the motion vector V.
  • the first correction processing unit 71 receives the motion vector V and the difference absolute value sum mv_sad (i, j) output from the motion vector detection unit 5 as input, and the video signal of each frame output from the input image delay unit 4
  • Four frames presumed to exist at positions (four phases) that are evenly separated in time between D2 and the video signal D1 of the next frame are generated by interpolation, thereby interpolating each phase.
  • Four video signals composed of a sequence of frames are generated.
  • Four video signals generated by the interpolation are collectively represented by reference numeral Ja0. Each frame of these four video signals is indicated by reference numerals F0ia to F0id, F1ia to F1id, F2ia to F2id,... In FIG.
  • the generated video signal Ja0 is output to the first combining unit 73. Further, the first correction processing unit 71 uses the input video signal D2 as it is as the video signal G0 (data having the same contents as D2, and shown as F0, F1, F2,... In FIG. 24C). Output to the first combining unit 73.
  • the second correction processing unit 72 receives the motion vector V and the difference absolute value sum mv_sad (i, j) output from the motion vector detection unit 5 and receives the video signal of each frame output from the input image delay unit 4.
  • One frame presumed to exist at an intermediate position in time between D2 and the video signal D1 of the next frame is generated by interpolation, whereby a video signal Jb0 composed of a sequence of generated interpolation frames is generated. Generate.
  • Each frame of the video signal Jb0 is indicated by reference numerals F0h, F1h, F2h,... In FIG.
  • the generated video signal Jb0 is output to the second synthesis unit 74.
  • the second correction processing unit 72 uses the input video signal D2 as it is as the video signal G0 (data having the same contents as D2, and shown as F0, F1, F2,... In FIG. 24C). The data is output to the second synthesis unit 74.
  • the first synthesis unit 73 Based on the video signal G0 of each frame output from the first correction processing unit 71 and the video signal Ja0 generated by interpolation, the first synthesis unit 73 arranges them in a predetermined time order.
  • the video signal Ka (FIG. 24 (h), FIG. 25 (e)) having a frame rate of 5 is generated.
  • the second synthesis unit 74 Based on the video signal G0 of each frame output from the second correction processing unit 72 and the video signal Jb0 generated by the interpolation, the second synthesis unit 74 arranges them in a predetermined time sequence. Then, a video signal Kb (FIG. 24 (j), FIG. 25 (f)) having a frame rate of 5 times is generated.
  • the description will be given with reference. 25 (d), (e), and (f) show in more detail the temporal positional relationship of each frame of the video signal shown in FIGS. 24 (k), (h), and (j).
  • the frame frequency of the input video signal D0 is 24 fps
  • the frame frequency of the output video signal F is 120 fps
  • the start time of each frame of the input video signal D0 is shown in FIG.
  • each frame of the original video signal D3 is output as the video signal If from the frame rate conversion unit 70 with the reproduction time shortened to 1/5 and repeated five times.
  • the frame F0 of the original video signal is output five times repeatedly, and in the next frame period T3, the frame F1 is output five times repeatedly.
  • the first correction processing unit 71 and the first combining unit 73 will be described.
  • the video signal Ka from the first synthesizing unit 73 for example, in the frame period T2, the four interpolated frames F0ia, F0ib, F0ic follow the frame F0 of the original video signal G0. , F0id are output in order, and in the next frame period T3, the four interpolated frames F1ia, F1ib, F1ic, F1id are sequentially output following the frame F1 of the original video signal G0.
  • the reproduction time (output time) of each frame is 1/5 of one frame period of the input video signal, and the interpolation frames F0ia, F0ib, F0ic, F0id are 1/5, 2 with respect to the frame F0 of the original video signal. / 5, 3/5, 4/5
  • the frame is output at a timing delayed.
  • the first correction processing unit 71 obtains the pixel value of the pixel of the interpolation frame as follows. That is, as described above, the first correction processing unit 71 has a plurality of temporal positions (phases) between the video signal D2 of the target frame and the video signal D1 of the subsequent frame output from the input image delay unit 4. A video signal is generated by interpolation. In addition to the video signals D2 and D1 from the input image delay unit 4, the first correction processing unit 71 receives the motion vector V (Vy, Vx) of the frame of interest and the sum of absolute differences mv_sad (i) from the motion vector detection unit 5. , J) are input.
  • the first correction processing unit 71 receives the motion vector V (Vy, Vx) and the difference absolute value sum mv_sad (i, j) of the frame of interest D2 and obtains the motion vector (Vhy, Vhx) on the interpolation frame Jn. .
  • Vhy (i + si, j + sj) Vy (i, j) ⁇ ⁇ (23a)
  • Vhx (i + si, j + sj) Vx (i, j) ⁇ ⁇ (23b)
  • si round [Vy (i, j) ⁇ ⁇ ]
  • sj round [Vx (i, j) ⁇ ⁇ ] (Round [*] is rounded to *) It is.
  • is added to the motion vector V of the target frame D2 between the target frame and the interpolation frame at the position (i + si, j + sj) calculated by multiplying the motion vector V of the target frame D2 by ⁇ and rounding off. It is estimated that there is a motion vector of the multiplied value.
  • the position (i + si, j + sj) designates a position outside the range defined as the video, the processing of Expression (23a), Expression (23b), and Expression (23c) is not performed.
  • the motion vectors Vhy and Vhx in the interpolation frame calculated by the equations (23a), (23b) and (23c) are obtained for all positions (i, j) on the interpolation frame. Not exclusively. For this reason, correction or interpolation processing (hereinafter simply referred to as correction processing) of the motion vector values Vhy and Vhx is required for the pixel position where the motion vectors Vhy and Vhx were not obtained.
  • the correction processing of the motion vectors Vhy and Vhx can be performed in the same manner as described in the second embodiment. Values obtained by correcting the motion vectors Vhy and Vhx are represented by symbols Vcy and Vcx, respectively.
  • the second correction processing unit 72 and the second combining unit 74 will be described.
  • the frame F0 of the original video signal G0 is three times from the end of the frame period T1 to the beginning of the frame period T2.
  • the interpolated frame F0h is output twice in the frame period T2
  • the frame F1 of the original video signal G0 is repeated three times from the end of the frame period T2 to the beginning of the frame period T3.
  • the interpolation frame F1h is output twice repeatedly within the frame period T3.
  • the playback time of each frame is 1/5 of one frame period of the input video signal, and the interpolation frame F0h is 2/5 with respect to the second of the frames F0 of the original video signal repeated three times. It is output at a timing delayed by 3/5 frame period.
  • the pixel value of each pixel of the interpolation frame is a value obtained by the second correction processing unit 72 on the assumption that the interpolation frame is located at the temporally intermediate position of the frame of the original video signal that precedes and follows.
  • the second correction processing unit 72 calculates the video signal Jb0 of the interpolation frame in the same manner as the image correction processing unit 16 of the second embodiment calculates the video signal J0 of the interpolation frame.
  • the operations of the high frequency component detection unit 8 and the determination unit 59 are the same as those in the third embodiment.
  • the image selection unit 60 selects and outputs one of the three inputs according to the value of the selection control signal R. That is, when the selection control signal R is “0”, the image selection unit 60 uses the interpolated video signal Ka (FIG. 24 (h)) output from the first synthesis unit 73 as the final output video signal F. When the selection control signal R is “1”, the interpolated video signal Kb (FIG. 24 (j)) output from the second synthesis unit 74 is output as the final output video signal F, and the selection control is performed. When the signal R is “2”, the video signal lf (FIG. 24 (k)) output from the frame rate conversion unit 70 is output as the final output video signal F.
  • the image display unit 3 displays an image based on the video signal F output from the image selection unit 60.
  • the counting result Nhf (the number of occurrences of the high-frequency component detection result H that takes the value “1” in one frame) is equal to or greater than the threshold C2B, that is, the motion vector V is erroneously detected. If there is a large amount of video signals, the video signal obtained by repeating the input video signal (video signal not subjected to interpolation processing or correction processing) If is selected and displayed without using the video signal obtained by the interpolation processing.
  • the counting result Nhf is less than the threshold value C1, that is, when there are few errors in the detection of the motion vector V, it is obtained by fine interpolation processing (separate interpolation calculation for each 1/5 period of the original frame period).
  • a video signal obtained by combining the video signal Ja0 with the input video signal, that is, a video signal Ka that has been subjected to relatively strong correction processing is selected and displayed, and the counting result Nhf is greater than or equal to the threshold C1 When it is less than the threshold value C2, that is, when the error in the detection of the motion vector V is medium, it is obtained by rough interpolation processing (assuming that the interpolation frame is located in the middle of the frames before and after the original video signal). Then, a video signal obtained by combining the video signal Jb0 (obtained by performing the interpolation calculation) with the input video signal, that is, a video signal Kb subjected to relatively weak correction processing is selected and displayed.
  • the user adjusts the severity of determination in the high-frequency component detection unit 8 (when the value of the high-frequency component is estimated to be false detection) by changing the threshold value C1. be able to.
  • the determination unit 59 determines the severity of the motion (detection of the motion vector for the frame based on the number Nhf of pixels estimated to be erroneously detected in each frame) It is possible to adjust the criteria for determination of the reliability of the result.
  • a motion vector in the video signal is detected and detected based on the video signal and a video signal that is temporally before or after one frame from the video signal.
  • An interpolation frame is generated using the motion vector, and a high frequency component of the detected motion vector is detected to estimate whether or not a motion vector has been erroneously detected for each pixel.
  • the video obtained by the interpolation process can be used.
  • video with reduced motion smoothly changing video
  • by using video obtained by rough interpolation processing image quality degradation is suppressed
  • By rough interpolation processing it is possible to display an image with a somewhat smooth movement.
  • stepwise switching is possible. For example, a video signal obtained by interpolation processing is directly switched from a video signal not using video obtained by interpolation processing to a video signal obtained by fine interpolation processing. By avoiding this and switching to the video signal obtained by the fine interpolation process after switching to the video signal once obtained by the coarse interpolation process, a sudden change in the quality of the video can be avoided.
  • the high-frequency component for each pixel is compared with the threshold value C1, and the high-frequency component detection result H obtained as a result of comparison is counted over each frame.
  • the high-frequency component for each pixel is integrated over each frame, the integrated value is compared with a threshold value, and if the integrated value is larger than the threshold value, there are many errors in motion vector detection for the frame, and the reliability is low. It may be judged.
  • the central part may be a target for detection of high frequency components and integration of high frequency components.
  • the present invention has been described above as an image processing apparatus and an image display apparatus, an image processing method and an image display method executed by these apparatuses also form part of the present invention.
  • the present invention is also realized as a program for executing the processing of the procedure or each step in the above-described image processing apparatus or image processing method, and is also realized as a computer-readable recording medium on which the program is recorded.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)
  • Picture Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

 各フレームの映像信号(D2)について、検出された動きベクトル(V)を用いて画像補正処理を行う(6、16)。検出された動きベクトル(V)の高周波成分に基づいて、各フレーム内における動きベクトルの検出結果の信頼性についての判定を行い(9)、動きベクトルの信頼性が低い場合には、画像補正処理をうけていない画像を出力する。動きベクトルを参照する画像補正処理において、誤検出された動きベクトルが多い場合に、元の映像よりも質の悪い映像を出力してしまうのを防ぐことができる。

Description

画像処理装置及び方法、並びに画像表示装置及び方法
 本発明は、動きベクトルを参照することで映像の画質向上処理を行う画像処理装置及び方法、並びに画像表示装置及び方法に関する。
 映像の画質向上を目的として、様々は画像補正処理が提案されている。その中には、映像の動きベクトルを検出して、検出した動きベクトルに基づいて画像補正処理を行なうものがある。例えば、検出した動きベクトルに基づいて動きぼやけを補正するものがある(特許文献1)。また、検出した動きベクトルを用いてフレーム補間を行うものもある。
特開平7-65163号公報
 しかしながら、動きベクトルの検出に誤りが多く含まれる場合には、検出された動きベクトルを用いて行なわれた画像補正処理の結果得られた映像は、元の映像よりも画質が劣化したものとなると言う問題がある。
 本発明は、上記に鑑みてなされたものであり、検出された動きベクトルに誤りが多く含まれる場合に、画質の劣化を防止することを目的とする。
 本発明に係る画像処理装置は、
 入力映像信号をフレーム遅延することで得られた第1の映像信号と、前記第1の映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて、前記第1の映像信号における動きベクトルを検出する動きベクトル検出部と、
 前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号に対して画像補正処理を行う画像補正処理部と、
 前記動きベクトル検出部で検出された動きベクトルを用い、高周波成分を検出する高周波成分検出部と、
 前記高周波成分検出部で検出された高周波成分に基づいて、各フレーム内における動きベクトルの検出結果の信頼性についての判定を行う判定部と、
 前記判定部における判定結果に基づいて、前記画像補正処理部による画像補正処理の結果生成された映像信号と、前記入力映像信号又はこれをフレーム遅延することで得られた映像信号のいずれかを選択して出力する画像選択部と
 を備えることを特徴とする。
 本発明によれば、動きベクトルの検出に誤りが多い場合には、画像補正処理後の映像信号を用いずに元の映像信号を出力することとしているので、元の映像信号よりも劣化した信号を出力することを防ぐことができる。
本発明の実施の形態1に係る画像表示装置を示すブロック図である。 (a)~(l)は、図1の画像処理装置の動作を説明するタイムチャートである。 図1の入力画像遅延部4の構成例を示すブロック図である。 図1の動きベクトル検出部5の構成例を示すブロック図である。 (a)及び(b)は、連続した2フレームの映像信号において、動きベクトルの探索範囲の一例を示す図である。 図1の画像補正処理部6の構成例を示すブロック図である。 フレーム期間と撮像期間の関係を示す図である。 動きぼやけに対する有効フィルタリング領域EFAの一例を示す図である。 動きぼやけに対する有効フィルタリング領域EFAの他の例を示す図である。 動きぼやけに対する有効フィルタリング領域EFAの他の例を示す図である。 画素値と平均値の差と、調整後の補正強度パラメータとの関係の一例を示す図である。 図1の処理画像遅延部7の構成例を示すブロック図である。 動きベクトルの各成分を示す図である。 (a)及び(b)は、2枚のフレームにおける動きベクトルと動きぼやけの一例を示す図である。 (a)及び(b)は、2枚のフレームにおける動きベクトルと動きぼやけの他の例を示す図である。 動きベクトルの方向および大きさと、フィルタ係数テーブルへのポインタ(IND)の一例を示す図である。 閾値による非線形処理を示すグラフである。 本発明の実施の形態2に係る画像表示装置を示すブロック図である。 (a)~(l)は、図18の画像入力装置の動作を説明するタイムチャートである。 図18の画像合成部17の構成例を示すブロック図である。 本発明の実施の形態3に係る画像表示装置を示すブロック図である。 (a)~(l)は、図21の画像入力装置の動作を説明するタイムチャートである。 本発明の実施の形態4に係る画像表示装置を示すブロック図である。 (a)~(l)は、図23の画像入力装置の動作を説明するタイムチャートである。 (a)~(f)は、図23の画像入力装置の動作を説明するタイムチャートである。
実施の形態1.
 図1は、本発明の実施の形態1に係る画像処理装置を備えた画像表示装置の構成を示す。図示の画像表示装置1は、画像処理装置2と、画像表示部3とを備え、画像処理装置2は、入力画像遅延部4と、動きベクトル検出部5と、画像補正処理部6と、処理画像遅延部7と、高周波成分検出部8と、判定部9と、画像選択部10とを備える。
 画像処理装置2は、入力された映像信号D0を受けて、動きぼやけ補正処理を行うものである。
 映像信号D0は、画像を構成する複数の画素の画素値を表す信号の列から成り、画像処理装置2は、各フレームの複数の画素を順に補正対象画素(注目画素)としてぼやけ補正処理を行って、補正処理後の映像信号E0(補正された画素値を持つ信号の列から成る)を生成し、該補正処理後の映像信号E0を1フレーム遅延した映像信号E1と、入力映像信号D0を2フレーム遅延した映像信号D3のどちらかを選択して最終出力映像信号Fとして出力する。
 画像処理装置2に入力された映像信号D0(図2(b))は、入力画像遅延部4に供給される。入力画像遅延部4はフレームメモリを用いて、入力された信号のフレーム遅延を行い、3枚の互いに異なるフレームの映像信号D1、D2、D3(図2(d)、(e)、(f))を生成する。図2(a)~(l)において、符号T0、T1、T2、…は各フレーム期間を表す。そのうち、映像信号D1は、映像信号D0に対して遅延がなく、映像信号D2は映像信号D0に対して1フレームの遅延があり、映像信号D3は、映像信号D0に対して2フレームの遅延がある。
 映像信号D2およびD1は動きベクトル検出部5に出力され、映像信号D2は画像補正処理部6に出力され、映像信号D3は画像選択部10に出力される。
 動きベクトル検出部5は、入力画像遅延部4から出力された2枚の異なるフレームの映像信号D2、D1を用い、映像信号D2に含まれる動きベクトルV(図2(i))を検出する。
 検出された動きベクトルVは画像補正処理部6及び高周波成分検出部8に出力される。
 画像補正処理部6は、動きベクトル検出部5から出力された動きベクトルVを入力とし、入力画像遅延部4から出力された映像信号D2において被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを軽減し、補正された映像信号E0(図2(g)のF0c、F1c、F2c、…)を処理画像遅延部7へ出力する。
 処理画像遅延部7は、画像補正処理部6から出力された補正された映像信号E0を1フレーム分遅延させて出力する。処理画像遅延部7の出力は、補正され、遅延された映像信号E1(図2(h)のF0c、F1c、F2c、…)として画像選択部10へ供給される。
 高周波成分検出部8は動きベクトル検出部5から出力された動きベクトルV(図2(i))を入力し、ハイパスフィルタ(高域通過型フィルタ)で各画素について動きベクトルの高周波成分を抽出し、抽出した高周波成分の値を、外部から入力した閾値C1と比較し、比較結果を、当該画素についての高周波成分検出結果Hとして出力する。この高周波成分検出結果Hは、高周波成分の値が閾値C1よりも小さい場合には、値「0」を取り、高周波成分の値が閾値C1以上の場合には、値「1」を取る。各画素についての高周波数成分は、各画素についての動きベクトル、並びの周辺の画素の動きベクトルに対してハイパスフィルタを掛けることで、得られる。
 各画素についての動きベクトルVの高周波成分の値が大きいほど、当該動きベクトルVが誤検出されたものである可能性が高い。本実施の形態では、高周波成分の値が閾値C1以上の場合には、当該画素についての動きベクトルVは誤検出されたものと推定して処理する。
 閾値C1は、画像処理装置の外部から、例えばユーザが図示しない操作キーを用いて入力することで、設定し、変更することができるものである。
 判定部9は、高周波成分検出部8から出力された高周波成分検出結果Hを入力し、値「1」を取る高周波成分検出結果Hの数を1フレームに亘り計数する。そして、計数結果Nhf(1フレーム中における、値「1」を取る高周波成分検出結果Hの発生回数)を外部から入力した閾値C2と比較し、比較結果を選択制御信号Rとして画像選択部10に出力する。具体的には、計数結果Nfhが閾値C2よりも小さい場合は選択制御信号Rの値を「0」とし、閾値C2以上の場合は選択制御信号Rの値を「1」とする(図2(j))。
 閾値C2も、画像処理装置の外部から、例えばユーザが図示しない操作キーを用いて入力することで、設定し、変更することができるものである。
 画像選択部10は、選択制御信号Rが「0」の場合は処理画像遅延部7から出力される補正された映像信号E1を選択して、最終出力映像信号Fとして出力し(図2(k))、選択制御信号Rが「1」の場合は入力画像遅延部4から出力される映像信号D3を選択して最終出力映像信号Fとして出力する(図2(l))。
 上記の計数結果Nhf(各フレームについて値「1」を取る高周波成分検出結果Hの数)が多いほど、当該フレームには動きベクトルVの誤検出が多い可能性が高く、信頼性が低いと推定できる。本実施の形態では、計数結果Nhfが閾値C2以上の場合には、当該フレームについて、動きベクトルVの誤検出が多く、従って、動きベクトルVの検出結果は信頼性が低いものとして処理する。即ち、画像選択部10において、動きベクトルVを用いて行なわれた画像補正処理の結果得られた映像信号E1を選択せずに、元の映像信号(画像補正処理を受けていない映像信号)D3を選択して出力する。
 各フレーム期間Tn(nは0、1、2、…のいずれか)において、動きベクトル検出部5から出力される動きベクトルVは、1フレーム遅延映像信号D2の各画素についてのものであり、動きベクトルVの高周波成分検出結果Hの各フレームにわたる集計が終わり、選択制御信号Rの値が決まるのは、当該フレーム期間の終わる時点に略一致する。そこで、各フレームの映像信号D2の動きベクトルVに基づいて生成された選択制御信号Rの値は、2フレーム遅延映像信号D3及び1フレーム遅延した補正処理後の映像信号E1が画像選択部10に供給される、次のフレーム期間T(n+1)における画像選択部10における選択に用いられる。
 例えば、フレーム期間T1に入力画像遅延部4から出力され動きベクトル検出部5に入力される、フレームF0の映像信号D2に基づく選択制御信号R(F0)は、フレームF0の映像信号D3及び対応する補正処理後の映像信号E1(F0c)が、画像選択部10に入力される次のフレーム期間T2に、画像選択部10に供給され、画像選択部10では、この選択制御信号R(F0)に基づいて、フレーム期間T2における、映像信号D3(F0)又は映像信号E1(F0c)の選択を行う。
 画像表示部3は、画像選択部10から出力された映像信号Fに基づく画像の表示を行なう。
 ここで、ユーザは閾値C1を変更することにより、高周波成分検出部8における判定の厳しさ(高周波成分の値がどの程度のときに、誤検出と推定するか)を調整することができる。また、閾値C2を変更することにより、判定部9における判定の厳しさ(各フレーム中において動きベクトルが誤検出されたと推定される画素の数Nhfに基づく、当該フレームについての動きベクトルの検出結果の信頼性に対する判定の基準、即ち各フレーム中において動きベクトルが誤検出されたと推定される画素の数Nhfがどの程度のときに、当該フレームについての動きベクトルの検出結果の信頼性が低く、画像補正処理を受けた映像信号を選択しないとの決定をするか)を調整することができる。
 以下の説明では、画像サイズを垂直方向M画素、水平方向N画素とする。このとき、変数iとjをそれぞれ1≦i≦M、1≦j≦Nと定義して、画素の位置を示す座標を(i,j)で示し、当該座標で表される位置の画素をP(i,j)で表す。即ち、変数iは垂直方向位置、変数jは水平方向位置を表す。画像の左上隅の画素の位置においては、i=1、j=1であり、下方に1画素ピッチ進むごとにiが1ずつ増加し、右方に1画素ピッチ進むごとにjが1ずつ増加する。
 図3は、入力画像遅延部4の構成例を示す。図示の入力画像遅延部4は、フレームメモリ11と、フレームメモリ制御部12とを備えている。フレームメモリ11は入力された映像信号を少なくとも2フレーム分記憶可能な容量を有している。
 フレームメモリ制御部12は、入力された映像信号D0に含まれる同期信号を元に生成したメモリアドレスに従い、入力映像信号の書込みと、蓄積された映像信号の読み出しとを行い、連続する3フレームの映像信号D1、D2、D3を生成する。
 映像信号D1は、入力映像信号D0に対してフレーム遅延が無いものであり、現フレーム映像信号とも呼ばれる。
 映像信号D2は、映像信号D1に対して1フレーム遅延することにより得られた、時間的に1フレーム期間前の信号であり、1フレーム遅延映像信号とも呼ばれる。
 映像信号D3は、映像信号D1に対して2フレーム遅延することにより得られた、時間的に2フレーム期間前の信号であり、2フレーム遅延映像信号とも呼ばれる。
 また、以下に説明するように、映像信号D2を対象として動きベクトル検出処理を行うので、映像信号D2を注目フレーム映像信号と呼び、映像信号D1を後フレーム映像信号と呼ぶこともある。
 映像信号D1、D2、D3は、上記のように、画像を構成する複数の画素の信号の列から成り、座標(i,j)の位置にある画素P(i,j)の画素値はD1(i,j)、D2(i,j)、D3(i,j)と表される。
 図4は動きベクトル検出部5の構成例を示す。図示の動きベクトル検出部5は、その外部から入力される第1の映像信号(D2)およびその外部から入力され第1の映像信号(D2)に対し1フレーム以上時間的に前又は後の第2の映像信号(D1)に基づいて、前記第1の映像信号(D2)における動きベクトルを検出するものであり、図示の動きベクトル検出部5は、注目フレームブロック切り出し部21と、後フレームブロック切り出し部22と、動きベクトル決定部23を備える。
 注目フレームブロック切り出し部21は、注目フレーム映像信号D2から、図5(a)に示されるように、注目画素P(i,j)の周辺領域、例えば注目画素を中心とし、高さ(垂直方向サイズ)が(2*BM+1)、幅(水平方向サイズ)が(2*BN+1)の矩形領域(ブロック)D2B(i,j)を切り出す。
 後フレームブロック切り出し部22は、映像信号D1に対し、前記注目画素P(i、j)毎に定義される座標の集合、
 S(i,j)={(i+k,j+l)}   (1)
 (ただし、-SV≦k≦SV、-SH≦l≦SH
 また、SV、SHは所定の値である。)
に含まれる位置(i+k,j+l)を中心として、矩形領域D2B(i,j)と同じサイズの矩形領域D1B(i+k,j+l)を切り出す(図5(b))。ここで、S(i,j)は、注目画素P(i、j)についての動きベクトルの探索範囲とも呼ばれる。このように定義される探索範囲は、横方向が2*H+1、縦方向が2*V+1の矩形の領域である。
 動きベクトル決定部23は、注目フレームブロック切り出し部21から入力される矩形領域D2B(i,j)と、後フレームブロック切り出し部22から入力されるブロックD1B(i+k,j+l)との間で、それぞれのブロック内のすべての画素、即ち(2*BM+1)*(2*BN+1)個の、互いに対応する位置の画素同士の差分の絶対値の総和(差分絶対値和)SAD(i+k,j+l)を求める。該差分絶対値和SAD(i+k,j+l)は下記の式(2)で表される。
Figure JPOXMLDOC01-appb-M000001
 後述のように、(2*SV+1)*(2*SH+1)個の矩形領域D1B(i+k,j+l)に対応して(2*SV+1)*(2*SH+1)個の差分絶対値和SAD(i+k,j+l)が得られ、その中で値が最小となるものを生じさせた矩形領域D1B(i+km,j+lm)を特定し、該矩形領域の、矩形領域D2B(i,j)に対する相対位置(km,lm)を動きベクトルV=(Vy,Vx)=(km,lm)として、画像補正処理部6へ出力する。
 以上の処理により、動きベクトル決定部23は、注目フレーム映像信号D2の矩形領域D2B(i,j)が、後フレーム映像信号D1のどの領域に動いたかを推定し、推定された領域D1Bの、矩形領域D2B(i,j)に対する相対位置を、注目画素P(i、j)についての動きベクトルV(他の画素についての動きベクトルとの区別のため「V(i,j)」と表すこともある)として出力する。
 上記のような動きベクトル検出を、入力画像遅延部4から出力される映像信号D2の全画素に対して行い、各画素について動きベクトルを検出し、このようにして得られた動きベクトルを動きぼやけの軽減に利用する。
 なお、動きベクトル検出部5における動きベクトル検出に当たり、画像の上端、下端、左端、右端の外側の画素が、上記の矩形領域D2B(i,j)、D1B(i+k,j+l)の一部となり、それらの画素値が必要とされる場合は、例えば、上端、下端、左端、右端の外側の画素が、それぞれ上端、下端、左端、右端の画素と同じ値を持つものとして処理をすれば良い。後述のフィルタリング部34、平均値算出部37などにおける演算においても同様である。
 また、本発明における動きベクトル検出部5の処理方法は、上記方法に限定されるものでは無く、注目フレーム映像信号、後フレーム映像信号のほかに、注目フレーム映像信号より1フレーム前の映像信号をも用いる手法や、後フレーム映像信号を用いずに、注目フレーム映像信号と、注目フレーム映像信号より1フレーム前の映像信号をも用いる手法や、注目フレーム映像信号と後フレーム映像信号とを用い、位相相関関数を用いて求める手法などを採用しても良い。
 図6は、画像補正処理部6の構成例を示す。図示の画像補正処理部6は、補正演算部30と、操作信号処理部31と、動きぼやけ推定部32と、フィルタ係数保存部33と、フィルタリング部34と、平均値算出部37と、補正強度調整部38と、利得計算部39とを備える。
 補正演算部30は、映像信号D2を受け、後述の利得GAINにより、画素毎に補正処理を行い、補正後の映像信号Eを画像選択部10へ出力する。
 操作信号処理部31は、ユーザより図示しないインターフェースを用いて入力された信号PRを解析し、解析結果として得られたパラメータを出力する。
 操作信号処理部31から出力されるパラメータには、調整パラメータADJ、補正強度パラメータBST0、閾値TH1、TH2が含まれる。
 調整パラメータADJは、動きベクトルから動きぼやけ量を算出するためのものであり、動きぼやけ推定部32へ供給される。
 閾値TH1は、フィルタリング部34の特性を調整するためのものであり、フィルタリング部34へ供給される。
 補正強度パラメータBST0は、補正強度を決定するものであり、閾値TH2は、画像の特徴の判別に用いられるものであり、これらは補正強度調整部38へ供給される。
 動きぼやけ推定部32は、動きベクトル検出部5で検出した動きベクトルV(垂直方向成分Vy(=km),水平方向成分Vx(=lm))を入力とし、該動きベクトルを極座標で表したときの成分(大きさ及び角度)を算出する。具体的には、動きベクトルの向きが水平方向右向きとなる場合を0度として、動きベクトルの方向A(度)と大きさLM(画素)を次式にて算出する。
Figure JPOXMLDOC01-appb-M000002
 動きぼやけ推定部32ではさらに、動きベクトルに対応する角度及び動きぼやけの大きさ(動きの方向のぼやけ幅)を求める。例えば、動きぼやけの角度は、動きベクトルの角度Aと同じとし、一方、動きぼやけの大きさLBは、動きベクトルの大きさLMに調整パラメータADJ(0<ADJ≦1)を乗算した値に等しいとし、下記の式(5)により、動きぼやけの大きさLBを求める。
 LB=LM*ADJ   (5)
 調整パラメータADJは、図7に示すように、フレーム期間の長さTfに対する、撮像期間の長さTs、例えば電荷蓄積時間の比(Ts/Tf)に相当する値を持つものであり、各フレームにおける実際の撮像期間の長さTsに応じて変更しても良いが、本実施の形態が対象としている条件下での撮像期間の典型的な値、平均値、あるいは中間値に基づいて定めても良い。例えば中間値を用いる場合、撮像期間がフレーム期間のEXS倍からEXL倍(EXS、EXLともに1より小さい)の範囲内であれば、その中間値(EXS+EXL)/2をADJと定めることとする。
 このように調整パラメータADJを掛けるのは、動きベクトルVはフレーム間で検出され、従って、フレーム期間当たりの動きの量を反映したものであるのに対して、動きぼやけは、撮像期間中の被写体の動きに起因するものであるためである。
 フィルタ係数保存部33は、予め複数の動きぼやけの方向及び大きさの組合せに対応付けて複数のローパスフィルタ係数(2次元FIRフィルタ係数)をテーブル形式で記憶している。このフィルタ係数は、特定の方向及び大きさの動きぼやけを含む映像信号から、動きぼやけの成分を低減するためのものである。
 動きぼやけ推定部32は、上記のようにして算出した動きぼやけの方向A及び大きさLBの組合せに対応したフィルタ係数をテーブルから読み出すため、動きぼやけの方向A及び大きさLBからテーブルへのポインタINDを算出して、フィルタ係数保存部33へ入力する。
 フィルタ係数保存部33は、入力されたポインタINDに対応して記憶されているフィルタ係数CF(p,q)を読み出し、フィルタリング部34へ出力する。
 このように、動きぼやけ推定部32は、ポインタINDをフィルタ係数保存部33に供給することで、フィルタ係数保存部33に保存されたフィルタ係数の中から、推定された動きぼやけの方向A及び大きさLBに対応したフィルタ係数CF(p,q)を選択する。
 フィルタリング部34は、動きぼやけ推定部32により選択されたフィルタ係数CF(p,q)を用いてフィルタリングを行う。即ち、フィルタリング部34は、上記のようにしてフィルタ係数保存部33から読み出されるフィルタ係数CF(p,q)(但し、-P≦p≦P、-Q≦q≦Q)を用いて、映像信号D2の各注目画素P(i,j)の周辺領域内の画素の画素値を用いて、フィルタリングを行い、フィルタリングの結果FL1(i,j)を出力するものであり、非線形処理部35と、ローパスフィルタ36とを有する。
 非線形処理部35は、注目画素の画素値D2(i,j)と、その周辺領域内の画素の画素値D2(i-p,j-q)との差分と、操作信号処理部31より入力される閾値TH1とに基づいて下記の式(6a)~(6f)で示される非線形処理を行う。
(A) D2(i-p,j-q)-D2(i,j)>TH1のとき
 D2b(i-p,j-q)-D2(i,j)=TH1   (6a)
となるように、即ち、
 D2b(i-p,j-q)=D2(i,j)+TH1   (6b)
により、
(B) D2(i-p,j-q)-D2(i,j)≦-TH1のとき
 D2b(i-p,j-q)-D2(i,j)=-TH1   (6c)
となるように、即ち、
 D2b(i-p,j-q)=D2(i,j)-TH1   (6d)
により、
(C) 上記(A)、(B)以外のとき
 D2b(i-p,j-q)-D2(i,j)
 =D2(i-p,j-q)-D2(i,j)   (6e)
となるように、即ち、
 D2b(i-p,j-q)=D2(i-p,j-q)   (6f)
により、D2b(i-p,j-q)を定める。
 ローパスフィルタ36は、各注目画素D2(i,j)の周辺領域、即ち、(2P+1)*(2Q+1)個の画素から成る範囲で、上記の非線形処理の結果として得られる値D2b(i-p,j-p)に対して、対応するフィルタ係数CF(p,q)を乗算し、乗算結果の総和をフィルタリング結果FL1(i,j)として求める。
 ローパスフィルタ36で用いられるフィルタ係数CF(p,q)について以下に説明する。
 フィルタ係数は注目画素を中心として、-P≦p≦P、-Q≦q≦Qの領域内の画素について定義される。
 先にも述べたように、フィルタ係数CF(p,q)は、動きぼやけの角度A及び大きさLBに基づいて決められる。
 図8~図10は、フィルタ係数が定義される領域のうち、動きぼやけの幾つかの例に対して、フィルタ係数が0以外の値に定義される領域を示す。以下では、このフィルタ係数が0以外の値となる領域を有効フィルタリング領域EFAと言う。有効フィルタリング領域EFA内の画素位置におけるフィルタ係数の総和は1である。
 動きぼやけの大きさLB及びその角度Aに応じた帯状の領域が、有効フィルタリング領域EFAとされる。そして、有効フィルタリング領域EFAに完全に又は部分的に含まれる画素に対して、その有効フィルタリング領域EFAに含まれる割合に応じた重み付け係数を与える。例えば、有効フィルタリング領域EFAに部分的に含まれる画素に対しては、有効フィルタリング領域EFAに完全に(その全体が)含まれる画素よりも重み付け係数の値を小さくし、各画素についての重み付け係数の値は、該画素が有効フィルタリング領域EFAに含まれる割合に比例した値とする。
 この帯状の領域は、動きぼやけの方向に延在するものであり、その長さは、動きぼやけの大きさLBの所定数倍、例えば2倍であり、動きぼやけの始端及び終端からその前後に所定量、例えば、動きぼやけの大きさLBの0.5倍ずつ延長した長さを有する。帯状の領域の幅は、1画素のサイズに相当するものとする。図8~図10に示す例は、1画素のサイズが垂直方向と水平方向とで同じであるものとして示してある。図8~図10ではまた、動きぼやけの始点が座標(i,j)で示される位置にあるものとしている。
 図8に示される例では、動きぼやけが水平方向右向きでその大きさLBが4画素分である。この場合、動ききぼやけは、動きぼやけの始点の画素Ps(座標(i,j)の画素)の中心から終点の画素Pe(座標(i,j+4)の中心まで延びていると見て、その前後に2画素(0.5×4画素)の長さを加える。即ち、始点の画素Psの中心から後方(図8で左方)へ2画素分後退した(図で左方に移動した)位置、即ち、座標(i,j-2)の画素の中心から、終点の画素Peの中心から前方(図8で右方)へ2画素分前進した(図で右方に移動した)位置、即ち、座標(i,j+6)の画素の中心までの範囲を有効範囲とする。これらの画素に対して、その有効フィルタリング領域EFAに含まれる割合に応じた重み付け係数を与える。即ち、座標(i,j-1)の画素から、座標(i,j+5)までの画素に対しては同じ値の係数を与え、座標(i,j-2)の画素、座標(i,j+6)の画素は、各々半分のみが有効フィルタリング領域EFAに含まれるので、他の画素(座標(i,j-1)から座標(i,j+5)までの画素)の係数の1/2の値を与える。
 図8の例では、有効フィルタリング領域EFA内に半分のみ含まれる画素の数が2であり、有効フィルタリング領域EFAに完全に含まれる画素の数が6であるので、有効フィルタリング領域EFAに完全に含まれる画素に対しては1/7の重み付け係数が与えられ、有効フィルタリング領域EFAに半分だけ含まれる画素に対しては1/14の重み付け係数が与えられる。
 図9に示される例では、動きぼやけが水平方向右向きでその大きさLBが3画素分である。この場合、動きぼやけは、動きぼやけの始点の画素Ps(座標(i,j)の画素)の中心から終点の画素Pe(座標(i,j+3)の中心まで延びていると見て、その前後に1.5画素(0.5×3画素)の長さを加える。即ち、始点の画素Psの中心から後方(図9で左方)へ1.5画素分後退した位置、即ち、座標(i,j-1)の画素の左端から、終点の画素Peの中心から前方(図9で右方)へ1.5画素分前進した位置、即ち、座標(i,j+4)の画素の右端までの範囲を有効範囲とする。そして、図9の例では、有効フィルタリング領域EFAに部分的に含まれる画素は存在せず、有効フィルタリング領域EFAに完全に含まれる画素の数が6であるので、これらの画素の各々についての係数を1/6と定める。
 図10に示される例では、動きぼやけの大きさLBは3画素分であり、図9の場合と同じであり、有効フィルタリング領域EFAの長さ及び幅は、図9の場合と同じであるが、動きぼやけの角度が30度であり、その結果、部分的にのみ有効フィルタリング領域EFAに含まれる画素の数が多く存在する。具体的には、座標(i-3,j+4)、座標(i-2,j+2)、座標(i-2,j+3)、座標(i-2,j+4)、座標(i-1,j)、座標(i-1,j+1)、座標(i-1,j+2)、座標(i-1,j+3)、座標(i,j-1)、座標(i,j)、座標(i,j+1)、座標(i,j+2)、座標(i+1,j-1)、座標(i+1,j)の画素がそれぞれ部分的に有効フィルタリング領域EFAに含まれている。そこで、これらの14個の画素に対して有効フィルタリング領域EFAに含まれる割合に応じて重み付け係数を与える。
 動きぼやけの大きさLB、角度Aの他の値についても同様に各画素についての重み付け係数を求める。但し、動きぼやけの大きさLB、角度Aが取り得る値のすべてについて重み付け係数を求めるのではなく、大きさLB、角度Aの各々について、互いに所定の範囲ごとの代表値LR、ARに対して重み付け係数を求め、フィルタ係数としてフィルタ係数保存部33に保存しておき、それぞれの範囲内の大きさLB、角度Aに対しては、代表値LR、ARに対して求められ、保存されているフィルタ係数を用いる。代表値LR、AR(またはこれに対応する値)は、後述のポインタINDの生成に用いられる。これらの点については後にさらに詳しく説明する。
 なお、上記の例では、有効フィルタリング領域EFAが、動きぼやけを、その始端及び終端から前後に動きぼやけの大きさLBの0.5倍ずつ延長した長さを有することとしているが、該延長量を動きぼやけの大きさLBに関係しない所定値としてもよく、例えば、該延長量を0.5画素分としても良い。また、該延長量をゼロとしても良い。
 また、有効フィルタリング領域EFAに含まれる画素について、有効フィルタリング領域EFAに含まれる割合に応じた重み付けを行う一方、注目画素からの距離に応じた重み付けを行わない構成を持つ移動平均フィルタを用いているが、注目画素からの距離に応じた重み付けを行う構成であっても良い。そのようなフィルタの例としてガウスフィルタがある。
 先にも述べた通り、ローパスフィルタ36は、各注目画素D2(i,j)の周辺領域の画素についての非線形処理の結果として得られる値D2b(i-p,j-p)に対して、フィルタ係数保存部33から読み出された、対応するフィルタ係数CF(p,q)を乗算し、乗算結果の総和をフィルタリング結果FL1(i,j)として求める。このフィルタリングは下記の式で表される。
Figure JPOXMLDOC01-appb-M000003
 式(7)によるフィルタ結果FL1(i,j)は、利得計算部39へ出力される。
 平均値算出部37は、映像信号D2の各注目画素D2(i,j)の周辺領域内の画素の画素値の平均値FL2(i,j)を出力する。
 ここで言う周辺領域は、例えば、(2P+1)*(2Q+1)個の画素から成る範囲であり、平均値算出部37は、該範囲内の画素値D2(i-p,j-q)の平均値FL2(i,j)、即ち、下記の式(8)で表される値を計算し、補正強度調整部38へ出力する。
Figure JPOXMLDOC01-appb-M000004
 補正強度調整部38は、注目画素の近傍における画素値の変化の度合い乃至大きさ、例えば、注目画素の画素値D2(i,j)と周辺領域内の画素の画素値の平均値FL2(i,j)との差に応じて、注目画素に対する補正強度を調整する。補正強度の調整は以下に説明するように補正強度パラメータBST1(i,j)の調整により行われる。
 具体的には、補正強度調整部38は、操作信号処理部31から入力される補正強度パラメータBST0に基づいて、調整後の補正強度パラメータBST1を出力するものであり、入力画像遅延部4から入力された映像信号D2の注目画素の画素値D2(i,j)と、平均値算出部37からの平均値FL2(i,j)との差分の絶対値が、操作信号処理部31から入力される閾値TH2より小さい場合は、操作信号処理部31から入力される補正強度パラメータBST0より小さい調整後の補正強度パラメータBST1(i,j)を生成して、利得計算部39へ出力する。調整後の補正強度パラメータBST(i,j)としては、例えばBST0×β(β<1)で与えられるものを用いることができる。調整後の補正強度パラメータBST1(i,j)を補正強度パラメータBST0に対してどの程度小さくするか(例えば、βの値)は、ユーザが決定可能としても良い。例えば、β=1/2としても良く、β=0としても良い。
 画素値D2(i,j)と平均値FL2(i,j)の差分の絶対値が、閾値TH2よりも小さくないときは、補正強度パラメータBST0をそのまま調整後の補正強度パラメータBST1(i,j)として出力する。従って、(D2(i,j)-FL2(i,j))と、調整後の補正強度パラメータBST1との関係は、図11に示されるごとくである。
 利得計算部39は、フィルタリング部34から得られるフィルタ結果FL1(i,j)と、補正強度調整部38から出力される調整後の補正強度パラメータBST1(i,j)と、入力画像遅延部4から入力される映像信号D2の注目画素の画素値D2(i,j)を参照し、補正処理で用いられる乗算係数乃至利得GAIN(i,j)を次式に基づき計算する。
GAIN(i,j)
=1+BST1(i,j)-BST1(i,j)*FL1(i,j)/D2(i,j)
                             (9)
 ただし、D2(i,j)=0の場合は、便宜的にD2(i,j)=1として計算する。また、式(9)を計算した結果、GAIN<0となる場合は、GAIN(i,j)=0とする。そして、得られた利得GAIN(i,j)を補正演算部30へ出力する。
 補正演算部30は、入力画像遅延部4から入力される映像信号D2の注目画素の画素値D2(i,j)に対し、次式に基づく計算により画素値E(i,j)を求め、補正後の映像信号の画素P(i,j)の画素値として画像選択部10へ出力する。
 E(i,j)=GAIN(i,j)*D2(i,j)   (10)
 図12は、処理画像遅延部7の構成例を示す。図示の処理画像遅延部7は、フレームメモリ41と、フレームメモリ制御部42とを備えている。フレームメモリ41は入力された映像信号E0を少なくとも1フレーム分記憶可能な容量を有している。
 フレームメモリ制御部42は、入力された映像信号E0に含まれる同期信号を元に生成したメモリアドレスに従い、入力された映像信号E0の書込みと、蓄積された映像信号の読み出しとを行う。具体的には、入力された映像信号E0を1フレーム分遅延させ、映像信号E1として出力する。
 次に、動きベクトルVの検出に誤りが少ないかどうか、従って、信頼性が十分に高いかどうかの判定を行うアルゴリズムについて述べる。この判定は、高周波成分検出部8及び判定部9で行われものであり、各フレーム中の各画素についての動きベクトルは、その周囲の画素についての動きベクトルに対して大きく異なることは少ないとことに基づくものである。
 即ち、動きベクトルの検出は、動きベクトル検出部5により行われるが、注目画素(i,j)における動きベクトルV(Vy(i,j),Vx(i,j))は、その周辺画素における動きベクトルVから大きく変化することがある。しかしながら、多くの場合映像信号は相関の強い画素が一定領域において2次元で並んでいると考えられ、意味のある2次元情報を構成していると考えられる。1フレーム内において検出された動きベクトルの変化が多い場合、動きベクトルの検出に誤りが多く、信頼性が低いと推定することができる。そこで、動きベクトル検出部5により検出された動きベクトルの高周波成分を検出し、上記のような変化を捉えることを考える。
 例えば、高周波成分検出部8は、次式のような2次元の2階差分を垂直方向の動きベクトルと水平方向の動きベクトル(動きベクトル検出部5から出力される)に対して演算し、それぞれの絶対値を加算することで、注目画素(i,j)の高周波成分L(i,j)として出力する。
 L(i,j)
 =|Vy(i-1,j)+Vy(i+1,j)+Vy(i,j-1)+Vy(i,j+1)-4Vy(i,j)|
 +|Vx(i-1,j)+Vx(i+1,j)+Vx(i,j-1)+Vx(i,j+1)-4Vx(i,j)|
                            (14)
 高周波成分L(i,j)を閾値C1と比較し、比較結果としての高周波成分検出結果Hを次のように得る。
(A) L(i,j)<C1であれば、H(i,j)=0   (15a)
(B) L(i,j)≧C1であれば、H(i,j)=1   (15b)
 式(15a)、式(15b)による判定結果でH(i,j)=1となった場合、各画素について検出された動きベクトルが誤検出されたものである推定して処理する。
 次に判定部9では、高周波成分検出部8から出力された高周波成分検出結果Hを1フレーム分計数乃至積算する。つまり、高周波成分検出結果Hの1フレーム分の合計Tを下記の式(16)によって得る。
Figure JPOXMLDOC01-appb-M000005
 (Mは画像の垂直方向サイズ(画素数)、Nは画像の水平方向サイズ(画素数)である。)
 そして、上式(16)で得た合計Nhfと閾値C2との比較により、判定結果Rを次のように得る。
(A) Nhf<C2であれば、R=0    (17a)
(B) Nhf≧C2であれば、R=1   (17b)
 R=1の場合には、当該フレームには動きベクトルの検出に誤りが多く、信頼性が低いと判断する。
 一方、R=0の場合には、当該フレームにおける動きベクトルの検出には誤りが少なく、信頼性が十分に高いと判断する。
 判定部9から出力された判定結果Rは画像選択部10へ入力され、画像選択部10は、選択制御信号Rが「0」の場合は処理画像遅延部7から出力される補正された映像信号E1(図2(h))を選択して最終出力映像信号Fとして出力し(図2(k))、選択制御信号Rが「1」の場合は入力画像遅延部4から出力される映像信号D3(図2(f))を選択して最終出力映像信号Fとして出力する(図2(l))。
 画像選択部10から出力された最終出力映像信号Fは、画像表示部3にて表示される。
 なお、図1の構成において、入力画像遅延部4、動きベクトル検出部5、及び画像補正処理部6において、輝度信号(Y)のみを処理することで、被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを軽減することができる。しかしながら、輝度信号(Y)だけでなく、赤色信号(R)、青色信号(G)、緑色信号(B)を個別に処理してもよい。またR、G、Bの和を表す信号で、式(9)の利得GAIN(i,j)を求め、画像補正処理部6の動作に関し、式(10)ではR、G、B個別に処理をしても良い。また、輝度信号(Y)と色差信号(Cb、Cr)を個別に処理してもよい。輝度信号(Y)で利得GAIN(i,j)を求め、求めた利得GAIN(i,j)を用いて、輝度信号(Y)と色差信号(Cb、Cr)の各々に対して、式(10)の演算により個別に処理しても良い。他の色表現フォーマットでも同様な処理が行える。
 以下、画像処理装置2の各構成要素の動作についてさらに詳しく説明する。
 画像処理装置2に入力された映像信号D0は入力画像遅延部4に入力される。
 図2(a)~(l)は、入力画像遅延部4に入力される映像信号D0と、入力画像遅延部4から出力される映像信号D1、D2、D3の関係を説明する図である。図2(a)に示される入力垂直同期信号SYIに同期して、図2(b)に示すように、フレームF0、F1、F2、F3、F4の入力映像信号D0が順次入力される。
 フレームメモリ制御部12は入力垂直同期信号SYIを元にフレームメモリ書込みアドレスを生成し、入力映像信号D0をフレームメモリ11に記憶させると共に、図2(c)に示す出力垂直同期信号SYO(入力垂直同期信号SYIに対して遅れがないものとして示してある)に同期して、図2(d)に示すように、入力映像信号D0に対してフレーム遅延のない映像信号D1(フレームF0、F1、F2、F3、F4の映像信号)を出力する。
 フレームメモリ制御部12はまた、出力垂直同期信号SYOを元にフレームメモリ読み出しアドレスを生成し、フレームメモリ11に蓄えられた、1フレーム遅延映像信号D2(図2(e))、2フレーム遅延映像信号D3(図2(f))を読み出して出力する。
 この結果、入力画像遅延部4からは、連続する3フレームの映像信号D1、D2、D3が同時に出力される。即ち、フレームF2の映像信号が映像信号D0として入力されるタイミング(フレーム期間)に、フレームF2、F1、F0の映像信号が映像信号D1、D2、D3として出力され、フレームF3の映像信号が映像信号D0として入力されるタイミング(フレーム期間)に、フレームF3、F2、F1の映像信号が映像信号D1、D2、D3として出力される。
 入力画像遅延部4から出力された、連続する2フレームの映像信号D1、D2は、動きベクトル検出部5へ供給され、映像信号D2は画像補正処理部6へも供給され、映像信号D3は画像選択部10へ供給される。
 動きベクトル検出部5に入力された映像信号D1、D2は、それぞれ後フレームブロック切り出し部22、注目フレームブロック切り出し部21へ入力される。
 動きベクトル検出部5では、例えば、映像符号化でよく用いられる差分絶対値和SADを用いた動きベクトルの検出を行い、検出した動きベクトルの値V(図2(i))を出力する。本実施の形態では、動きぼやけが生じている画素の動きぼやけを軽減することが目的であるため、画素毎に差分絶対値和SADを計算し、その最小値から動きベクトルを求める。
 しかし、差分絶対値和SADを求める演算を全画素について実行すれば、演算量が莫大となってしまうため、映像符号化と同様に動きベクトルを検出するためのブロックが、隣り合うもの同士で重ならないように処理し、動きベクトルを検出しない画素に対しては、周辺で検出された動きベクトルより補間することとしても良い。
 また、上記においては、動きベクトル検出部5で用いるブロックサイズを、注目画素P(i,j)を中心に上下及び左右が同じサイズの矩形の領域とし、矩形領域の高さ及び幅をそれぞれ(2*BM+1)、(2*BN+1)で表される奇数とした。しかしながら、矩形領域の高さ及び幅は、奇数でなくても良く、注目画素の矩形領域内の位置は正確に中心でなくても、若干ずれた位置であっても良い。
 さらには、式(1)のように、探索範囲を-SV≦k≦SV、-SH≦l≦SHと定義し、本範囲に含まれる全てのkおよびlに対して差分絶対値和SADを計算するものとした。しかし、演算量を削減する目的でkおよびlを適度に間引き差分絶対値和SADを計算しても良い。この場合、間引かれた(間引きにより除去された)位置(i+k,j+l)については、その周辺の位置についての、差分絶対値和SAD(i+k,j+l)から補間をして用いても良い。また、動きベクトルの精度を検討し、精度に問題が無ければ間引いて得られた差分絶対値和SADを用いても良い。
 画像補正処理部6では、映像信号D2(図2(e))に対して補正処理を加え、補正処理後の映像信号E0を出力する(図2(g))を出力する。
 画像補正処理部6に入力された動きベクトルVは、まず動きぼやけ推定部32へ入力される。動きぼやけ推定部32へ入力される動きベクトルVは、図13のように垂直方向の成分Vy(i,j)と水平方向の成分Vx(i,j)とで表されているので、式(3)より動きベクトルの方向A(度)を算出し、式(4)より動きベクトルの大きさLM(画素)を算出する。
 ここで、カメラを静止し、等速直線運動をしている物体を撮影した場合を考える。この時撮像される連続した3フレームの映像信号で表される画像の要素の動きの一例を図14(a)、(b)に示す。図示の例では、1フレーム目と2フレーム目の間(図14(a))と2フレーム目と3フレーム目との間(図14(b))の各々において、画像の要素ESが、水平方向に4画素移動し、垂直方向には移動していない(Vy=0、Vx=4)。従って、1フレーム目と2フレーム目の間、及び2フレーム目と3フレーム目の間における動きベクトルは、図14(a)、図14(b)の矢印のように水平方向4画素、垂直方向0画素として検出される。
 仮に、図14(a)、図14(b)に示される画像の撮像期間Tsが1フレーム期間Tfと等しければ、動きぼやけの大きさLBも水平方向に4画素、垂直方向に0画素となる。
 しかし、実際には撮像期間Tsは、図7に示すように、1フレーム期間Tfよりも短いため、図15(a)、(b)に示すように、動きぼやけの大きさLBは、動きベクトルの大きさLMによりも小さく、その割合は、1フレーム期間Tfに対する、撮像期間Tsの長さの比(Ts/Tf)に相当する。
 このことを考慮し、動きベクトルの大きさLMに、1よりも小さい調整パラメータADJを掛けた値を、動きぼやけの大きさLBと推定する。調整パラメータADJは、先に述べたように、各フレームの実際の撮像期間の長さTsに基づいて決めても良く、経験的に決定することとしても良く、ユーザにより設定可能としても良い。
 次に、フィルタ係数保存部33のテーブルからフィルタ係数を読み出すためのポインタINDの算出方法を説明する。
 例えば、フィルタ係数保存部33に保存されているフィルタ係数が、角度(単位が「度」であるとする)の代表値としての、0度から165度までの15度毎の角度、大きさの代表値としての、1から21までの奇数に対して定義されているとする。
 このとき、式(5)で得られたLBを四捨五入し、四捨五入の結果が偶数であれば1を加算して奇数にし(LB=LB+1)、このような処理の結果が「21」よりも大きければ、「21」にクリッピングし、このような処理をした結果を、動きぼやけの大きさの代表値LRとして出力する。動きぼやけの大きさLBの値が代表値LRを含む所定の範囲内であれば、上記の処理をすることにより、動きぼやけの大きさLBは代表値LRに変換される。
 一方、角度Aについては、式(3)で求められたAが0より小さければ、180度を加算し(A=A+180)、15度単位で四捨五入(R丸め)するためA2=(A+7.5)/15を小数点以下切り捨て、その結果が12以上であれば(A2≧12)、A2=0とする。このような処理の結果を、動きぼやけの角度の代表値ARに対応する値AR2として出力する。ARとAR2との間には次の関係がある。
 AR=15×AR2
 動きぼやけの角度Aの値が代表値ARを含む所定の範囲内であれば、上記の処理をすることにより、動きぼやけの角度Aは代表値ARに対応する値AR2に変換される。
 動きぼやけの大きさの代表値LR、及び角度の代表値ARに対応する値AR2を用いて、次式のような計算により、テーブルからの読み出しのためのポインタINDとすることができる。
 IND=12*((LR-1)/2-1)+AR2   (11)
 式(11)に基づいてAR2およびLRからポインタINDを求めるテーブルの具体例を図16に示す。図16には示していないが、LR=1の場合のフィルタ係数CF(p,q)は、i=0、j=0の場合には、例えば、CF(i,j)=1、それ以外の場合には、CF(i,j)=0と定められる。
 フィルタ係数保存部33は、動きぼやけ推定部32よりポインタINDが入力されると、入力されたポインタINDに対応するフィルタ係数CF(p,q)をローパスフィルタ36に供給する。フィルタ係数保存部33に保存されるフィルタ係数は、ユーザが自由に設計することができる。フィルタ係数はローパスフィルタを実現するものであればよく、比較的設計しやすいことも本実施の形態の特徴である。
 次に、ローパスフィルタ36を備えるフィルタリング部34について詳細に説明する。本実施の形態は、被写体の動きやカメラの動きにより動きぼやけが生じた領域の動きぼやけを、適切に軽減することを目的としており、次式に示すローパスフィルタを用いた手法をベースとしている。
 E(i,j)
 =D2(i,j)+BST1(i,j)*(D2(i,j)-FL1(i,j))
                             (12)
 式(12)を変形すると式(9)、式(10)が得られる。式(12)の考え方に基づいて処理を行うこととすれば、例えば緑色信号(G)を用いて式(9)による計算を行って、利得GAIN(i,j)を求め、補正演算部30において、同じ画素の複数の色信号に対して同じ利得GAIN(i,j)を用いて式(10)の演算を行うことで演算量を削減できる利点がある。しかしながら、式(12)を用いる手法には以下の欠点もあり、そのため以下のような処理を行うこととしている。
 式(12)による手法は、フィルタ係数保存部33より出力されたフィルタ係数CF(p,q)を用い、画像補正処理部6に入力された映像信号D2に対しローパスフィルタリングを行い、フィルタ結果FL1(i,j)を利得計算部39へ出力する。しかし、式(12)に基づくローパスフィルタリングによる動きぼやけ補正処理は、補正画像において強いエッジ部にオーバーシュートが生じる弊害が起きやすい。
 そこで、ローパスフィルタ36の前段に非線形処理部35を挿入して、強いエッジ部でオーバーシュートが抑制できるような非線形処理を行う。例えば、操作信号処理部31より入力される閾値TH1を用いて非線形処理を行い、オーバーシュートの抑制を行うこととする。具体的には、図17に示すように、注目画素の画素値D2(i,j)と、その周辺領域内の画素の画素値D2(i-p,j-q)との差分値DIF(i-p,j-q)=D2(i,j)-D2(i-p,j-q)を閾値TH1によりクリッピングする。即ち、フィルタリング部34は、注目画素の画素値D2(i,j)とその周辺領域内の画素の各々の画素値D2(i-p,j-q)との差DIF(i-p,j-q)の絶対値が、予め定められた閾値TH1を超えないように、周辺領域内の画素の各々の画素値画素値D2(i-p,j-q)に対してクリッピング処理を行い、クリッピング処理後の画素値D2b(i-p,j-q)を用いて、周辺領域内の画素に対して、ローパスフィルタリングを行う。これにより、仮に抑制を行わないとすれば、差分値DIF(i-p,j-q)が大きく、利得計算部39で算出される利得GAIN(i,j)が大きくなる画像のエッジ部において、利得を適切に制御することができる。
 次に、補正強度調整部38における処理について詳細を述べる。
 補正強度調整部38は、動きぼやけ補正処理後、ノイズ増幅効果で動きぼやけ補正画像の品質が下がることを抑制するためのものであり、操作信号処理部31より入力される補正強度パラメータBST0を、画像の特徴、例えば平坦さに応じて小さくしもしくは0として、調整後の補正強度パラメータBST1とし、利得計算部39へ出力する。
 具体的には、映像信号D2を入力し、注目画素の周辺領域内の画素の画素値(例えば輝度値)の変化を検出し、該変化の大きさに応じて調整後の補正強度パラメータBST1の値を決める。上記画素値の変化を表す指標としては、注目画素の画素値D2(i,j)と平均値算出部37から出力される平均値FL2(i,j)との差分値の絶対値を用いる。そして、例えば、該絶対値が操作信号処理部31より入力される閾値TH2より小さければ、注目画素の周辺領域内の画素値の変化が少ないと判断し、例えば調整後の補正強度パラメータBST1を調整前の補正強度パラメータBST0の1/2とし、上記の絶対値が閾値TH2より大きければ画素値の変化が大きいと判断し、調整前の補正強度パラメータBST0をそのまま調整後の補正強度パラメータBST1とする。そして、このようにして定められた調整後の補正強度パラメータBST1を利得計算部39へ出力する。
 以下、上記の処理を行う意義についてさらに詳しく説明する。
 被写体の動きやカメラの動きにより動きぼやけが生じた領域の動きぼやけを軽減するための処理は、これに付随的に映像信号中のノイズを増幅してしまうこととなる。特に、画素値の変化、例えば輝度の変化の少ない平坦な領域は、動きぼやけが生じていてもその影響は視覚的に小さく、補正処理が弱くても済む。仮にこのような領域で、補正強度パラメータ値BST0をそのまま用いて補正を行うと、ノイズを大きく増幅し、動きぼやけ補正結果の品質が低下することになる。そこで、平坦な領域を検出し、そのような領域では補正強度パラメータBST0の代りにより小さい値を用いる適応処理を行う。このとき、平坦な領域か否かを判定するには、前述のように注目画素の画素値D2(i,j)とその周辺領域内の画素の画素値の平均FL2との差分を取り、閾値との大小で判定することとしている。
 また、このような理由から、前述のように平均値算出部37で算出された-P≦p≦P、-Q≦q≦Qの領域内のすべての画素の画素値の単純平均値を用いている。
 利得計算部39は、フィルタリング部34の出力FL1(i,j)、補正強度調整部38から出力される調整後の補正強度パラメータBST1(i,j)、映像信号D2の注目画素の画素値D2(i,j)を用いて上記の式(9)に基づき利得GAIN(i,j)を計算し、算出した利得GAIN(i,j)を補正演算部30へ供給する。
 ただし、式(9)に示される演算において、注目画素の画素値D2(i,j)で除算する必要から、D2(i,j)=0の場合にはD2(i,j)=1として計算を行う。また、GAIN(i,j)<0となった場合は、GAIN(i,j)=0とクリッピングする。以上の計算により得られた利得GAIN(i,j)を補正演算部30へ出力する。
 補正演算部30では、供給された利得GAIN(i,j)を画素値D2(i,j)に乗算することで、動きぼやけ補正を行う。乗算結果は、動きぼやけ補正を受けた画素値E(i,j)として出力され、画像選択部10に供給される。
 高周波成分検出部8及び判定部9は、動きベクトル検出部5から出力される動きベクトルVを受け、各フレーム内において動きベクトルの検出誤りが少ないかどうか、即ち動きベクトルの検出結果は信頼性が十分に高いものであるかどうかの判定を行う。この判定は以下の考えによるものである。
 注目画素(i,j)における動きベクトルV(Vy(i,j)、Vx(i,j))は、その周辺画素における動きベクトルVから大きく変化する場合には、誤検出されたものである可能性が高い。また局所的に動きベクトルの変化が大きい箇所があるとしても、フレーム全体に及ぶことはまれである。従って、フレーム全体に亘り、動きベクトルの変化が多い場合には、動きベクトルの検出に誤りが多く、信頼性が低いと判定する。
 例えば、カメラが静止しており、背景の中を速く動く移動物体を撮影した場合、背景と移動物体との境界領域に存在する画素の動きベクトルは、動きベクトルが0となる画素と一定方向に大きな値を取る画素とが隣り合わせで存在している。しかしながら、境界領域以外では、隣接する画素間での動きベクトルの違いは大きくない。即ち、多くの映像信号は相関の強い画素が一定領域において2次元で並んでおり、意味のある2次元情報を構成していると考えられる。
 従って、1フレーム内に上記のような動きベクトルの変化が多数発生している場合は、動きベクトルの検出に誤りが多いと判定することができる。
 そこで、各画素についての動きベクトルに対して高周波成分を検出することで上記のような変化を捉え、閾値C1との比較により、各画素についての動きベクトルが誤検出されたものであるどうかを高周波成分検出部8で推定し、判定部9で、各フレーム内において、動きベクトルが誤検出されたと推定された画素の数が閾値C2よりも多い場合には、当該フレームについての動きベクトルの検出は誤りが多く、信頼性が低いと判断する。
 即ち、判定部9では、高周波成分検出部8から出力された高周波成分検出結果Hの1フレーム分の合計Tを計算する。つまり、各フレームの全体において、動きベクトルが誤検出されたと推定される画素の数を求めている。
 なお、映像の中心部に重要なコンテンツを配置して撮影がなされることも多いことから、演算量の削減のため映像の中心領域のみ高周波成分の検出及び高周波成分検出結果Hの合計を求める演算に用いても良い。
 最終的には、閾値C2と、各フレーム内において動きベクトルが誤検出されたと推定された画素の数との比較により、判定結果Rを得ているが、入力される映像信号の性質を予め利用することができる場合、閾値C2として予め設定した値を用いても良い。
 なお、上記の例では、高周波成分検出部8における高周波成分の検出方法としての垂直方向の動きベクトルと水平方向の動きベクトルそれぞれに対し2階差分を算出し、それぞれの絶対値を足し合わせたが、入力される映像信号の性質を予め利用することができる場合、適切なカットオフ周波数を用いたハイパスフィルタリングを適用しても良い。
 また、高周波成分を検出する際は、ユーザが外部から入力する閾値C1との比較に基づいているが、カットオフ周波数を明確に設定できる場合は、閾値C1として予め設定した値を用いても良い。
 画像選択部10は、判定部9から出力された判定結果Rに基づき、選択制御信号Rが「0」の場合は処理画像遅延部7から出力される補正された映像信号E1を選択して最終出力映像信号Fとして出力し、選択制御信号Rが「1」の場合は入力画像遅延部4から出力される映像信号D3を選択して最終出力映像信号Fとして出力する。
 以上説明したように、本実施の形態では、映像信号と、前記映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて前記映像信号における動きベクトルを検出し、検出された動きベクトルを用いて動きぼやけ補正処理を行うと共に、検出された動きベクトルの高周波成分を検出することで各画素について動きベクトルが誤検出されたかどうかの推定を行い、さらに各フレーム内において、動きベクトルが誤検出されたと推定される画素の数に基づいて信頼性の程度を評価し、評価の結果に基づいて、補正処理された映像信号と、元の映像信号のいずれかを選択して表示することで、動きベクトルの検出の誤りの程度に応じて最適の映像を選択して表示することができる。
 即ち、動きベクトルの検出に誤りが多い場合に、動きベクトルに基づく補正処理を受けた映像を用いると画質劣化が生じるが、本実施の形態では、動きベクトルの検出に誤りが多い場合には、補正処理された映像を用いずに元の映像を用いることで、画質劣化を防ぎ、一方、動きベクトルの検出に誤りが少ない場合には、補正処理された映像を用いることで動きぼやけに対する補正により動きぼやけの低減した映像を表示することができる。
実施の形態2.
 図18は、本発明の実施の形態2に係る画像処理装置を備えた画像表示装置の構成を示す。図示の画像表示装置1は、画像処理装置2bと、画像表示部3とを備え、画像処理装置2bは、図1の画像処理装置2と同様の、入力画像遅延部4、動きベクトル検出部5、高周波成分検出部8、判定部9、及び画像選択部10を備えるとともに、フレームレート変換部15、画像補正処理部16、及び画像合成部17を備える。
 実施の形態2の画像処理装置2bは、入力された映像信号D0を受けて、フレームレートを高くした映像信号を生成するもので、そのために、入力映像信号のフレーム間に新たなフレーム(補間フレーム)の映像信号を補間により生成する。
 映像信号D0は、画像を構成する複数の画素の画素値を表す信号の列から成り、画像処理装置2bは、入力映像信号の相前後するフレーム間に補間フレームの映像信号を生成し、補間により生成された映像信号J0(補間により生成された画素値を持つ信号の列から成る)を1フレーム遅延した映像信号J1を、入力された映像信号D0を2フレーム遅延した映像信号D2の間に配置したフレーム列で構成される映像信号Kと、入力された映像信号D0を2フレーム遅延し、さらに、フレームレートを変換した映像信号Iのどちらかを選択して最終出力映像信号Fとして出力する。
 画像処理装置2bに入力された映像信号D0(図19(a))は、入力画像遅延部4に供給される。入力画像遅延部4はフレームメモリを用いて、入力された信号のフレーム遅延を行い、3枚の互いに異なるフレームの映像信号D1、D2、D3(図19(b)、(c)、(d))を生成する。図19(a)~(l)において、符号T0、T1、T2、…は、入力映像信号の各フレーム期間を表す。そのうち、映像信号D1は、映像信号D0に対して遅延がなく、映像信号D2は映像信号D0に対して1フレームの遅延があり、映像信号D3は、映像信号D0に対して2フレームの遅延がある。
 映像信号D2およびD1は動きベクトル検出部5及び画像補正処理部16に出力され、
 映像信号D3はフレームレート変換部15に出力される。
 フレームレート変換部15は、映像信号D3のフレーム周波数を2倍にした映像信号Iを出力する(図19(i))。この映像信号Iは、映像信号D3の各フレームを、再生時間を1/2に短縮して2回ずつ繰り返すものである。
 動きベクトル検出部5は、実施の形態1について説明したように、入力画像遅延部4から出力された2枚の異なるフレームの映像信号D2、D1を用い、映像信号D2に含まれる動きベクトルV(図19(e))を検出する。検出された動きベクトルVは画像補正処理部16及び高周波成分検出部8に出力される。
 実施の形態1に関し説明したように、動きベクトルVは、注目フレームのブロックと後フレームのブロックとの間で、式(2)で表される差分絶対値和が最小となるブロック間の相対位置(km,lm)に対応するものであり、本実施の形態では、検出された動きベクトルV=(Vy,Vx)=(km,lm)とともに、当該最小の差分絶対値和SAD(i+km,j+lm)が、当該動きベクトルVに対応する差分絶対値和mv_sad(i,j)として画像補正処理部16へ出力される。
 画像補正処理部16は、動きベクトル検出部5から出力された動きベクトルV及び差分絶対値和mv_sad(i,j)を入力とし、入力画像遅延部4から出力された各フレームの映像信号D2と次のフレームの映像信号D1の間の、時間的に中間の位置に存在すると推定される1つのフレームを補間により生成し、これにより、生成された補間フレームの列から成る映像信号J0を生成する。映像信号J0の各フレームを図19(f)に符号F0h、F1h、F2h、…で示す。生成された映像信号J0は、,画像合成部17に出力される。
 また、画像補正処理部16は、入力された映像信号D2をそのまま映像信号G0(D2と同内容のデータであり、図19(c)に示される)として画像合成部17へ出力する。
 画像合成部17は、画像補正処理部16から出力された映像信号G0及びJ0をそれぞれ1フレーム分遅延させて映像信号G1(D3と同内容のデータであり、図19(d)に示される)、J1(図19(g)のF0h、F1h、F2h、…)を生成し、映像信号G1、J1の順に交互に配置して、映像信号D0のフレーム周波数の2倍の周波数の映像信号Kとして画像選択部10へ出力する(図19(h)のF0、F0h、F1、F1h、F2、F2h、…)。
 これにあわせて、フレームレート変換部15により、映像信号D3を2倍のフレーム周波数に変換した映像信号Iが画像選択部10に入力される。この映像信号Iは、映像信号D3の各フレームを、再生時間を1/2に短縮して2回ずつ繰り返すものである(図19(i)のF0、F0、F1、F1,F2、F2、…)。
 高周波成分検出部8は動きベクトル検出部5から出力された動きベクトルV(図19(e))を入力し、ハイパスフィルタ(高域通過型フィルタ)で各画素についての高周波成分を抽出し、抽出した高周波成分の値を、外部から入力した閾値C1と比較し、比較結果を、当該画素についての高周波成分検出結果Hとして出力する。この高周波成分検出結果Hは、高周波成分の値が閾値C1よりも小さい場合には、値「0」を取り、高周波成分の値が閾値C1以上の場合には、値「1」を取る。
 各画素についての動きベクトルVの高周波成分の値が大きいほど、当該動きベクトルVが誤検出されたものである可能性が高い。本実施の形態では、高周波成分の値が閾値C1以上の場合には、当該画素についての動きベクトルVは誤検出されたもの推定して処理する。
 判定部9は、高周波成分検出部8から出力された高周波成分検出結果Hを入力し、値「1」を取る高周波成分検出結果Hの数を1フレームに亘り計数する。そして、1フレーム中における、値「1」を取る高周波成分検出結果Hの発生回数を、外部から入力した閾値C2と比較し、比較結果を選択制御信号Rとして画像選択部10に出力する。具体的には、1フレーム中における、値「1」を取る高周波成分検出結果Hの数が閾値C2よりも小さい場合は選択制御信号Rの値を「0」とし、閾値C2以上の場合は選択制御信号Rの値を「1」とする(図19(j))。
 画像選択部10は、選択制御信号Rが「0」の場合は画像合成部17から出力される映像信号K(図19(h))を選択して最終出力映像信号Fとして出力し(図19(k))、選択制御信号Rが「1」の場合はフレームレート変換部15から出力される映像信号I(図19(i))を選択して最終出力映像信号Fとして出力する(図19(l))。
 各フレームについて値「1」を取る高周波成分検出結果Hが多いほど、当該フレームには動きベクトルVの誤検出が多い可能性が高く、信頼性が低いと推定できる。本実施の形態では、値「1」を取る高周波成分検出結果Hの数Nhfが閾値C2以上の場合には、当該フレームについて、動きベクトルVの誤検出が多く、従って、動きベクトルVの検出結果は信頼性が低いものとして処理する。即ち、画像選択部10において、動きベクトルVを用いて行なわれた画像補正処理の結果得られた映像信号Kを選択せずに、元の映像信号(画像補正処理を受けていない映像信号)Iを選択して出力する。
 各フレーム期間Tn(nは0、1、2、…のいずれか)において、動きベクトル検出部5から出力される動きベクトルVは、1フレーム遅延映像信号D2の各画素についてのものであり、動きベクトルVの高周波成分検出結果Hの各フレームにわたる集計が終わり、選択制御信号Rの値が決まるのは、当該フレーム期間の終わる時点に略一致する。そこで、各フレームの映像信号D2の動きベクトルVに基づいて生成された選択制御信号Rの値は、2フレーム遅延映像信号D3に対応するフレームレート変換信号I及び1フレーム遅延した映像信号G1及び対応する補間映像信号J1を組合せて形成された映像信号Kが画像選択部10に供給される、次のフレーム期間T(n+1)における画像選択部10における選択に用いられる。
 例えば、フレーム期間T1に入力画像遅延部4から出力され動きベクトル検出部5に入力される、フレームF0の映像信号D2に基づく選択制御信号R(F0)は、フレームF0の映像信号D3に対応するフレームレート変換信号I(F0、F0)及び対応する映像信号G1(F0)と対応する補間映像信号J1(F0h)を組合せた映像信号K(F0、F0h)が、画像選択部10に入力される次のフレーム期間T2に、画像選択部10に供給され、画像選択部10では、この選択制御信号R(F0)に基づいて、フレーム期間T2における、映像信号I(F0、F0)又は映像信号K(F0、F0h)の選択を行う。
 画像表示部3は、画像選択部10から出力された映像信号Fに基づく画像の表示を行なう。
 ここで、ユーザは閾値C1を変更することにより、高周波成分検出部8における判定の厳しさ(高周波成分の値がどの程度のときに、誤検出と推定するか)を調整することができる。また、閾値C2を変更することにより、判定部9における判定の厳しさ(各フレーム中における動きベクトルが誤検出されたと推定される画素の数がどの程度のときに、当該フレームについての動きベクトルの検出結果の信頼性が低く、画像補正処理を受けた映像信号を選択しないとの決定をする)を調整することができる。
 実施の形態2で用いられる入力画像遅延部4は、図3の入力画像遅延部4と同じ構成のものであるが、図3の入力画像遅延部4とは異なり、画像補正処理部16へ、入力映像信号D0に対してフレーム遅延が無い映像信号D1と、映像信号D1に対して1フレーム遅延した映像信号D2を出力する。
 これは、画像補正処理部16において、2フレーム間に映像信号J0を補間により生成するためである。
 図20は、画像合成部17の構成例を示す。図20の画像合成部17は、図12の処理画像遅延部7と同様であるが、図12の処理画像遅延部7と異なり、映像信号G0及びJ0をそれぞれ1フレーム遅延させて、映像信号G1、J1を出力するものであり、このため、2フレーム分のフレームメモリを要する。
 映像信号J0は、画像補正処理部16において補間により生成された映像信号(補間フレームの映像信号)である。
 映像信号G0は、画像補正処理部16が、入力映像信号D2をスルー出力(そのまま出力)したものである。
 なお、画像補正処理部16では2フレーム間に複数枚の映像信号を補間することもできるが、その場合には、補間されるフレーム数+1フレーム分のメモリを用意すれば良い。
 以下、画像補正処理部16の処理について詳細に説明する。
 画像補正処理部16は、上記のように、動きベクトル検出部5から出力された動きベクトルVを入力とし、入力画像遅延部4から出力された注目フレームの映像信号D2および後フレームの映像信号D1の間に映像信号J0を補間により生成するものであり、画像補正処理部16へは、入力画像遅延部4からの映像信号D2、D1が入力され、動きベクトル検出部5から注目フレームの動きベクトルV(Vy,Vx)及び差分絶対値和SADが入力される。
 画像補正処理部16では、注目フレームD2の動きベクトルV(Vy,Vx)及び差分絶対値和SADを受けて、補間フレームJ0上の動きベクトル(Vhy,Vhx)及び対応する差分絶対値和SADhを求める。
 注目フレームD2の位置(i,j)の動きベクトルVを、垂直方向Vy(i,j)、水平方向Vx(i,j)と表現すると、補間フレームJ0の位置(i+si,j+sj)における動きベクトルVhy、Vhx及び差分絶対値和SADhは、次のように求めることができる。
 Vhy(i+si,j+sj)=Vy(i,j)/2   (18a)
 Vhx(i+si,j+sj)=Vx(i,j)/2   (18b)
 SADh(i+si,j+sj)=mv_sad(i,j) (18c)
ただし、
 si=round[Vy(i,j)/2]
 sj=round[Vx(i,j)/2]
 (round[*]は*の四捨五入)
である。
 つまり、注目フレームの映像信号D2と後フレームの映像信号D1の中間に位置するフレームJ0を生成するため、注目フレームD2の動きベクトルVを2で割り四捨五入することで算出された位置(i+si,j+sj)に、注目フレームD2の動きベクトルVを2で割った値の動きベクトルがあるものと推定される。なお、位置(i+si,j+sj)が映像として定義された範囲の外の位置を指定した場合、式(18a)、式(18b)、式(18c)の処理をしない。
 ここで、式(18a)、式(18b)及び式(18c)で計算された補間フレームにおける動きベクトルVhy、Vhx及び差分絶対値和SADhは、補間フレーム上の全ての位置(i,j)に対して得られるとは限らない。このため、動きベクトルVhy、Vhxが得られなかった画素位置について動きベクトル値Vhy、Vhx及び差分絶対値和SADhの修正乃至補間処理(以下単に修正処理と言う)が必要となる。動きベクトルVhy、Vhx及び差分絶対値和SADhの修正処理としては、様々なアルゴリズムが提案されているが、ここでは代表的な処理を記載することとする。
 動きベクトルVhy、Vhxの修正は、補間フレームJ0の画素についてその周囲の所定の範囲、例えば3×3の範囲内の各画素位置について既に求められている動きベクトルに対応する差分絶対値和のうちで最小のものを見つける処理と、3×3の範囲に動きベクトルが存在しないと判断される場合に動きベクトルを新たに設定する処理で構成されている。
 このような処理は、式(18a)、式(18b)及び式(18c)による計算で動きベクトルVhy、Vhxが求められた画素及び求められなかった画素についてのみ、行っても良く、式(18a)、式(18b)及び式(18c)による計算で動きベクトルVhy、Vhxが求められた画素を含め、すべての画素について行うこととしても良い。
 補間フレーム上の位置(i,j)を中心とした、その周囲の3×3の範囲の各画素位置についてすでに求められている動きベクトルに対応する差分絶対値和SADhのうちの最小のものを見つけ、該最小の差分絶対値に対応する動きベクトルを、当該各画素位置についての動きベクトルの修正値として採用する。即ち、差分絶対値和が最小と判断された位置の動きベクトル(Vhy(i+ci、j+cj),Vhx(i+ci、j+cj))を、位置(i,j)の動きベクトルの修正値Vcy(i,j),Vcx(i,j)とする。この処理は下記の式で表される。
 Vcy(i、j)=Vhy(i+ci、j+cj)
 Vcx(i、j)=Vhx(i+ci、j+cj)
                   (19)
とする。このとき、(ci、cj)は、
Figure JPOXMLDOC01-appb-M000006
として得られる。
 また、3×3の範囲のいずれの画素についても式(18a)、式(18b)による処理で動きベクトルVhy、Vhxが求められていなければ、
 Vcy(i、j)=Vcx(i、j)=0
 を動きベクトルの修正値として設定する。
 以上により、補間フレームにおける動きベクトルVcy(i、j)、Vcx(i、j)が求まったので、これらを用いて注目フレームの映像信号D2と後フレームの映像信号D1の値を参照し、補間フレームJ0を求める。補間フレームの注目画素(i,j)に対応する注目フレームの映像信号D2と後フレームの映像信号D1の位置をそれぞれ(bi、bj)、(ai,aj)とすると、補間フレームJ0の各画素の画素値J0(i,j)は、
 J0(i,j)={D2(bi,bj)+D1(ai,aj)}/2
                              (21)
として求めることができる。ここで、
 bi=i-round[Vcy(i,j)]
 bj=j-round[Vcx(i,j)]
 ai=i+fix[Vcy(i,j)]
 aj=j+fix[Vcx(i,j)]
である。ただし、fix[*]は*の0方向への切捨てを示す。
 以上説明したように、入力された2フレームの映像信号D1及びD2間の動きベクトルを画素毎に検出し、検出した動きベクトルを参照することで2つのフレームの間に補間フレームの映像信号J0を生成し、生成した補間フレームの映像信号J0を、映像信号G0と共に画像合成部17へ出力する。
 以上説明したように、本実施の形態では、映像信号と、前記映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて前記映像信号における動きベクトルを検出し、検出された動きベクトルを用いてフレーム補間を行うと共に、検出された動きベクトルの高周波成分を検出することで各画素について動きベクトルが誤検出されたかどうかの推定を行い、さらに各フレーム内において、動きベクトルが誤検出されたと推定される画素の数に基づいて信頼性の程度を評価し、評価の結果に基づいて、補間処理により得られた映像信号と、元の映像信号のフレームレートを高くしただけの映像信号のいずれかを選択して表示することで、動きベクトルの検出の誤りの程度に応じて最適の映像を選択して表示することができる。
 即ち、動きベクトルの検出に誤りが多い場合に、動きベクトルに基づく補間処理で得られた映像を用いると画質劣化が生じるが、本実施の形態では、動きベクトルの検出に誤りが多い場合には、補間処理で得られた映像を用いずに元の映像を用いることで、画質劣化を防ぎ、一方、動きベクトルの検出に誤りが少ない場合には、補間処理で得られた映像を用いることでギクシャクとした動きの低減した映像(滑らかに変化する映像)を表示することができる。
実施の形態3.
 図21は、本発明の実施の形態3に係る画像処理装置を備えた画像表示装置の構成を示す。図示の画像表示装置1は、画像処理装置2cと、画像表示部3とを備え、画像処理装置2cは、図1の画像処理装置2と同様の、入力画像遅延部4、動きベクトル検出部5、及び高周波成分検出部8を備えるとともに、画像補正処理部6b、処理画像遅延部7b、判定部59、及び画像選択部60を備える。画像補正処理部6bは第1の補正処理部51及び第2の補正処理部52を備える。処理画像遅延部7bは、第1の画像遅延部53及び第2の画像遅延部54を備える。
 入力画像遅延部4、動きベクトル検出部5、及び高周波成分検出部8は、図1に示すものと同様のものである。
 実施の形態3の画像処理装置2cは、実施の形態1と同様に、入力された映像信号D0を受けて、動きぼやけ補正処理を行うものである。
 映像信号D0は、画像を構成する複数の画素の画素値を表す信号の列から成り、画像処理装置2cは、各フレームの複数の画素を順に補正対象画素(注目画素)としてぼやけ処理を行い、補正処理後の映像信号Ea0及びEb0(補正された画素値を持つ信号の列から成る)を生成し、該補正処理後の映像信号Ea0及びEb0をそれぞれ1フレーム遅延した映像信号Ea1及びEa1と、入力映像信号D0を2フレーム遅延した映像信号D3の中からいずれかを選択して最終出力映像信号Fとして出力する。
 実施の形態1について説明したのと同様に、画像処理装置2cに入力された映像信号D0は(図22(b))、入力画像遅延部4に供給される。入力画像遅延部4はフレームメモリを用いて、入力された信号のフレーム遅延を行い、3枚の互いに異なるフレームの映像信号D1、D2、D3(図22(d)、(e)、(f))を生成する。
 映像信号D1及びD2は、動きベクトル検出部5に出力され、映像信号D2は第1及び第2の補正処理部51、52に出力され、映像信号D3は画像選択部60に出力される。
 動きベクトル検出部5は、実施の形態1と同様に、入力画像遅延部4から出力された2枚の異なるフレームの映像信号D2、D1を用い、映像信号D2に含まれる動きベクトルV(図22(k))を検出する。検出された動きベクトルVは第1及び第2の補正処理部51、52、並びに高周波成分検出部8に出力される。
 第1及び第2の補正処理部51、52の各々は、実施の形態1の画像補正処理部6と同様に動作を行って画像の補正を行う。
 但し、画像補正処理部6に入力される信号PRの代わりに、第1の補正処理部51には入力される信号PR1が入力され、第2の補正処理部52には信号PR2が入力される。
 第1の補正処理部51は、動きベクトル検出部5から出力された動きベクトルVを入力とし、入力画像遅延部4から出力された映像信号D2において被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを軽減し、補正された映像信号Ea0(図22(g)のF0a、F1a、F2a、…)を第1の画像遅延部53へ出力する。
 第2の補正処理部52は、動きベクトル検出部5から出力された動きベクトルVを入力とし、入力画像遅延部4から出力された映像信号D2において被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを軽減し、補正された映像信号Eb0(図22(i)のF0b、F1b、F2b、…)を第2の画像遅延部54へ出力する。
 第2の補正処理部52は、第1の補正処理部51と比べて、補正の強度が小さい(即ち、映像の動きぼやけを軽減する量がより少ない)。
 第1の補正処理部51と第2の補正処理部52で補正の強度を変えるには、第1の補正処理部51に入力される信号PR1で表されるパラメータと、第2の補正処理部52に入力される信号PR2で表されるパラメータとで、値を異なるものを用いることとすれば良い。即ち信号PR1、PR2で表されるパラメータBST0、TH2の一部又は全部として互いに値の異なるものを用いることとすれば良い。
 パラメータBST0は、係数βと乗算されてパラメータBST1となり、式(9)に示されるように、パラメータBST1が大きいほど、補正演算部30で映像信号D2に乗算される利得GAINが大きくなる。従って、パラメータBST0が大きいほど、補正の強度が大きくなる。同じ理由で、係数βが大きいほど、補正の強度が大きくなる。
 閾値TH2は、画像の特徴の判別に用いられるものであり、映像信号D2の注目画素の画素値D2(i,j)と、その周辺の画素の画素値の平均値FL2(i,j)との差分の絶対値が閾値TH2より小さい場合は、パラメータBST0に対して1より小さい係数βを掛けて調整後のパラメータBST1を求め、そうでなければパラメータBST0をそのままパラメータBST1としているので、閾値TH2が大きいほど、パラメータBST1が大きくなり、補正の強度が大きくなる。
 またパラメータADJを大きくすると、動きぼやけをより大きく評価することになり(式(5))、従って動きぼやけに対してより強い補正が加えられる。
 第1の画像遅延部53は、第1の補正処理部51から出力された補正された映像信号Ea0を1フレーム分遅延させて出力する。第1の画像遅延部53の出力は、補正され、遅延された映像信号Ea1(図22(h)のF0a、F1a、F2a、…)として画像選択部60へ供給される。
 第2の画像遅延部54は、第2の補正処理部52から出力された補正された映像信号Eb0を1フレーム分遅延させて出力する。第2の画像遅延部54の出力は、補正され、遅延された映像信号Eb1(図22(j)のF0b、F1b、F2b、…)として画像選択部60へ供給される。
 高周波成分検出部8は、実施の形態1で説明したのと同様に、動きベクトル検出部5から出力された動きベクトルV(図22(k))を入力し、ハイパスフィルタ(高域通過型フィルタ)で各画素についての高周波数成分を抽出し、抽出した高周波成分の値を外部から入力した閾値C1と比較し、比較結果を各画素についての高周波数成分検出結果として出力する。この高周波成分検出結果Hは、高周波成分の値が閾値C1よりも小さい場合には、値「0」を取り、高周波成分の値が閾値C1以上の場合には、値「1」を取る。
 実施の形態1で述べたのと同様、閾値C1は、画像処理装置の外部から、例えばユーザが図示しない操作キーを用いて入力することで、設定し、変更することができるものである。
 判定部59は、高周波成分検出部8から出力された高周波成分検出結果Hを入力し、値「1」を取る高周波成分検出結果Hの数を1フレームに亘り計数する。そして、計数結果Nhf(1フレーム中における、値「1」を取る高周波成分検出結果Hの発生回数)を外部から入力した閾値C2A及びC2B(C2B>C2A)と比較し、比較結果を選択制御信号Rとして画像選択部60に出力する。
 具体的には、計数結果Nhfが閾値C2Aよりも小さい場合は選択制御信号Rの値を「0」とし、閾値C2A以上でかつ閾値C2Bよりも小さい場合は選択制御信号Rの値を「1」とし、閾値C2B以上の場合は選択制御信号Rの値を「2」とする(図22(l))。
 即ち、判定部59におけるRの値の決定は以下のようにして行われる。
 Nhf<C2であれば、R=0        (22a)
 Nhf≧C2A且つNhf<2Bであれば、R=1  (22b)
 Nhf≧2Bであれば、R=2        (22c)
 閾値C2A及びC2Bも、画像処理装置の外部から、例えばユーザが図示しない操作キーを用いて入力することで、設定し、変更することができるものである。
 画像選択部60は、選択制御信号Rが「0」の場合は第1の画像遅延部53から出力される補正された映像信号Ea1(図22(h))を最終出力映像信号Fとして出力し、選択制御信号Rが「1」の場合は第2の画像遅延部54から出力される補正された映像信号Eb1(図22(j))を最終出力映像信号Fとして出力し、選択制御信号Rが「2」の場合は入力画像遅延部4から出力される映像信号D3(図22(f))を最終出力映像信号Fとして出力する。
 上記の計数結果Nhf(各フレームについて値「1」を取る高周波成分検出結果H)が多いほど、当該フレームには動きベクトルVの誤検出が多い可能性が高く、信頼性が低いと推定できる。本実施の形態では、計数結果Nhfが大きい場合には、画像補正処理を受けていない映像信号D3を選択し、計数結果Nhfが小さいほど、より強い画像補正処理を受けた映像信号を選択する。即ち、計数結果Nhfが閾値C2B以上の場合には、補正処理を受けていない映像信号D3を選択し、計数結果Nhfが閾値C2Aよりも小さい場合には、補正処理を受けた映像信号(Ea1又はEb1)を選択するが、計数結果Nhfが閾値C2B以上か否かによってより強い補正処理を受けた映像信号Ea1と、より弱い補正処理を受けた映像信号Eb1との間の選択を行う。
 実施の形態1について述べたのと同様に、各フレーム期間Tn(nは0、1、2、…のいずれか)において、動きベクトル検出部5から出力される動きベクトルVは、1フレーム遅延映像信号D2の各画素についてのものであり、動きベクトルVの高周波成分検出結果Hの各フレームにわたる集計が終わり、選択制御信号Rの値が決まるのは、当該フレーム期間の終わる時点に略一致する。そこで、各フレームの映像信号D2の動きベクトルVに基づいて生成された選択制御信号Rの値は、2フレーム遅延映像信号D3及び1フレーム遅延した補正処理後の映像信号Ea1、Eb1が画像選択部60に供給される、次のフレーム期間T(n+1)における画像選択部60における選択に用いられる。
 画像表示部3は、画像選択部60から出力された映像信号Fに基づく画像の表示を行なう。
 ここで、ユーザは閾値C1を変更することにより、高周波成分検出部8における判定の厳しさ(高周波成分の値がどの程度のときに、誤検出と推定するか)を調整することができる。また、閾値C2A、2Bを変更することにより、判定部59における判定の厳しさ(各フレーム中において動きベクトルが誤検出されたと推定される画素の数Nhfに基づく、当該フレームについての動きベクトルの検出結果の信頼性に対する判定の基準)を調整することができる。
 なお、図21の構成において、入力画像遅延部4、動きベクトル検出部5、第1の補正処理部51、及び第2の補正処理部52において、輝度信号(Y)のみを処理することで、被写体の動きやカメラの動きにより劣化が生じた映像の動きぼやけを軽減することができる。しかしながら、輝度信号(Y)だけでなく、赤色信号(R)、青色信号(G)、緑色信号(B)を個別に処理してもよい。またR、G、Bの和を表す信号で、式(9)の利得GAIN(i,j)を求め、第1の補正処理部51及び第2の補正処理部52の動作において、式(10)ではR、G、B個別に処理をしても良い。また、輝度信号(Y)と色差信号(Cb、Cr)を個別に処理してもよい。輝度信号(Y)で利得GAIN(i,j)を求め、求めた利得GAIN(i,j)を用いて、輝度信号(Y)と色差信号(Cb、Cr)の各々に対して、式(10)の演算により個別に処理しても良い。他の色表現フォーマットでも同様な処理が行える。
 以上説明したように、本実施の形態では、映像信号と、前記映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて前記映像信号における動きベクトルを検出し、検出された動きベクトルを用いて動きぼやけ補正処理を行うと共に、検出された動きベクトルの高周波成分を検出することで各画素について動きベクトルが誤検出されたかどうかの推定を行い、
さらに各フレーム内において、動きベクトルが誤検出されたと推定される画素の数に基づいて信頼性の程度を評価し、評価の結果に基づいて、強く補正処理された映像信号と、弱く補正処理された映像信号と、元の映像信号のいずれかを選択して表示することで、動きベクトルの検出の誤りの程度に応じて最適の映像を選択して表示することができる。
 即ち、動きベクトルの検出に誤りが多い場合に、動きベクトルに基づく補正処理を受けた映像を用いると画質劣化が生じるが、本実施の形態では、動きベクトルの検出に誤りが多い場合には、補正処理された映像を用いずに元の映像を用いることで、画質劣化を防ぎ、一方、動きベクトルの検出に誤りが少ない場合には、補正処理された映像を用いることで動きぼやけに対する補正により動きぼやけの低減した映像を表示し、動きベクトルの検出が中程度の場合には、弱めに補正処理された映像を用いることで、画質劣化を抑制するとともに、弱めの補正処理により動きぼやけの低減の効果もある程度得ることができる。
 また、映像信号を切り替える場合にも、段階的切替えが可能であり、例えば補正処理を受けていない映像信号から強い補正処理を受けた映像信号に直接的に切り替えることを避け、一旦弱い補正処理を受けた映像信号に切り替えた後に、強い補正処理を受けた映像信号に切り替えることで、映像の質の急変を避けることができる。
実施の形態4.
 図23は、本発明の実施の形態4に係る画像処理装置を備えた画像表示装置の構成を示す。図示の画像表示装置1は、画像処理装置2dと、画像表示部3とを備え、画像処理装置2dは、図21の画像処理装置と同様の、入力画像遅延部4、動きベクトル検出部5、高周波成分検出部8、判定部59、及び画像選択部60を備えるとともに、画像補正処理部16b、画像合成部17b、及びフレームレート変換部70を備える。画像補正処理部16bは、第1の補正処理部71及び第2の補正処理部72を備える。画像合成部17bは、第1の合成部73及び第2の合成部74を備える。
 実施の形態4の画像処理装置2dは、実施の形態2と同様に、入力された映像信号D0を受けて、フレームレートを高くした映像信号を生成するもので、そのために、入力映像信号のフレーム間に1又は2以上のフレーム(補間フレーム)を補間により生成する。以下では、フレームレートを5倍にする場合を例に挙げて説明する。
 映像信号D0は、画像を構成する複数の画素の画素値を表す信号の列から成り、画像処理装置2dは、入力映像信号D0の相前後するフレーム間に、複数の、例えば第1及び第2の補間方法で、それぞれ1又は2以上の補間フレームを生成し、生成した補間フレームを含む映像信号Ja0、Jb0の各々を入力映像信号と組み合わせることで(入力映像信号のフレームと補間フレームを所定の順序で出力させることで)、フレームレートを高くした複数の映像信号Ka、Kbを生成するとともに、入力映像信号の各フレームを複数回繰り返すことでフレームレートを高くした映像信号Ifを生成し、これらの映像信号Ka、Kb、Ifのうちのいずれかを、判定部59における判定の結果に基づいて選択して最終出力映像信号Fとして出力する。
 画像処理装置2dに入力された映像信号D0(図24(a))は、入力画像遅延部4に供給される。入力画像遅延部4はフレームメモリを用いて、入力された信号のフレーム遅延を行い、3枚の互いに異なるフレームの映像信号D1、D2、D3(図24(b)、(c)、(d))を生成する。図24(a)~(l)において、符号T0、T1、T2、…は、入力映像信号の各フレーム期間を表す。そのうち、映像信号D1は、映像信号D0に対して遅延がなく、映像信号D2は映像信号D0に対して1フレームの遅延があり、映像信号D3は、映像信号D0に対して2フレームの遅延がある。
 映像信号D2およびD1は動きベクトル検出部5及び第1及び第2の補正処理部71、72に出力され、
 映像信号D3はフレームレート変換部70に出力される。
 フレームレート変換部70は、映像信号D3のフレーム周波数を5倍にした映像信号Ifを出力する(図24(k))。この映像信号Ifは、映像信号D3の各フレームを、再生時間を1/5に短縮して5回ずつ繰り返すものであり、その詳細を図25(d)に示す。
 動きベクトル検出部5は、実施の形態1について説明したように、入力画像遅延部4から出力された2枚の異なるフレームの映像信号D2、D1を用い、映像信号D2に含まれる動きベクトルV(図24(f))を検出する。検出された動きベクトルVは第1及び第2の補正処理部71、72及び高周波成分検出部8に出力される。
 実施の形態1に関し説明したように、動きベクトルVは、注目フレームのブロックと後フレームのブロックとの間で、式(2)で表される差分絶対値和が最小となるブロック間の相対位置(km,lm)に対応するものであり、本実施の形態では、実施の形態2と同様に、検出された動きベクトルV=(Vy,Vx)=(km,lm)とともに、当該最小の差分絶対値和SAD(i+km,j+lm)が、当該動きベクトルVに対応する差分絶対値和mv_sad(i,j)として第1及び第2の補正処理部71、72へ出力される。
 第1の補正処理部71は、動きベクトル検出部5から出力された動きベクトルV及び差分絶対値和mv_sad(i,j)を入力とし、入力画像遅延部4から出力された各フレームの映像信号D2と次のフレームの映像信号D1の間の、それぞれ時間的に均等に分離された位置(4つの位相)に存在すると推定される4つのフレームを補間により生成し、これにより、各位相の補間フレームの列から成る4つの映像信号を生成する。補間により生成される4つの映像信号をまとめて符号Ja0で表す。これら4つ映像信号の、それぞれのフレームを図24(g)に符号F0ia~F0id、F1ia~F1id、F2ia~F2id、…で示す。
 生成された映像信号Ja0は、第1の合成部73に出力される。
 また、第1の補正処理部71は、入力された映像信号D2をそのまま映像信号G0(D2と同内容のデータであり、図24(c)にF0、F1、F2、…として示される)として第1の合成部73へ出力する。
 第2の補正処理部72は、動きベクトル検出部5から出力された動きベクトルV及び差分絶対値和mv_sad(i,j)を入力とし、入力画像遅延部4から出力された各フレームの映像信号D2と次のフレームの映像信号D1の間の、時間的に中間の位置に存在すると推定される1つのフレームを補間により生成し、これにより、生成された補間フレームの列から成る映像信号Jb0を生成する。映像信号Jb0の各フレームを図24(i)に符号F0h、F1h、F2h、…で示す。生成された映像信号Jb0は、第2の合成部74に出力される。
 また、第2の補正処理部72は、入力された映像信号D2をそのまま映像信号G0(D2と同内容のデータであり、図24(c)にF0、F1、F2、…として示される)として第2の合成部74へ出力する。
 第1の合成部73は、第1の補正処理部71から出力された各フレームの映像信号G0及び補間により生成された映像信号Ja0を基にして、これらを所定の時間順序で配列することにより、フレームレートが5倍の映像信号Ka(図24(h)、図25(e))を生成する。
 第2の合成部74は、第2の補正処理部72から出力された各フレームの映像信号G0及び補間により生成された映像信号Jb0を基にして、これらを所定の時間順序で配列することにより、フレームレートが5倍の映像信号Kb(図24(j)、図25(f))を生成する。
 以下、フレームレート変換部70、第1及び第2の補正処理部71及び72、並びに第1及び第2の合成部73及び74の処理を図25(d)、(e)、(f)を参照して説明する。図25(d)、(e)、(f)は、図24(k)、(h)、(j)に示される映像信号の各フレームの時間的位置関係をより詳しく示す。
 図示の例では、入力映像信号D0のフレーム周波数は24fps、出力映像信号Fのフレーム周波数は120fpsであり、入力映像信号D0のそれぞれのフレームの開始時刻が図25(a)に、符号U、U+1、U+2で示され、出力映像信号Fのそれぞれのフレームの開始時刻が図25(c)に符号u、u+1/5、u+2/5、…で示されている。図25(b)は、図24(e)と同様に、合成部73、74に入力される映像信号G0(図24(c))を1フレーム期間遅延させ、さらに再生時間を1/5に短縮した映像信号G1を示す。
 まず、フレームレート変換部70について説明する。
 図25(d)に示される例では、フレームレート変換部70から映像信号Ifとして、元の映像信号D3の各フレームが、再生時間を1/5に短縮されて5回ずつ繰り返して出力される。例えばフレーム期間T2内において、元の映像信号のフレームF0が5回繰り返して出力され、次のフレーム期間T3内において、フレームF1が5回繰り返して出力される。
 次に第1の補正処理部71及び第1の合成部73について説明する。
 図25(e)に示される例では、第1の合成部73から映像信号Kaとして、例えばフレーム期間T2においては、元の映像信号G0のフレームF0に続いて4つの補間フレームF0ia、F0ib、F0ic、F0idが順に出力され、次のフレーム期間T3においては、元の映像信号G0のフレームF1に続いて4つの補間フレームF1ia、F1ib、F1ic、F1idが順に出力される。
 各フレームの再生時間(出力時間)は、入力映像信号の1フレーム期間の1/5であり、補間フレームF0ia、F0ib、F0ic、F0idは元の映像信号のフレームF0に対して1/5、2/5、3/5、4/5フレーム期間遅れたタイミングで出力される。
 このようなタイミングで出力される補間フレームの生成のため、第1の補正処理部71では、以下のようにして補間フレームの画素の画素値を求める。即ち、第1の補正処理部71は、上記のように、入力画像遅延部4から出力された注目フレームの映像信号D2および後フレームの映像信号D1の間の複数の時間的位置(位相)に映像信号を補間により生成する。第1の補正処理部71へは、入力画像遅延部4からの映像信号D2、D1のほか、動きベクトル検出部5から注目フレームの動きベクトルV(Vy,Vx)及び差分絶対値和mv_sad(i,j)が入力される。
 以下では、注目フレームと後フレームの間に生成される複数の補間フレームの一つ(符号Jnで表す)に着目して説明する。この補間フレームは、注目フレームから、注目フレームと後フレームの時間間隔のα倍の位置にあるものとする。即ち、注目フレームと後フレームの時間間隔に対する注目フレームと補間フレームの時間間隔の比がαである。図40(e)に示すように、入力映像信号のフレーム(例えばF0)に対して1/5フレーム期間後の補間フレーム(F0ia)を生成する場合にはα=1/5となる。同様に、2/5フレーム期間、3/5フレーム期間、4/5フレーム期間後の補間フレーム(F0ib、F0ic、F0id)を生成する場合には、それぞれα=2/5、α=3/5、α=4/5となる。
 第1の補正処理部71では、注目フレームD2の動きベクトルV(Vy,Vx)及び差分絶対値和mv_sad(i,j)を受けて、補間フレームJn上の動きベクトル(Vhy,Vhx)を求める。
 注目フレームD2の位置(i,j)の動きベクトルVの垂直方向成分をVy(i,j)、水平方向成分をVx(i,j)と表現すると、補間フレームJnの位置(i+si,j+sj)における動きベクトルVhy、Vhxは、次のように求めることができる。
 Vhy(i+si,j+sj)=Vy(i,j)×α   (23a)
 Vhx(i+si,j+sj)=Vx(i,j)×α   (23b)
ただし、
 si=round[Vy(i,j)×α]
 sj=round[Vx(i,j)×α]
 (round[*]は*の四捨五入)
である。
 つまり、注目フレームD2の動きベクトルVにαを掛けて四捨五入することで算出された位置(i+si,j+sj)に、注目フレームと補間フレームとの間には、注目フレームD2の動きベクトルVにαを掛けた値の動きベクトルがあるものと推定される。なお、位置(i+si,j+sj)が映像として定義された範囲の外の位置を指定した場合、式(23a)、式(23b)、式(23c)の処理をしない。
 ここで、式(23a)、式(23b)及び式(23c)で計算された補間フレームにおける動きベクトルVhy、Vhxは、補間フレーム上の全ての位置(i,j)に対して得られるとは限らない。このため、動きベクトルVhy、Vhxが得られなかった画素位置について動きベクトル値Vhy、Vhxの修正乃至補間処理(以下単に修正処理と言う)が必要となる。動きベクトルVhy、Vhxの修正処理は、実施の形態2について説明したのと同様に行い得る。
 動きベクトルVhy、Vhxを修正することで得られる値をそれぞれ、符号Vcy、Vcxで表す。
 次に修正後の動きベクトルVcy(i、j)、Vcx(i、j)を用いて注目フレームの映像信号D2と後フレームの映像信号D1の値を参照し、補間フレームJnを求める。補間フレームの注目画素(i,j)に対応する注目フレームの映像信号D2と後フレームの映像信号D1の位置をそれぞれ(bi、bj)、(ai,aj)とすると、補間フレームJnの各画素の画素値Jn(i,j)は、
 Jn(i,j)=D2(bi,bj)×(1-α)+D1(ai,aj)×α
                              (24)
として求めることができる。ここで、
 bi=i-round[Vcy(i,j)]
 bj=j-round[Vcx(i,j)]
 ai=i+fix[Vcy(i,j)]
 aj=j+fix[Vcx(i,j)]
である。ただし、fix[*]は*の0方向への切捨てを示す。
 次に第2の補正処理部72及び第2の合成部74について説明する。
 図25(f)に示される例では、第2の合成部74から映像信号Kbとして、例えばフレーム期間T1の終期からフレーム期間T2の初期に掛けて、元の映像信号G0のフレームF0が3回繰り返して出力された後、フレーム期間T2内で補間フレームF0hが2回繰り返して出力され、フレーム期間T2の終期からフレーム期間T3の初期に掛けて元の映像信号G0のフレームF1が3回繰り返して出力された後、フレーム期間T3内で補間フレームF1hが2回繰り返して出力される。
 各フレームの再生時間は、入力映像信号の1フレーム期間の1/5であり、補間フレームF0hは3回繰り返される元の映像信号のフレームF0のうちの2番目のものに対して2/5、3/5フレーム期間遅れたタイミングで出力される。
 補間フレームの各画素の画素値は、補間フレームが相前後する元の映像信号のフレームの時間的中間位置にあるものと仮定して第2の補正処理部72で求められた値である。第2の補正処理部72は、実施の形態2の画像補正処理部16が補間フレームの映像信号J0を求めるのと同様にして、補間フレームの映像信号Jb0を求める。
 高周波成分検出部8及び判定部59の動作は実施の形態3と同様である。
 画像選択部60は、実施の形態3と同様に、選択制御信号Rの値に応じて、3つの入力のうちのいずれかを選択して出力する。
 即ち、画像選択部60は、選択制御信号Rが「0」の場合は第1の合成部73から出力された、補間後の映像信号Ka(図24(h))を最終出力映像信号Fとして出力し、選択制御信号Rが「1」の場合は第2の合成部74から出力された、補間後の映像信号Kb(図24(j))を最終出力映像信号Fとして出力し、選択制御信号Rが「2」の場合はフレームレート変換部70から出力された映像信号lf(図24(k))を最終出力映像信号Fとして出力する。
 画像表示部3は、画像選択部60から出力された映像信号Fに基づく画像の表示を行なう。
 このような処理をする結果、上記の計数結果Nhf(1フレーム中における、値「1」を取る高周波成分検出結果Hの発生回数)が閾値C2B以上のとき、即ち、動きベクトルVの検出に誤りが多いときは、補間処理によって得られた映像信号を用いずに、入力映像信号を繰り返すことで得られた映像信号(補間処理乃至補正処理を受けていない映像信号)Ifを選択して表示し、計数結果Nhfが閾値C1未満のとき、即ち、動きベクトルVの検出に誤りが少ないときは、細かな補間処理により得られた(元のフレーム周期の1/5の周期毎に別々の補間演算を行うことで得られた)映像信号Ja0を入力映像信号と組み合わせた映像信号、即ち比較的強い補正処理を受けた映像信号Kaを選択して表示し、計数結果Nhfが閾値C1以上で閾値C2未満のとき、即ち、動きベクトルVの検出に誤りが中程度のときは、粗い補間処理により得られた(元の映像信号の相前後するフレームの中間に補間フレームが位置するものと仮定して補間演算を行うことで得られた)映像信号Jb0を入力映像信号と組み合わせた映像信号、即ち比較的弱い補正処理を受けた映像信号Kbを選択して表示する。
 即ち、計数結果Nhfが多い場合(具体的には閾値C2B以上の場合)には、補間処理、即ち補正処理を受けていない映像信号Ifを選択し、計数結果Nhfが多くない場合(閾値C2Bよりも小さい場合)には、補間処理、即ち補正処理を受けた映像信号(Ka又はKb)選択するが、計数結果Nhfが比較的少ない場合には、より細かな補間処理、即ちより強い補正処理を受けた映像信号Kaを選択し、計数結果Nhfが比較的多い場合には、より粗い補間処理、即ちより弱い補正処理を受けた映像信号Kbを選択する。
 一般化して言えば、計数結果が少ないほど、より細かな補間処理、即ちより強い補正処理を受けた映像信号を選択する。
 実施の形態3と同様に、ユーザは閾値C1を変更することにより、高周波成分検出部8における判定の厳しさ(高周波成分の値がどの程度のときに、誤検出と推定するか)を調整することができる。また、閾値C2A、2Bを変更することにより、判定部59における判定の厳しさ(各フレーム中において動きベクトルが誤検出されたと推定される画素の数Nhfに基づく、当該フレームについての動きベクトルの検出結果の信頼性に対する判定の基準)を調整することができる。
 以上説明したように、本実施の形態では、映像信号と、前記映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて前記映像信号における動きベクトルを検出し、検出された動きベクトルを用いて補間フレームを生成すると共に、検出された動きベクトルの高周波成分を検出することで各画素について動きベクトルが誤検出されたかどうかの推定を行い、さらに各フレーム内において、動きベクトルが誤検出されたと推定される画素の数に基づいて信頼性の程度を評価し、評価の結果に基づいて、細かい補間処理により得られた映像信号と、粗い補間処理により得られた映像信号と、元の映像信号のフレームレートを高くしただけの映像信号のいずれかを選択して表示することで、動きベクトルの検出の誤りの程度に応じて最適の映像を選択して表示することができる。
 即ち、動きベクトルの検出に誤りが多い場合に、動きベクトルに基づく補間処理で得られた映像を用いると画質劣化が生じるが、本実施の形態では、動きベクトルの検出に誤りが多い場合には、補間処理で得られた映像を用いずに元の映像を用いることで、画質劣化を防ぎ、一方、動きベクトルの検出に誤りが少ない場合には、補間処理で得られた映像を用いることでギクシャクした動きの低減した映像(滑らかに変化する映像)を表示し、動きベクトルの検出が中程度の場合には、粗い補間処理で得られた映像を用いることで、画質劣化を抑制するとともに、粗い補間処理により、動きが幾分滑らかになった映像を表示することができる。
 また、映像信号を切り替える場合にも、段階的切替えが可能であり、例えば補間処理処理により得られた映像を用いていない映像信号から、細かな補間処理で得られた映像信号に直接的に切り替えることを避け、一旦粗い補間処理で得られた映像信号に切り替えた後に、細かな補間処理で得られた映像信号に切り替えることで、映像の質の急変を避けることができる。
 実施の形態1乃至4において、各画素についての高周波成分を閾値C1と比較して、比較の結果得られる高周波成分検出結果Hのうち値が「1」のものを各フレームに亘り計数しているが、各画素についての高周波成分を各フレームに亘り積算し、積算値を閾値と比較し、積算値が閾値よりも大きければ、当該フレームについて動きベクトルの検出に誤りが多く、信頼性が低いと判断することとしても良い。この場合にも、画像の特定の部分、例えば中央部分のみを、高周波成分の検出及び高周波成分の積算の対象としても良い。
 以上本発明を画像処理装置及び画像表示装置として説明したが、これらの装置で実行される画像処理方法及び画像表示方法も本発明の一部を成す。本発明はさらに、上記の画像処理装置または画像処理方法における手順乃至各ステップの処理を実行するプログラムとしても成立し、該プログラムを記録したコンピュータで読み取り可能な記録媒体としても成立する。
 1 画像表示装置、 2 画像処理装置、 3 画像表示部、 4,14 入力画像遅延部、 5 動きベクトル検出部、 6、6b 画像補正処理部、 7、7b 処理画像遅延部、 8 高周波成分検出部、 9 判定部、 10 画像選択部、 11 フレームメモリ、 12 フレームメモリ制御部、 15 フレームレート変換部、 16、16b 画像補正処理部、 17、17b 画像合成部、 21 注目フレームブロック切り出し部、 22 後フレームブロック切り出し部、 23 動きベクトル決定部、30 補正演算部、 31 操作信号処理部、 32 動きぼやけ推定部、 33 フィルタ係数保存部、 34 フィルタリング部、 35 非線形処理部、 36 ローパスフィルタ、 37 平均値算出部、 38 補正強度調整部、 39 利得計算部、 41 フレームメモリ、 42 フレームメモリ制御部、 51 第1の補正処理部、 52 第2の補正処理部、 53 第1の画像遅延部、 54 第2の画像遅延部、 70 フレームレート変換部、 71 第1の補正処理部、 72 第2の補正処理部、 73 第1の合成部、 74 第2の合成部。

Claims (20)

  1.  入力映像信号をフレーム遅延することで得られた第1の映像信号と、前記第1の映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて、前記第1の映像信号における動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号に対して画像補正処理を行う画像補正処理部と、
     前記動きベクトル検出部で検出された動きベクトルを用い、高周波成分を検出する高周波成分検出部と、
     前記高周波成分検出部で検出された高周波成分に基づいて、各フレーム内における動きベクトルの検出結果の信頼性についての判定を行う判定部と、
     前記判定部における判定結果に基づいて、前記画像補正処理部による画像補正処理の結果生成された映像信号と、前記入力映像信号又はこれをフレーム遅延することで得られた映像信号のいずれかを選択して出力する画像選択部と
     を備える画像処理装置。
  2.  前記判定部は、前記高周波成分が多いほど、前記動きベクトルの検出結果の信頼性を低く評価することを特徴とする請求項1に記載の画像処理装置。
  3.  前記高周波成分検出部は、各画素についての高周波成分が第1の閾値以上であるかどうかの判定を行い、
     前記判定部は、各フレーム内において、前記高周波成分検出部で高周波成分の値が前記第1の閾値以上と判定された画素の数が、第2の閾値以上であれば、当該フレームの映像信号として、前記画像補正処理を受けていない映像信号を前記選択部に選択させる
     ことを特徴とする請求項1又は2に記載の画像処理装置。
  4.  前記第1の閾値が、外部から入力されたものである
     ことを特徴とする請求項3に記載の画像処理装置。
  5.  前記第2の閾値は、外部から入力したものであることを特徴とする請求項3に記載の画像処理装置。
  6.  前記高周波成分検出部は、前記動きベクトルの2階差分値を前記高周波成分として検出することを特徴とする請求項1から5までのいずれか1項に記載の画像処理装置。
  7.  前記画像補正処理部が、
     前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号に対して画像補正処理を行う第1の補正処理部と、
     前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号に対して第1の補正処理部とは補正強度が異なる画像補正処理を行う第2の補正処理部とを備え、
     前記画像選択部が、前記判定部における判定結果に基づいて、前記第1の補正処理部による画像補正処理の結果生成された映像信号と、前記第2の補正処理部による画像補正処理の結果生成された映像信号と、前記入力映像信号又はこれをフレーム遅延することで得られた映像信号のいずれかを選択して出力する
     ことを特徴とする請求項1に記載の画像処理装置。
  8.  前記画像補正処理部は、前記動きベクトル検出部で検出された動きベクトルを用い、前記第1の映像信号における動きぼやけを軽減する画像補正処理を行うことを特徴とする請求項1から7までのいずれか1項に記載の画像処理装置。
  9.  前記画像補正処理部は、前記第1の映像信号と、該第1の映像信号に対して1フレーム時間的に前の映像信号との間に映像信号を補間する画像補正処理を行なうことを特徴とする請求項1から7までのいずれか1項に記載の画像処理装置。
  10.  請求項1から9までのいずれか1項に記載の画像処理装置と、前記画像処理装置で生成された画像を表示する画像表示部とを備えた画像表示装置。
  11.  入力映像信号をフレーム遅延することで得られた第1の映像信号と、前記第1の映像信号に対し1フレーム以上時間的に前又は後の映像信号とに基づいて、前記第1の映像信号における動きベクトルを検出する動きベクトル検出ステップと、
     前記動きベクトル検出ステップで検出された動きベクトルを用い、前記第1の映像信号に対して画像補正処理を行う画像補正処理ステップと、
     前記動きベクトル検出ステップで検出された動きベクトルを用い、高周波成分を検出する高周波成分検出ステップと、
     前記高周波成分検出ステップで検出された高周波成分に基づいて、各フレーム内における動きベクトルの検出結果の信頼性についての判定を行う判定ステップと、
     前記判定ステップにおける判定結果に基づいて、前記画像補正処理ステップによる画像補正処理の結果生成された映像信号と、前記入力映像信号又はこれをフレーム遅延することで得られた映像信号のいずれかを選択して出力する画像選択ステップと
     を備える画像処理方法。
  12.  前記判定ステップは、前記高周波成分が多いほど、前記動きベクトルの検出結果の信頼性を低く評価することを特徴とする請求項11に記載の画像処理方法。
  13.  前記高周波成分検出ステップは、各画素についての高周波成分が第1の閾値以上であるかどうかの判定を行い、
     前記判定ステップは、各フレーム内において、前記高周波成分検出ステップで高周波成分の値が前記第1の閾値以上と判定された画素の数が、第2の閾値以上であれば、当該フレームの映像信号として、前記画像補正処理を受けていない映像信号を前記選択ステップに選択させる
     ことを特徴とする請求項11又は12に記載の画像処理方法。
  14.  前記第1の閾値が、画像処理方法の実施に用いられる装置の外部から入力されたものである
     ことを特徴とする請求項13に記載の画像処理方法。
  15.  前記第2の閾値は、画像処理方法の実施に用いられる装置の外部から入力したものであることを特徴とする請求項13に記載の画像処理方法。
  16.  前記高周波成分検出ステップは、前記動きベクトルの2階差分値を前記高周波成分として検出することを特徴とする請求項10から14までのいずれか1項に記載の画像処理方法。
  17.  前記画像補正処理ステップが、
     前記動きベクトル検出ステップで検出された動きベクトルを用い、前記第1の映像信号に対して画像補正処理を行う第1の補正処理ステップと、
     前記動きベクトル検出ステップで検出された動きベクトルを用い、前記第1の映像信号に対して第1の補正処理ステップとは補正強度が異なる画像補正処理を行う第2の補正処理ステップとを備え、
     前記画像選択部ステップが、前記判定ステップにおける判定結果に基づいて、前記第1の補正処理ステップによる画像補正処理の結果生成された映像信号と、前記第2の補正処理ステップによる画像補正処理の結果生成された映像信号と、前記入力映像信号又はこれをフレーム遅延することで得られた映像信号のいずれかを選択して出力する
     ことを特徴とする請求項11に記載の画像処理方法。
  18.  前記画像補正処理ステップは、前記動きベクトル検出ステップで検出された動きベクトルを用い、前記第1の映像信号における動きぼやけを軽減する画像補正処理を行うことを特徴とする請求項11から17までのいずれか1項に記載の画像処理方法。
  19.  前記画像補正処理ステップは、前記第1の映像信号と、該第1の映像信号に対して1フレーム時間的に前の映像信号との間に映像信号を補間する画像補正処理を行なうことを特徴とする請求項11から17までのいずれか1項に記載の画像処理方法。
  20.  請求項11から19までのいずれか1項に記載の画像処理方法と、前記画像処理方法で生成された画像を表示する画像表示ステップとを備えた画像表示方法。
PCT/JP2012/079139 2011-11-18 2012-11-09 画像処理装置及び方法、並びに画像表示装置及び方法 WO2013073476A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013544249A JP5550794B2 (ja) 2011-11-18 2012-11-09 画像処理装置及び方法、並びに画像表示装置及び方法
CN201280056204.6A CN103947181A (zh) 2011-11-18 2012-11-09 图像处理装置和方法以及图像显示装置和方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011252547 2011-11-18
JP2011-252547 2011-11-18

Publications (1)

Publication Number Publication Date
WO2013073476A1 true WO2013073476A1 (ja) 2013-05-23

Family

ID=48429536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/079139 WO2013073476A1 (ja) 2011-11-18 2012-11-09 画像処理装置及び方法、並びに画像表示装置及び方法

Country Status (3)

Country Link
JP (1) JP5550794B2 (ja)
CN (1) CN103947181A (ja)
WO (1) WO2013073476A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3383040A4 (en) * 2016-01-11 2018-10-17 Samsung Electronics Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111491204B (zh) * 2020-04-17 2022-07-12 Oppo广东移动通信有限公司 视频修复方法、装置、电子设备和计算机可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05344346A (ja) * 1992-06-08 1993-12-24 Casio Comput Co Ltd 画像圧縮装置
JP2753024B2 (ja) * 1989-03-14 1998-05-18 松下電器産業株式会社 画像の動きベクトル予測装置および検出装置
JP2008244686A (ja) * 2007-03-27 2008-10-09 Hitachi Ltd 映像処理装置及び映像処理方法
JP2011130128A (ja) * 2009-12-16 2011-06-30 Canon Inc 画像処理装置及びその制御方法、プログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5047850A (en) * 1989-03-03 1991-09-10 Matsushita Electric Industrial Co., Ltd. Detector for detecting vector indicating motion of image
KR100477647B1 (ko) * 2002-06-01 2005-03-23 삼성전자주식회사 영상의 움직임 보정 장치 및 방법
JP3960258B2 (ja) * 2003-04-28 2007-08-15 ソニー株式会社 信号処理装置および信号処理方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2753024B2 (ja) * 1989-03-14 1998-05-18 松下電器産業株式会社 画像の動きベクトル予測装置および検出装置
JPH05344346A (ja) * 1992-06-08 1993-12-24 Casio Comput Co Ltd 画像圧縮装置
JP2008244686A (ja) * 2007-03-27 2008-10-09 Hitachi Ltd 映像処理装置及び映像処理方法
JP2011130128A (ja) * 2009-12-16 2011-06-30 Canon Inc 画像処理装置及びその制御方法、プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3383040A4 (en) * 2016-01-11 2018-10-17 Samsung Electronics Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus
US10819978B2 (en) 2016-01-11 2020-10-27 Samsung Electronics Co., Ltd. Image encoding method and apparatus, and image decoding method and apparatus

Also Published As

Publication number Publication date
JP5550794B2 (ja) 2014-07-16
JPWO2013073476A1 (ja) 2015-04-02
CN103947181A (zh) 2014-07-23

Similar Documents

Publication Publication Date Title
US7406208B2 (en) Edge enhancement process and system
US8369649B2 (en) Image processing apparatus, image processing method, and computer program for performing super-resolution process
US8243150B2 (en) Noise reduction in an image processing method and image processing apparatus
US7570309B2 (en) Methods for adaptive noise reduction based on global motion estimation
US20090232416A1 (en) Image processing device
US8107750B2 (en) Method of generating motion vectors of images of a video sequence
US9002129B2 (en) Method and device for reducing temporal noise for image
EP1473670A2 (en) Colour edge enhancement method
WO2010026839A1 (ja) 映像信号変換システム
WO2010140302A1 (ja) 画像処理装置、画像処理方法、プログラム、記録媒体及び集積回路
JP2008518318A (ja) ボケた画像部分の画質を向上する方法
US8731328B2 (en) Image processing apparatus, method and recording medium for generating a composite image
EP3438923B1 (en) Image processing apparatus and image processing method
US8213736B2 (en) Image processing device and image processing method
JP2012109656A (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP3786925B2 (ja) 輪郭補正方法及びこれに適した装置
JP5550794B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP2012032739A (ja) 画像処理装置及び方法、並びに画像表示装置
KR101517233B1 (ko) 움직임 추정을 이용한 잡음 제거장치
JP2013106151A (ja) 画像処理装置及び画像処理方法
US9007494B2 (en) Image processing apparatus, method for controlling the same and storage medium
JP2007179211A (ja) 画像処理装置、画像処理方法、およびそのプログラム
JP6128878B2 (ja) 映像処理装置、映像処理方法、放送受信装置、映像撮影装置、映像蓄積装置及びプログラム
KR100772405B1 (ko) 전역 움직임 추정에 근거한 적응성 잡음 감쇄 방법 및 영상처리 시스템
KR101758688B1 (ko) 신호 처리 장치 및 신호 처리 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12850298

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013544249

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12850298

Country of ref document: EP

Kind code of ref document: A1