WO2011155258A1 - 画像処理装置および方法、画像表示装置および方法 - Google Patents

画像処理装置および方法、画像表示装置および方法 Download PDF

Info

Publication number
WO2011155258A1
WO2011155258A1 PCT/JP2011/058550 JP2011058550W WO2011155258A1 WO 2011155258 A1 WO2011155258 A1 WO 2011155258A1 JP 2011058550 W JP2011058550 W JP 2011058550W WO 2011155258 A1 WO2011155258 A1 WO 2011155258A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
noise reduction
unit
motion vector
interpolated
Prior art date
Application number
PCT/JP2011/058550
Other languages
English (en)
French (fr)
Inventor
上野 雅史
張 小▲忙▼
康寛 大木
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US13/700,339 priority Critical patent/US9215353B2/en
Priority to CN201180026647.6A priority patent/CN102918830B/zh
Priority to JP2012519304A priority patent/JP5490236B2/ja
Publication of WO2011155258A1 publication Critical patent/WO2011155258A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0147Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation using an indication of film mode or an indication of a specific pattern, e.g. 3:2 pull-down pattern
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/10Special adaptations of display systems for operation with variable images
    • G09G2320/106Determination of movement vectors or equivalent parameters within the image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Definitions

  • the present invention relates to an image processing device, an image processing method, an image display device, and an image display method, and more particularly to an image processing device, an image processing method, an image display device, and an image display method that perform frame rate conversion processing and recursive noise reduction processing.
  • an image processing device an image processing method, an image display device, and an image display method that perform frame rate conversion processing and recursive noise reduction processing.
  • motion blur In a hold-type display device such as a liquid crystal display device, there is a problem that when a moving image is displayed, the outline of the moving part appears blurred (hereinafter, this phenomenon is referred to as motion blur).
  • a method of preventing this motion blur a method of increasing the frame rate by interpolating a new frame between two consecutive frames (frame rate conversion process) is known.
  • a method of performing motion compensation using a motion vector when performing frame rate conversion processing is also known.
  • FIG. 13 is a block diagram illustrating a configuration of the noise reduction device described in Patent Document 1.
  • the frame memory 116 included in the motion detection frame recursive noise reduction unit 111 stores the output video signal of the previous frame.
  • the vector detection means 117 calculates a motion vector MV and a motion component MC (a quantity indicating a change in the corresponding pixel).
  • the cyclic feedback amount control circuit 112 obtains a cyclic coefficient k based on the motion component MC.
  • the multiplier 113 multiplies the pixel value included in the input video signal by (1 ⁇ k), and the multiplier 114 multiplies the corresponding pixel value (the pixel value read from the frame memory 116 using the motion vector MV) by k,
  • An adder 115 adds the outputs of the multipliers 113 and 114.
  • the output of the adder 115 is output to the outside of the noise reduction device 110 as an output video signal, and is stored in the frame memory 116 in preparation for processing on the input video signal of the next frame. According to the noise reduction device 110, noise that does not correlate in the time axis direction (flickering noise) can be reduced, and afterimages can be prevented from occurring in the motion region, and a clear and high-quality image can be obtained.
  • FIG. 14 is a block diagram illustrating a configuration of an image processing apparatus that performs frame rate conversion processing and recursive noise reduction processing.
  • the frame memory 121, the motion vector detection unit 122, the interpolated image generation unit 124, and the time base conversion unit 125 perform frame rate conversion processing by motion compensation.
  • the three-dimensional noise reduction processing unit 123 performs recursive noise reduction processing using the motion vector detected by the motion vector detection unit 122.
  • motion blur that occurs in the hold-type display device can be prevented, noise can be reduced without a feeling of afterimage when a moving image is displayed, and a high-quality moving image can be displayed. Further, by sharing the motion vector detection unit 122 in the frame rate conversion process and the recursive noise reduction process, the circuit scale and the memory capacity can be reduced.
  • a correct motion vector cannot always be detected. For example, it is difficult to follow the movement in a fast-moving image, an image showing an object that moves while changing its shape, or an image in which another object appears or disappears in front of or behind one object.
  • erroneous detection of motion vectors is likely to occur.
  • an erroneous detection of a motion vector may occur on the entire screen.
  • Patent Document 1 a method for reducing erroneous detection of motion vectors is described. However, even if these methods are used, it is not possible to completely prevent erroneous detection of motion vectors. In addition, there is a problem that the noise reduction effect is reduced when the motion vector error is corrected.
  • the frame rate conversion process causes image quality degradation such as distortion in the shape of the moving object or the appearance of a double image.
  • image quality degradation such as blurring of the edge of an object or the appearance of a tail on a moving object occurs.
  • motion blur and tailing occur in the image after the recursive noise reduction processing.
  • the interpolated image is generated based on the image after the recursive noise reduction processing, further distortion occurs in a portion where motion blur or tailing has already occurred. As a result, the interpolated image may be significantly degraded.
  • the present invention performs an image processing device, an image processing method, an image display device, and an image processing device that perform frame rate conversion processing and recursive noise reduction processing to prevent significant degradation of an interpolated image due to erroneous detection of motion vectors.
  • An object is to provide an image display method.
  • a first aspect of the present invention is an image processing apparatus that performs frame rate conversion processing and recursive noise reduction processing, A motion vector detection unit for detecting a motion vector from an input image continuously input; A first noise reduction processing unit that performs recursive noise reduction processing on the input image using the motion vector; A second noise reduction processing unit that applies a noise reduction filter to the input image; An interpolated image generation unit that generates an interpolated image based on a reference image using the motion vector; A corrected original image obtained by a predetermined method and an interpolated image generated based on a reference image obtained by a method different from the corrected original image are output.
  • the corrected original image is an image obtained by the first noise reduction processing unit
  • the reference image is an image obtained by the second noise reduction processing unit.
  • a selection unit that selects one of the outputs of the first and second noise reduction processing units and obtains the reference image;
  • the corrected original image is an image obtained by the first noise reduction processing unit.
  • a scene information detection unit for detecting scene information based on the input image;
  • the selection unit performs selection based on the scene information.
  • a telop information detector for detecting telop information based on the input image;
  • the selection unit performs selection based on the telop information.
  • An external information analysis unit that analyzes external information input from the outside is further provided.
  • the selection unit performs selection based on an analysis result by the external information analysis unit.
  • a weighted addition operation unit that performs two independent weighted additions on the outputs of the first and second noise reduction processing units;
  • the corrected original image is an image obtained by one weighted addition by the weighted addition computing unit, and the reference image is an image obtained by the other weighted addition by the weighted addition computing unit.
  • a scene information detection unit for detecting scene information based on the input image;
  • the weighting coefficient of the weighted addition operation unit varies based on the scene information.
  • a telop information detector for detecting telop information based on the input image;
  • the weighting coefficient of the weighted addition calculating unit varies based on the telop information.
  • An external information analysis unit that analyzes external information input from the outside is further provided.
  • the weighting coefficient of the weighted addition calculation unit varies based on the analysis result by the external information analysis unit.
  • An eleventh aspect of the present invention is an image processing method for performing frame rate conversion processing and recursive noise reduction processing, Detecting a motion vector from a continuously input image; Performing recursive noise reduction processing on the input image using detected motion vectors; Applying a noise reduction filter to the input image; Generating an interpolated image based on the reference image using the detected motion vector, A corrected original image obtained by a predetermined method and an interpolated image generated based on a reference image obtained by a method different from the corrected original image are output.
  • a twelfth aspect of the present invention is an image display device that displays an image by performing frame rate conversion processing and recursive noise reduction processing, A display panel; An image processing unit for performing frame rate conversion processing and recursive noise reduction processing; A drive circuit for driving the display panel based on the output of the image processing unit,
  • the image processing unit A motion vector detection unit for detecting a motion vector from an input image continuously input; A first noise reduction processing unit that performs recursive noise reduction processing on the input image using the motion vector; A second noise reduction processing unit that applies a noise reduction filter to the input image;
  • An interpolated image generation unit that generates an interpolated image based on a reference image using the motion vector, A corrected original image obtained by a predetermined method and an interpolated image generated based on a reference image obtained by a method different from the corrected original image are output.
  • a thirteenth aspect of the present invention is an image display method for displaying an image on a display panel by performing frame rate conversion processing and recursive noise reduction processing, Detecting a motion vector from a continuously input image; Performing recursive noise reduction processing on the input image using detected motion vectors; Applying a noise reduction filter to the input image; Generating an interpolated image based on the reference image using the detected motion vector; And a step of driving the display panel based on an image signal representing a corrected original image obtained by a predetermined method and an interpolated image generated based on a reference image obtained by a method different from the corrected original image.
  • motion blur that occurs in a hold-type display device is prevented by performing frame rate conversion processing by motion compensation and recursive noise reduction processing using a motion vector.
  • the circuit scale and memory capacity can be reduced.
  • an interpolated image is generated based on a suitable reference image, and even if a motion vector is erroneously detected, significant degradation of the interpolated image is prevented. can do.
  • the interpolated image is generated based on an image that has not been subjected to recursive noise reduction processing. Therefore, even when an erroneous detection of a motion vector occurs, it is possible to prevent a significant deterioration of the interpolated image.
  • the interpolated image is generated based on an image to which a noise reduction filter is applied. Therefore, noise included in the interpolated image that cannot be reduced by the recursive noise reduction processing can be reduced.
  • a reference image is obtained by appropriately switching between an image subjected to recursive noise reduction processing and an image not subjected to recursive noise reduction processing, and an interpolated image is generated based on the reference image.
  • by generating an interpolated image based on an image to which a noise reduction filter is applied noise included in the interpolated image that cannot be reduced by the recursive noise reduction process can be reduced.
  • a reference image is obtained by switching between an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing according to the characteristics of the scene represented by the input image, Based on this, an interpolated image can be generated. Therefore, it is possible to generate a suitable interpolated image according to the feature of the scene and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • a reference image is obtained by switching between an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing in accordance with the characteristics of the telop included in the input image. Based on this, an interpolated image can be generated. Therefore, it is possible to generate a suitable interpolated image according to the characteristics of the telop, and to prevent a significant deterioration of the interpolated image even when an erroneous detection of a motion vector occurs.
  • a reference image is obtained by switching between an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing in accordance with external information input from outside. Based on this, an interpolated image can be generated. Accordingly, it is possible to generate a suitable interpolated image according to the external information and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • a weighted addition is performed on an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing to obtain a reference image, and based on this, an interpolated image is obtained.
  • by obtaining a reference image by increasing a weighting coefficient applied to an image to which a noise reduction filter is applied noise included in the interpolated image that cannot be reduced by the recursive noise reduction processing can be reduced.
  • an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing while changing the weighting coefficient in accordance with the characteristics of the scene represented by the input image is changed.
  • a weighted addition is performed to obtain a reference image, and an interpolated image can be generated based on the reference image. Therefore, it is possible to generate a suitable interpolated image according to the feature of the scene and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing while changing the weighting coefficient according to the characteristics of the telop included in the input image is changed.
  • a weighted addition is performed to obtain a reference image, and an interpolated image can be generated based on the reference image. Therefore, it is possible to generate a suitable interpolated image according to the characteristics of the telop, and to prevent a significant deterioration of the interpolated image even when an erroneous detection of a motion vector occurs.
  • an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing while changing a weighting coefficient in accordance with external information input from the outside is changed.
  • a weighted addition is performed to obtain a reference image, and an interpolated image can be generated based on the reference image. Accordingly, it is possible to generate a suitable interpolated image according to the external information and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • the twelfth or thirteenth aspect of the present invention it is possible to display a clear and high-quality image while reducing motion blur generated in the hold-type display device and preventing occurrence of an afterimage in the motion region. it can. In addition, even when an erroneous detection of a motion vector occurs, it is possible to prevent significant degradation of the interpolated image.
  • FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to a first embodiment of the present invention. It is a block diagram which shows the structure of the liquid crystal display device containing the image processing apparatus which concerns on each embodiment of this invention. It is a figure which shows the input image and output image in the image processing apparatus shown in FIG. It is a block diagram which shows the structure of the image processing apparatus which concerns on the 2nd Embodiment of this invention. It is a block diagram which shows the structure of the image processing apparatus which concerns on the 3rd Embodiment of this invention. It is a figure which shows the example of the input image containing a telop.
  • FIG. It is a figure which shows the telop area
  • FIG. It is a block diagram which shows the structure of the image processing apparatus which concerns on the 4th Embodiment of this invention. It is a block diagram which shows the structure of the image processing apparatus which concerns on the 5th Embodiment of this invention. It is a block diagram which shows the detail of the weighting coefficient control part and weighted addition calculating part of the image processing apparatus shown in FIG. It is a block diagram which shows the structure of the image processing apparatus which concerns on the 1st modification of the 5th Embodiment of this invention.
  • FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention.
  • An image processing apparatus 10 illustrated in FIG. 1 includes a frame memory 11, a motion vector detection unit 12, a two-dimensional noise reduction filter processing unit 13, a three-dimensional noise reduction processing unit 14, an interpolated image generation unit 15, and a time base conversion unit. 16 is provided.
  • the image processing apparatus 10 performs frame rate conversion processing by motion compensation and recursive noise reduction processing using motion vectors.
  • FIG. 2 is a block diagram showing a configuration of a liquid crystal display device including the image processing device 10.
  • the liquid crystal display device 1 shown in FIG. 2 includes an image processing device 10, a timing control circuit 2, a scanning signal line driving circuit 3, a data signal line driving circuit 4, and a liquid crystal panel 5.
  • the liquid crystal panel 5 includes p scanning signal lines G1 to Gp, q data signal lines S1 to Sq, and (p ⁇ q) pixel circuits 6.
  • the scanning signal lines G1 to Gp are arranged in parallel to each other, and the data signal lines S1 to Sq are arranged in parallel to each other so as to be orthogonal to the scanning signal lines G1 to Gp.
  • the (p ⁇ q) pixel circuits 6 are arranged near the intersections of the scanning signal lines G1 to Gp and the data signal lines S1 to Sq.
  • the liquid crystal display device 1 receives an input image signal Vin having a frame rate of 60 Hz from the outside.
  • the image processing apparatus 10 converts the input image signal Vin into an output image signal Vout having a frame rate of 120 Hz.
  • the output image signal Vout is supplied to the data signal line driving circuit 4.
  • the timing control circuit 2 supplies timing control signals TC1 and TC2 to the scanning signal line driving circuit 3 and the data signal line driving circuit 4, respectively.
  • the scanning signal line driving circuit 3 and the data signal line driving circuit 4 are driving circuits for the liquid crystal panel 5.
  • the scanning signal line drive circuit 3 drives the scanning signal lines G1 to Gp based on the timing control signal TC1.
  • the data signal line drive circuit 4 drives the data signal lines S1 to Sq based on the timing control signal TC2 and the output image signal Vout.
  • FIG. 3 is a diagram illustrating an input image and an output image in the image processing apparatus 10. 60 input images are input per second, and 120 output images are output per second.
  • the output image includes an image obtained by performing noise reduction processing on the input image (an image with a dotted pattern in FIG. 3; hereinafter referred to as a corrected original image), and an image newly generated by the image processing apparatus 10 ( 3 includes a hatched image (hereinafter referred to as an interpolated image).
  • the corrected original image corresponding to the input image X (n) is denoted as Y (n), and the interpolated image interpolated between the corrected original images Y (n) and Y (n + 1) is denoted as Y (n + 0.5).
  • the image processing apparatus 10 obtains a corrected original image by performing recursive noise reduction processing on an input image, and interpolates based on an image obtained by applying a two-dimensional noise reduction filter to the input image. Generate an image.
  • the frame memory 11 stores the input image signal Vin for one frame, and outputs it with a delay of one frame period.
  • the frame memory 11 outputs the input image X (n) while storing the input image X (n + 1).
  • the motion vector detection unit 12 detects a motion vector from continuously input images. More specifically, the motion vector detection unit 12 detects a motion vector MV between two images based on the input image X (n + 1) and the input image X (n) output from the frame memory 11.
  • the detection method of the motion vector MV may be arbitrary.
  • the detected motion vector MV is supplied to the three-dimensional noise reduction processing unit 14 and the interpolated image generation unit 15.
  • the two-dimensional noise reduction filter processing unit 13 applies a two-dimensional noise reduction filter to the input image X (n) output from the frame memory 11.
  • the characteristics of the two-dimensional noise reduction filter may be arbitrary. For example, a low-pass filter or a median filter can be used as the two-dimensional noise reduction filter.
  • the output of the two-dimensional noise reduction filter processing unit 13 is supplied to the interpolated image generation unit 15 as a two-dimensional noise reduction image A (n).
  • the three-dimensional noise reduction processing unit 14 performs recursive noise reduction processing (three-dimensional noise reduction processing) using a motion vector for the input image X (n). More specifically, the three-dimensional noise reduction processing unit 14 includes a motion compensation image memory 141, a weighting coefficient control unit 142, coefficient multipliers 143 and 144, an adder 145, and a motion compensation image generation unit 146.
  • the motion compensated image memory 141 performs a recursive noise reduction process and motion compensation on the input image X (n ⁇ 1). n) is output.
  • the weighting coefficient control unit 142 determines the weighting coefficient k (where 0 ⁇ k ⁇ 1) by comparing the input image X (n) and the motion compensated image C (n). For example, the weighting coefficient control unit 142 obtains a luminance difference, luminance gradient information, and the like between the input image X (n) and the motion compensated image C (n), and changes the weighting coefficient k according to the obtained value. Alternatively, the weighting coefficient control unit 142 may change the weighting coefficient k according to the luminance information and frequency characteristics of the input image X (n).
  • the coefficient multiplier 143 multiplies the pixel value included in the input image X (n) by (1 ⁇ k), and the coefficient multiplier 144 performs the motion compensation image C ( The corresponding pixel value included in n) is multiplied by k.
  • Adder 145 adds the outputs of coefficient multipliers 143 and 144. The output of the adder 145 is supplied to the time base conversion unit 16 and the motion compensation image generation unit 146 as a three-dimensional noise reduced image B (n).
  • the motion compensated image generation unit 146 generates a motion compensated image C (n + 1) based on the three-dimensional noise reduced image B (n) and the motion vector MV detected by the motion vector detection unit 12.
  • the motion compensated image generation unit 146 uses a motion vector from the future to the past so as to match the position of the input image X (n + 1) supplied next to the three-dimensional noise reduction processing unit 14, and uses the motion compensated image C. (N + 1) is generated.
  • the generated motion compensated image C (n + 1) is stored in the motion compensated image memory 141.
  • the interpolated image generation unit 15 uses the motion vector MV detected by the motion vector detection unit 12 and based on the two-dimensional noise reduced image A (n), the corrected original image Y (n) and the corrected original image Y (n + 1). ) To generate an interpolated image Y (n + 0.5) to be interpolated.
  • the generated interpolated image Y (n + 0.5) is supplied to the time base conversion unit 16.
  • the three-dimensional noise reduced image B (n) supplied to the time base conversion unit 16 is used as the corrected original image Y (n) as it is.
  • the time base conversion unit 16 sequentially outputs the corrected original image Y (n) and the interpolated image Y (n + 0.5). More specifically, the time base conversion unit 16 outputs the corrected original image Y (n) first, and outputs the interpolated image Y (n + 0.5) with a delay of 1/120 seconds.
  • the image processing apparatus 10 outputs an output image signal Vout having a frame rate of 120 Hz, which alternately includes the corrected original image and the interpolated image.
  • the corrected original image is obtained by performing recursive noise reduction processing on the input image.
  • the interpolated image is generated based on an image obtained by applying a two-dimensional noise reduction filter to the input image.
  • the interpolated image is generated based on an image obtained by a method different from the corrected image.
  • the image processing apparatus 10 performs the frame rate conversion process by motion compensation and the recursive noise reduction process using the motion vector.
  • motion blur that occurs in the hold-type display device can be prevented, and afterimages in the motion region can be prevented, and a clear and high-quality output image can be obtained.
  • the same effect as that obtained when images of several frames are referenced can be obtained.
  • by performing recursive noise reduction processing using a motion vector weighted addition following the motion can be performed and blurring can be effectively prevented.
  • the motion vector MV detected by the motion vector detection unit 12 is used for both the frame rate conversion process and the recursive noise reduction process.
  • the circuit scale and memory capacity can be reduced.
  • a conventional image processing apparatus (for example, the image processing apparatus 120 shown in FIG. 14) that performs frame rate conversion processing and recursive noise reduction processing includes an interpolated image based on the image after the recursive noise reduction processing. Therefore, when an erroneous detection of a motion vector occurs, the interpolated image is greatly deteriorated.
  • the image processing apparatus 10 sets an image obtained by performing recursive noise reduction processing on the input image X (n) as a corrected original image Y (n), and adds 2 to the input image X (n).
  • An interpolated image Y (n + 0.5) is generated based on the image to which the dimensional noise reduction filter is applied.
  • an interpolation image that may be significantly deteriorated when an erroneous detection of a motion vector occurs is not an image subjected to recursive noise reduction processing, but recursive noise reduction processing. Generated based on images not performed. Therefore, according to the image processing apparatus 10, it is possible to prevent the interpolation image from being greatly deteriorated even when an erroneous detection of the motion vector occurs.
  • the interpolated image is generated based on an image to which a two-dimensional noise reduction filter is applied. Therefore, according to the image processing apparatus 10, it is possible to reduce noise included in the interpolated image that cannot be reduced by the recursive noise reduction processing.
  • noise that cannot be reduced by the recursive noise reduction processing is noise that does not change over time, and includes, for example, mosquito noise that always occurs at the same position in a still image.
  • the image processing apparatus 10 when the frame rate conversion process is performed, image quality degradation such as edge distortion occurs.
  • the image processing apparatus 10 generates an interpolated image based on the image to which the two-dimensional noise reduction filter is applied. Therefore, according to the image processing apparatus 10, it is possible to blur edges and suppress edge distortion included in the interpolated image.
  • liquid crystal display device 1 provided with the image processing device 10 as an image processing unit, motion blur generated in the hold-type display device is reduced, and afterimages in the motion region are prevented, A clear and high-quality image can be displayed.
  • image processing device 10 As an image processing unit, motion blur generated in the hold-type display device is reduced, and afterimages in the motion region are prevented, A clear and high-quality image can be displayed.
  • FIG. 4 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment of the present invention.
  • An image processing apparatus 20 illustrated in FIG. 4 is obtained by adding a scene information detection unit 21 and a selection unit 22 to the image processing apparatus 10 according to the first embodiment. Similar to the image processing apparatus 10 according to the first embodiment, the image processing apparatus according to each of the following embodiments is used by being incorporated in the liquid crystal display device 1 shown in FIG. In addition, among the components of each embodiment, the same components as those of the previous embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the scene information detection unit 21 detects scene information based on the input image X (n), and outputs a selection control signal P1 based on the detected scene information (details will be described later).
  • the selection control signal P1 is a binary signal and changes between a high level and a low level for each image. For example, the selection control signal P1 becomes a high level when a scene change occurs in the input image X (n), and becomes a low level otherwise.
  • the selection unit 22 selects the two-dimensional noise reduction image A (n) obtained by the two-dimensional noise reduction filter processing unit 13 when the selection control signal P1 is at a high level, and 3 when the selection control signal P1 is at a low level.
  • the three-dimensional noise reduction image B (n) obtained by the three-dimensional noise reduction processing unit 14 is selected.
  • the image selected by the selection unit 22 is supplied to the interpolated image generation unit 15 as a reference image Z (n).
  • the interpolated image generation unit 15 uses the motion vector MV detected by the motion vector detection unit 12 and the corrected original image Y (n) and the corrected original image based on the reference image Z (n) obtained by the selection unit 22.
  • An interpolated image Y (n + 0.5) to be interpolated in the middle of Y (n + 1) is generated.
  • the interpolated image Y (n + 0.5) is generated based on the two-dimensional noise reduced image A (n) when a scene change occurs in the input image X (n), and otherwise the three-dimensional noise reduced image B (n ).
  • the scene information detection unit 21 performs statistical processing on the luminance difference between two consecutive frames and the motion vector in the screen, and detects the feature (scene information) of the scene represented by the input image X (n).
  • the scene information includes, for example, information such as a scene change, a high-speed scroll / pan image, a still image, and a fade-in / out image.
  • the scene information detection unit 21 may obtain a luminance histogram of the entire screen for two consecutive frames, for example, and may determine a scene change when the difference between the two histograms is large.
  • the scene information detection unit 21 may determine a scene change based on motion vector accuracy information when there are many vectors with low accuracy in the entire screen.
  • the scene information detection unit 21 may detect a scene change based on information given from outside the image processing apparatus 10. For example, the scene information detection unit 21 may detect a scene change based on a decoding result received from a decoding unit (not shown).
  • the scene information detection unit 21 determines that the scene change has occurred, the scene information detection unit 21 outputs a high-level selection control signal P1. For this reason, when a scene change occurs, the interpolated image Y (n + 0.5) is generated not based on the three-dimensional noise reduced image B (n) but on the two-dimensional noise reduced image A (n). As described above, when a scene change occurs, the interpolation image is generated based on the image that has not been subjected to the recursive noise reduction process, thereby preventing a significant deterioration of the interpolation image.
  • the scene information detecting unit 21 detects a scene change, it preferably outputs a high-level selection control signal P1 for a while (for example, over several frame periods).
  • the scene information detection unit 21 may obtain an average value (average vector) of motion vectors of the entire screen, and may determine that the image is a high-speed scroll image when the average vector is large.
  • the scene information detection unit 21 may obtain a peak vector (most frequently used vector) from the motion vector histogram of the entire screen, and may determine that the image is a high-speed scroll image when the peak vector is large.
  • the scene information detection unit 21 may count the number of times a motion vector larger than a predetermined number is detected or the number of times a motion vector has failed to be detected because a detection range has been exceeded, and may determine that the motion vector is a high-speed scroll image. .
  • the scene information detection unit 21 determines that the image is a high-speed scroll image
  • the scene information detection unit 21 outputs a high-level selection control signal P1.
  • the interpolated image Y (n + 0.5) is generated based on the two-dimensional noise reduced image A (n) instead of the three-dimensional noise reduced image B (n).
  • the interpolation image is generated based on the image that has not been subjected to the recursive noise reduction process, thereby preventing significant deterioration of the interpolation image.
  • the scene information detection unit 21 may determine that the image is a still image, for example, when the luminance difference between two consecutive frames is sufficiently small.
  • the scene information detection unit 21 may determine a still image when the average vector or peak vector is sufficiently close to the zero vector or when the detected motion vector is often a zero vector.
  • the scene information detection unit 21 determines that the image is a still image, the scene information detection unit 21 outputs a low-level selection control signal P1. Therefore, when the input image X (n) is a still image, the interpolated image Y (n + 0.5) is generated based on the three-dimensional noise reduced image B (n).
  • the corrected original image is obtained by performing recursive noise reduction processing on the input image.
  • the interpolated image is generated based on a reference image obtained by switching an image obtained by applying a two-dimensional noise reduction filter to an input image and an image obtained by performing recursive noise reduction processing on the input image. As described above, the interpolated image is generated based on the reference image obtained by a method different from the corrected image.
  • the image processing apparatus 20 includes the scene information detection unit 21 that detects scene information based on the input image X (n), the two-dimensional noise reduction filter processing unit 13, and the three-dimensional noise reduction.
  • a selection unit 22 that selects any one of the outputs of the processing unit 14 and obtains a reference image Z (n) is provided. The selection unit 22 performs selection based on the scene information detected by the scene information detection unit 21.
  • the image that has been subjected to the recursive noise reduction processing and the image that has not been subjected to the recursive noise reduction processing are switched and referenced according to the characteristics of the scene represented by the input image.
  • An image can be obtained and an interpolated image can be generated based on the obtained image. Therefore, it is possible to generate a suitable interpolated image according to the feature of the scene and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • noise included in the interpolated image that cannot be reduced by the recursive noise reduction process can be reduced.
  • FIG. 5 is a block diagram showing a configuration of an image processing apparatus according to the third embodiment of the present invention.
  • An image processing device 40 shown in FIG. 5 is obtained by replacing the scene information detection unit 21 with a telop information detection unit 31 in the image processing device 20 according to the second embodiment.
  • the telop information detection unit 31 detects telop information based on the input image X (n), and outputs a selection control signal P2 based on the detected telop information (details will be described later).
  • the selection control signal P2 is a binary signal and changes between a high level and a low level in units of pixels, rows, or band-like regions (consisting of a plurality of rows) in the image. For example, when the input image X (n) includes a telop, the selection control signal P2 is at a high level inside the telop area and is at a low level outside the telop area.
  • the selection unit 22 and the interpolated image generation unit 15 operate in the same manner as in the second embodiment. Therefore, when the input image X (n) includes a telop, the interpolated image Y (n + 0.5) is generated based on the two-dimensional noise reduced image A (n) inside the telop area, for example, and outside the telop area. It is generated based on the three-dimensional noise reduced image B (n).
  • the telop information detection unit 31 performs statistical processing on the motion vector in the screen, and obtains the position and speed of the telop area included in the input image X (n).
  • the position of the telop area is expressed using coordinates, line numbers, or band-like area numbers.
  • FIG. 6 is a diagram illustrating an example of an input image including a telop.
  • a telop 36 is included in a portion of about 1/4 from the bottom of the input image 35 shown in FIG.
  • Characters in the telop 36 (hereinafter referred to as telop characters) move leftward at a constant speed (hereinafter referred to as telop speed).
  • telop speed a constant speed
  • the input image 35 is divided into a plurality of blocks and a motion vector is detected for each block, a motion vector corresponding to the telop speed is detected in a block including a telop character.
  • the motion vector of a block that does not include a telop character is almost a zero vector.
  • a telop area can be detected by distinguishing a block including a telop character from a block not including a telop character.
  • the telop information detection unit 31 detects a telop area 37 (area indicated by a broken line) from the input image 35 as shown in FIG.
  • telop characters move at high speed in the display screen.
  • the background texture appears and disappears behind the character, so that there are many regions that cannot be correlated between frames (this region is called an occlusion region).
  • this region is called an occlusion region.
  • erroneous detection of motion vectors is likely to occur.
  • Many telop characters also have sharp edges. For this reason, the degradation of the interpolated image due to the erroneous detection of the motion vector becomes remarkable in the telop area.
  • the telop information detection unit 31 may output, for example, a high-level selection control signal P2 inside the telop area and a low-level selection control signal P2 outside the telop area.
  • the telop information detection unit 31 outputs a high-level selection control signal P2 for a portion having movement in the telop area, and outputs a low-level selection control signal P2 for a portion having no movement or a portion having little movement. Also good.
  • the telop information detection unit 31 outputs a high-level selection control signal P2 for a portion moving at a speed close to the telop speed in the telop region, and outputs a low-level selection control signal P2 for other portions. May be.
  • the interpolated image Y (n + 0.5) is generated based on the two-dimensional noise reduced image A (n), not the three-dimensional noise reduced image B (n).
  • the interpolated image Y (n + 0.5) is generated based on the two-dimensional noise reduced image A (n), not the three-dimensional noise reduced image B (n).
  • the corrected original image is obtained by performing recursive noise reduction processing on the input image.
  • the interpolated image is generated based on a reference image obtained by switching an image obtained by applying a two-dimensional noise reduction filter to an input image and an image obtained by performing recursive noise reduction processing on the input image. As described above, the interpolated image is generated based on the reference image obtained by a method different from the corrected image.
  • the image processing apparatus 30 includes the telop information detection unit 31 that detects telop information based on the input image X (n), the two-dimensional noise reduction filter processing unit 13, and the three-dimensional noise reduction.
  • a selection unit 22 that selects any one of the outputs of the processing unit 14 and obtains a reference image Z (n) is provided. The selection unit 22 performs selection based on the telop information detected by the telop information detection unit 31.
  • an image that has undergone recursive noise reduction processing and an image that has not undergone recursive noise reduction processing are switched according to the characteristics of the telop included in the input image.
  • a reference image can be obtained and an interpolated image can be generated based on the reference image. Therefore, it is possible to generate a suitable interpolated image according to the characteristics of the telop, and to prevent a significant deterioration of the interpolated image even when an erroneous detection of a motion vector occurs.
  • noise included in the interpolated image that cannot be reduced by the recursive noise reduction processing can be reduced.
  • FIG. 8 is a block diagram showing a configuration of an image processing apparatus according to the fourth embodiment of the present invention.
  • An image processing device 40 shown in FIG. 8 is obtained by replacing the scene information detection unit 21 with an external information analysis unit 41 in the image processing device 20 according to the second embodiment.
  • the external information signal R is input from the outside to the image processing apparatus 40 according to the present embodiment.
  • the external information analysis unit 41 analyzes the external information signal R and outputs a selection control signal P3 based on the obtained analysis result (details will be described later).
  • the selection control signal P3 is a binary signal and changes between a high level and a low level in units of images, pixels, rows, or belt-like regions. For example, the selection control signal P3 is at a high level when the input image X (n) is different from the immediately preceding input image, and is at a low level otherwise.
  • the selection unit 22 and the interpolated image generation unit 15 operate in the same manner as in the second embodiment. Accordingly, the interpolated image Y (n + 0.5) is generated based on the two-dimensional noise reduced image A (n) when, for example, the input image X (n) is different from the immediately preceding input image, and is otherwise reduced with the three-dimensional noise. Generated based on the image B (n).
  • the external information signal R input to the external information analysis unit 41 includes, for example, genre information (animation, movie, news, etc.) of the input image, tone mode information (game, movie, PC, etc.) of the display device, and superimposed image.
  • Information OSD (On Screen Display), multi-screen, subtitle, etc.), user setting information (noise reduction intensity setting value, etc.), and the like are included.
  • the input image is often a video obtained by pulling down a video such as a 24p format or a 30p format.
  • a 24p format image includes two or three identical images continuously in order to display a 24 frame / second image at 60 frames / second.
  • the external information analysis unit 41 determines whether or not the same image is continuously input based on the genre information obtained by analyzing the external information signal R.
  • the external information analysis unit 41 outputs a high level selection control signal P3 when the same image is input, and outputs a low level selection control signal P3 when a different image is input.
  • the external information analysis unit 41 may perform similar control based on the image tone mode information.
  • frame rate conversion processing by motion compensation is performed on a 24p format video to generate a video with a frame rate of 120 Hz (that is, four interpolated images are interpolated between 24 frames / second frames).
  • frame rate conversion processing by motion compensation is performed on a 24p format video to generate a video with a frame rate of 120 Hz (that is, four interpolated images are interpolated between 24 frames / second frames).
  • the external information analysis unit 41 obtains a portion on which the OSD and the caption are superimposed based on the superimposed image information obtained by analyzing the external information signal R.
  • the external information analysis unit 41 outputs a low-level selection control signal P3 for the part on which the OSD or caption is superimposed, and outputs a high-level selection control signal P3 for the other part.
  • the interpolated image Y (n + 0.5) is set to one of the two-dimensional noise reduced image A (n) and the three-dimensional noise reduced image B (n) according to the analysis result in the external information analysis unit 41. Generated based on
  • the corrected original image is obtained by performing recursive noise reduction processing on the input image.
  • the interpolated image is generated based on a reference image obtained by switching an image obtained by applying a two-dimensional noise reduction filter to an input image and an image obtained by performing recursive noise reduction processing on the input image.
  • the interpolated image is generated based on the reference image obtained by a method different from the corrected image.
  • the image processing apparatus 40 is one of the outputs of the external information analysis unit 41 that analyzes external information, the two-dimensional noise reduction filter processing unit 13, and the three-dimensional noise reduction processing unit 14. And a selection unit 22 for obtaining a reference image Z (n). The selection unit 22 performs selection based on the analysis result obtained by the external information analysis unit 41.
  • switching between the image that has been subjected to the recursive noise reduction processing and the image that has not been subjected to the recursive noise reduction processing is referred in accordance with external information input from the outside.
  • An image can be obtained and an interpolated image can be generated based on the obtained image. Accordingly, it is possible to generate a suitable interpolated image according to the external information and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • noise included in the interpolated image that cannot be reduced by the recursive noise reduction processing can be reduced.
  • FIG. 9 is a block diagram showing a configuration of an image processing apparatus according to the fifth embodiment of the present invention.
  • An image processing device 50 shown in FIG. 9 is obtained by replacing the selection unit 22 with a weighting coefficient control unit 51 and a weighted addition calculation unit 52 in the image processing device 20 according to the second embodiment.
  • the scene information detection unit 21 detects scene information based on the input image X (n). However, the scene information detection unit 21 according to the present embodiment outputs a scene information signal Q1 indicating the detected scene information instead of the selection control signal P1.
  • the scene information signal Q1 may be a multi-value signal or a plurality of signals.
  • FIG. 10 is a block diagram showing details of the weighting coefficient control unit 51 and the weighted addition calculation unit 52.
  • the weighted addition calculation unit 52 includes a weighted addition unit 53a for a corrected original image including coefficient multipliers 54a and 55a and an adder 56a, and includes coefficient multipliers 54b and 55b and an adder 56b. And a weighted addition unit 53b for an inserted image.
  • the weighting coefficient control unit 51 obtains weighting coefficients ⁇ and ⁇ (where 0 ⁇ ⁇ ⁇ 1, 0 ⁇ ⁇ ⁇ 1) based on the scene information signal Q1 (details will be described later).
  • the weighted addition calculation unit 52 includes a two-dimensional noise reduction image A (n) obtained by the two-dimensional noise reduction filter processing unit 13, a three-dimensional noise reduction image B (n) obtained by the three-dimensional noise reduction processing unit 14, and The weighting coefficients ⁇ and ⁇ obtained by the weighting coefficient control unit 51 are input.
  • the coefficient multiplier 54a multiplies the pixel value included in the two-dimensional noise reduced image A (n) by (1 ⁇ ), and the coefficient multiplier 55a multiplies the pixel value included in the three-dimensional noise reduced image B (n) by ⁇ .
  • the adder 56a adds the outputs of the coefficient multipliers 54a and 55a.
  • the coefficient multiplier 54b multiplies the pixel value included in the two-dimensional noise reduced image A (n) by (1 ⁇ )
  • the coefficient multiplier 55b multiplies the pixel value included in the three-dimensional noise reduced image B (n) by ⁇ times.
  • the adder 56b adds the outputs of the coefficient multipliers 54b and 55b.
  • the output of the weighted addition unit 53a for the corrected original image is supplied to the time base conversion unit 16 as the corrected original image Y (n).
  • the output of the weighted addition unit 53b for the interpolated image is supplied to the interpolated image generating unit 15 as the reference image Z (n).
  • the following equations (1) and (2) are established between the two-dimensional noise reduced image A (n), the three-dimensional noise reduced image B (n), the corrected original image Y (n), and the reference image Z (n). To do.
  • the interpolated image generation unit 15 uses the motion vector MV detected by the motion vector detection unit 12, and based on the reference image Z (n) obtained by the weighted addition unit 53b for the interpolated image, the corrected original image Y ( An interpolated image Y (n + 0.5) to be interpolated between n) and the corrected original image Y (n + 1) is generated.
  • the weighting coefficient control unit 51 When the amount of motion of the input image X (n) is large, erroneous detection of motion vectors is likely to occur. In this case, since the three-dimensional noise reduced image B (n) may deteriorate, the weighting coefficient control unit 51 decreases the weighting coefficient ⁇ . As a result, a corrected original image Y (n) close to the two-dimensional noise reduced image A (n) is obtained. Further, since the interpolated image Y (n + 0.5) is more likely to deteriorate than the corrected original image Y (n), the weighting coefficient control unit 51 makes the weighting coefficient ⁇ smaller than the weighting coefficient ⁇ .
  • the interpolated image Y (n + 0.5) is generated based on the reference image Z (n) that is closer to the two-dimensional noise reduced image A (n) than the corrected original image Y (n). As a result, significant deterioration of the interpolated image can be prevented.
  • the weighting coefficient control unit 51 increases the weighting coefficient ⁇ . Thereby, a corrected original image Y (n) close to the three-dimensional noise reduced image B (n) is obtained. Since the interpolation image Y (n + 0.5) is slightly deteriorated by the frame rate conversion process, the weighting coefficient control unit 51 makes the weighting coefficient ⁇ slightly smaller than the weighting coefficient ⁇ .
  • the corrected original image is obtained by performing weighted addition using the weighting coefficient ⁇ on the two-dimensional noise reduced image and the three-dimensional noise reduced image.
  • the interpolated image is generated based on a reference image obtained by performing weighted addition using a weighting coefficient ⁇ on the two-dimensional noise reduced image and the three-dimensional noise reduced image. As described above, the interpolated image is generated based on the reference image obtained by a method different from the corrected image.
  • the image processing apparatus 50 includes the scene information detection unit 21 that detects scene information based on the input image X (n), the two-dimensional noise reduction filter processing unit 13, and the three-dimensional noise reduction.
  • a weighted addition calculation unit 52 that performs two independent weighted additions to the output of the processing unit 14 is provided.
  • the corrected original image Y (n) is an image obtained by one weighted addition by the weighted addition calculation unit 52
  • the reference image Z (n) is an image obtained by the other weighted addition by the weighted addition calculation unit 52.
  • the weighting coefficients ⁇ and ⁇ of the weighted addition calculation unit 52 change based on the scene information detected by the scene information detection unit 21.
  • the image processing apparatus 50 performs the recursive noise reduction processing and the image subjected to the recursive noise reduction processing while changing the weighting coefficient according to the feature of the scene represented by the input image.
  • a reference image can be obtained by performing weighted addition on a non-image, and an interpolated image can be generated based on the reference image. Therefore, it is possible to generate a suitable interpolated image according to the feature of the scene and prevent a significant deterioration of the interpolated image even when a motion vector is erroneously detected.
  • FIG. 11 and FIG. 12 are block diagrams illustrating the configuration of an image processing apparatus according to a modification of the fifth embodiment.
  • An image processing apparatus 60 shown in FIG. 11 is a modification of the image processing apparatus 30 according to the third embodiment.
  • the telop information detection unit 31 outputs a telop information signal Q2 indicating telop information
  • the weighting coefficient control unit 51 changes the weighting coefficient of the weighted addition calculation unit 52 based on the telop information signal Q2.
  • An image processing apparatus 70 shown in FIG. 12 is a modification of the image processing apparatus 40 according to the fourth embodiment.
  • the external information analysis unit 41 outputs an analysis result signal Q3 indicating the analysis result of the external information
  • the weighting coefficient control unit 51 changes the weighting coefficient of the weighted addition calculation unit 52 based on the analysis result signal Q3.
  • the image processing apparatuses 60 and 70 according to these modified examples have the same effects as the image processing apparatus 50. That is, according to the image processing devices 60 and 70, the recursive noise reduction processing is performed while changing the weighting coefficient according to the feature of the telop included in the input image (or according to the external information input from the outside).
  • a reference image can be obtained by performing weighted addition on the performed image and an image on which recursive noise reduction processing has not been performed, and an interpolated image can be generated based on the reference image.
  • a suitable interpolated image is generated according to the characteristics of the telop (or according to the external information), and even when an erroneous detection of the motion vector occurs, it is possible to prevent a significant deterioration of the interpolated image. .
  • the image processing apparatus that interpolates one interpolated image between two consecutive corrected original images in order to double the frame rate has been described.
  • the image processing apparatus of the present invention may interpolate a plurality of interpolated images between two consecutive corrected original images in order to make the frame rate larger than twice.
  • the image processing apparatus according to the present invention may include a one-dimensional noise reduction filter unit that applies a one-dimensional noise reduction filter to the input image X (n) instead of the two-dimensional noise reduction filter processing unit 13. Good.
  • the one-dimensional noise reduction filter performs filter processing in either the horizontal direction or the vertical direction of the image.
  • the reference image is obtained by a method different from the corrected original image, so Even when an inserted image is generated and an erroneous detection of a motion vector occurs, it is possible to prevent significant degradation of the inserted image.
  • the image processing apparatus, the image processing method, the image display apparatus, and the image display method of the present invention have the effect of preventing a significant deterioration of the interpolated image even when an erroneous detection of the motion vector occurs, the frame rate conversion
  • the present invention can be used in various image processing apparatuses, image processing methods, image display apparatuses, and image display methods that perform processing and recursive noise reduction processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Television Systems (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 3次元ノイズ低減処理部14は、動きベクトル検出部12で検出された動きベクトルMVを用いて、入力画像X(n)に対して再帰型ノイズ低減処理を行う。3次元ノイズ低減画像B(n)は、補正原画像Y(n)として出力される。2次元ノイズ低減フィルタ処理部13は、入力画像X(n)に対して2次元ノイズ低減フィルタを適用する。内挿画像生成部15は、動きベクトルMVを用いて、2次元ノイズ低減画像A(n)に基づき内挿画像Y(n+0.5)を生成する。再帰型ノイズ低減処理を行っていない画像に基づき内挿画像を生成し、動きベクトルの誤検出に起因する内挿画像の大幅な劣化を防止する。

Description

画像処理装置および方法、画像表示装置および方法
 本発明は、画像処理装置、画像処理方法、画像表示装置および画像表示方法に関し、特に、フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理装置、画像処理方法、画像表示装置および画像表示方法に関する。
 液晶表示装置などのホールド型表示装置には、動きのある画像を表示したときに、動く部分の輪郭がぼやけて見えるという問題がある(以下、この現象を動きぼやけという)。この動きぼやけを防止する方法として、連続した2枚のフレーム間に新たなフレームを内挿して、フレームレートを高くする方法(フレームレート変換処理)が知られている。また、動きぼやけを効果的に防止するために、フレームレート変換処理を行うときに、動きベクトルを用いて動き補償を行う方法も知られている。
 これとは別に、動画に含まれるノイズを低減する方法として、動きベクトルを用いた再帰型ノイズ低減処理が知られている。図13は、特許文献1に記載されたノイズ低減装置の構成を示すブロック図である。図13に示すノイズ低減装置110において、動き検出フレーム巡回型ノイズ低減手段111に含まれるフレームメモリ116は、前フレームの出力映像信号を記憶している。ベクトル検出手段117は、入力映像信号とフレームメモリ116から出力された前フレームの出力映像信号とに基づき、動きベクトルMVと動き成分MC(対応画素の変化を示す量)を求める。巡回帰還量制御回路112は、動き成分MCに基づき巡回係数kを求める。乗算器113は入力映像信号に含まれる画素値を(1-k)倍し、乗算器114は対応する画素値(フレームメモリ116から動きベクトルMVを用いて読み出した画素値)をk倍し、加算器115は乗算器113、114の出力を加算する。加算器115の出力は、出力映像信号としてノイズ低減装置110の外部に出力されると共に、次フレームの入力映像信号に対する処理に備えてフレームメモリ116に記憶される。ノイズ低減装置110によれば、時間軸方向に相関のないノイズ(ちらつくノイズ)を低減し、動き領域における残像の発生を防止して、鮮明で高画質な画像を得ることができる。
 また、動き補償によるフレームレート変換処理と動きベクトルを用いた再帰型ノイズ低減処理とを組合せた方法も考えられる。図14は、フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理装置の構成を示すブロック図である。図14に示す画像処理装置120において、フレームメモリ121、動きベクトル検出部122、内挿画像生成部124、および、タイムベース変換部125は、動き補償によるフレームレート変換処理を行う。3次元ノイズ低減処理部123は、動きベクトル検出部122で検出された動きベクトルを用いて再帰型ノイズ低減処理を行う。画像処理装置120によれば、ホールド型表示装置で発生する動きぼやけを防止すると共に、動画を表示するときに残像感のないノイズ低減を行い、高画質な動画を表示することができる。また、フレームレート変換処理と再帰型ノイズ低減処理で動きベクトル検出部122を共用することにより、回路規模やメモリ容量を削減することができる。
日本国特開2004-88234号公報
 しかしながら、動きベクトル検出処理では、常に正しい動きベクトルを検出できるとは限らない。例えば、動きが速い映像や、形状を変化させながら移動する物体を映した映像や、ある物体の手前または奥に別の物体が見え隠れする映像などでは、動きを追従することが困難であるために、動きベクトルの誤検出が発生しやすい。また、シーンチェンジやカメラのフラッシュなどを含む映像のように、フレーム間でシーンや輝度が大きく変化する場合には、動きベクトルの誤検出が画面全体で発生することがある。
 特許文献1の第2以降の実施形態には、動きベクトルの誤検出を低減させる方法が記載されている。しかし、これらの方法を用いても、動きベクトルの誤検出を完全に防止することはできない。また、動きベクトルの誤りを補正するとノイズ低減効果が小さくなるという問題もある。
 動きベクトルの誤検出が発生すると、フレームレート変換処理では、移動物体の形状に歪みが生じたり、二重像が見えたりするなどの画質劣化が生じる。再帰型ノイズ低減処理では、物体のエッジがぼやけたり、移動物体に尾引きが見えたりするなどの画質劣化が生じる。フレームレート変換処理と再帰型ノイズ低減処理の両方を行った場合には、再帰型ノイズ低減処理後の画像に動きぼやけや尾引きが生じる。また、内挿画像は再帰型ノイズ低減処理後の画像に基づき生成されるので、動きぼやけや尾引きがすでに発生していた部分にさらに歪みが生じる。この結果、内挿画像が大幅に劣化することがある。
 それ故に、本発明は、フレームレート変換処理と再帰型ノイズ低減処理を行い、動きベクトルの誤検出に起因する内挿画像の大幅な劣化を防止した画像処理装置、画像処理方法、画像表示装置および画像表示方法を提供することを目的とする。
 本発明の第1の局面は、フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理装置であって、
 連続して入力された入力画像から動きベクトルを検出する動きベクトル検出部と、
 前記動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行う第1のノイズ低減処理部と、
 前記入力画像に対してノイズ低減フィルタを適用する第2のノイズ低減処理部と、
 前記動きベクトルを用いて参照画像に基づき内挿画像を生成する内挿画像生成部とを備え、
 所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを出力することを特徴とする。
 本発明の第2の局面は、本発明の第1の局面において、
 前記補正原画像は前記第1のノイズ低減処理部で求めた画像であり、前記参照画像は前記第2のノイズ低減処理部で求めた画像であることを特徴とする。
 本発明の第3の局面は、本発明の第1の局面において、
 前記第1および第2のノイズ低減処理部の出力のいずれかを選択し、前記参照画像を求める選択部をさらに備え、
 前記補正原画像は前記第1のノイズ低減処理部で求めた画像であることを特徴とする。
 本発明の第4の局面は、本発明の第3の局面において、
 前記入力画像に基づきシーン情報を検出するシーン情報検出部をさらに備え、
 前記選択部は前記シーン情報に基づき選択を行うことを特徴とする。
 本発明の第5の局面は、本発明の第3の局面において、
 前記入力画像に基づきテロップ情報を検出するテロップ情報検出部をさらに備え、
 前記選択部は前記テロップ情報に基づき選択を行うことを特徴とする。
 本発明の第6の局面は、本発明の第3の局面において、
 外部から入力された外部情報を解析する外部情報解析部をさらに備え、
 前記選択部は前記外部情報解析部による解析結果に基づき選択を行うことを特徴とする。
 本発明の第7の局面は、本発明の第1の局面において、
 前記第1および第2のノイズ低減処理部の出力に対して、独立した2つの加重加算を行う加重加算演算部をさらに備え、
 前記補正原画像は前記加重加算演算部による一方の加重加算で求めた画像であり、前記参照画像は前記加重加算演算部による他方の加重加算で求めた画像であることを特徴とする。
 本発明の第8の局面は、本発明の第7の局面において、
 前記入力画像に基づきシーン情報を検出するシーン情報検出部をさらに備え、
 前記加重加算演算部の加重係数は前記シーン情報に基づき変化することを特徴とする。
 本発明の第9の局面は、本発明の第7の局面において、
 前記入力画像に基づきテロップ情報を検出するテロップ情報検出部をさらに備え、
 前記加重加算演算部の加重係数は前記テロップ情報に基づき変化することを特徴とする。
 本発明の第10の局面は、本発明の第7の局面において、
 外部から入力された外部情報を解析する外部情報解析部をさらに備え、
 前記加重加算演算部の加重係数は前記外部情報解析部による解析結果に基づき変化することを特徴とする。
 本発明の第11の局面は、フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理方法であって、
 連続して入力された入力画像から動きベクトルを検出するステップと、
 検出された動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行うステップと、
 前記入力画像に対してノイズ低減フィルタを適用するステップと、
 検出された動きベクトルを用いて参照画像に基づき内挿画像を生成するステップとを備え、
 所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを出力することを特徴とする。
 本発明の第12の局面は、フレームレート変換処理と再帰型ノイズ低減処理を行って画像を表示する画像表示装置であって、
 表示パネルと、
 フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理部と、
 前記画像処理部の出力に基づき前記表示パネルを駆動する駆動回路とを備え、
 前記画像処理部は、
  連続して入力された入力画像から動きベクトルを検出する動きベクトル検出部と、
  前記動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行う第1のノイズ低減処理部と、
  前記入力画像に対してノイズ低減フィルタを適用する第2のノイズ低減処理部と、
  前記動きベクトルを用いて参照画像に基づき内挿画像を生成する内挿画像生成部とを含み、
  所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを出力することを特徴とする。
 本発明の第13の局面は、フレームレート変換処理と再帰型ノイズ低減処理を行って表示パネルに画像を表示する画像表示方法であって、
 連続して入力された入力画像から動きベクトルを検出するステップと、
 検出された動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行うステップと、
 前記入力画像に対してノイズ低減フィルタを適用するステップと、
 検出された動きベクトルを用いて参照画像に基づき内挿画像を生成するステップと、
 所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを表す画像信号に基づき、表示パネルを駆動するステップとを備える。
 本発明の第1または第11の局面によれば、動き補償によるフレームレート変換処理と動きベクトルを用いた再帰型ノイズ低減処理とを行うことにより、ホールド型表示装置で発生する動きぼやけを防止すると共に、動き領域における残像の発生を防止して、鮮明で高画質な出力画像を得ることができる。また、フレームレート変換処理と再帰型ノイズ低減処理で動きベクトル検出部を共用することにより、回路規模やメモリ容量を削減することができる。また、補正原画像とは異なる方法で参照画像を求めることにより、好適な参照画像に基づき内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第2の局面によれば、内挿画像は、再帰型ノイズ低減処理を行っていない画像に基づき生成される。したがって、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、内挿画像は、ノイズ低減フィルタを適用した画像に基づき生成される。したがって、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 本発明の第3の局面によれば、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を適宜切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、状況に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、ノイズ低減フィルタを適用した画像に基づき内挿画像を生成することにより、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 本発明の第4の局面によれば、入力画像が表すシーンの特徴に応じて、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、シーンの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第5の局面によれば、入力画像に含まれるテロップの特徴に応じて、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、テロップの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第6の局面によれば、外部から入力された外部情報に応じて、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、外部情報に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第7の局面によれば、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像に対して加重加算を行って参照画像を求め、これに基づき内挿画像を生成することができる。したがって、状況に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、ノイズ低減フィルタを適用した画像に与える加重係数を大きくして参照画像を求めることにより、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 本発明の第8の局面によれば、入力画像が表すシーンの特徴に応じて加重係数を変化させながら、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像に対して加重加算を行って参照画像を求め、これに基づき内挿画像を生成することができる。したがって、シーンの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第9の局面によれば、入力画像に含まれるテロップの特徴に応じて加重係数を変化させながら、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像に対して加重加算を行って参照画像を求め、これに基づき内挿画像を生成することができる。したがって、テロップの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第10の局面によれば、外部から入力された外部情報に応じて加重係数を変化させながら、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像に対して加重加算を行って参照画像を求め、これに基づき内挿画像を生成することができる。したがって、外部情報に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の第12または第13の局面によれば、ホールド型表示装置で発生する動きぼやけを低減すると共に、動き領域における残像の発生を防止して、鮮明で高画質な画像を表示することができる。また、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の各実施形態に係る画像処理装置を含む液晶表示装置の構成を示すブロック図である。 図1に示す画像処理装置における入力画像と出力画像を示す図である。 本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。 テロップを含む入力画像の例を示す図である。 図5に示す画像処理装置のテロップ情報検出部によるテロップ領域検出結果を示す図である。 本発明の第4の実施形態に係る画像処理装置の構成を示すブロック図である。 本発明の第5の実施形態に係る画像処理装置の構成を示すブロック図である。 図9に示す画像処理装置の加重係数制御部と加重加算演算部の詳細を示すブロック図である。 本発明の第5の実施形態の第1変形例に係る画像処理装置の構成を示すブロック図である。 本発明の第5の実施形態の第2変形例に係る画像処理装置の構成を示すブロック図である。 従来のノイズ低減装置の構成を示すブロック図である。 従来の画像処理装置の構成を示すブロック図である。
 (第1の実施形態)
 図1は、本発明の第1の実施形態に係る画像処理装置の構成を示すブロック図である。図1に示す画像処理装置10は、フレームメモリ11、動きベクトル検出部12、2次元ノイズ低減フィルタ処理部13、3次元ノイズ低減処理部14、内挿画像生成部15、および、タイムベース変換部16を備えている。画像処理装置10は、動き補償によるフレームレート変換処理と動きベクトルを用いた再帰型ノイズ低減処理とを行う。
 図2は、画像処理装置10を含む液晶表示装置の構成を示すブロック図である。図2に示す液晶表示装置1は、画像処理装置10、タイミング制御回路2、走査信号線駆動回路3、データ信号線駆動回路4、および、液晶パネル5を備えている。液晶パネル5は、p本の走査信号線G1~Gp、q本のデータ信号線S1~Sq、および、(p×q)個の画素回路6を含んでいる。走査信号線G1~Gpは互いに平行に配置され、データ信号線S1~Sqは走査信号線G1~Gpと直交するように互いに平行に配置される。(p×q)個の画素回路6は、走査信号線G1~Gpとデータ信号線S1~Sqの各交点近傍に配置される。
 液晶表示装置1には外部から、フレームレートが60Hzの入力画像信号Vinが入力される。画像処理装置10は、入力画像信号Vinをフレームレートが120Hzの出力画像信号Voutに変換する。出力画像信号Voutは、データ信号線駆動回路4に供給される。タイミング制御回路2は、走査信号線駆動回路3とデータ信号線駆動回路4にそれぞれタイミング制御信号TC1、TC2を供給する。走査信号線駆動回路3とデータ信号線駆動回路4は、液晶パネル5の駆動回路である。走査信号線駆動回路3は、タイミング制御信号TC1に基づき、走査信号線G1~Gpを駆動する。データ信号線駆動回路4は、タイミング制御信号TC2と出力画像信号Voutに基づき、データ信号線S1~Sqを駆動する。走査信号線駆動回路3とデータ信号線駆動回路4を用いて液晶パネル5を駆動することにより、1秒間に120枚の画像を液晶パネル5に表示することができる。
 以下、入力画像信号Vinが表す画像を入力画像、出力画像信号Voutが表す画像を出力画像といい、n番目の入力画像をX(n)と表す。図3は、画像処理装置10における入力画像と出力画像を示す図である。入力画像は1秒間に60枚入力され、出力画像は1秒間に120枚出力される。出力画像には、入力画像に対してノイズ低減処理を行った画像(図3では点状模様を付した画像。以下、補正原画像という)と、画像処理装置10で新たに生成された画像(図3では斜線を付した画像。以下、内挿画像という)とが含まれる。入力画像X(n)に対応した補正原画像をY(n)と表し、補正原画像Y(n)、Y(n+1)の中間に内挿された内挿画像をY(n+0.5)と表す。以下に示すように、画像処理装置10は、入力画像に対して再帰型ノイズ低減処理を行うことにより補正原画像を求め、入力画像に対して2次元ノイズ低減フィルタを適用した画像に基づき内挿画像を生成する。
 以下、再び図1を参照して、画像処理装置10の詳細を説明する。ここでは、入力画像X(n+1)が入力されたときの画像処理装置10の動作を説明する。フレームメモリ11は、入力画像信号Vinを1フレーム分記憶し、1フレーム期間遅延させて出力する。入力画像X(n+1)が入力されたとき、フレームメモリ11は、入力画像X(n+1)を記憶しながら、入力画像X(n)を出力する。
 動きベクトル検出部12は、連続して入力された入力画像から動きベクトルを検出する。より詳細には、動きベクトル検出部12は、入力画像X(n+1)とフレームメモリ11から出力された入力画像X(n)とに基づき、2枚の画像間の動きベクトルMVを検出する。動きベクトルMVの検出方法は任意でよい。検出された動きベクトルMVは、3次元ノイズ低減処理部14と内挿画像生成部15に供給される。
 2次元ノイズ低減フィルタ処理部13は、フレームメモリ11から出力された入力画像X(n)に対して、2次元ノイズ低減フィルタを適用する。2次元ノイズ低減フィルタの特性は、任意でよい。例えば、2次元ノイズ低減フィルタとして、ローパスフィルタやメディアンフィルタを使用することができる。2次元ノイズ低減フィルタ処理部13の出力は、2次元ノイズ低減画像A(n)として内挿画像生成部15に供給される。
 3次元ノイズ低減処理部14は、入力画像X(n)に対して、動きベクトルを用いた再帰型ノイズ低減処理(3次元ノイズ低減処理)を行う。より詳細には、3次元ノイズ低減処理部14は、動き補償画像メモリ141、加重係数制御部142、係数乗算器143、144、加算器145、および、動き補償画像生成部146を含んでいる。フレームメモリ11から入力画像X(n)が出力されたとき、動き補償画像メモリ141は、入力画像X(n-1)に対して再帰型ノイズ低減処理と動き補償を行った動き補償画像C(n)を出力する。
 加重係数制御部142は、入力画像X(n)と動き補償画像C(n)を比較することにより、加重係数k(ただし、0≦k≦1)を決定する。加重係数制御部142は、例えば、入力画像X(n)と動き補償画像C(n)の輝度差分や輝度傾斜情報などを求め、求めた値に応じて加重係数kを変化させる。あるいは、加重係数制御部142は、入力画像X(n)の輝度情報や周波数特性などに応じて、加重係数kを変化させてもよい。
 加重係数制御部142で決定された加重係数kに基づき、係数乗算器143は入力画像X(n)に含まれる画素値を(1-k)倍し、係数乗算器144は動き補償画像C(n)に含まれる対応する画素値をk倍する。加算器145は、係数乗算器143、144の出力を加算する。加算器145の出力は、3次元ノイズ低減画像B(n)として、タイムベース変換部16と動き補償画像生成部146に供給される。
 動き補償画像生成部146は、3次元ノイズ低減画像B(n)と動きベクトル検出部12で検出された動きベクトルMVとに基づき、動き補償画像C(n+1)を生成する。動き補償画像生成部146は、3次元ノイズ低減処理部14に次に供給される入力画像X(n+1)の位置と整合するように、未来から過去へ向かう動きベクトルを用いて、動き補償画像C(n+1)を生成する。生成された動き補償画像C(n+1)は、動き補償画像メモリ141に記憶される。
 内挿画像生成部15は、動きベクトル検出部12で検出された動きベクトルMVを用いて、2次元ノイズ低減画像A(n)に基づき、補正原画像Y(n)と補正原画像Y(n+1)の中間に内挿すべき内挿画像Y(n+0.5)を生成する。生成された内挿画像Y(n+0.5)は、タイムベース変換部16に供給される。
 タイムベース変換部16に供給された3次元ノイズ低減画像B(n)は、そのまま補正原画像Y(n)として使用される。タイムベース変換部16は、補正原画像Y(n)と内挿画像Y(n+0.5)を順次出力する。より詳細には、タイムベース変換部16は、先に補正原画像Y(n)を出力し、1/120秒遅れて内挿画像Y(n+0.5)を出力する。この結果、画像処理装置10からは、補正原画像と内挿画像を交互に含む、フレームレートが120Hzの出力画像信号Voutが出力される。
 このように画像処理装置10では、補正原画像は、入力画像に対して再帰型ノイズ低減処理を行うことにより求められる。内挿画像は、入力画像に対して2次元ノイズ低減フィルタを適用した画像に基づき生成される。このように内挿画像は、補正画像とは異なる方法で求めた画像に基づき生成される。
 以下、本実施形態に係る画像処理装置10の効果を説明する。上述したように、画像処理装置10は、動き補償によるフレームレート変換処理と動きベクトルを用いた再帰型ノイズ低減処理とを行う。これにより、ホールド型表示装置で発生する動きぼやけを防止すると共に、動き領域における残像の発生を防止して、鮮明で高画質な出力画像を得ることができる。特に、再帰型の処理を行うことにより、数フレーム分の画像を参照した場合と同様の効果が得られる。また、動きベクトルを用いた再帰型ノイズ低減処理を行うことにより、動きに追従した加重加算を行い、ぼやけを効果的に防止することができる。また、画像処理装置10では、動きベクトル検出部12で検出された動きベクトルMVは、フレームレート変換処理と再帰型ノイズ低減処理の両方に使用される。このようにフレームレート変換処理と再帰型ノイズ低減処理で動きベクトル検出部12を共用することにより、回路規模やメモリ容量を削減することができる。
 上述したように、フレームレート変換処理と再帰型ノイズ低減処理を行う従来の画像処理装置(例えば、図14に示す画像処理装置120)には、再帰型ノイズ低減処理後の画像に基づき内挿画像を生成するために、動きベクトルの誤検出が発生したときに、内挿画像が大幅に劣化するという問題がある。
 これに対して、本実施形態に係る画像処理装置10は、入力画像X(n)に再帰型ノイズ低減処理を行った画像を補正原画像Y(n)とし、入力画像X(n)に2次元ノイズ低減フィルタを適用した画像に基づき内挿画像Y(n+0.5)を生成する。このように画像処理装置10では、動きベクトルの誤検出が発生したときに大幅に劣化する可能性がある内挿画像は、再帰型ノイズ低減処理を行った画像ではなく、再帰型ノイズ低減処理を行っていない画像に基づき生成される。したがって、画像処理装置10によれば、動きベクトルの誤検出が発生したときでも、内挿画像の大幅な劣化を防止することができる。
 また、画像処理装置10では、内挿画像は、2次元ノイズ低減フィルタを適用した画像に基づき生成される。したがって、画像処理装置10によれば、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。なお、再帰型ノイズ低減処理で低減できないノイズとは、時間が経過しても変化しないノイズであり、例えば静止画像において常に同じ位置に発生するモスキートノイズなどが含まれる。
 また、一般に、フレームレート変換処理を行うと、エッジ歪みなどの画質劣化が生じる。画像処理装置10は、2次元ノイズ低減フィルタを適用した画像に基づき内挿画像を生成する。したがって、画像処理装置10によれば、エッジをぼやけさせて、内挿画像に含まれるエッジ歪みを抑制することができる。
 また、画像処理装置10を画像処理部として備えた液晶表示装置1(図2)によれば、ホールド型表示装置で発生する動きぼやけを低減すると共に、動き領域における残像の発生を防止して、鮮明で高画質な画像を表示することができる。また、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 (第2の実施形態)
 図4は、本発明の第2の実施形態に係る画像処理装置の構成を示すブロック図である。図4に示す画像処理装置20は、第1の実施形態に係る画像処理装置10にシーン情報検出部21と選択部22を追加したものである。以下の各実施形態に係る画像処理装置は、第1の実施形態に係る画像処理装置10と同様に、図2に示す液晶表示装置1に内蔵して使用される。また、各実施形態の構成要素のうち先の実施形態と同一のものについては、同一の参照符号を付して説明を省略する。
 シーン情報検出部21は、入力画像X(n)に基づきシーン情報を検出し、検出したシーン情報に基づき選択制御信号P1を出力する(詳細は後述)。選択制御信号P1は、2値の信号であり、画像単位でハイレベルとローレベルに変化する。例えば、選択制御信号P1は、入力画像X(n)でシーンチェンジが発生したときにはハイレベルになり、それ以外のときにはローレベルになる。
 選択部22は、選択制御信号P1がハイレベルのときには、2次元ノイズ低減フィルタ処理部13で求めた2次元ノイズ低減画像A(n)を選択し、選択制御信号P1がローレベルのときには、3次元ノイズ低減処理部14で求めた3次元ノイズ低減画像B(n)を選択する。選択部22で選択された画像は、参照画像Z(n)として内挿画像生成部15に供給される。
 内挿画像生成部15は、動きベクトル検出部12で検出された動きベクトルMVを用いて、選択部22で求めた参照画像Z(n)に基づき、補正原画像Y(n)と補正原画像Y(n+1)の中間に内挿すべき内挿画像Y(n+0.5)を生成する。内挿画像Y(n+0.5)は、入力画像X(n)でシーンチェンジが発生したときには2次元ノイズ低減画像A(n)に基づき生成され、それ以外のときには3次元ノイズ低減画像B(n)に基づき生成される。
 以下、シーン情報検出部21について説明する。シーン情報検出部21は、連続した2枚のフレーム間の輝度差分や画面内の動きベクトルについて統計処理を行い、入力画像X(n)が表すシーンの特徴(シーン情報)を検出する。シーン情報には、例えば、シーンチェンジ、高速スクロール/パン画像、静止画像、フェードイン/アウト画像などの情報が含まれる。
 シーン情報検出部21は、例えば、連続した2枚のフレームについて画面全体の輝度ヒストグラムを求め、2つのヒストグラムの差が大きいときにシーンチェンジと判定してもよい。シーン情報検出部21は、動きベクトルの精度情報に基づき、画面全体の中で精度が低いベクトルが多いときにシーンチェンジと判定してもよい。シーン情報検出部21は、画像処理装置10の外部から与えられた情報に基づき、シーンチェンジを検出してもよい。例えば、シーン情報検出部21は、デコード部(図示せず)から受け取ったデコード結果に基づきシーンチェンジを検出してもよい。
 一般に、シーンチェンジが発生したときには、動きベクトルの誤検出が多く発生する。そこで、シーン情報検出部21は、シーンチェンジと判定したときには、ハイレベルの選択制御信号P1を出力する。このため、シーンチェンジが発生したときには、内挿画像Y(n+0.5)は、3次元ノイズ低減画像B(n)ではなく2次元ノイズ低減画像A(n)に基づき生成される。このように、シーンチェンジが発生したときには、再帰型ノイズ低減処理を行っていない画像に基づき内挿画像を生成することにより、内挿画像の大幅な劣化を防止することができる。
 なお、シーンチェンジが発生すると、動きベクトルの検出精度が低い状態がしばらく続くことが多い。このため、シーン情報検出部21は、シーンチェンジを検出したときには、しばらくの間(例えば、数フレーム期間に亘って)ハイレベルの選択制御信号P1を出力することが好ましい。
 また、シーン情報検出部21は、例えば、画面全体の動きベクトルの平均値(平均ベクトル)を求め、平均ベクトルが大きいときに高速スクロール画像と判定してもよい。シーン情報検出部21は、画面全体の動きベクトルのヒストグラムからピークベクトル(最も頻度の高いベクトル)を求め、ピークベクトルが大きいときに高速スクロール画像と判定してもよい。シーン情報検出部21は、所定よりも大きい動きベクトルを検出した回数や検出範囲を超えたために動きベクトルの検出に失敗した回数を数え、その回数が多いときに高速スクロール画像と判定してもよい。
 一般に、高速スクロール画像では、動きベクトルの誤検出が多く発生する。そこで、シーン情報検出部21は、高速スクロール画像と判定したときには、ハイレベルの選択制御信号P1を出力する。このため、入力画像が高速スクロール画像のときには、内挿画像Y(n+0.5)は、3次元ノイズ低減画像B(n)ではなく2次元ノイズ低減画像A(n)に基づき生成される。このように、入力画像が高速スクロール画像のときには、再帰型ノイズ低減処理を行っていない画像に基づき内挿画像を生成することにより、内挿画像の大幅な劣化を防止することができる。
 また、シーン情報検出部21は、例えば、連続した2枚のフレーム間の輝度差分が十分に小さいときには静止画像と判定してもよい。シーン情報検出部21は、平均ベクトルやピークベクトルがゼロベクトルに十分に近いときや、検出した動きベクトルがゼロベクトルである場合が多いときに、静止画像と判定してもよい。
 一般に、静止画像では、動きベクトルの誤検出はほとんど発生しない。そこで、シーン情報検出部21は、静止画像と判定したときには、ローレベルの選択制御信号P1を出力する。このため、入力画像X(n)が静止画像のときには、内挿画像Y(n+0.5)は3次元ノイズ低減画像B(n)に基づき生成される。
 このように画像処理装置20では、補正原画像は、入力画像に対して再帰型ノイズ低減処理を行うことにより求められる。内挿画像は、入力画像に対して2次元ノイズ低減フィルタを適用した画像、および、入力画像に対して再帰型ノイズ低減処理を行った画像を切り替えて得られた参照画像に基づき生成される。このように内挿画像は、補正画像とは異なる方法で求めた参照画像に基づき生成される。
 以上に示すように、本実施形態に係る画像処理装置20は、入力画像X(n)に基づきシーン情報を検出するシーン情報検出部21と、2次元ノイズ低減フィルタ処理部13および3次元ノイズ低減処理部14の出力のいずれかを選択し、参照画像Z(n)を求める選択部22とを備えている。選択部22は、シーン情報検出部21で検出されたシーン情報に基づき選択を行う。
 したがって、本実施形態に係る画像処理装置20によれば、入力画像が表すシーンの特徴に応じて、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、シーンの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、ノイズ低減フィルタを適用した画像に基づき内挿画像を生成することにより、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 (第3の実施形態)
 図5は、本発明の第3の実施形態に係る画像処理装置の構成を示すブロック図である。図5に示す画像処理装置40は、第2の実施形態に係る画像処理装置20において、シーン情報検出部21をテロップ情報検出部31に置換したものである。
 テロップ情報検出部31は、入力画像X(n)に基づきテロップ情報を検出し、検出したテロップ情報に基づき選択制御信号P2を出力する(詳細は後述)。選択制御信号P2は、2値の信号であり、画像内の画素、行あるいは帯状領域(複数の行で構成される)を単位としてハイレベルとローレベルに変化する。例えば、入力画像X(n)がテロップを含む場合、選択制御信号P2は、テロップ領域の内部ではハイレベルとなり、テロップ領域の外部ではローレベルとなる。
 選択部22と内挿画像生成部15は、第2の実施形態と同様に動作する。したがって、入力画像X(n)がテロップを含む場合、内挿画像Y(n+0.5)は、例えばテロップ領域の内部では2次元ノイズ低減画像A(n)に基づき生成され、テロップ領域の外部では3次元ノイズ低減画像B(n)に基づき生成される。
 以下、テロップ情報検出部31について説明する。テロップ情報検出部31は、画面内の動きベクトルについて統計処理を行い、入力画像X(n)に含まれるテロップ領域の位置と速度を求める。テロップ領域の位置は、座標、行番号あるいは帯状領域の番号などを用いて表される。
 図6は、テロップを含む入力画像の例を示す図である。図6に示す入力画像35の下から約1/4の部分には、テロップ36が含まれている。テロップ36内の文字(以下、テロップ文字という)は、左方向に一定の速度(以下、テロップ速度という)で移動する。入力画像35を複数のブロックに分割して、ブロック毎に動きベクトルを検出した場合、テロップ文字を含むブロックでは、テロップ速度に相当する動きベクトルが検出される。一方、テロップ文字を含まないブロックの動きベクトルは、ほぼゼロベクトルとなる。したがって、テロップ文字を含むブロックとテロップ文字を含まないブロックを区別して、テロップ領域を検出することができる。テロップ情報検出部31は、図7に示すように、入力画像35からテロップ領域37(破線で示す領域)を検出する。
 一般に、テロップ文字は、表示画面内で高速に移動する。テロップ文字と背景の境界部分では、文字の後ろに背景のテクスチャが見え隠れするので、フレーム間で相関が取れない領域が多く発生する(この領域は、オクリュージョン領域と呼ばれる)。オクリュージョン領域では、動きベクトルの誤検出が発生しやすい。また、多くのテロップ文字は、はっきりしたエッジを有する。このため、動きベクトルの誤検出に起因する内挿画像の劣化は、テロップ領域では顕著になる。
 テロップ情報検出部31は、例えば、テロップ領域の内部ではハイレベルの選択制御信号P2を出力し、テロップ領域の外部ではローレベルの選択制御信号P2を出力してもよい。テロップ情報検出部31は、テロップ領域内で動きのある部分についてはハイレベルの選択制御信号P2を出力し、動きのない部分や動きの小さい部分についてはローレベルの選択制御信号P2を出力してもよい。テロップ情報検出部31は、テロップ領域内でテロップ速度に近い速度で移動している部分についてはハイレベルの選択制御信号P2を出力し、それ以外の部分についてはローレベルの選択制御信号P2を出力してもよい。
 このため、テロップが存在する部分では、内挿画像Y(n+0.5)は、3次元ノイズ低減画像B(n)ではなく2次元ノイズ低減画像A(n)に基づき生成される。このように、テロップが存在する部分では、再帰型ノイズ低減処理を行っていない画像に基づき内挿画像を生成することにより、テロップを含む内挿画像の大幅な劣化を防止することができる。
 このように画像処理装置30では、補正原画像は、入力画像に対して再帰型ノイズ低減処理を行うことにより求められる。内挿画像は、入力画像に対して2次元ノイズ低減フィルタを適用した画像、および、入力画像に対して再帰型ノイズ低減処理を行った画像を切り替えて得られた参照画像に基づき生成される。このように内挿画像は、補正画像とは異なる方法で求めた参照画像に基づき生成される。
 以上に示すように、本実施形態に係る画像処理装置30は、入力画像X(n)に基づきテロップ情報を検出するテロップ情報検出部31と、2次元ノイズ低減フィルタ処理部13および3次元ノイズ低減処理部14の出力のいずれかを選択し、参照画像Z(n)を求める選択部22とを備えている。選択部22は、テロップ情報検出部31で検出されたテロップ情報に基づき選択を行う。
 したがって、本実施形態に係る画像処理装置30によれば、入力画像に含まれるテロップの特徴に応じて、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、テロップの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、ノイズ低減フィルタを適用した画像に基づき内挿画像を生成した部分については、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 (第4の実施形態)
 図8は、本発明の第4の実施形態に係る画像処理装置の構成を示すブロック図である。図8に示す画像処理装置40は、第2の実施形態に係る画像処理装置20において、シーン情報検出部21を外部情報解析部41に置換したものである。
 本実施形態に係る画像処理装置40には、外部から外部情報信号Rが入力される。外部情報解析部41は、外部情報信号Rを解析し、得られた解析結果に基づき選択制御信号P3を出力する(詳細は後述)。選択制御信号P3は、2値の信号であり、画像、画素、行あるいは帯状領域を単位としてハイレベルとローレベルに変化する。例えば、選択制御信号P3は、入力画像X(n)が直前の入力画像と異なるときにはハイレベルとなり、それ以外のときにはローレベルとなる。
 選択部22と内挿画像生成部15は、第2の実施形態と同様に動作する。したがって、内挿画像Y(n+0.5)は、例えば入力画像X(n)が直前の入力画像と異なるときには2次元ノイズ低減画像A(n)に基づき生成され、それ以外のときには3次元ノイズ低減画像B(n)に基づき生成される。
 以下、外部情報解析部41について説明する。外部情報解析部41に入力される外部情報信号Rには、例えば、入力画像のジャンル情報(アニメーション、映画、ニュースなど)、表示装置の画調モード情報(ゲーム、映画、PCなど)、重畳画像情報(OSD(On Screen Display )、マルチ画面、字幕など)、ユーザ設定情報(ノイズ低減の強度設定値など)などが含まれる。
 例えば、ジャンル情報がアニメーションや映画を示す場合には、入力画像は24p形式や30p形式などの映像をプルダウンした映像である場合が多い。例えば24p形式の映像をプルダウンした映像には、24フレーム/秒の映像を60フレーム/秒で表示するために、同じ画像が2枚または3枚ずつ連続して含まれる。
 同じ画像が連続して入力された場合には、後の画像には3次元ノイズ低減処理を行うことが好ましい。これに対して、異なる画像が入力された場合には、動きベクトルの誤検出が発生しやすいので、後の画像には2次元ノイズ低減フィルタを適用することが好ましい。外部情報解析部41は、外部情報信号Rを解析して求めたジャンル情報に基づき、同じ画像が連続して入力されたか否かを判断する。外部情報解析部41は、同じ画像が入力されたときにはハイレベルの選択制御信号P3を出力し、異なる画像が入力されたときにはローレベルの選択制御信号P3を出力する。外部情報解析部41は、画調モード情報に基づき同様の制御を行ってもよい。
 なお、24p形式の映像に対して動き補償によるフレームレート変換処理を行い、フレームレートが120Hzの映像を生成する場合(すなわち、24フレーム/秒のフレーム間に4枚の内挿画像を内挿して、120フレーム/秒の映像に変換する場合)には、第1の実施形態に係る画像処理装置10を使用することが好ましい。
 また、OSDや字幕が重畳された入力画像では、文字に2次元ノイズ低減フィルタを適用すると、ぼやけて読みにくくなる。このため、OSDや字幕が重畳された部分には3次元ノイズ低減処理を行うことが好ましい。外部情報解析部41は、外部情報信号Rを解析して求めた重畳画像情報に基づき、OSDや字幕が重畳された部分を求める。外部情報解析部41は、OSDや字幕が重畳された部分についてはローレベルの選択制御信号P3を出力し、それ以外の部分についてはハイレベルの選択制御信号P3を出力する。画像処理装置40では、外部情報解析部41における解析結果に従い、内挿画像Y(n+0.5)は、2次元ノイズ低減画像A(n)および3次元ノイズ低減画像B(n)のいずれかに基づき生成される。
 このように画像処理装置40では、補正原画像は、入力画像に対して再帰型ノイズ低減処理を行うことにより求められる。内挿画像は、入力画像に対して2次元ノイズ低減フィルタを適用した画像、および、入力画像に対して再帰型ノイズ低減処理を行った画像を切り替えて得られた参照画像に基づき生成される。このように内挿画像は、補正画像とは異なる方法で求めた参照画像に基づき生成される。
 以上に示すように、本実施形態に係る画像処理装置40は、外部情報を解析する外部情報解析部41と、2次元ノイズ低減フィルタ処理部13および3次元ノイズ低減処理部14の出力のいずれかを選択し、参照画像Z(n)を求める選択部22とを備えている。選択部22は、外部情報解析部41による解析結果に基づき選択を行う。
 したがって、本実施形態に係る画像処理装置40によれば、外部から入力された外部情報に応じて、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像を切り替えて参照画像を求め、これに基づき内挿画像を生成することができる。したがって、外部情報に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、ノイズ低減フィルタを適用した画像に基づき内挿画像を生成した部分については、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 (第5の実施形態)
 図9は、本発明の第5の実施形態に係る画像処理装置の構成を示すブロック図である。図9に示す画像処理装置50は、第2の実施形態に係る画像処理装置20において、選択部22を加重係数制御部51と加重加算演算部52に置換したものである。
 シーン情報検出部21は、入力画像X(n)に基づきシーン情報を検出する。ただし、本実施形態に係るシーン情報検出部21は、選択制御信号P1に代えて、検出したシーン情報を示すシーン情報信号Q1を出力する。シーン情報信号Q1は、多値の信号でもよく、複数の信号でもよい。
 図10は、加重係数制御部51と加重加算演算部52の詳細を示すブロック図である。図10に示すように、加重加算演算部52は、係数乗算器54a、55aおよび加算器56aを含む補正原画像用の加重加算部53aと、係数乗算器54b、55bおよび加算器56bを含む内挿画像用の加重加算部53bとを含んでいる。
 加重係数制御部51は、シーン情報信号Q1に基づき、加重係数α、β(ただし、0≦α≦1、0≦β≦1)を求める(詳細は後述)。加重加算演算部52には、2次元ノイズ低減フィルタ処理部13で求めた2次元ノイズ低減画像A(n)、3次元ノイズ低減処理部14で求めた3次元ノイズ低減画像B(n)、および、加重係数制御部51で求めた加重係数α、βが入力される。係数乗算器54aは2次元ノイズ低減画像A(n)に含まれる画素値を(1-α)倍し、係数乗算器55aは3次元ノイズ低減画像B(n)に含まれる画素値をα倍し、加算器56aは係数乗算器54a、55aの出力を加算する。係数乗算器54bは2次元ノイズ低減画像A(n)に含まれる画素値を(1-β)倍し、係数乗算器55bは3次元ノイズ低減画像B(n)に含まれる画素値をβ倍し、加算器56bは係数乗算器54b、55bの出力を加算する。
 補正原画像用の加重加算部53aの出力は、補正原画像Y(n)としてタイムベース変換部16に供給される。内挿画像用の加重加算部53bの出力は、参照画像Z(n)として内挿画像生成部15に供給される。2次元ノイズ低減画像A(n)、3次元ノイズ低減画像B(n)、補正原画像Y(n)および参照画像Z(n)の間には、次式(1)および(2)が成立する。
  Y(n)=(1-α)×A(n)+α×B(n) …(1)
  Z(n)=(1-β)×A(n)+β×B(n) …(2)
   (ただし、0≦α≦1、0≦β≦1)
 内挿画像生成部15は、動きベクトル検出部12で検出された動きベクトルMVを用いて、内挿画像用の加重加算部53bで求めた参照画像Z(n)に基づき、補正原画像Y(n)と補正原画像Y(n+1)の中間に内挿すべき内挿画像Y(n+0.5)を生成する。
 以下、加重係数制御部51について説明する。入力画像X(n)の動き量が大きい場合には、動きベクトルの誤検出が発生しやすい。この場合、3次元ノイズ低減画像B(n)は劣化する可能性があるので、加重係数制御部51は加重係数αを小さくする。これにより、2次元ノイズ低減画像A(n)に近い補正原画像Y(n)が得られる。また、内挿画像Y(n+0.5)は補正原画像Y(n)よりも劣化しやすいので、加重係数制御部51は加重係数βを加重係数αよりも小さくする。このため、内挿画像Y(n+0.5)は、補正原画像Y(n)よりも2次元ノイズ低減画像A(n)に近い参照画像Z(n)に基づき生成される。これにより、内挿画像の大幅な劣化を防止することができる。
 入力画像X(n)の動き量が小さい場合には、動きベクトルの誤検出は発生しにくく、内挿画像の大幅な劣化も生じにくい。この場合、加重係数制御部51は、加重係数αを大きくする。これにより、3次元ノイズ低減画像B(n)に近い補正原画像Y(n)が得られる。内挿画像Y(n+0.5)にはフレームレート変換処理による劣化が多少生じるので、加重係数制御部51は加重係数βを加重係数αよりも少し小さくする。
 なお、ほぼ静止している画像は、元々ぼやけが少なく鮮明な画像であることが多い。このような画像に2次元ノイズ低減フィルタを適用すると、ぼやけが発生し、逆に画像が劣化したように見える。したがって、ほぼ静止している画像には3次元ノイズ低減処理を行うことが好ましい。これに対して、動きの大きい画像は元々ぼやけているので、2次元ノイズ低減フィルタを適用しても、ぼやけたと感じにくい。したがって、動きの大きい画像には2次元ノイズ低減フィルタを適用することが好ましい。
 このように画像処理装置50では、補正原画像は、2次元ノイズ低減画像と3次元ノイズ低減画像に対して加重係数αを用いた加重加算を行うことにより求められる。内挿画像は、2次元ノイズ低減画像と3次元ノイズ低減画像に対して加重係数βを用いた加重加算を行って求めた参照画像に基づき生成される。このように内挿画像は、補正画像とは異なる方法で求めた参照画像に基づき生成される。
 以上に示すように、本実施形態に係る画像処理装置50は、入力画像X(n)に基づきシーン情報を検出するシーン情報検出部21と、2次元ノイズ低減フィルタ処理部13および3次元ノイズ低減処理部14の出力に対して、独立した2つの加重加算を行う加重加算演算部52とを備えている。補正原画像Y(n)は加重加算演算部52による一方の加重加算で求めた画像であり、参照画像Z(n)は加重加算演算部52による他方の加重加算で求めた画像である。加重加算演算部52の加重係数α、βは、シーン情報検出部21で検出されたシーン情報に基づき変化する。
 したがって、本実施形態に係る画像処理装置50によれば、入力画像が表すシーンの特徴に応じて加重係数を変化させながら、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像に対して加重加算を行って参照画像を求め、これに基づき内挿画像を生成することができる。したがって、シーンの特徴に応じて好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。また、ノイズ低減フィルタを適用した画像に与える加重係数を大きくして参照画像を求め、これに基づき内挿画像を生成した場合には、内挿画像に含まれる、再帰型ノイズ低減処理では低減できないノイズを低減することができる。
 なお、第5の実施形態については、以下の変形例を構成することができる。図11および図12は、第5の実施形態の変形例に係る画像処理装置の構成を示すブロック図である。図11に示す画像処理装置60は、第3の実施形態に係る画像処理装置30を変形したものである。画像処理装置60では、テロップ情報検出部31はテロップ情報を示すテロップ情報信号Q2を出力し、加重係数制御部51はテロップ情報信号Q2に基づき加重加算演算部52の加重係数を変化させる。図12に示す画像処理装置70は、第4の実施形態に係る画像処理装置40を変形したものである。画像処理装置70では、外部情報解析部41は外部情報の解析結果を示す解析結果信号Q3を出力し、加重係数制御部51は解析結果信号Q3に基づき加重加算演算部52の加重係数を変化させる。
 これら変形例に係る画像処理装置60、70は、画像処理装置50と同様の効果を奏する。すなわち、画像処理装置60、70によれば、入力画像に含まれるテロップの特徴に応じて(あるいは、外部から入力された外部情報に応じて)加重係数を変化させながら、再帰型ノイズ低減処理を行った画像と再帰型ノイズ低減処理を行っていない画像に対して加重加算を行って参照画像を求め、これに基づき内挿画像を生成することができる。したがって、テロップの特徴に応じて(あるいは、外部情報に応じて)好適な内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 また、第1~第5の実施形態では、フレームレートを2倍にするために、連続した2枚の補正原画像の中間に1枚の内挿画像を内挿する画像処理装置について説明した。これに代えて、本発明の画像処理装置は、フレームレートを2倍よりも大きくするために、連続した2枚の補正原画像の間に複数の内挿画像を内挿してもよい。また、本発明の画像処理装置は、2次元ノイズ低減フィルタ処理部13に代えて、入力画像X(n)に対して1次元ノイズ低減フィルタを適用する1次元ノイズ低減フィルタ部を備えていてもよい。1次元ノイズ低減フィルタは、画像の水平方向または垂直方向のいずれかについてフィルタ処理を行う。
 以上に示すように、本発明の画像処理装置、画像処理方法、画像表示装置および画像表示方法によれば、補正原画像とは異なる方法で参照画像を求めることにより、好適な参照画像に基づき内挿画像を生成し、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止することができる。
 本発明の画像処理装置、画像処理方法、画像表示装置および画像表示方法は、動きベクトルの誤検出が発生した場合でも、内挿画像の大幅な劣化を防止するという効果を奏するので、フレームレート変換処理と再帰型ノイズ低減処理を行う各種の画像処理装置、画像処理方法、画像表示装置および画像表示方法に利用することができる。
 1…液晶表示装置
 2…タイミング制御回路
 3…走査信号線駆動回路
 4…データ信号線駆動回路
 5…液晶パネル
 6…画素回路
 10、20、30、40、50、60、70…画像処理装置
 11…フレームメモリ
 12…動きベクトル検出部
 13…2次元ノイズ低減フィルタ処理部
 14…3次元ノイズ低減処理部
 15…内挿画像生成部
 16…タイムベース変換部
 21…シーン情報検出部
 22…選択部
 31…テロップ情報検出部
 35…入力画像
 36…テロップ
 37…テロップ領域
 41…外部情報解析部
 51…加重係数制御部
 52…加重加算演算部
 53…加重加算部

Claims (13)

  1.  フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理装置であって、
     連続して入力された入力画像から動きベクトルを検出する動きベクトル検出部と、
     前記動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行う第1のノイズ低減処理部と、
     前記入力画像に対してノイズ低減フィルタを適用する第2のノイズ低減処理部と、
     前記動きベクトルを用いて参照画像に基づき内挿画像を生成する内挿画像生成部とを備え、
     所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを出力することを特徴とする、画像処理装置。
  2.  前記補正原画像は前記第1のノイズ低減処理部で求めた画像であり、前記参照画像は前記第2のノイズ低減処理部で求めた画像であることを特徴とする、請求項1に記載の画像処理装置。
  3.  前記第1および第2のノイズ低減処理部の出力のいずれかを選択し、前記参照画像を求める選択部をさらに備え、
     前記補正原画像は前記第1のノイズ低減処理部で求めた画像であることを特徴とする、請求項1に記載の画像処理装置。
  4.  前記入力画像に基づきシーン情報を検出するシーン情報検出部をさらに備え、
     前記選択部は前記シーン情報に基づき選択を行うことを特徴とする、請求項3に記載の画像処理装置。
  5.  前記入力画像に基づきテロップ情報を検出するテロップ情報検出部をさらに備え、
     前記選択部は前記テロップ情報に基づき選択を行うことを特徴とする、請求項3に記載の画像処理装置。
  6.  外部から入力された外部情報を解析する外部情報解析部をさらに備え、
     前記選択部は前記外部情報解析部による解析結果に基づき選択を行うことを特徴とする、請求項3に記載の画像処理装置。
  7.  前記第1および第2のノイズ低減処理部の出力に対して、独立した2つの加重加算を行う加重加算演算部をさらに備え、
     前記補正原画像は前記加重加算演算部による一方の加重加算で求めた画像であり、前記参照画像は前記加重加算演算部による他方の加重加算で求めた画像であることを特徴とする、請求項1に記載の画像処理装置。
  8.  前記入力画像に基づきシーン情報を検出するシーン情報検出部をさらに備え、
     前記加重加算演算部の加重係数は前記シーン情報に基づき変化することを特徴とする、請求項7に記載の画像処理装置。
  9.  前記入力画像に基づきテロップ情報を検出するテロップ情報検出部をさらに備え、
     前記加重加算演算部の加重係数は前記テロップ情報に基づき変化することを特徴とする、請求項7に記載の画像処理装置。
  10.  外部から入力された外部情報を解析する外部情報解析部をさらに備え、
     前記加重加算演算部の加重係数は前記外部情報解析部による解析結果に基づき変化することを特徴とする、請求項7に記載の画像処理装置。
  11.  フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理方法であって、
     連続して入力された入力画像から動きベクトルを検出するステップと、
     検出された動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行うステップと、
     前記入力画像に対してノイズ低減フィルタを適用するステップと、
     検出された動きベクトルを用いて参照画像に基づき内挿画像を生成するステップとを備え、
     所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを出力することを特徴とする、画像処理方法。
  12.  フレームレート変換処理と再帰型ノイズ低減処理を行って画像を表示する画像表示装置であって、
     表示パネルと、
     フレームレート変換処理と再帰型ノイズ低減処理を行う画像処理部と、
     前記画像処理部の出力に基づき前記表示パネルを駆動する駆動回路とを備え、
     前記画像処理部は、
      連続して入力された入力画像から動きベクトルを検出する動きベクトル検出部と、
      前記動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行う第1のノイズ低減処理部と、
      前記入力画像に対してノイズ低減フィルタを適用する第2のノイズ低減処理部と、
      前記動きベクトルを用いて参照画像に基づき内挿画像を生成する内挿画像生成部とを含み、
      所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを出力することを特徴とする、画像表示装置。
  13.  フレームレート変換処理と再帰型ノイズ低減処理を行って表示パネルに画像を表示する画像表示方法であって、
     連続して入力された入力画像から動きベクトルを検出するステップと、
     検出された動きベクトルを用いて前記入力画像に対して再帰型ノイズ低減処理を行うステップと、
     前記入力画像に対してノイズ低減フィルタを適用するステップと、
     検出された動きベクトルを用いて参照画像に基づき内挿画像を生成するステップと、
     所定の方法で求めた補正原画像と、前記補正原画像とは異なる方法で求めた参照画像に基づき生成された内挿画像とを表す画像信号に基づき、表示パネルを駆動するステップとを備えた、画像表示方法。
PCT/JP2011/058550 2010-06-08 2011-04-04 画像処理装置および方法、画像表示装置および方法 WO2011155258A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US13/700,339 US9215353B2 (en) 2010-06-08 2011-04-04 Image processing device, image processing method, image display device, and image display method
CN201180026647.6A CN102918830B (zh) 2010-06-08 2011-04-04 图像处理装置和方法、图像显示装置和方法
JP2012519304A JP5490236B2 (ja) 2010-06-08 2011-04-04 画像処理装置および方法、画像表示装置および方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010131425 2010-06-08
JP2010-131425 2010-06-08

Publications (1)

Publication Number Publication Date
WO2011155258A1 true WO2011155258A1 (ja) 2011-12-15

Family

ID=45097872

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/058550 WO2011155258A1 (ja) 2010-06-08 2011-04-04 画像処理装置および方法、画像表示装置および方法

Country Status (4)

Country Link
US (1) US9215353B2 (ja)
JP (1) JP5490236B2 (ja)
CN (1) CN102918830B (ja)
WO (1) WO2011155258A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI606418B (zh) * 2012-09-28 2017-11-21 輝達公司 圖形處理單元驅動程式產生內插的圖框之電腦系統及方法
JP5882253B2 (ja) * 2013-04-23 2016-03-09 高千穂産業株式会社 長尺物品の位置測定方法
US10134110B1 (en) * 2015-04-01 2018-11-20 Pixelworks, Inc. Temporal stability for single frame super resolution
CN107437238B (zh) * 2016-05-25 2020-11-24 上海联影医疗科技股份有限公司 一种图像分块自适应递归降噪方法及装置
US11303847B2 (en) 2019-07-17 2022-04-12 Home Box Office, Inc. Video frame pulldown based on frame analysis
CN111754437B (zh) * 2020-06-24 2023-07-14 成都国科微电子有限公司 一种基于运动强度的3d降噪方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261600A (ja) * 1995-12-22 1997-10-03 Thomson Multimedia Sa 順次フレームの補間方法
JP2006023812A (ja) * 2004-07-06 2006-01-26 Matsushita Electric Ind Co Ltd 画像処理装置
JP3882854B2 (ja) * 1995-03-31 2007-02-21 トムソン マルチメデイア ソシエテ アノニム 動き補償されたアップコンバージョンの方法及び装置
JP2010093680A (ja) * 2008-10-10 2010-04-22 Victor Co Of Japan Ltd 映像信号処理装置及び映像信号処理方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0735747B1 (en) 1995-03-31 1999-11-03 THOMSON multimedia Method and apparatus for motion compensated frame rate upconversion
JP2004088234A (ja) 2002-08-23 2004-03-18 Matsushita Electric Ind Co Ltd ノイズ低減装置
JP4686148B2 (ja) * 2003-08-11 2011-05-18 三星電子株式会社 液晶表示装置及びその映像信号補正方法
US7317841B2 (en) * 2003-12-22 2008-01-08 Ge Medical Systems Global Technology Company, Llc System and method for image noise reduction using a minimal error spatiotemporal recursive filter
JP4364287B1 (ja) * 2008-06-27 2009-11-11 株式会社東芝 映像信号処理装置及びテレビジョン受信装置及びその制御方法
JP4643727B2 (ja) * 2009-05-29 2011-03-02 株式会社東芝 画像処理装置及び画像処理方法
US9277202B2 (en) * 2011-01-19 2016-03-01 Sharp Kabushiki Kaisha Image processing device, image processing method, image display apparatus, and image display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3882854B2 (ja) * 1995-03-31 2007-02-21 トムソン マルチメデイア ソシエテ アノニム 動き補償されたアップコンバージョンの方法及び装置
JPH09261600A (ja) * 1995-12-22 1997-10-03 Thomson Multimedia Sa 順次フレームの補間方法
JP2006023812A (ja) * 2004-07-06 2006-01-26 Matsushita Electric Ind Co Ltd 画像処理装置
JP2010093680A (ja) * 2008-10-10 2010-04-22 Victor Co Of Japan Ltd 映像信号処理装置及び映像信号処理方法

Also Published As

Publication number Publication date
JP5490236B2 (ja) 2014-05-14
US9215353B2 (en) 2015-12-15
JPWO2011155258A1 (ja) 2013-08-01
CN102918830A (zh) 2013-02-06
CN102918830B (zh) 2015-06-17
US20130069922A1 (en) 2013-03-21

Similar Documents

Publication Publication Date Title
US7965303B2 (en) Image displaying apparatus and method, and image processing apparatus and method
JP4157579B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
US8189105B2 (en) Systems and methods of motion and edge adaptive processing including motion compensation features
EP2262255B1 (en) Image processing apparatus and image processing method
JP5490236B2 (ja) 画像処理装置および方法、画像表示装置および方法
KR100914619B1 (ko) 디인터레이싱 방법, 장치 및 시스템
US8305489B2 (en) Video conversion apparatus and method, and program
US8274605B2 (en) System and method for adjacent field comparison in video processing
US8385430B2 (en) Video signal processing apparatus and video signal processing method
JP2009055340A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP4355347B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2009181067A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2009182865A (ja) 画像表示装置及び方法、画像処理装置及び画像処理方法
KR20080041581A (ko) 화상 처리 장치, 화상 처리 방법, 전기 광학 장치 및전자기기
JP5147655B2 (ja) 映像信号処理装置および映像表示装置
US8269888B2 (en) Image processing apparatus, image processing method, and computer readable medium having image processing program
US20070103586A1 (en) System and method for static region detection in video processing
JP2008193730A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2007329952A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2007288483A (ja) 画像変換装置
KR101577703B1 (ko) 흐림과 이중 윤곽의 효과를 줄이는 비디오 화상 디스플레이방법과 이러한 방법을 구현하는 디바이스
JP2008109628A (ja) 画像表示装置及び方法、画像処理装置及び方法
JP4157587B2 (ja) 画像表示装置及び方法、画像処理装置及び方法
JP2010103643A (ja) 画像処理装置および画像表示装置
JP4917867B2 (ja) テロップ検出装置及び方法、並びに画像表示装置及び方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180026647.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11792216

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012519304

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13700339

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11792216

Country of ref document: EP

Kind code of ref document: A1