WO2010084549A1 - 画像処理装置及び方法並びに画像表示装置 - Google Patents

画像処理装置及び方法並びに画像表示装置 Download PDF

Info

Publication number
WO2010084549A1
WO2010084549A1 PCT/JP2009/006914 JP2009006914W WO2010084549A1 WO 2010084549 A1 WO2010084549 A1 WO 2010084549A1 JP 2009006914 W JP2009006914 W JP 2009006914W WO 2010084549 A1 WO2010084549 A1 WO 2010084549A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
horizontal
intermediate image
vertical
frequency component
Prior art date
Application number
PCT/JP2009/006914
Other languages
English (en)
French (fr)
Inventor
豊田善隆
守谷正太郎
奥田悟崇
山中聡
南浩次
杉浦博明
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to US12/747,837 priority Critical patent/US8648859B2/en
Priority to EP09838743.4A priority patent/EP2390837B1/en
Priority to CN2009801554346A priority patent/CN102292742B/zh
Publication of WO2010084549A1 publication Critical patent/WO2010084549A1/ja
Priority to HK12101310.7A priority patent/HK1160972A1/xx

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • H04N1/3935Enlarging or reducing with modification of image resolution, i.e. determining the values of picture elements at new relative positions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform

Definitions

  • the present invention relates to an image processing apparatus and method for emphasizing an input image, and an image display apparatus using the same. For example, when an enlarged image obtained by enlarging an original image is input as an input image, a high frequency component The image enhancement processing is performed so as to obtain an output image with high resolution by generating and adding.
  • an image signal representing an image is appropriately subjected to image processing and then reproduced and displayed.
  • an enhancement coefficient for a detail image in a desired frequency band is set to a detail image in a frequency band lower than the desired frequency band.
  • the desired frequency band is emphasized by setting based on the above signal.
  • a component in which a part of the frequency spectrum of the image before enlargement processing is folded is present on the high frequency component side of the frequency spectrum of the input image.
  • the high frequency component is simply emphasized, this aliasing component is emphasized, which is inappropriate processing.
  • the frequency band is limited and only the frequency band that does not include the aliasing component is emphasized, when considering the frequency spectrum, emphasis on the high frequency component side is avoided, resulting in insufficient enhancement processing. End up.
  • the present invention provides image processing that can sufficiently perform image enhancement processing even when the input image includes a folded component on the high frequency component side in the frequency spectrum or does not sufficiently include the high frequency component. It is an object to provide an apparatus and method.
  • the image processing apparatus of the present invention A first horizontal intermediate image obtained by extracting a component of a specific frequency band with respect to the horizontal direction of the input image and a first vertical intermediate image obtained by extracting a component of a specific frequency band with respect to the vertical direction of the input image are generated.
  • Intermediate image generating means Intermediate image processing means for generating a second intermediate image based on the first horizontal intermediate image and the first vertical intermediate image; First adding means for adding the input image and the second intermediate image;
  • the intermediate image processing means includes Horizontal non-linear processing means for changing the content of processing in accordance with the pixels of the first horizontal intermediate image; Vertical non-linear processing means for changing the content of processing according to the pixels of the first vertical intermediate image,
  • the intermediate image processing means includes The first horizontal intermediate image; The first vertical intermediate image; A second horizontal intermediate image processed from the output of the horizontal nonlinear processing means; A second adding means for adding the second vertical intermediate image obtained by processing the output of the vertical nonlinear processing means and outputting the addition result as the second intermediate image;
  • the second adding means is First horizontal / vertical integration means for weighting and integrating the first horizontal intermediate image and the first vertical intermediate image; It has at least one of the 2nd horizontal-vertical integration means which weight-adds and integrates said 2nd horizontal direction intermediate image and said 2nd vertical direction intermediate image.
  • the image enhancement processing can be sufficiently performed. Further, it is possible to prevent enhancement processing artifacts that occur depending on the direction of the edge included in the input image without increasing the circuit scale.
  • FIG. 1 It is a block diagram which shows the structure of the image processing apparatus by Embodiment 1 of this invention. It is a block diagram which shows the structural example of the horizontal direction nonlinear processing means 2Ah of FIG. It is a block diagram which shows the structural example of the vertical direction nonlinear processing means 2Av of FIG. It is a block diagram which shows the structural example of the addition means 2C of FIG. (A) and (B) are diagrams showing the relationship between the difference (dH ⁇ dV) between the absolute values of the images D1h and D1v and the weighting factors D512h and D512v. It is a block diagram which shows the structural example of the image display apparatus using the image processing apparatus by this invention.
  • FIG. (A) to (E) are pixel arrangement diagrams showing the operation of the image enlarging means U1 of FIG. (A) to (D) are diagrams showing a frequency response and a frequency spectrum for explaining the operation of the image enlarging means U1 of FIG. (A) to (E) are diagrams showing a frequency response and a frequency spectrum for explaining the operation of the intermediate image generating means 1 of FIG. (A) to (C) are diagrams showing a frequency response and a frequency spectrum for explaining the operation of the intermediate image processing means 2 of FIG.
  • (A) to (C) are diagrams showing signal values of consecutive pixels obtained when a step edge and a step edge are sampled at a sampling interval S1.
  • (A) to (C) are diagrams showing signal values of pixels that are continuous with each other obtained when the step edge and the step edge are sampled at the sampling interval S2.
  • (A) to (F) are diagrams illustrating signal values of successive pixels for explaining the operations of the intermediate image generating unit 1 and the intermediate image processing unit 2 of FIG.
  • (A) is a diagram showing edges in the horizontal direction
  • (B) to (E) are diagrams showing image signals obtained when the direction of the edges is the horizontal direction as shown in (A).
  • FIG. 20 is a flowchart showing processing in intermediate image generation step ST1 of FIG. 19.
  • FIG. 20 is a flowchart showing processing in intermediate image generation step ST1 of FIG. 19.
  • FIG. 20 is a flowchart showing the processing in the intermediate image processing step ST2 of FIG. It is a flowchart which shows the process in the horizontal direction nonlinear process step ST2Ah of FIG. It is a flowchart which shows the process in the vertical direction nonlinear process step ST2Av of FIG. It is a flowchart which shows the process in addition step ST2C of FIG. It is a flowchart which shows the process in addition step ST2C in Embodiment 4 of this invention.
  • FIG. FIG. 1 is a diagram showing the configuration of an image processing apparatus according to Embodiment 1 of the present invention.
  • the illustrated image processing apparatus can be used as a part of an image display apparatus, for example.
  • the illustrated image processing apparatus includes an intermediate image generation unit 1, an intermediate image processing unit 2, and an addition unit 3.
  • the intermediate image generating means 1 extracts a component in a specific frequency band (that is, a component from the first frequency (first predetermined frequency) to the second frequency (second predetermined frequency)) from the input image DIN.
  • the intermediate image (first intermediate image) D1 is generated.
  • the intermediate image processing means 2 generates an intermediate image (second intermediate image) D2 obtained by performing processing to be described later on the image D1.
  • the adding means 3 adds the input image DIN and the intermediate image D2.
  • the addition result by the adding means 3 is output as an output image DOUT.
  • the intermediate image generating unit 1 includes a high frequency component image generating unit 1A that generates an image D1A obtained by extracting only a high frequency component equal to or higher than the first frequency from the input image DIN, and a low frequency component equal to or lower than the second frequency of the image D1A.
  • the second frequency having the low frequency component image generation means 1B for generating the image D1B obtained only from the image is higher than the first frequency, and in the high frequency component image generation means 1A and the low frequency component image generation means 1B, Bandpass filter means for extracting a component of a specific frequency band is configured. From the intermediate image generating means 1, the image D1B is output as the intermediate image D1.
  • the intermediate image processing means 2 includes a non-linear processing means 2A that outputs an image D2A obtained by performing non-linear processing described later on the intermediate image D1, and a high frequency equal to or higher than a third frequency (third predetermined frequency) of the image D2A.
  • a high-frequency component image generation unit 2B that outputs an image D2B obtained by extracting only components, and an addition unit 2C that outputs an image D2C obtained by adding the intermediate image D1 and the image D2B. From the intermediate image processing means 2, the image D2C is output as the intermediate image D2.
  • the intermediate image generation unit 1 generates an image D1A in which only a high frequency component equal to or higher than the first frequency of the input image DIN is extracted in the high frequency component image generation unit 1A.
  • High frequency components can be extracted by performing high-pass filter processing. High frequency components are extracted in the horizontal and vertical directions of the image. That is, the high frequency component image generating means 1A performs horizontal high-pass filter processing on the input image DIN to generate an image D1Ah in which a high frequency component equal to or higher than the first horizontal frequency is extracted only in the horizontal direction.
  • High-frequency component image generation means 1Ah and vertical high-frequency component image generation means 1Av that generates high-frequency component images D1Av obtained by performing high-pass filtering in the vertical direction and extracting high-frequency components equal to or higher than the first vertical frequency only in the vertical direction
  • the image D1A includes an image D1Ah and an image D1Av.
  • the signals of each pixel constituting the input image DIN are supplied in the order of a plurality of horizontal lines (rows) in each screen from top to bottom and a plurality of pixels in each horizontal line from left to right.
  • On the input side of the vertical high-frequency component image generating means 1Av signals of a plurality of adjacent lines of such an input image are accumulated, and a plurality of lines from above the plurality of lines with the processing target pixel as the center.
  • Rearrangement means for supplying the pixel signals up to the bottom in order from the top to the bottom in the vertical direction is provided, but the illustration thereof is omitted.
  • the intermediate image generation unit 1 generates an image D1B in which only the low frequency component equal to or lower than the second frequency of the image D1A is extracted in the low frequency component image generation unit 1B.
  • the low frequency component can be extracted by performing a low pass filter process.
  • the low frequency component is extracted in each of the horizontal direction and the vertical direction. That is, the low-frequency component image generation means 1B performs horizontal low-pass filter processing on the image D1Ah to generate an image D1Bh in which a low-frequency component below the second horizontal frequency is extracted only in the horizontal direction.
  • Component image generation means 1B and vertical direction low-frequency component image generation that performs low-pass filter processing in the vertical direction on the image D1Av and generates an image D1Bv that extracts a low-frequency component below the second vertical frequency only in the vertical direction Means 1Bv, and the image D1B is composed of an image D1Bh and an image D1Bv.
  • the image D1B is output as the intermediate image D1.
  • the intermediate image D1 includes an image (first horizontal intermediate image) D1h corresponding to the image D1Bh and an image (first vertical intermediate image) D1v corresponding to the image D1Bv.
  • the intermediate image processing unit 2 generates an image D2A obtained by performing a later-described nonlinear process on the intermediate image D1 in the nonlinear processing unit 2A.
  • Nonlinear processing is performed in each of the horizontal direction and the vertical direction. That is, the nonlinear processing means 2A performs horizontal nonlinear processing means 2Ah that performs nonlinear processing described later on the image D1Bh to generate the image D2Ah, and vertical processing that performs nonlinear processing described later on the image D1Bv to generate the image D2Av.
  • the image D2A includes an image D2Ah and an image D2Av.
  • the nonlinear processing means 2A includes a horizontal nonlinear processing means 2Ah and a vertical nonlinear processing means 2Av having the same configuration.
  • the horizontal nonlinear processing means 2Ah performs horizontal processing
  • the vertical nonlinear processing means 2Av performs vertical processing.
  • FIG. 2 is a diagram illustrating a configuration example of the horizontal nonlinear processing means 2Ah.
  • the illustrated horizontal non-linear processing means 2Ah includes a zero-cross determining means 311h and a signal amplifying means 312h.
  • the image D1h is input to the nonlinear processing means 2Ah as the input image DIN311h.
  • the zero cross determination means 311h confirms the change of the pixel value in the input image DIN 311h along the horizontal direction.
  • a point where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero-cross point, and pixels (adjacent pixels before and after the zero-cross point) before and after the zero-cross point by a signal D311h.
  • the position is transmitted to the signal amplification means 312h.
  • “front and back” refers to the front and rear in the order in which signals are supplied. When a pixel signal is supplied from left to right in the horizontal direction, it means “left and right”, and the vertical and horizontal directions of the pixel When a signal is supplied, it means “up and down”.
  • the zero cross determination unit 311h in the zero cross determination unit 311h in the horizontal non-linear processing unit 2Ah, for example, pixels positioned on the left and right of the zero cross point are recognized as pixels positioned before and after the zero cross
  • the signal amplifying unit 312h Based on the signal D311h, the signal amplifying unit 312h identifies pixels before and after the zero cross point (adjacent pixels before and after the zero cross point), and amplifies the pixel value only for the pixels before and after the zero cross point (the absolute value is increased).
  • a nonlinear processed image D312h is generated. That is, the amplification factor is set to a value larger than 1 for pixel values of pixels around the zero cross point, and the amplification factor is set to 1 for the pixel values of other pixels.
  • a nonlinear processed image D312h is output from the horizontal nonlinear processing means 2Ah as an image D2Ah.
  • FIG. 3 is a diagram showing a configuration example of the vertical nonlinear processing means 2Av.
  • the illustrated vertical non-linear processing means 2Av includes a zero-cross determining means 311v and a signal amplifying means 312v.
  • the image D1v is input as the input image DIN311v to the nonlinear processing means 2Av.
  • the zero cross determination means 311v confirms the change of the pixel value in the input image DIN 311v along the vertical direction.
  • a point where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero-cross point, and pixels (adjacent pixels before and after the zero-cross point) before and after the zero-cross point by the signal D311v.
  • the position is transmitted to the signal amplification means 312v.
  • the zero cross determination means 311v in the vertical nonlinear processing means 2Av for example, pixels located above and below the zero cross point are recognized as pixels located before and after the zero cross point.
  • the signal amplifying unit 312v Based on the signal D311v, the signal amplifying unit 312v identifies pixels before and after the zero cross point (adjacent pixels before and after the zero cross point), and amplifies the pixel value only for the pixels before and after the zero cross point (the absolute value is increased).
  • a nonlinear processed image D312v is generated. That is, the amplification factor is set to a value larger than 1 for pixel values of pixels around the zero cross point, and the amplification factor is set to 1 for the pixel values of other pixels.
  • a nonlinear processed image D312v is output as the image D2Av from the vertical nonlinear processing means 2Av. The above is the operation of the nonlinear processing means 2A.
  • the intermediate image processing unit 2 generates an image D2B in which only the high frequency component equal to or higher than the third frequency of the image D2A is extracted in the high frequency component image generation unit 2B.
  • High frequency components can be extracted by performing high-pass filter processing. High frequency components are extracted in the horizontal and vertical directions of the image. That is, the high frequency component image generation means 2B performs a horizontal high-pass filter process on the image D2Ah to generate an image D2Bh in which a high frequency component equal to or higher than the third horizontal frequency is extracted only in the horizontal direction.
  • Component image generation means 2Bh and vertical high-frequency component image generation for generating an image D2Bv obtained by performing high-pass filter processing in the vertical direction on the image D2Av and extracting a high-frequency component equal to or higher than the third vertical frequency only in the vertical direction Means 2Bv, and the image D2B is composed of an image D2Bh and an image D2Bv.
  • the adding means 2C adds the intermediate image D1 and the image D2B to generate an image D2C.
  • the intermediate image D1 is composed of the image D1h and the image D1v
  • the image D2B is composed of the image D2Bh and the image D2Bv. Therefore, when the intermediate image D1 and the image D2B are added, the images D1h, D1v, D2Bh, and D2Bv are added. It means adding all.
  • the operation of the adding means 2C will be described in detail.
  • the addition means 2C adds the values for the same pixels of the images D1h, D1v, D2Bh, and D2Bv, and the image is supplied from the input image DIN to the input side of the addition means 2C.
  • a delay means for adjusting the timing is provided on the input side of the adding means 2C.
  • the illustration is omitted.
  • FIG. 4 is a diagram illustrating a configuration example of the adding means 2C.
  • the illustrated adding means 2 ⁇ / b> C includes a weight coefficient generating means 401, a first horizontal / vertical integrating means 411, and a second horizontal / vertical integrating means 412.
  • the weighting coefficient generating unit 401 obtains a weighting coefficient D512h for the horizontal direction component and a weighting coefficient D512v for the vertical direction component from the images D1h and D1v by an operation described later.
  • the sum of the weighting coefficient D512h and the weighting coefficient D512v is always constant, for example “1”.
  • the first horizontal / vertical integration unit 411 performs weighted addition of the images D1h and D1v according to the weighting factors D512h and D512v obtained by the weighting factor generation unit 401, and obtains an image D1hv obtained by integrating the horizontal direction component and the vertical direction component.
  • the second horizontal / vertical integration unit 412 weights and adds the image D2Bh and the image D2Bv according to the weight coefficients D512h and D512v obtained by the weight coefficient generation unit 401, and the image D2Bhv is obtained by integrating the horizontal direction component and the vertical direction component. Is output.
  • the intermediate image adding means 42 adds the image D1hv and the image D2Bhv and outputs the image D2C.
  • the weighting factor generation unit 401 includes an edge direction estimation unit 511 and a weighting factor determination unit 512.
  • the edge direction estimation means 511 calculates an edge direction estimation amount D511 as an amount corresponding to the edge direction (angle) from the two signals of the image D1h and the image D1v. For example, when the absolute value of the image D1h is dH and the absolute value of the image D1v is dV, the difference dH ⁇ dV between these two values is output as the edge direction estimation amount D511.
  • the weighting factor determination unit 512 determines a weighting factor D512h for the horizontal direction component and a weighting factor D512v for the vertical direction component based on the edge direction estimation amount D511.
  • FIGS. 5A and 5B are diagrams illustrating an example of how to determine the weighting factors D512h and D512v with respect to the difference dH ⁇ dV described above.
  • K ⁇ is a positive constant representing the slope of the straight line in FIGS.
  • the first horizontal / vertical integration unit 411 includes first and second multiplication units 411a and 411b and an addition unit 411c.
  • the horizontal / vertical integration unit 411 multiplies the image D1h by the weighting coefficient D512h by the first multiplication unit 411a, and multiplies the image D1v by the weighting coefficient D512v by the second multiplication unit 411b. Furthermore, these multiplication results are added by the adding means 411c to output an image D1hv.
  • the second horizontal / vertical integration unit 412 includes first and second multiplication units 412a and 412b and an addition unit 412c.
  • the horizontal / vertical integration unit 412 multiplies the image D2Bh by the weighting coefficient D512h by the first multiplication unit 412a, and multiplies the image D2Bv by the weighting coefficient D512v by the second multiplication unit 412b.
  • the image is added by the adding means 412c and the image D2Bhv is output.
  • the weight coefficients D512h and D512v are calculated for each pixel of the images D1h and D1v, and this means that the mixing ratio of the horizontal component and the vertical component in the output image D2C of the adding means 2C varies depending on the pixel position. It means that The effect of performing such weighting will be described later.
  • the intermediate image adding means 42 adds the image D1hv and the image D2Bhv, and outputs the image D2C.
  • the addition processing in the intermediate image addition means 42 is not limited to simple addition, and weighted addition may be used. That is, the images D1hv and D2Bhv may be added after being amplified at different amplification rates. The above is the operation of the adding means 2C.
  • the adding means 3 generates an output image DOUT obtained by adding the input image DIN and the intermediate image D2.
  • the output image DOUT is output from the image processing apparatus as a final output image.
  • the addition means 3 adds values for the same pixels of the input image DIN and the intermediate image D2, and the processing that the image receives from the supply of the input image DIN to the input side of the addition means 3
  • a delay unit for adjusting the timing is provided on the input side of the adding unit 3, but the illustration thereof is omitted.
  • the image processing apparatus according to the present invention is used as part of an image display apparatus. Through this description, the operation and effect of the image processing apparatus according to the present invention will become clear.
  • the symbol Fn represents the Nyquist frequency of the input image DIN unless otherwise specified.
  • FIG. 6 shows an image display apparatus using the image processing apparatus according to the present invention.
  • an image corresponding to the original image DORG is displayed on the monitor U3.
  • the image enlarging means U1 outputs an image DU1 obtained by enlarging the original image DORG when the image size of the original image DORG is smaller than the image size of the monitor U3.
  • a bicubic method can be used for enlarging the image.
  • the image processing apparatus U2 in the present invention outputs the image DU2 obtained by performing the above-described processing on the image DU1.
  • the image DU2 is displayed on the monitor U8.
  • FIG. 7 is a diagram showing the configuration and operation of the image enlarging means U1, and the illustrated image enlarging means U1 includes a horizontal zero inserting means U1A, a horizontal low frequency component passing means U1B, a vertical zero inserting means U1C, Vertical direction low frequency component passing means U1D.
  • the horizontal zero inserting means U1A appropriately inserts pixels having a pixel value of 0 in the horizontal direction of the original image DORG (one pixel column consisting of pixels having a pixel value of 0 between adjacent pixel columns in the horizontal direction of the original image DORG).
  • the image DU1A is inserted).
  • the horizontal direction low frequency component passing means U1B generates an image DU1B in which only the low frequency component of the image DU1A is extracted by low pass filter processing.
  • the vertical zero insertion means U1C appropriately inserts pixels having a pixel value of 0 in the vertical direction of the image DU1B (one pixel row consisting of pixels having a pixel value of 0 between adjacent pixel rows in the vertical direction of the image DU1B).
  • the image DU1C is inserted).
  • the vertical direction low frequency component passing means DU1D generates an image DU1D obtained by extracting only the low frequency component of the image DU1C.
  • the image enlargement unit U1 outputs the image DU1D as the image DU1 obtained by doubling the original image DORG in both the horizontal and vertical directions.
  • FIG. 8A to 8E are diagrams for explaining the operation of the image enlarging means U1 in detail.
  • FIG. 8A shows the original image DORG
  • FIG. 8B shows the image DU1A
  • FIG. ) Represents the image DU1B
  • FIG. 8D represents the image DU1C
  • FIG. 8E represents the image DU1D.
  • squares (squares) represent pixels, and symbols or numerical values written therein represent pixel values of the respective pixels.
  • the horizontal zero insertion means U1A inserts one pixel with a pixel value of 0 for each pixel in the horizontal direction with respect to the original image DORG shown in FIG. 8A (ie, adjacent to the original image DORG in the horizontal direction).
  • An image DU1A shown in FIG. 8B is generated by inserting a single pixel column composed of pixels with a pixel value of 0 between the pixel columns.
  • the horizontal direction low frequency component passing means U1B performs a low-pass filter process on the image DU1A shown in FIG. 8B to generate an image DU1B shown in FIG. 8C.
  • the vertical zero insertion unit U1C inserts one pixel having a pixel value of 0 for each pixel in the vertical direction into the image DU1B shown in FIG.
  • An image DU1C shown in FIG. 8D is generated by inserting one pixel row composed of pixels having a pixel value of 0 between the pixel rows.
  • the vertical low frequency component passing means U1D performs a low pass filter process on the image DU1C shown in FIG. 8D to generate an image DU1D shown in FIG. With the above processing, an image DU1D in which the original image DORG is doubled in both the horizontal direction and the vertical direction is generated.
  • FIGS. 9A to 9D show the effect of processing by the image enlarging means U1 on the frequency space
  • FIG. 9A shows the frequency spectrum of the original image DORG
  • FIG. 9B shows the image DU1A
  • 9C shows the frequency response of the horizontal frequency component passing means U1B
  • FIG. 9D shows the frequency spectrum of the image DU1B.
  • the horizontal axis is the frequency axis representing the spatial frequency in the horizontal direction
  • the vertical axis represents the frequency spectrum or the intensity of the frequency response.
  • the number of pixels of the original image DORG is half that of the input image DIN. In other words, the sampling interval of the original image DORG is twice the sampling interval of the input image DIN. Therefore, the Nyquist frequency of the original image DORG is half of the Nyquist frequency of the input image DIN, that is, Fn / 2.
  • image data consists of pixel values given on a pixel array arranged in a two-dimensional plane, and its frequency spectrum is also given on a plane stretched by a horizontal frequency axis and a vertical frequency axis. It is. Therefore, in order to accurately represent the frequency spectrum of the original picture DORG or the like, it is necessary to describe both the horizontal frequency axis and the vertical frequency axis.
  • the shape of the frequency spectrum usually spreads isotropically around the origin on the frequency axis, and as long as the frequency spectrum in the space spanned by one frequency axis is shown, the frequency axis It is easy for those skilled in the art to expand and consider the space spanned by two. Therefore, unless otherwise specified in the following description, the description on the frequency space is performed using a space stretched by one frequency axis.
  • the frequency spectrum of the original picture DORG will be described. Normally, a natural image is input as the original image DORG. In this case, the spectrum intensity is concentrated around the origin of the frequency space. Therefore, the frequency spectrum of the original picture DORG is as shown in the spectrum SPO in FIG.
  • the image DU1A is generated by inserting one pixel per pixel and a pixel value of 0 in the horizontal direction with respect to the original image DORG.
  • aliasing around the Nyquist frequency of the original picture DORG occurs in the frequency spectrum. That is, since a spectrum SPM in which the spectrum SPO is folded around the frequency ⁇ Fn / 2 is generated, the frequency spectrum of the image DU1A is expressed as shown in FIG.
  • the frequency response of the horizontal low frequency component passing means U1B will be described. Since the horizontal low-frequency component passing means is realized by a low-pass filter, the frequency response becomes lower as the frequency becomes higher as shown in FIG.
  • the frequency spectrum of the image DU1B will be described.
  • An image DU1B shown in FIG. 9D is obtained by performing low-pass filter processing having the frequency response shown in FIG. 9C on the image DU1A having the frequency spectrum shown in FIG. 9B. . Therefore, as shown in the image DU1B, the frequency spectrum of the image DU1B includes a spectrum SP2 in which the intensity of the spectrum SPM has dropped to some extent and a spectrum SP1 in which the intensity of the spectrum SPO has dropped to some extent.
  • the frequency response of the low-pass filter decreases as the frequency increases. Therefore, when the intensity of the spectrum SP1 is compared with the spectrum SPO, the spectrum intensity on the high frequency component side, that is, in the vicinity of the frequency of ⁇ Fn / 2 is reduced by the horizontal low frequency component passing means U1B.
  • the description of the operation on the frequency space of the processing by the vertical zero insertion means U1C and the vertical low frequency component passing means U1D is omitted, but from the contents of the processing. It can be easily understood that there is an action similar to that described with reference to FIGS. 9A to 9D with respect to the axial direction representing the spatial frequency in the vertical direction. That is, the frequency spectrum of the image DU1D is obtained by spreading the frequency spectrum shown in FIG. 9D two-dimensionally.
  • the spectrum SP2 is referred to as a folded component.
  • This aliasing component appears on the image as noise or a false signal having a relatively high frequency component.
  • noise or false signals include overshoot, jaggy or ringing.
  • FIGS. 10A to 10E show the operation when the intermediate image D1 is generated from the input image DIN when the image DU1D obtained by enlarging the original image DORG is input as the input image DIN (or image DU1).
  • 10A shows the frequency spectrum of the input image DIN
  • FIG. 10B shows the frequency response of the high frequency component image generating means 1A
  • FIG. 10C shows the frequency response of the low frequency component image generating means 1B
  • FIG. 10D shows the frequency response of the intermediate image generating means 1
  • FIG. 10E shows the frequency spectrum of the intermediate image D1.
  • FIGS. 10A to 10E only one frequency axis is used for the same reason as in FIGS. 9A to 9D.
  • FIGS. 10A to 10E the intensity of the frequency spectrum or the frequency response is shown only in the range where the spatial frequency is 0 or more. It becomes a symmetric shape around the origin. Therefore, the figure used for description is sufficient to show only the range where the spatial frequency is 0 or more.
  • the frequency spectrum of the input image DIN will be described. Since the image DU1D generated by the enlargement process in the image enlargement unit U1 is input as the input image DIN, the frequency spectrum of the input image DIN is as described in FIG. 9D as shown in FIG.
  • the spectrum SP1 has the same shape and the spectrum SPO of the original image DORG has fallen to some extent, and the spectrum SP2 that is the aliasing component.
  • the frequency response of the high frequency component image generating means 1A will be described. Since the high frequency component image generating means 1A is constituted by a high pass filter, the frequency response becomes lower as the frequency becomes lower as shown in FIG.
  • the frequency response of the low frequency component image generation means 1B will be described. Since the low frequency component image generating means 1B is constituted by a low pass filter, the frequency response becomes lower as the frequency becomes higher as shown in FIG.
  • the frequency response of the intermediate image generating means 1 will be described.
  • the intermediate image generating means 1 is used for the frequency component of the low frequency component side region (band of frequencies lower than the first frequency FL1) RL1 shown in FIG. It is weakened by the high frequency component image generating means 1A.
  • the input image DIN having the frequency spectrum shown in FIG. 10A passes through the intermediate image generating means 1 having the frequency response shown in FIG. 10D, so that the intermediate image D1 shown in FIG. can get. Since the frequency response of the intermediate image generating means 1 has a peak in the intermediate region RM1 band-limited by the low frequency component side region RL1 and the high frequency component side region RH1, the frequency spectrum of the intermediate image D1 In the frequency spectrum of the input image DIN, the intensity of the portion included in the low frequency component side region RL1 and the high frequency component side region RH1 is weakened.
  • the intermediate image D1 is obtained by removing the spectrum SP1 that is the aliasing component from the high frequency component of the input image DIN. That is, the intermediate image generating means 1 has an effect of generating the intermediate image D1 by removing the spectrum SP1 that is the aliasing component from the high frequency component of the input image DIN.
  • FIGS. 11A to 11C are views showing the operation and effect of the intermediate image processing means 2, FIG. 11A shows the frequency spectrum of the nonlinear processed image D2A, and FIG. 11B shows the high frequency component.
  • FIG. 11C shows the frequency response of the image generation means 2B, and FIG. 11C shows the frequency spectrum of the image D2B.
  • the intensity of the frequency spectrum or frequency response is shown only in the range where the spatial frequency is 0 or more.
  • FIG. 11A is a diagram schematically showing the state.
  • An image D2B shown in FIG. 11C is generated when the nonlinear processed image D2A passes through the high frequency component image generating means 2B.
  • the high-frequency component image generating means 2B is composed of a high-pass filter that passes components of the third frequency FL3 or higher, and the frequency response becomes higher as the frequency becomes higher as shown in FIG. 11B.
  • the frequency spectrum of the image D2B is obtained by removing the component corresponding to the region RL2 on the low frequency component side (frequency component lower than the third frequency FL3) from the frequency spectrum of the nonlinear processed image D2A as shown in FIG. 11C.
  • the nonlinear processing means 2A has an effect of generating a high frequency component corresponding to the region RH2 on the high frequency component side
  • the high frequency component image generating means 2B has only the high frequency component generated by the nonlinear processing means 2A.
  • the third frequency FL3 is substantially equal to Fn / 2.
  • FIGS. 12A to 12C and FIGS. 13A to 13C are diagrams showing signals obtained when sampling step edges.
  • 12A shows the step edge and the sampling interval S1
  • FIG. 12B shows a signal obtained when the step edge is sampled at the sampling interval S1
  • FIG. 12C shows FIG. It represents the high frequency component of the signal represented in (B).
  • FIG. 13A shows a sampling interval S2 which is wider than the step edge and the sampling interval S1
  • FIG. 13B shows a signal obtained when the step edge is sampled at the sampling interval S2.
  • FIG. 13C shows high frequency components of the signal shown in FIG.
  • it is assumed that the length of the sampling interval S2 is half of the length of the sampling interval S1.
  • the center of the step edge appears as a zero cross point Z in the signal representing the high frequency component.
  • the slope of the signal representing the high frequency component in the vicinity of the zero cross point Z becomes steeper as the sampling interval is short, and the position of the point giving the local maximum value and minimum value in the vicinity of the zero cross point Z
  • the shorter the sampling interval the closer to the zero cross point Z.
  • the sampling interval changes, the position of the zero-cross point of the signal representing the high frequency component does not change in the vicinity of the edge, but the higher the frequency component in the vicinity of the edge, the smaller the sampling interval (or the higher the resolution).
  • the slope becomes steep, and the position of the point giving the local maximum and minimum values approaches the zero cross point.
  • FIGS. 14A to 14F are diagrams showing the operation and effect when the signal obtained by sampling the step edge at the sampling interval S1 is doubled and then input to the image processing apparatus according to the present invention.
  • the operations and effects of the intermediate image generating unit 1 and the intermediate image processing unit 2 are shown.
  • the processes in the intermediate image generating unit 1 and the intermediate image processing unit 2 are performed in the horizontal direction and the vertical direction, the processes are performed one-dimensionally. Therefore, in FIGS. 14A to 14F, the contents of the processing are expressed using a one-dimensional signal.
  • FIG. 14A shows a signal obtained by sampling the step edge at the sampling interval S2 as in FIG. 13B.
  • FIG. 14B shows a signal obtained by enlarging the signal shown in FIG. That is, when the original image DORG includes an edge as shown in FIG. 14A, a signal as shown in FIG. 14B is input as the input image DIN. Note that if the signal is enlarged twice, the sampling interval becomes half that before the enlargement, so the sampling interval of the signal shown in FIG. 14B is the same as the sampling interval S1 in FIGS. 12A to 12C. Become. In FIG.
  • the position represented by the coordinate P3 is a boundary portion on the low luminance side of the step edge (the low level side of the edge signal), and the position represented by the coordinate P4 is the high luminance side of the step edge. This is the boundary of (the high level side of the edge signal).
  • FIG. 14C shows a signal representing the high frequency component of the signal shown in FIG. 14B, that is, a signal corresponding to the image D1A output from the high frequency component image generating means 1A.
  • the image D1A is obtained by extracting the high-frequency component of the input image DIN, and therefore includes an aliasing component.
  • FIG. 14D shows a signal representing the low frequency component of the signal shown in FIG. 14C, that is, a signal corresponding to the image D1B output from the low frequency component image generating means 1B. Since the image D1B is output as the intermediate image D1 as described above, it can be said that FIG. 14D shows the intermediate image D1. As shown in FIG. 14D, the local minimum value in the vicinity of the zero cross point Z in the intermediate image D1 appears at the coordinate P3, and the local maximum value appears at the coordinate P4, which is shown in FIG. The step edge coincides with the high frequency component extracted from the signal sampled at the sampling interval S2. Further, the aliasing component included in the image D1A is removed by a low-pass filter process performed by the low-frequency component image generation unit 1B.
  • FIG. 14E shows an output signal when the signal shown in FIG. 14D is input to the nonlinear processing means 2A, that is, an image output from the nonlinear processing means 2A when the intermediate image D1 is input.
  • D2A is represented.
  • the signal values of the coordinates P1 and P2 before and after the zero cross point Z (adjacent in the front and rear) are amplified. Accordingly, in the image D2A, as shown in FIG. 14E, the signal values at the coordinates P1 and P2 are larger than the other values, and the position where the local minimum value appears in the vicinity of the zero cross point Z is shown.
  • the position where the local maximum value changes from the coordinate P3 to the coordinate P1 closer to the zero cross point Z changes from the coordinate P4 to the coordinate P2 closer to the zero cross point Z.
  • the high-frequency component is generated by the nonlinear processing of amplifying the values of the pixels before and after the zero cross point Z in the nonlinear processing means 2A.
  • the nonlinear processing means 2A has an effect of generating a high frequency component not included in the intermediate image D1, that is, a high frequency component corresponding to the region RH2 on the high frequency component side shown in FIG. is there.
  • FIG. 14F shows a signal representing the high frequency component of the signal shown in FIG. 14E, that is, a signal corresponding to the image D2B output from the high frequency component image generating means 2B.
  • the local minimum value (negative peak) in the vicinity of the zero cross point Z in the image D2B appears at the coordinate P1
  • the maximum value (positive peak) appears at the coordinate P2.
  • the high frequency component extracted from the signal obtained by sampling the step edge at the sampling interval S1 as shown in FIG. This means that the high frequency component generated in the nonlinear processing means 2A is taken out by the high frequency component image generating means 2B and output as an image D2B.
  • the extracted image D2B is a signal including a frequency component corresponding to the sampling interval S1.
  • the high frequency component image generation means 2B has an effect of extracting only the high frequency component generated by the nonlinear processing means 2A.
  • the processed image D1h related to the horizontal direction and the processed image D1v related to the vertical direction are integrated to generate an integrated intermediate image D1hv, and the processed image D2Bh related to the horizontal direction and the processed image D2Bv related to the vertical direction are integrated. Then, the integrated image D2Bhv is generated, and the intermediate image D1hv after integration and the image D2Bhv after integration are added to generate the image D2C.
  • the first and second intermediate images D1 and D2B are not added to the input image DIN as they are.
  • the effects obtained when the first intermediate image D1 and the image D2B are added are described below.
  • the effect obtained by adding the intermediate image D2C which is obtained by processing the first intermediate image D1 and the image D2B in the adding unit 2C, and then integrating the first intermediate image D1hv (in other words, the first intermediate image D1hv after integration) And an effect obtained by adding the image D2Bhv after integration).
  • the intermediate image D1 is obtained by removing the aliasing component from the high frequency component of the input image DIN, and corresponds to the high frequency component in the vicinity of the Nyquist frequency of the original image DORG as shown in FIG. ing.
  • the spectral intensity in the vicinity of the Nyquist frequency of the original image DORG is weakened by the enlargement process in the image enlargement means U1, and therefore is weakened by the enlargement process by adding the intermediate image D1. Spectrum intensity can be compensated.
  • the aliasing component is removed from the intermediate image D1, a false signal such as overshoot, jaggy, or ringing is not emphasized.
  • the image D2B is a high frequency component corresponding to the sampling interval S1. Therefore, by adding the image D2B, a high frequency component in a band equal to or higher than the Nyquist frequency of the original image DORG can be given, and therefore, the resolution of the image can be increased. Therefore, by adding the image D2C obtained by adding the intermediate image D1 and the image D2B to the input image DIN, it is possible to add a high-frequency component without enhancing the aliasing component, and the resolution of the image can be enhanced. It becomes.
  • the corrected image related to the horizontal direction and the processed image related to the vertical direction are integrated, if these are simply added, the correction amount is not uniform depending on the direction of the edge included in the input image, and the processed image Artifacts.
  • FIGS. 15A to 15E, FIGS. 16A to 16E, and FIGS. 17A to 17E are schematic diagrams for explaining the cause of the artifact and the effect of the adding means 2C. It is.
  • the input image includes (a) a horizontal edge (FIG. 15A).
  • a signal when a pixel signal is supplied in the order from left to right in the horizontal direction (a signal to be processed by the horizontal high-frequency component image generation means 1Ah (here, indicated by a symbol “DINh”))
  • 15B, FIG. 16B, and FIG. 17B show the signals when the pixel signals are supplied in the vertical direction from top to bottom (vertical direction high-frequency component image generation).
  • FIG. 15C, FIG. 16C, and FIG. 17C show the intensities of signals to be processed by the means 1Av (represented by “DINv” here).
  • the step edge is composed of only one of the horizontal component and the vertical component.
  • the step edge is composed of both the horizontal component and the vertical component.
  • FIG. 15D, 16D, and 17D are horizontal to the input image (DINh) shown in FIGS. 15B, 16B, and 17B.
  • FIG. 15 (E), FIG. 16 (E), and FIG. 17 (E) show the signal intensity of the processed horizontal intermediate image D1h.
  • FIG. 15 (C), FIG. 16 (C), and FIG. The signal intensity of the vertical intermediate image D1v processed in the vertical direction with respect to the input image (DINv) shown in FIG.
  • the absolute value of the signal intensity of the intermediate image D1 in the vicinity of the edge is large in the horizontal component in (A), zero in the vertical component, large in both the horizontal and vertical components in (B), and large in the vertical component in (C).
  • the horizontal component is zero.
  • the correction amount for the edge in the oblique direction becomes about twice as large as the edge in the horizontal direction and the vertical direction.
  • the correction intensity becomes non-uniform depending on the direction of the edge, and problems such as an overshoot becoming large at the edge in the oblique direction occur.
  • the images D1h and D1v are not simply added, but these images are added after being multiplied by a weighting factor corresponding to the direction of the edge.
  • the edge direction estimating means 511 provided in the weighting coefficient generating means 401 calculates the difference dH ⁇ dV between the absolute values of the images D1h and D1v.
  • This difference dH ⁇ dV is an amount corresponding to the edge direction
  • dH ⁇ dV is a positive value in the vicinity of the edge in the horizontal direction and becomes a relatively large value
  • dH ⁇ dV is 0 in the vicinity of the edge in the oblique direction.
  • dH ⁇ dV is a negative value, and its absolute value is a relatively large value.
  • the edge direction estimating means 511 estimates the edge direction from the difference dH ⁇ dV, it is not necessary to separately provide a means such as a two-dimensional filter for detecting the edge direction. An increase can be prevented.
  • the weighting factor determining means 512 determines the weighting factor D512h for the horizontal component and the weighting factor D512v for the vertical component from the relationship shown in FIGS. 5A and 5B according to the difference dH ⁇ dV. Specifically, the larger the value of dH ⁇ dV, the larger the weight for the image D1h and the smaller the weight for D1v. On the other hand, as dH ⁇ dV is a negative value and its absolute value is larger, the weight for the image D1h is increased and the weight for the image D1v is further decreased. Further, as dH ⁇ dV approaches 0, the weight approaches 1 ⁇ 2.
  • the method of determining the weighting factor in the weighting factor determining means 512 is not limited to the relationship shown in FIGS. 5A and 5B as long as the above purpose is achieved, and for example, a relationship defined by a smooth curve. May be used. Further, such a curve may be approximated by a broken line.
  • the weighting factor for the horizontal direction component is determined by the property of monotonically increasing with respect to the difference dH ⁇ dV
  • the weighting factor for the vertical direction component is determined by the property of monotonically decreasing with respect to the difference dH ⁇ dV. What is necessary is to determine so that the sum of the weighting coefficient for the direction component and the weighting coefficient for the vertical direction component always becomes constant.
  • the edge direction estimation means 511 calculates the above-mentioned difference dH ⁇ dV as the edge direction estimation amount D511. However, as long as the amount correlates with the edge direction, any one of various other relational expressions is used. A calculated amount may be used. In that case, the weighting factor determination means 512 is also implemented by changing it so as to fulfill the above-mentioned purpose according to the edge direction estimation amount D511.
  • the weighting factors D512h and D512v determined by the weighting factor generating unit 401 are also used when adding the horizontal component D2Bh and the vertical component D2Bv of the intermediate image D2B.
  • image D2C is added to input image DIN as intermediate image D2. Therefore, it is possible to add a high frequency component while suppressing an increase in overshoot, jaggy, ringing, or the like due to the aliasing component, thereby enhancing the resolution of the image.
  • the intermediate image generation means 1 and the intermediate image processing means 2 perform the processing relating to the horizontal direction of the image and the processing relating to the vertical direction in parallel, so that only the horizontal direction of the image or the vertical direction. Not only the direction but also these can be integrated to obtain the above-mentioned effect in any direction.
  • the input image DIN has a frequency band from the origin to Fn in the vicinity of the Nyquist frequency ⁇ Fn / 2 of the original image DORG (or a specific frequency band) in the frequency space. Based on the components, an image D2B corresponding to a high frequency component in the vicinity of the Nyquist frequency ⁇ Fn is generated. Therefore, even if the frequency component near the Nyquist frequency ⁇ Fn is lost in the input image DIN for some reason, the frequency component near the Nyquist frequency ⁇ Fn can be given by the image D2B.
  • the location used as a specific frequency band is not limited to the vicinity of ⁇ Fn / 2. That is, the frequency band to be used can be changed by appropriately changing the frequency response of the high-frequency component image generating unit 1A and the low-frequency component image generating unit 1B.
  • the image enlargement process is given as an example in which the frequency component near the Nyquist frequency Fn is lost.
  • the cause of the loss of the frequency component near the Nyquist frequency Fn with respect to the input image DIN is not limited to this.
  • noise removal processing or the like can be considered. Therefore, the application of the image processing apparatus in the present invention is not limited after the image enlargement process.
  • Embodiment 2 The image processing apparatus according to the second embodiment is different from the first embodiment only in the internal configuration of the adding means 2C.
  • the weighting coefficient used when integrating the image D2Bh and the image D2Bv in the adding means 2C is determined from the images D2Bh and D2Bv. It is configured to seek.
  • FIG. 18 shows a configuration example of the adding means 2C of the image processing apparatus according to the second embodiment of the present invention.
  • the adding means 2C shown in the figure is generally the same as the adding means 2C shown in FIG. 4 except that a weight output means 412 is added, and the weighting coefficient D522h output from the weight output means 412 is the addition in the horizontal / vertical integration means 412. It differs in that it is performed using D522v.
  • the weight coefficient generation means (first weight coefficient generation means) 401 obtains the weight coefficient D512h for the image D1h and the weight coefficient D512v for the image D1v from the images D1h and D1v.
  • the horizontal / vertical integration unit (first horizontal / vertical integration unit) 411 weights and adds the images D1h and D1v according to the weighting factors D512h and D512v obtained by the weighting factor generation unit 401, and the horizontal direction component and the vertical direction component are obtained.
  • An integrated image D1hv is obtained.
  • the weight coefficient generation means (second weight coefficient generation means) 402 obtains the weight coefficient D522h for the image D2Bh and the weight coefficient D522v for the image D2Bv from the images D2Bh and D2Bv.
  • the method of obtaining the weight coefficients D522h and D522v is the same as the method of obtaining the weight coefficients D512h and D512v in the weight coefficient generation unit 401, for example, the same relationship as in FIGS.
  • the horizontal axis represents the image D2Bh Are used so as to have a difference (dH′ ⁇ dV ′) between the absolute value dH ′ and the absolute value dV ′ of the image D2Bv, and the vertical axis represents the weighting factors D522h and D522v).
  • the relationship between D522h and D522v with respect to dH′-dV ′ may be exactly the same as the relationship between D512h and D512v with respect to dH-dV, or may be different from each other.
  • the horizontal / vertical integration unit (second horizontal / vertical integration unit) 412 weights and adds the image D2Bh and the image D2Bv according to the weighting factors D522h and D522v obtained by the weighting factor generation unit 402, and the horizontal direction component and the vertical direction component are obtained.
  • An integrated image D2Bhv is obtained.
  • the intermediate image adding means 42 adds the image D1hv and the image D2Bhv and outputs the image D2C.
  • the addition means 2C in the second embodiment adds a weight coefficient generation means 402 for obtaining weight coefficients for the images D2Bh and D2Bv to the configuration of the addition means 2C in the first embodiment shown in FIG.
  • the horizontal / vertical integration unit 412 is configured to weight and add the image D2Bh and the image D2Bv using the weighting factor obtained by the weighting factor generation unit 402.
  • the configuration and operation of the weight coefficient generation unit 401, horizontal / vertical integration unit 411, and intermediate image addition unit 42 are the same as those in the first embodiment.
  • the weighting factor generating unit 402 includes an edge direction estimating unit 521 and a weighting factor determining unit 522. These operations are the same as the operations of the edge direction estimating unit 511 and the weighting factor determining unit 512 of the weighting factor generating unit 401. is there.
  • the image processing apparatus has the same effects as the image processing apparatus according to the first embodiment of the present invention. Furthermore, by adding the weighting factor generating unit 402 to the adding unit 2C, the weighting factor for integrating the image D2Bh and the image D2Bv that are images after the processing by the nonlinear processing unit 2A can be obtained more appropriately. , The processed image can have higher image quality.
  • FIG. 19 is a diagram illustrating a flow of an image processing method according to the third embodiment of the present invention.
  • the image processing method according to the third embodiment of the present invention includes an intermediate image generation step ST1, an intermediate image processing step ST2, and an addition step. Includes ST3.
  • the intermediate image generation step ST1 includes a high frequency component image generation step ST1A and a low frequency component image generation step ST1B.
  • the high frequency component image generation step ST1A includes a horizontal direction high frequency component image generation step ST1Ah and a vertical direction high frequency component image generation step ST1Av.
  • the low frequency component image generation step ST1B includes a horizontal direction low frequency component image generation step ST1Bh. , And a vertical high-frequency nest component image ST1Bv.
  • the intermediate image processing step ST2 includes a non-linear processing step ST2A, a high frequency component image generation step ST2B, and an addition step ST2C.
  • the non-linear processing step ST2A includes a horizontal non-linear processing step ST2Ah and a vertical non-linear processing step ST2Av
  • the high frequency component image generation step ST2B includes a horizontal high frequency component passing step ST2Bh and a vertical high frequency component passing step ST2Bv. including.
  • the horizontal nonlinear processing step ST2Ah includes a zero-cross determination step ST311h and a signal amplification step ST312h.
  • the vertical nonlinear processing step ST2Av includes a zero-cross determination step ST311v and a signal as shown in FIG. An amplification step ST312v is included.
  • the operation of the intermediate image generation step ST1 will be described according to the flow of FIG.
  • the high frequency component image generation step ST1A the following processing is performed on the input image DIN input in an image input step (not shown).
  • the horizontal high-frequency component image generation step ST1Ah an image D1Ah obtained by extracting a horizontal high-frequency component from the input image DIN is generated by horizontal high-pass filter processing.
  • the vertical high-frequency component image step ST1Av an image D1Av obtained by extracting the high-frequency component in the vertical direction from the input image DIN is generated by high-pass filtering in the vertical direction.
  • the high frequency component image generation step ST1A generates the image D1A including the image D1Ah and the image D1Av from the input image DIN. This operation is equivalent to the high frequency component image generating means 1A.
  • the low frequency component image generation step ST1B the following processing is performed on the image D1A.
  • an image D1Bh obtained by extracting a horizontal low frequency component from the image D1Ah is generated by a horizontal low-pass filter process.
  • an image D1Bv obtained by extracting the low frequency component in the vertical direction from the image D1Av is generated by the low pass filter processing in the vertical direction.
  • the low frequency component image generation step ST1B generates an image D1B composed of the image D1Bh and the image D1Bv from the image D1A. This operation is equivalent to the low frequency component image generation means 1B.
  • the above is the operation of the intermediate image generation step ST1, and the intermediate image generation step ST1 sets the image D1Bh as the image D1h, the image D1Bv as the image D1v, and outputs the intermediate image D1 composed of the image D1h and the image D1v.
  • the above operation is the same as that of the intermediate image generating unit 1.
  • the operation of the intermediate image processing step ST2 will be described according to the flow of FIGS.
  • the nonlinear processing step ST2A the following processing is performed on the intermediate image D1.
  • an image D2Ah is generated from the image D1h by processing according to the flow shown in FIG.
  • the processing in the flow shown in FIG. 22 is as follows. First, in the zero cross determination step ST311h, a change in pixel value in the image D1h is confirmed along the horizontal direction. Then, a point where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero cross point, and the pixels located to the left and right of the zero cross point are notified to the signal amplification step ST312h.
  • the nonlinear processing step ST2Ah performs the same process as the horizontal nonlinear processing means 2Ah on the image D1h to generate the image D2Ah.
  • an image D2Av is generated from the image D1v by processing according to the flow shown in FIG.
  • the processing in the flow shown in FIG. 23 is as follows. First, in the zero cross determination step ST311v, a change in pixel value in the image D1v is confirmed along the vertical direction. Then, a portion where the pixel value changes from a positive value to a negative value or from a negative value to a positive value is regarded as a zero cross point, and the pixels located above and below the zero cross point are notified to the signal amplification step ST312v.
  • the nonlinear processing step ST2Av performs the same process as the vertical nonlinear processing means 2Av on the image D1v to generate the image D2Av.
  • the above is the operation of the non-linear processing step ST2A, and the non-linear processing step ST2A generates an image D2A composed of the image D2Ah and the image D2Av.
  • the operation is equivalent to the nonlinear processing means 2A.
  • the horizontal direction high frequency component image generation step ST2B performs the same processing as the horizontal direction high frequency component image generation means 2Bh.
  • the vertical direction high frequency component image generation step ST2Bv an image D2Bv obtained by performing high-pass filter processing in the vertical direction on the image D2Av is generated. That is, the vertical high frequency component image generation step ST2Bv performs the same processing as the vertical high frequency component image generation means 2Bv.
  • the above is the operation of the high frequency component image generation step ST2B, and the high frequency component image generation step ST2B generates an image D2B composed of the image D2Bh and the image D2Bv.
  • the operation is the same as that of the high frequency component image generating means 2B.
  • the image D2h is generated by adding the image D1h, the image D1v, the image D2Bh, and the image D2Bv by the process according to the flow shown in FIG.
  • the process of the addition step ST2C is as follows.
  • the weighting factor generation step ST401 includes an edge direction estimation step ST511 and a weighting factor determination step ST512, and these operations are equivalent to the operations of the edge direction estimation unit 511 and the weighting factor determination unit 512 of the weighting factor generation unit 401. is there.
  • the image D1hv and the image D1v are weighted and integrated for each pixel using the weighting factors D512h and D512v obtained in the weighting factor generation step ST401 to generate an image D1hv.
  • the image D2Bh and the image D2Bv are similarly weighted and integrated for each pixel using the weighting factors D512h and D512v to generate the image D2Bhv.
  • intermediate image addition step ST42 the image D1hv and the image D2Bhv are added. At this time, the addition of the image D1hv and the image D2Bhv may be weighted addition.
  • the operation of the above addition step ST2C is equivalent to the operation of the adding means 2C.
  • step ST3 the input image DIN and the intermediate image D2 are added to generate an output image DOUT.
  • the output image DOUT is output as the final output image of the image processing method in the present invention. That is, the operation of the adding step ST3 is equivalent to the operation of the adding means 3.
  • the above is the operation of the image processing method according to Embodiment 3 of the present invention.
  • the operation of the image processing method according to the third embodiment of the present invention is equivalent to that of the image processing apparatus according to the first embodiment of the present invention, as is apparent from the description. Therefore, the image processing method in the third embodiment has the same effect as the image processing apparatus in the first embodiment. Further, in the image display apparatus shown in FIG. 6, for example, by performing the above-described image processing method inside the image processing apparatus U2, an image processed by the above-described image processing method is displayed on the image display apparatus U3 shown in FIG. It can also be displayed.
  • Embodiment 4 In the image processing method according to the fourth embodiment, the weighting coefficient used when integrating the image D2Bh and the image D2Bv in the addition step ST2C of the image processing method according to the third embodiment is obtained from the images D2Bh and D2Bv.
  • FIG. 25 shows a flow of the adding step ST2C of the image processing method according to the fourth embodiment of the present invention.
  • a weight coefficient D512h for the image D1h and a weight coefficient D512v for the image D1v are obtained from the images D1h and D1v.
  • the weighting factor generating step ST401 includes an edge direction estimating step ST511 and a weighting factor determining step ST512, and these operations are equivalent to the operations of the edge direction estimating unit 511 and the weighting factor determining unit 512 of the weighting factor generating unit 401. is there.
  • the images D1h and D1v are weighted and added using the weighting factors D512h and D512v obtained in the weighting factor generation step ST401, and the image D1hv in which the horizontal and vertical components are integrated. Get.
  • a weight coefficient D522h for the image D2Bh and a weight coefficient D522v for the image D2Bv are obtained from the image D2Bh and the image D2Bv.
  • the weighting factor generation step ST402 includes an edge direction estimation step ST521 and a weighting factor determination step ST522, and these operations are performed by the edge direction estimation unit 521 and the weighting factor determination unit 522 of the weighting factor generation unit 402 in the second embodiment.
  • the image D2Bh and the image D2Bv are weighted and added according to the weighting factors D522h and D522v obtained in the weighting factor generation step ST402, and the image D2Bhv in which the horizontal direction component and the vertical direction component are integrated is obtained. obtain.
  • the image D1hv and the image D2Bhv are added to output the image D2C.
  • the operation of the above addition step ST2C is equivalent to the operation of the adding means 2C in the second embodiment. Furthermore, the operation of the image processing method according to the fourth embodiment of the present invention is equivalent to that of the image processing apparatus according to the second embodiment of the present invention. Therefore, the image processing method in the fourth embodiment has the same effect as the image processing apparatus in the second embodiment. Further, in the image display device shown in FIG. 6, for example, by performing the image processing method inside the image processing device U2, an image processed by the image processing method is displayed on the image display device U3 shown in FIG. It can also be displayed.
  • 1 intermediate image generation means 1A high frequency component image generation means, 1B low frequency component image generation means, 2 intermediate image processing means, 2A non-linear processing means, 2B high frequency component image generation means, 2C addition means, 3 addition means, 401 , 402 Weight coefficient generation means, 411 First horizontal / vertical integration means, 412 Second horizontal / vertical integration means, DIN input image, D1 first intermediate image, D1h first horizontal direction intermediate image, D1v first vertical Direction intermediate image, D2 second intermediate image, D2Bh second horizontal direction intermediate image, D2Bv first vertical direction intermediate image, DOUT output image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

 中間画像生成手段(1)で、入力画像(DIN)の特定の周波数帯域の成分を取り出して水平方向中間画像(D1h)及び垂直方向中間画像(D1v)を生成し、中間画像処理手段(2)で、中間画像(D1h、D1v)に対して非線形処理(2A)及び高周波数成分生成(2B)を行うことで水平方向画像(D2Bh)及び垂直方向画像(D2Bv)を生成し、これらの水平方向及び垂直方向の画像を画素ごとに重み付け加算して統合して中間画像(D2)を得て、入力画像(DIN)を加算して(3)、強調処理を施された出力画像(DOUT)を得る。入力画像がその周波数スペクトルにおいて、高周波数成分側に折り返し成分を含んでいる場合や、高周波数成分を十分に含んでいない場合でも十分に画像の強調処理を行うことができる。

Description

画像処理装置及び方法並びに画像表示装置
 本発明は、入力画像に対し強調処理する画像処理装置及び方法並びにこれらを用いた画像表示装置に関し、例えば入力画像として、元となる画像を拡大した拡大画像が入力された際に、高周波数成分の生成及び加算をすることによって、解像感の高い出力画像を得るよう画像の強調処理を行うものである。
 一般に画像を表す画像信号に対し適宜画像処理を施した後、画像を再生表示するということが行われている。
 例えば特許文献1に記載された画像処理装置においては、多重解像度に変換された細部画像に対して、所望の周波数帯域の細部画像に対する強調係数をその所望の周波数帯域よりも低い周波数帯域の細部画像の信号に基づいて設定することにより、所望の周波数帯域を強調している。
特開平9-44651号公報(段落番号0009)
 しかしながら、多重解像度に変換された細部画像に対して、所望の周波数帯域の細部画像に対する強調係数を適宜設定する画像処理装置では、入力画像によっては強調処理が不適切あるいは不十分となり、適正な画質の出力画像を得ることができないことがあった。
 例えば、入力画像として拡大処理を受けた画像が入力される場合、入力画像の周波数スペクトルの高周波数成分側には、拡大処理前の画像の周波数スペクトルの一部が折り返した成分(折り返し成分)が現れる。したがって単純に高周波数成分を強調すると、この折り返し成分を強調してしまい、不適切な処理となる。また、周波数帯域を限定し、折り返し成分を含まない周波数帯域のみを強調すると、周波数スペクトルで考えた場合、高周波数成分側の強調を避けることになり、結果的に不十分な強調処理となってしまう。
 また、入力画像としてノイズ処理を受けた画像が入力される場合、高周波数成分側の周波数スペクトルはノイズ処理によって失われている。したがって高周波数成分を取り出そうとしても、取り出すことができず、十分に画像の強調処理を行えないことがある。
 本発明は、入力画像がその周波数スペクトルにおいて、高周波数成分側に折り返し成分を含んでいる場合や、高周波数成分を十分に含んでいない場合でも十分に画像の強調処理を行うことができる画像処理装置及び方法を提供することを目的とするものである。
 本発明の画像処理装置は、
 入力画像の水平方向に関して特定の周波数帯域の成分を取り出した第1の水平方向中間画像と、前記入力画像の垂直方向に関して特定の周波数帯域の成分を取り出した第1の垂直方向中間画像を生成する中間画像生成手段と、
 前記第1の水平方向中間画像及び前記第1の垂直方向中間画像をもとに第2の中間画像を生成する中間画像処理手段と、
 前記入力画像と前記第2の中間画像を加算する第1の加算手段を有し、
 前記中間画像処理手段は、
 前記第1の水平方向中間画像の画素に応じて処理の内容を変化させる水平方向非線形処理手段と、
 前記第1の垂直方向中間画像の画素に応じて処理の内容を変化させる垂直方向非線形処理手段とを含み、
 前記中間画像処理手段は、
 前記第1の水平方向中間画像と、
 前記第1の垂直方向中間画像と、
 前記水平方向非線形処理手段の出力を処理した第2の水平方向中間画像と、
 前記垂直方向非線形処理手段の出力を処理した第2の垂直方向中間画像と
 を加算して、加算結果を前記第2の中間画像として出力する第2の加算手段を有し、
 第2の加算手段は、
 前記第1の水平方向中間画像と前記第1の垂直方向中間画像を重み付け加算して統合する第1の水平垂直統合手段と、
 前記第2の水平方向中間画像と前記第2の垂直方向中間画像を重み付け加算して統合する第2の水平垂直統合手段の少なくとも一方を有することを特徴とする。
 本発明によれば、
 入力画像がその周波数スペクトルにおいて、高周波数成分側に折り返し成分を含んでいる場合や、高周波数成分を十分に含んでいない場合でも十分に画像の強調処理を行うことができる。また、回路規模を増大させることなく、入力画像に含まれるエッジの方向に依存して生じる強調処理のアーティファクトを防ぐことができる。
本発明の実施の形態1による画像処理装置の構成を示すブロック図である。 図1の水平方向非線形処理手段2Ahの構成例を示すブロック図である。 図1の垂直方向非線形処理手段2Avの構成例を示すブロック図である。 図1の加算手段2Cの構成例を示すブロック図である。 (A)及び(B)は、画像D1h、D1vの絶対値の差(dH-dV)と重み係数D512h、D512vの関係を示す線図である。 本発明による画像処理装置を用いた画像表示装置の構成例を示すブロック図である。 図6の画像拡大手段U1の構成例を示すブロック図である。 (A)~(E)は、図6の画像拡大手段U1の動作を示す画素配置図である。 (A)~(D)は、図6の画像拡大手段U1の動作を説明するための周波数応答及び周波数スペクトルを示す図である。 (A)~(E)は、図1の中間画像生成手段1の動作を説明するための周波数応答及び周波数スペクトルを示す図である。 (A)~(C)は、図1の中間画像処理手段2の動作を説明するための周波数応答及び周波数スペクトルを示す図である。 (A)~(C)は、ステップエッジとステップエッジをサンプリング間隔S1でサンプリングしたときに得られる、相連続する画素の信号の値を示す図である。 (A)~(C)は、ステップエッジとステップエッジをサンプリング間隔S2でサンプリングしたときに得られる、相連続する画素の信号の値を示す図である。 (A)~(F)は、図1の中間画像生成手段1及び中間画像処理手段2の動作を説明するための、相連続する画素の信号の値を示す図である。 (A)は水平方向のエッジを示す図、(B)~(E)は、エッジの方向が(A)のごとく水平方向であるときに得られる画像信号を示す図である。 (A)は斜め方向のエッジを示す図、(B)~(E)は、エッジの方向が(A)のごとく斜めであるときに得られる画像信号を示す図である。 (A)は垂直方向のエッジを示す図、(B)~(E)は、エッジの方向が(A)のごとく垂直方向であるときに得られる画像信号を示す図である。 本発明の実施の形態2による画像処理装置で用いられる加算手段2Cの構成例を示すブロック図である。 本発明の実施の形態3による画像処理方法における処理を示すフロー図である。 図19の中間画像生成ステップST1における処理を示すフロー図である。 図19の中間画像処理ステップST2における処理を示すフロー図である。 図21の水平方向非線形処理ステップST2Ahにおける処理を示すフロー図である。 図21の垂直方向非線形処理ステップST2Avにおける処理を示すフロー図である。 図19の加算ステップST2Cにおける処理を示すフロー図である。 本発明の実施の形態4における加算ステップST2Cにおける処理を示すフロー図である。
実施の形態1.
 図1は本発明の実施の形態1による画像処理装置の構成を表す図であり、図示の画像処理装置は例えば画像表示装置の一部として用いることができる。
 図示の画像処理装置は、中間画像生成手段1と、中間画像処理手段2と、加算手段3とを有する。
 中間画像生成手段1は、入力画像DINから特定の周波数帯域の成分(即ち第1の周波数(第1の所定の周波数)から第2の周波数(第2の所定の周波数)までの成分)を取り出した中間画像(第1の中間画像)D1を生成する。
 中間画像処理手段2は、画像D1に後述する処理を行った中間画像(第2の中間画像)D2を生成する。
 加算手段3は、入力画像DINと中間画像D2を加算する。加算手段3による加算結果が出力画像DOUTとして出力される。
 中間画像生成手段1は、入力画像DINから第1の周波数以上の高周波数成分のみを取り出した画像D1Aを生成する高周波数成分画像生成手段1Aと、画像D1Aの第2の周波数以下の低周波数成分のみを取り出した画像D1Bを生成する低周波数成分画像生成手段1Bとを有する第2の周波数は第1の周波数よりも高く、高周波数成分画像生成手段1Aと低周波数成分画像生成手段1Bとで、特定の周波数帯域の成分を取り出す帯域通過フィルタ手段が構成されている。中間画像生成手段1からは画像D1Bが中間画像D1として出力される。
 中間画像処理手段2は、中間画像D1に対し、後述する非線形処理を行った画像D2Aを出力する非線形処理手段2Aと、画像D2Aの第3の周波数(第3の所定の周波数)以上の高周波数成分のみを取り出した画像D2Bを出力する高周波数成分画像生成手段2Bと、中間画像D1と画像D2Bを加算した画像D2Cを出力する加算手段2Cとを有する。中間画像処理手段2からは画像D2Cが中間画像D2として出力される。
 以下、本発明の実施の形態1による画像処理装置の詳細な動作について説明を行う。
 まず、中間画像生成手段1の詳細な動作について説明する。
 まず、中間画像生成手段1は、高周波数成分画像生成手段1Aにおいて、入力画像DINの第1の周波数以上の高周波数成分のみを取り出した画像D1Aを生成する。高周波数成分の取り出しは、ハイパスフィルタ処理を行うことで可能である。高周波数成分の取り出しは画像の水平方向及び垂直方向それぞれについて行う。即ち高周波数成分画像生成手段1Aは、入力画像DINに対し、水平方向のハイパスフィルタ処理を行って水平方向についてのみ第1の水平方向周波数以上の高周波数成分を取り出した画像D1Ahを生成する水平方向高周波数成分画像生成手段1Ahと、垂直方向のハイパスフィルタ処理を行って垂直方向についてのみ第1の垂直方向周波数以上の高周波数成分を取り出した画像D1Avを生成する垂直方向高周波数成分画像生成手段1Avとを有し、画像D1Aは画像D1Ahと画像D1Avから成る。
 なお、入力画像DINを構成する各画素の信号は、各画面内の複数の水平ライン(行)を上から下へ、各水平ライン内の複数の画素を左から右へと言う順に供給されるものであり、垂直方向高周波成分画像生成手段1Avの入力側には、このような入力画像の互いに隣接する複数のラインの信号を蓄積して、処理対象画素を中心にして複数ライン上から複数ライン下までの画素の信号を、垂直方向に上から下へという順に供給するための並べ替え手段が設けられているが、その図示を省略する。
 次に、中間画像生成手段1は、低周波数成分画像生成手段1Bにおいて、画像D1Aの第2の周波数以下の低周波数成分のみを取り出した画像D1Bを生成する。低周波数成分の取り出しは、ローパスフィルタ処理を行うことで可能である。低周波数成分の取り出しは水平方向及び垂直方向それぞれについて行う。即ち低周波数成分画像生成手段1Bは、画像D1Ahに対し水平方向のローパスフィルタ処理を行って水平方向についてのみ第2の水平方向周波数以下の低周波数成分を取り出した画像D1Bhを生成する水平方向低周波数成分画像生成手段1Bと、画像D1Avに対し垂直方向のローパスフィルタ処理を行って垂直方向についてのみ第2の垂直方向周波数以下の低周波数成分を取り出した画像D1Bvを生成する垂直方向低周波数成分画像生成手段1Bvとを有し、画像D1Bは画像D1Bhと画像D1Bvとから成る。中間画像生成手段1からは、画像D1Bが中間画像D1として出力される。なお、中間画像D1は、画像D1Bhに相当する画像(第1の水平方向中間画像)D1hと、画像D1Bvに相当する画像(第1の垂直方向中間画像)D1vとから成る。
 次に、中間画像処理手段2の詳細な動作について説明する。
 まず、中間画像処理手段2は、非線形処理手段2Aにおいて、中間画像D1に対して後述する非線形処理を行った画像D2Aを生成する。非線形処理は、水平方向及び垂直方向それぞれについて行う。即ち非線形処理手段2Aは、画像D1Bhに対して後述する非線形処理を行って画像D2Ahを生成する水平方向非線形処理手段2Ahと、画像D1Bvに対して後述する非線形処理を行って画像D2Avを生成する垂直方向非線形処理手段2Avとを有し、画像D2Aは画像D2Ahと画像D2Avから成る。
 非線形処理手段2Aの動作についてさらに詳しく説明する。非線形処理手段2Aは互いに同様の構成から成る水平方向非線形処理手段2Ah及び垂直方向非線形処理手段2Avを備える。水平方向非線形処理手段2Ahは水平方向の処理を行い、垂直方向非線形処理手段2Avは垂直方向の処理を行う。
 図2は水平方向非線形処理手段2Ahの構成例を表す図である。図示の水平方向非線形処理手段2Ahはゼロクロス判定手段311hと、信号増幅手段312hとを備える。非線形処理手段2Ahには、画像D1hが入力画像DIN311hとして入力される。
 ゼロクロス判定手段311hは入力画像DIN311hにおける画素値の変化を水平方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、信号D311hによってゼロクロス点の前後にある画素(前後において隣接する画素)の位置を信号増幅手段312hに伝達する。ここで「前後」とは信号が供給される順序における前後であり、水平方向に左から右に画素の信号が供給されるときは「左右」を意味し、垂直方向に上から下に画素の信号が供給されるときは「上下」を意味する。ゼロクロス判定手段311hでは、水平方向非線形処理手段2Ah内のゼロクロス判定手段311hでは、例えばゼロクロス点の左右に位置する画素がゼロクロス点の前後に位置する画素として認識される。
 信号増幅手段312hは信号D311hをもとにゼロクロス点の前後にある画素(前後において隣接する画素)を特定し、ゼロクロス点の前後にある画素についてのみその画素値を増幅させた(絶対値を大きくした)非線形処理画像D312hを生成する。即ち、ゼロクロス点前後にある画素の画素値に対しては増幅率を1より大きな値とし、それ以外の画素の画素値に対しての増幅率は1とする。
 水平方向非線形処理手段2Ahからは画像D2Ahとして非線形処理画像D312hが出力される。
 図3は垂直方向非線形処理手段2Avの構成例を表す図である。図示の垂直方向非線形処理手段2Avは、ゼロクロス判定手段311vと、信号増幅手段312vとを備える。非線形処理手段2Avには、画像D1vが入力画像DIN311vとして入力される。
 ゼロクロス判定手段311vは入力画像DIN311vにおける画素値の変化を垂直方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、信号D311vによってゼロクロス点の前後にある画素(前後において隣接する画素)の位置を信号増幅手段312vに伝達する。垂直方向非線形処理手段2Av内のゼロクロス判定手段311vでは、例えばゼロクロス点の上下に位置する画素がゼロクロス点の前後に位置する画素として認識される。
 信号増幅手段312vは信号D311vをもとにゼロクロス点の前後にある画素(前後において隣接する画素)を特定し、ゼロクロス点の前後にある画素についてのみその画素値を増幅させた(絶対値を大きくした)非線形処理画像D312vを生成する。即ち、ゼロクロス点前後にある画素の画素値に対しては増幅率を1より大きな値とし、それ以外の画素の画素値に対しての増幅率は1とする。
 垂直方向非線形処理手段2Avからは画像D2Avとして非線形処理画像D312vが出力される。
 以上が非線形処理手段2Aの動作である。
 次に、中間画像処理手段2は、高周波数成分画像生成手段2Bにおいて、画像D2Aの第3の周波数以上の高周波数成分のみを取り出した画像D2Bを生成する。高周波数成分の取り出しは、ハイパスフィルタ処理を行うことで可能である。高周波数成分の取り出しは画像の水平方向及び垂直方向それぞれについて行う。即ち高周波数成分画像生成手段2Bは、画像D2Ahに対し水平方向のハイパスフィルタ処理を行って水平方向についてのみ第3の水平方向周波数以上の高周波数成分を取り出した画像D2Bhを生成する水平方向高周波数成分画像生成手段2Bhと、画像D2Avに対し垂直方向のハイパスフィルタ処理を行って垂直方向についてのみ第3の垂直方向周波数以上の高周波数成分を取り出した画像D2Bvを生成する垂直方向高周波数成分画像生成手段2Bvとを有し、画像D2Bは画像D2Bhと画像D2Bvから成る。
 次に、加算手段2Cは、中間画像D1と画像D2Bを加算して画像D2Cを生成する。中間画像D1は画像D1h及び画像D1vから成っており、画像D2Bは画像D2Bh及び画像D2Bvから成っているので、中間画像D1と画像D2Bを加算するとは、上記画像D1h、D1v、D2Bh、及びD2Bvの全てを加算することを意味する。以下、加算手段2Cの動作について詳しく説明する。
 なお、加算手段2Cで加算されるのは、画像D1h、D1v、D2Bh、及びD2Bvの、互いに同じ画素についての値であり、入力画像DINの供給から加算手段2Cの入力側までの間に画像が受ける処理に要する時間が異なる場合(水平方向の処理と垂直方向の処理とで処理に要する時間が異なる場合など)には、加算手段2Cの入力側にタイミングを合わせるための遅延手段などが設けられているが、その図示を省略する。
 図4は加算手段2Cの構成例を表す図である。図示の加算手段2Cは、重み係数生成手段401と、第1の水平垂直統合手段411と、第2の水平垂直統合手段412とを有する。
 重み係数生成手段401は、画像D1hと画像D1vから、後述する演算により水平方向成分に対する重み係数D512hと垂直方向成分に対する重み係数D512vを求める。重み係数D512hと重み係数D512vの和は常に一定、例えば「1」である。
 第1の水平垂直統合手段411は、重み係数生成手段401で求められた重み係数D512h及びD512vにしたがって画像D1hと画像D1vを重み付け加算し、水平方向成分と垂直方向成分が統合された画像D1hvを出力する。
 第2の水平垂直統合手段412は、同じく重み係数生成手段401で求められた重み係数D512h及びD512vにしたがって画像D2Bhと画像D2Bvを重み付け加算し、水平方向成分と垂直方向成分が統合された画像D2Bhvを出力する。
 中間画像加算手段42は、画像D1hvと画像D2Bhvを加算して画像D2Cを出力する。
 重み係数生成手段401の動作についてさらに詳しく説明する。重み係数生成手段401は、エッジ方向推定手段511と、重み係数決定手段512とを有する。
 エッジ方向推定手段511は、画像D1hと画像D1vの二つの信号からエッジ方向(角度)に対応する量としてのエッジ方向推定量D511を算出する。例えば、画像D1hの絶対値をdH、画像D1vの絶対値をdVとしたとき、これら二つの値の差分dH-dVを、エッジ方向推定量D511として出力する。
 重み係数決定手段512は、エッジ方向推定量D511に基づき、水平方向成分に対する重み係数D512h、及び垂直方向成分に対する重み係数D512vを決定する。図5(A)及び(B)は、前述した差分dH-dVに対する、重み係数D512h及びD512vの決め方の一例を表す図である。図5(A)及び(B)に示した例では、重み係数D512hは、
 D512h=0.5+Kα(dH-dV)   …(1a)
重み係数D512vは、
 D512v=1-D512h=0.5-Kα(dH-dV)   …(1b)
 により算出している。ただし、Kαは図5(A)及び(B)における直線の傾き(従って(dh-dV)の増加に対するD512h,D512vの変化の割合)を表す正の定数とし、上記計算結果が「0」を下回る場合は「0」となり、「1」を上回る場合は「1」となるようにする。
 上記のように定められる重み係数D512h及びD512vは、両者の和が常に1である。
 以上が、重み係数生成手段401の動作である。
 第1の水平垂直統合手段411は、第1及び第2の乗算手段411a及び411bと加算手段411cとを有する。水平垂直統合手段411は、第1の乗算手段411aで画像D1hに対して重み係数D512hを乗算し、第2の乗算手段411bで画像D1vに対して重み係数D512vを乗算する。さらに、これらの乗算結果を加算手段411cで加算して画像D1hvを出力する。
 第2の水平垂直統合手段412は、第1及び第2の乗算手段412a及び412bと加算手段412cとを有する。水平垂直統合手段412は、第1の乗算手段412aで画像D2Bhに対して重み係数D512hを乗算し、第2の乗算手段412bで画像D2Bvに対して重み係数D512vを乗算し、これらの乗算結果を加算手段412cで加算して画像D2Bhvを出力する。
 なお、重み係数D512h及びD512vは画像D1h及びD1vの画素ごとに算出されるものであり、このことは、加算手段2Cの出力画像D2Cにおける水平方向成分及び垂直方向成分の混合割合を画素位置によって変化させることを意味する。このような重み付けを行う効果については後述する。
 次に、中間画像加算手段42において、画像D1hvと画像D2Bhvを加算し、画像D2Cを出力する。ここで、中間画像加算手段42での加算処理は単純加算に限らず重み付け加算を用いてもよい。即ち、画像D1hv及びD2Bhvの各々をそれぞれ異なる増幅率で増幅してから加算してもよい。
 以上が加算手段2Cの動作である。
 最後に加算手段3の動作について説明する。加算手段3は入力画像DINと中間画像D2を加算した出力画像DOUTを生成する。出力画像DOUTが最終的な出力画像として、画像処理装置から出力される。
 なお、加算手段3で加算されるのは、入力画像DIN及び中間画像D2の、互いに同じ画素についての値であり、入力画像DINの供給から加算手段3の入力側までの間に画像が受ける処理に要する時間が互いに異なる場合には、加算手段3の入力側にタイミングを合わせるための遅延手段などが設けられているが、その図示を省略する。
 以下、本発明における画像処理装置を画像表示装置の一部として利用する例について説明する。この説明を通じて、本発明における画像処理装置の作用、効果も明らかなものとなるであろう。なお、以下の説明では特に断らない限り、Fnという記号は入力画像DINのナイキスト周波数を表す。
 図6は本発明における画像処理装置を利用した画像表示装置であり、図示の画像表示装置においては、モニタU3上に原画DORGに対応した画像が表示される。
 画像拡大手段U1は、原画DORGの画像サイズがモニタU3の画像サイズより小さい場合、原画DORGを拡大した画像DU1を出力する。ここで画像の拡大は例えばバイキュービック法などを用いることができる。
 本発明における画像処理装置U2は、画像DU1に対し、先に説明した処理を行った画像DU2を出力する。そしてモニタU8上には画像DU2が表示される。
 以下、原画DORGは、水平方向及び垂直方向ともその画素数がモニタU3の画素数の半分であるとして、まず画像拡大手段U1の動作、作用について説明を行う。
 図7は画像拡大手段U1の構成及び動作を示す図であり、図示の画像拡大手段U1は水平方向ゼロ挿入手段U1Aと、水平方向低周波数成分通過手段U1Bと、垂直方向ゼロ挿入手段U1Cと、垂直方向低周波数成分通過手段U1Dとを有する。
 水平方向ゼロ挿入手段U1Aは原画DORGの水平方向に関して画素値0を持つ画素を適宜挿入した(原画DORGの水平方向に隣接する画素列相互間に、画素値0の画素から成る画素列を1列ずつ挿入した)画像DU1Aを生成する。
 水平方向低周波数成分通過手段U1Bはローパスフィルタ処理により画像DU1Aの低周波数成分のみを取り出した画像DU1Bを生成する。
 垂直方向ゼロ挿入手段U1Cは画像DU1Bの垂直方向に関して画素値0を持つ画素を適宜挿入した(画像DU1Bの垂直方向に隣接した画素行相互間に、画素値0の画素から成る画素行を1行ずつ挿入した)画像DU1Cを生成する。
 垂直方向低周波数成分通過手段DU1Dは画像DU1Cの低周波数成分のみを取り出した画像DU1Dを生成する。
 画像DU1Dが原画DORGが、水平方向及び垂直方向ともに2倍した画像DU1として、画像拡大手段U1から出力される。
 図8(A)~(E)は画像拡大手段U1の動作を詳しく説明するための図であり、図8(A)は原画DORGを、図8(B)は画像DU1Aを、図8(C)は画像DU1Bを、図8(D)は画像DU1Cを、図8(E)は画像DU1Dを表す。図8(A)~(E)に関して、四角(升目)は画素を表し、その中に書かれた記号あるいは数値は各画素の画素値を表す。
 水平方向ゼロ挿入手段U1Aは図8(A)に示す原画DORGに対して、水平方向の1画素につき1個、画素値0をもった画素を挿入し(即ち、原画DORGの水平方向に隣接する画素列相互間に一つの、画素値0の画素から成る画素列を挿入し)、図8(B)に示す画像DU1Aを生成する。水平方向低周波数成分通過手段U1Bは図8(B)に示す画像DU1Aに対して、ローパスフィルタ処理を施し、図8(C)に示す画像DU1Bを生成する。
 垂直方向ゼロ挿入手段U1Cは図8(C)に示す画像DU1Bに対して、垂直方向の1画素につき1個、画素値0をもった画素を挿入し(即ち、画像DU1Bの垂直方向に隣接する画素行相互間に一つの、画素値0の画素から成る画素行を挿入し)、図8(D)に示す画像DU1Cを生成する。垂直方向低周波数成分通過手段U1Dは図8(D)に示す画像DU1Cに対して、ローパスフィルタ処理を施し、図8(E)に示す画像DU1Dを生成する。
 以上の処理により原画DORGを水平方向及び垂直方向ともに2倍に拡大した画像DU1Dが生成される。
 図9(A)~(D)は画像拡大手段U1による処理の作用を周波数空間上で表したものであり、図9(A)は原画DORGの周波数スペクトル、図9(B)は画像DU1Aの周波数スペクトル、図9(C)は水平方向周波数成分通過手段U1Bの周波数応答、図9(D)は画像DU1Bの周波数スペクトルを表している。なお、図9(A)~(D)において横軸は水平方向の空間周波数を表す周波数軸であり、縦軸は周波数スペクトルもしくは周波数応答の強度を表している。
 原画DORGの画素数は入力画像DINの半分であり、言い換えると原画DORGのサンプリング間隔は入力画像DINのサンプリング間隔の2倍である。したがって原画DORGのナイキスト周波数は入力画像DINのナイキスト周波数の半分即ち、Fn/2である。
 なお、図9(A)~(D)では表記を簡単にするため、1本の周波数軸しか用いていない。しかしながら、通常、画像データは2次元平面状に並んだ画素配列上に与えられた画素値から成り、その周波数スペクトルも水平方向の周波数軸及び垂直方向の周波数軸で張られる平面上に与えられるものである。したがって原画DORG等の周波数スペクトル等を正確に表すためには、水平方向の周波数軸及び垂直方向の周波数軸の両方を記載する必要がある。しかしながらその周波数スペクトルの形状は通常、周波数軸上の原点を中心に等方的に広がったものであり、周波数軸1本で張られる空間上での周波数スペクトルを示しさえすれば、そこから周波数軸2本で張られる空間へ拡張して考察することは当業者にとって容易である。したがって以降の説明でも特に断らない限り、周波数空間上での説明は、1本の周波数軸で張られる空間を用いて行う。
 まず、原画DORGの周波数スペクトルについて説明する。通常、自然画像が原画DORGとして入力されるが、その場合にはそのスペクトル強度は周波数空間の原点周辺に集中している。したがって原画DORGの周波数スペクトルは図9(A)のスペクトルSPOのようになる。
 次に、画像DU1Aのスペクトル強度について説明する。画像DU1Aは、原画DORGに対して、水平方向に1画素につき1画素、画素値0を持った画素を挿入することで生成される。このような処理を行うと周波数スペクトルには原画DORGのナイキスト周波数を中心にした折り返しが発生する。即ち周波数±Fn/2を中心にスペクトルSPOが折り返したスペクトルSPMが発生するので、画像DU1Aの周波数スペクトルは図9(B)のように表される。
 次に、水平方向低周波数成分通過手段U1Bの周波数応答について説明する。水平方向低周波数成分通過手段はローパスフィルタによって実現されるので、その周波数応答は図9(C)に示すように周波数が高くなるほど低くなる。
 最後に、画像DU1Bの周波数スペクトルについて説明する。図9(B)に示す周波数スペクトルを持った画像DU1Aに対し、図9(C)に示した周波数応答を持ったローパスフィルタ処理を行うことで、図9(D)に示す画像DU1Bが得られる。したがって画像DU1Bの周波数スペクトルは画像DU1Bに示すように、スペクトルSPMの強度がある程度落ちたスペクトルSP2と、スペクトルSPOの強度がある程度落ちたスペクトルSP1から成る。なお一般に、ローパスフィルタの周波数応答は周波数が高くなるほど低くなる。従って、スペクトルSP1の強度をスペクトルSPOと比較すると、水平方向低周波数成分通過手段U1Bによって、高周波数成分側、即ち周波数が±Fn/2の近傍でのスペクトル強度が減少したものとなる。
 また、画像拡大手段U1による処理のうち、垂直方向ゼロ挿入手段U1C及び垂直方向低周波数成分通過手段U1Dによる処理について、その周波数空間上での作用についての説明は省略するが、その処理の内容から、垂直方向の空間周波数を表す軸方向に対して、図9(A)~(D)を用いて説明した内容と同様の作用があることは容易に理解できる。即ち、画像DU1Dの周波数スペクトルは、図9(D)に示した周波数スペクトルが2次元上に広がったものとなる。
 また、以降の説明ではスペクトルSP2のことを折り返し成分と呼ぶ。この折り返し成分は、画像上では、比較的高い周波数成分を持ったノイズあるいは偽の信号として現れる。そのようなノイズあるいは偽の信号としてオーバーシュートやジャギーあるいはリンギング等が挙げられる。
 以下、本発明における画像処理装置の作用、効果について説明する。
 図10(A)~(E)は入力画像DIN(もしくは画像DU1)として原画DORGを拡大して得られた画像DU1Dが入力された場合の、入力画像DINから中間画像D1を生成する際の作用、効果を模式的に表した図であり、
図10(A)は入力画像DINの周波数スペクトルを、図10(B)は高周波数成分画像生成手段1Aの周波数応答を、図10(C)は低周波数成分画像生成手段1Bの周波数応答を、図10(D)は中間画像生成手段1の周波数応答を、図10(E)は中間画像D1の周波数スペクトルを表す。なお、図10(A)~(E)においても図9(A)~(D)と同様の理由で周波数軸は1本しか用いていない。
 さらに図10(A)~(E)では、空間周波数が0以上となる範囲でのみ周波数スペクトルあるいは周波数応答の強度を表しているが、以下の説明での周波数スペクトルあるいは周波数応答は、周波数軸上の原点を中心に対称的な形状となる。したがって説明に用いる図は、空間周波数が0以上となる範囲のみを示したもので十分である。
 まず、入力画像DINの周波数スペクトルについて説明する。画像拡大手段U1における拡大処理によって生成された画像DU1Dが入力画像DINとして入力されるので、入力画像DINの周波数スペクトルは図10(A)に示すように、図9(D)で説明したものと同じ形状となり、原画DORGのスペクトルSPOの強度がある程度落ちたスペクトルSP1と折り返し成分となるスペクトルSP2から成る。
 次に、高周波数成分画像生成手段1Aの周波数応答について説明する。高周波数成分画像生成手段1Aはハイパスフィルタにより構成されているので、その周波数応答は図10(B)に示すように周波数が低くなるほど低くなる。
 次に、低周波数成分画像生成手段1Bの周波数応答について説明する。低周波数成分画像生成手段1Bはローパスフィルタにより構成されているので、その周波数応答は図10(C)に示すように周波数が高くなるほど低くなる。
 次に、中間画像生成手段1の周波数応答について説明する。入力画像DINが持つ周波数成分のうち、図10(D)に示された低周波数成分側の領域(第1の周波数FL1よりも低い周波数の帯域)RL1の周波数成分については、中間画像生成手段1内の高周波数成分画像生成手段1Aで弱められる。一方、図10(D)に示された高周波数成分側の領域(第2の周波数FL2よりも高い周波数の帯域)RH1の周波数成分については、中間画像生成手段1内の低周波数成分画像生成手段1Bで弱められる。したがって、中間画像生成手段1の周波数応答は、図10(D)に示すように、低周波数成分側の領域RL1と高周波数成分側の領域RH1によって帯域を制限された中間の領域(特定の周波数帯域)RM1内にピークを持ったものとなる。
 次に、中間画像D1の周波数スペクトルについて説明する。図10(A)に示す周波数スペクトルを持つ入力画像DINが、図10(D)に示した周波数応答を持つ中間画像生成手段1を通過することで、図10(E)に示す中間画像D1が得られる。そして中間画像生成手段1の周波数応答は、低周波数成分側の領域RL1と高周波数成分側の領域RH1によって帯域制限された中間の領域RM1内にピークを持ったものなので、中間画像D1の周波数スペクトルは、入力画像DINの周波数スペクトルのうち、低周波数成分側の領域RL1と高周波数成分側の領域RH1に含まれる部分の強度が弱くなったものとなる。従って中間画像D1は入力画像DINの持つ高周波数成分から折り返し成分となるスペクトルSP1を取り除いたものとなる。即ち中間画像生成手段1には、入力画像DINのもつ高周波数成分から折り返し成分となるスペクトルSP1を取り除いた中間画像D1を生成するという効果がある。
 図11(A)~(C)は中間画像処理手段2の作用、効果を表した図であり、図11(A)は非線形処理画像D2Aの周波数スペクトルを、図11(B)は高周波数成分画像生成手段2Bの周波数応答を、図11(C)は画像D2Bの周波数スペクトルを表す。なお、図11(A)~(C)では、図10(A)~(E)と同様の理由で、空間周波数が0以上となる範囲でのみ周波数スペクトルあるいは周波数応答の強度を表している。
 後述するように非線形処理画像D2Aでは、高周波数成分側の領域RH2に相当する高周波数成分が生成される。図11(A)はその様子を模式的に表した図である。図11(C)に示す画像D2Bは非線形処理画像D2Aが高周波数成分画像生成手段2Bを通過することで生成される。高周波数成分画像生成手段2Bは第3の周波数FL3以上の成分を通過させるハイパスフィルタで構成されており、その周波数応答は図11(B)に示すように周波数が高くなるほど高いものとなる。従って画像D2Bの周波数スペクトルは図11(C)に示すように非線形処理画像D2Aの周波数スペクトルから低周波数成分側の領域RL2に相当する成分(第3の周波数FL3よりも低い周波数成分)を取り除いたものとなる。言い換えると、非線形処理手段2Aには高周波数成分側の領域RH2に相当する高周波数成分を生成する効果があり、高周波数成分画像生成手段2Bには非線形処理手段2Aで生成された高周波数成分のみを取り出す効果がある。なお、図示の例では、第3の周波数FL3は、Fn/2に略等しい。
 上記の作用、効果についてさらに詳しく説明する。
 図12(A)~(C)及び図13(A)~(C)はステップエッジをサンプリングした際に得られる信号について表した図である。
 図12(A)はステップエッジとサンプリング間隔S1を表しており、図12(B)はステップエッジをサンプリング間隔S1でサンプリングした際に得られる信号を表しており、図12(C)は図12(B)に表された信号の高周波数成分を表している。一方、図13(A)はステップエッジとサンプリング間隔S1より間隔の広いサンプリング間隔S2を表しており、図13(B)はステップエッジをサンプリング間隔S2でサンプリングした際に得られる信号を表しており、図13(C)は図13(B)に表された信号の高周波数成分を表している。以下の説明ではサンプリング間隔S2の長さはサンプリング間隔S1の長さの半分であるとする。
 図12(C)及び図13(C)に表されるようにステップエッジの中央は高周波数成分を表した信号においてゼロクロス点Zとして現れる。また、高周波数成分を表した信号のゼロクロス点Zの近傍での傾きは、サンプリング間隔が短いほど急になり、かつゼロクロス点Zの近傍での局所的な最大値、最小値を与える点の位置も、サンプリング間隔が短いほどゼロクロス点Zに近づく。
 即ち、サンプリング間隔が変わっても、エッジの近傍において高周波数成分を表す信号のゼロクロス点の位置は変化しないが、サンプリング間隔が小さくなるほど(あるいは解像度が上がるほど)エッジの近傍での高周波数成分の傾きは急になり、局所的な最大値、最小値を与える点の位置はゼロクロス点に近づく。
 図14(A)~(F)はステップエッジをサンプリング間隔S1でサンプリングした信号が2倍に拡大された後、本発明における画像処理装置に入力された際の作用、効果を表す図であり、特に中間画像生成手段1及び中間画像処理手段2の作用、効果を表している。なお、先に述べた通り、中間画像生成手段1及び中間画像処理手段2内部の処理は水平方向及び垂直方向のそれぞれについて行われるのでその処理は一次元的に行われる。したがって図14(A)~(F)では一次元信号を用いて処理の内容を表している。
 図14(A)は、図13(B)と同様ステップエッジをサンプリング間隔S2でサンプリングした信号を示す。図14(B)は、図14(A)に表した信号を2倍に拡大した信号を示す。即ち、原画DORGに図14(A)に示すようなエッジが含まれる場合、入力画像DINとして図14(B)に示すような信号が入力される。なお、信号を2倍に拡大するとサンプリング間隔は拡大前の半分になるため、図14(B)に表した信号のサンプリング間隔は図12(A)~(C)中のサンプリング間隔S1と同じになる。また、図14(A)において座標P3で表される位置はステップエッジの低輝度側(エッジ信号の低レベル側)の境界部分であり、座標P4で表される位置はステップエッジの高輝度側(エッジ信号の高レベル側)の境界である。
 図14(C)は図14(B)に表した信号の高周波数成分を表した信号、即ち高周波数成分画像生成手段1Aから出力される画像D1Aに相当する信号を示す。なお、画像D1Aは、入力画像DINの高周波数成分を取り出したものなので、その中には折り返し成分も含まれている。
 図14(D)は図14(C)に示される信号の低周波数成分を表す信号、即ち低周波数成分画像生成手段1Bから出力される画像D1Bに相当する信号を示す。なお先に述べたとおり画像D1Bが中間画像D1として出力されるので、図14(D)は中間画像D1を示すものとも言える。図14(D)に示すとおり、中間画像D1においてゼロクロス点Zの近傍の局所的な最小値は座標P3に、局所的な最大値は座標P4に現れ、その様子は図13(C)に示した、ステップエッジをサンプリング間隔S2でサンプリングした信号から取り出した高周波数成分と一致する。また、画像D1Aに含まれていた折り返し成分は、低周波数成分画像生成手段1Bで行うローパスフィルタ処理によって取り除かれる。
 図14(E)は、図14(D)に示される信号に対する非線形処理手段2Aに入力された際の出力信号、即ち、中間画像D1が入力された場合に非線形処理手段2Aから出力される画像D2Aを表している。非線形処理手段2Aではゼロクロス点Zの前後の(前後において隣接する)座標P1、P2の信号値が増幅される。したがって、画像D2Aは図14(E)に示すように座標P1、P2での信号値の大きさが他の値に比べ大きくなり、ゼロクロス点Zの近傍で、局所的な最小値の現れる位置が座標P3からよりゼロクロス点Zに近い座標P1に、局所的な最大値の現れる位置が座標P4からよりゼロクロス点Zに近い座標P2へと変化する。これは非線形処理手段2Aにおける、ゼロクロス点Zの前後の画素の値を増幅するという非線形処理によって、高周波数成分が生成されたことを意味する。このように画素ごとに適応的に増幅率を変える、あるいは画素に応じて処理の内容を適宜変えることで、高周波数成分を生成することが可能になる。即ち非線形処理手段2Aには、中間画像D1には含まれない高周波数成分、すわなち、図11(A)に示した高周波数成分側の領域RH2に相当する高周波数成分を生成する効果がある。
 図14(F)は図14(E)に表した信号の高周波数成分を表した信号、即ち高周波数成分画像生成手段2Bから出力される画像D2Bに相当する信号を示す。図14(F)に示すとおり、画像D2Bにおいてゼロクロス点Zの近傍の局所的な最小値(負側のピーク)は座標P1に、最大値(正側のピーク)は座標P2に現れ、その様子は図12(C)に示した、ステップエッジをサンプリング間隔S1でサンプリングした信号から取り出した高周波数成分と一致する。これは非線形処理手段2Aにおいて生成された高周波数成分が高周波数成分画像生成手段2Bによって取り出され、画像D2Bとして出力されることを意味する。
 また、取り出された画像D2Bはサンプリング間隔S1に対応した周波数成分を含む信号であるといえる。言い換えると、高周波数成分画像生成手段2Bには非線形処理手段2Aで生成された高周波数成分のみを取り出す効果がある。
 加算手段2Cでは、水平方向に関する処理画像D1hと、垂直方向に関する処理画像D1vを統合して統合後の中間画像D1hvを生成し、水平方向に関する処理画像D2Bhと、垂直方向に関する処理画像D2Bvを統合して統合後の画像D2Bhvを生成し、さらに統合後の中間画像D1hvと統合後の画像D2Bhvを加算して画像D2Cを生成する。
 上記した、図14(D)の中間画像D1及び図14(F)の画像D2Bを入力画像DINに加算すれば、画像の強調処理を行うことが可能である。本発明では、第1及び第2の中間画像D1及び画像D2Bをそのまま入力画像DINに加算するわけではないが、以下、仮に第1中間画像D1及び画像D2Bを加算をした場合に得られる効果について説明し、その後で、第1の中間画像D1及び画像D2Bを加算手段2C内で処理することで得られる、中間画像D2Cを加算することによる効果(言い換えれば、統合後の第1の中間画像D1hv及び統合後の画像D2Bhvを加算することによる効果)について説明する。
 まず、中間画像D1を加算することの効果について述べる。先に述べたとおり中間画像D1は入力画像DINの持つ高周波数成分から折り返し成分を取り除いたものであり、図10(E)に示すように原画DORGのナイキスト周波数の近傍の高周波数成分に対応している。図9(D)で説明したとおり、原画DORGのナイキスト周波数の近傍のスペクトル強度は画像拡大手段U1での拡大処理によって弱められているので、中間画像D1を加算することで、拡大処理によって弱められたスペクトル強度を補うことができる。また、中間画像D1から、折り返し成分は取り除かれているので、オーバーシュートやジャギーあるいはリンギングといった偽の信号を強調することはない。
 次に中間画像D2Bを加算することの効果について述べる。先に述べたとおり画像D2Bはサンプリング間隔S1に対応した高周波数成分である。したがって画像D2Bを加算することで原画DORGのナイキスト周波数以上の帯域の高周波数成分を与えることができ、このため、画像の解像感を増すことができる。
 したがって中間画像D1と画像D2Bを加算した画像D2Cを入力画像DINに加算することで、折り返し成分を強調することなく高周波数成分を加算することが可能となり、画像の解像感を高めることが可能となる。
 しかしながら、水平方向に関する処理画像と、垂直方向に関する処理画像とを統合する際に、これらを単純加算してしまうと、入力画像に含まれるエッジの方向によって補正量が均一でなくなり、処理後の画像にアーティファクトが生じる。
 図15(A)~(E)、図16(A)~(E)及び図17(A)~(E)は、上記アーティファクトが生じる原因と、加算手段2Cの効果を説明するための模式図である。図15(A)、図16(A)及び図17(A)に示すように、入力画像として
(イ)水平方向のエッジが含まれている場合(図15(A))、
(ロ)斜め方向のエッジが含まれている場合(図16(A))、
(ハ)垂直方向のエッジが含まれている場合(図17(A))
を考える。それぞれの場合において、画素の信号を水平方向に左から右へという順に供給されたときの信号(水平方向高周波成分画像生成手段1Ahで処理の対象となる信号(ここでは符号「DINh」で表わす)の強度を図15(B)、図16(B)、及び図17(B)に示し、画素の信号を垂直方向に上から下へという順に供給されたときの信号(垂直方向高周波成分画像生成手段1Avで処理の対象となる信号(ここでは符号「DINv」で表わす))の強度を図15(C)、図16(C)、及び図17(C)に示す。
 それぞれの場合におけるエッジを水平成分及び垂直成分に分解して考えると、(イ)、(ハ)では水平成分及び垂直成分のどちらか一方のみの成分でステップエッジが構成されているのに対し、(ロ)では水平成分と垂直成分の両方でステップエッジが構成されている。
 図15(D)、図16(D)、及び図17(D)は、図15(B)、図16(B)及び図17(B)に示す入力画像(DINh)に対して水平方向に処理された水平方向中間画像D1hの信号強度を表し、図15(E)、図16(E)、及び図17(E)は、図15(C)、図16(C)及び図17(C)に示す入力画像(DINv)に対して垂直方向に処理された垂直方向中間画像D1vの信号強度を表す。
 エッジの近傍の中間画像D1の信号強度の絶対値は、(イ)では水平成分において大きく、垂直成分はゼロ、(ロ)では水平成分、垂直成分ともに大きく、(ハ)では、垂直成分において大きく、水平成分はゼロとなる。
 したがって、画像D1hと画像D1vを単純加算してしまうと、水平方向及び垂直方向のエッジに比べて、斜め方向のエッジに対する補正量が約2倍程度に大きくなってしまう。その結果、エッジの方向によって補正強度が不均一になり、斜め方向のエッジでオーバーシュートが大きくなるなどの問題が生じる。
 そこで、加算手段2Cでは、画像D1hと画像D1vを単純加算とはせず、これらの画像に対して、エッジの方向に応じた重み係数を乗算してから加算する。先に述べたように、加算手段2Cでは、重み係数生成手段401が備えるエッジ方向推定手段511において、画像D1hと画像D1vの絶対値の差分dH-dVを計算している。この差分dH-dVはエッジの方向に対応した量であり、水平方向のエッジの近傍ではdH-dVが正の値で、比較的大きな値となり、斜め方向のエッジの近傍ではdH-dVが0に近い値となり、垂直方向のエッジの近傍ではdH-dVが負の値で、その絶対値が比較的大きな値となる。
 このように、エッジ方向推定手段511において、差分dH-dVからエッジの方向を推定することにより、エッジの方向を検出するための2次元フィルタなどの手段を別途設ける必要がないため、回路規模の増大を防ぐことができる。
 重み係数決定手段512では、この差分dH-dVにしたがって、図5(A)及び(B)に示した関係から、水平方向成分に対する重み係数D512hと、垂直方向成分に対する重み係数D512vを決定する。
 具体的には、dH-dVが大きな値であるほど画像D1hに対する重みをより大きくし、D1vに対する重みをより小さくする。一方、dH-dVが負の値で、その絶対値が大きな値であるほど、画像D1hに対する重みをより大きくし、画像D1vに対する重みをより小さくする。さらに、dH-dVが0に近づくほど、重みが1/2に近づくようにしている。このようにすることで、上記の解像感を高める効果を損なうことなく、かつアーティファクトを目立たせない高画質な補正を実現することができる。即ち、画像D1、D2Bをそのまま加算する場合に比べて、その問題点を解消することができ、かつ画像D1、D2Bを加算することによって得られる、先に述べた効果と同様の効果が得られる。
 なお、重み係数決定手段512における重み係数の決め方は、上記の目的を果たすものであれば図5(A)、(B)に示される関係に限らず、例えば、滑らかな曲線で定義される関係を用いてもよい。また、そのような曲線を折れ線で近似しても良い。一般化すれば、水平方向成分に対する重み係数を差分dH-dVに対して単調増加する特性により決定し、垂直方向成分に対する重み係数を差分dH-dVに対して単調減少する特性により決定し、水平方向成分に対する重み係数と垂直方向成分に対する重み係数の和がつねに一定となる関係を満たすように決定すれば良い。
 さらに、エッジ方向推定手段511は、エッジ方向推定量D511として前述の差分dH-dVを算出するものとしたが、エッジの方向に相関する量であれば、他の種々の関係式のいずれかにより算出される量を用いてもよい。その場合は、重み係数決定手段512も、エッジ方向推定量D511に応じて上記の目的を果たすように変更して実施する。
 以上の説明は、中間画像D1の水平成分D1h、垂直成分D1vを加算する場合について行ったが、中間画像D2Bの水平成分D2Bh、垂直成分D2Bvを加算する場合にも同様のことがいえる。図4に示す例では、中間画像D2Bの水平成分D2Bh、垂直成分D2Bvを加算する場合にも、重み係数生成手段401で決定した重み係数D512h、D512vを用いている。
 加算手段3では画像D2Cが中間画像D2として入力画像DINに加算される。したがって、折り返し成分に起因するオーバーシュートやジャギーあるいはリンギング等の増加を抑えつつ高周波数成分を加算し、画像の解像感を高めることができる。
 さらに、本発明における画像処理装置では、中間画像生成手段1及び中間画像処理手段2において、画像の水平方向に関する処理及び垂直方向に関する処理を並列に行っているので、画像の水平方向のみ、あるいは垂直方向のみに限らず、これらを統合して任意の方向に関して上記の効果を得ることができる。
 また、本発明における画像処理装置では周波数空間で考えて原点からFnに渡る周波数帯域のうち、原画DORGのナイキスト周波数±Fn/2の近傍(あるいは特定の周波数帯域)に入力画像DINが持っている成分をもとに、ナイキスト周波数±Fnの近傍の高周波数成分に対応した画像D2Bを生成している。したがってなんらかの理由で、入力画像DINにおいて、ナイキスト周波数±Fnの近傍の周波数成分が失われていたとしても、画像D2Bにより、ナイキスト周波数±Fnの近傍の周波数成分を与えることが可能になる。
 なお、特定の周波数帯域として用いる箇所は、±Fn/2の近傍に限定されるものではない。即ち高周波数成分画像生成手段1A及び低周波数成分画像生成手段1Bの周波数応答を適宜変更することで、利用する周波数帯域を変更することができる。
 上記の説明ではナイキスト周波数Fnの近傍の周波数成分が失われる例として画像の拡大処理を挙げたが、入力画像DINに対してナイキスト周波数Fnの近傍の周波数成分が失われる原因はそれに限らず、他にもノイズ除去処理等が考えられる。したがって本発明における画像処理装置の用途は画像拡大処理後に限定されるものではない。
実施の形態2.
 実施の形態2による画像処理装置は、加算手段2Cの内部構成のみが実施の形態1と異なり、加算手段2Cにおいて、画像D2Bhと画像D2Bvを統合する際に用いる重み係数を、画像D2Bh及びD2Bvから求めるよう構成したものである。
 図18は本発明の実施の形態2による画像処理装置の加算手段2Cの構成例を示す。図示の加算手段2Cは、概して図4の加算手段2Cと同じであるが、重み出力手段412が付加されており、水平垂直統合手段412における加算が重み出力手段412から出力される重み係数D522h及びD522vを用いて行なわれる点で異なる。
 重み係数生成手段(第1の重み係数生成手段)401は、図4の場合と同様、画像D1h及びD1vから、画像D1hに対する重み係数D512hと、画像D1vに対する重み係数D512vを求める。
 水平垂直統合手段(第1の水平垂直統合手段)411は、重み係数生成手段401で求められた重み係数D512h及びD512vにしたがって画像D1hと画像D1vを重み付け加算し、水平方向成分と垂直方向成分が統合された画像D1hvを得る。
 上記の処理と並行して、重み係数生成手段(第2の重み係数生成手段)402は、画像D2Bh及びD2Bvから、画像D2Bhに対する重み係数D522hと、画像D2Bvに対する重み係数D522vを求める。重み係数D522h及びD522vの求め方は重み係数生成手段401における重み係数D512h及びD512vの求め方と同様に、例えば、図5(A)及び(B)と同様の関係(但し、横軸は画像D2Bhの絶対値dH’と画像D2Bvの絶対値dV’の差(dH’-dV’)を表し、縦軸は重み係数D522h、D522vを表すものとする)を持つように用いて重み係数D522h及びD522vを求めることができる。この場合、dH’-dV’に対するD522h及びD522vの関係を、dH-dVに対するD512h及びD512vの関係と全く同じにしても良く、互いに異なるものとしても良い。
 水平垂直統合手段(第2の水平垂直統合手段)412は、重み係数生成手段402で求められた重み係数D522h及びD522vにしたがって画像D2Bhと画像D2Bvを重み付け加算し、水平方向成分と垂直方向成分が統合された画像D2Bhvを得る。
 中間画像加算手段42は、画像D1hvと画像D2Bhvを加算して画像D2Cを出力する。
 本実施の形態2における加算手段2Cは、図4に示した実施の形態1における加算手段2Cの構成に対して、画像D2Bh及びD2Bvに対する重み係数を求めるための重み係数生成手段402を追加し、水平垂直統合手段412が重み係数生成手段402で求められた重み係数を用いて画像D2Bhと画像D2Bvを重み付け加算する構成としたものである。重み係数生成手段401、水平垂直統合手段411、及び中間画像加算手段42の構成、動作は実施の形態1と同様である。さらに、重み係数生成手段402は、エッジ方向推定手段521及び重み係数決定手段522から成り、これらの動作は重み係数生成手段401のエッジ方向推定手段511、及び重み係数決定手段512の動作と同様である。
 本発明の実施の形態2による画像処理装置は、本発明の実施の形態1における画像処理装置と同様の効果を持つ。さらに、加算手段2Cに重み係数生成手段402を付加したことにより、非線形処理手段2Aによる処理を経た後の画像である画像D2Bhと画像D2Bvを統合するための重み係数をより適切に求めることができ、処理後の画像をより高画質にすることができる。
実施の形態3.
 図19は本発明の実施の形態3による画像処理方法のフローを表す図であり、本発明の実施の形態3による画像処理方法は、中間画像生成ステップST1、中間画像処理ステップST2、及び加算ステップST3を含む。
 中間画像生成ステップST1は、図20に示すように、高周波数成分画像生成ステップST1A、及び低周波数成分画像生成ステップST1Bを含む。
 高周波数成分画像生成ステップST1Aは、水平方向高周波数成分画像生成ステップST1Ah、及び垂直方向高周波数成分画像生成ステップST1Avを含み、低周波数成分画像生成ステップST1Bは、水平方向低周波数成分画像生成ステップST1Bh、及び垂直方向高周波巣成分画像ST1Bvを含む。
 中間画像処理ステップST2は、図21に示すように、非線形処理ステップST2A、高周波数成分画像生成ステップST2B、及び加算ステップST2Cを含む。
 非線形処理ステップST2Aは、水平方向非線形処理ステップST2Ah、及び垂直方向非線形処理ステップST2Avを含み、高周波数成分画像生成ステップST2Bは、水平方向高周波数成分通過ステップST2Bh、及び垂直方向高周波数成分通過ステップST2Bvを含む。
 水平方向非線形処理ステップST2Ahは、図22に示すように、ゼロクロス判定ステップST311h、及び信号増幅ステップST312hを含み、垂直方向非線形処理ステップST2Avは、図23に示すように、ゼロクロス判定ステップST311v、及び信号増幅ステップST312vを含む。
 まず、図20のフローに従って中間画像生成ステップST1の動作について説明する。
 高周波数成分画像生成ステップST1Aでは、図示しない画像入力ステップにて入力された入力画像DINに対し、以下のような処理が行われる。
 まず、水平方向高周波数成分画像生成ステップST1Ahでは、水平方向のハイパスフィルタ処理によって、入力画像DINから水平方向の高周波数成分を取り出した画像D1Ahを生成する。
 垂直方向高周波数成分画像ステップST1Avでは、垂直方向のハイパスフィルタ処理によって、入力画像DINから垂直方向の高周波数成分を取り出した画像D1Avを生成する。
 このように、高周波数成分画像生成ステップST1Aは、入力画像DINから、画像D1Ah及び画像D1Avから成る画像D1Aを生成する。この動作は高周波数成分画像生成手段1Aと同等である。
 低周波数成分画像生成ステップST1Bでは、画像D1Aに対し、以下のような処理が行われる。まず、水平方向低周波数成分画像生成ステップST1Bhでは、水平方向のローパスフィルタ処理によって、画像D1Ahから水平方向の低周波数成分を取り出した画像D1Bhを生成する。
 垂直方向低周波数成分画像生成ステップST1Bvでは、垂直方向のローパスフィルタ処理によって、画像D1Avから垂直方向の低周波数成分を取り出した画像D1Bvを生成する。
 このように、低周波数成分画像生成ステップST1Bは、画像D1Aから、画像D1Bh及び画像D1Bvから成る画像D1Bを生成する。この動作は低周波数成分画像生成手段1Bと同等である。
 以上が中間画像生成ステップST1の動作であり、中間画像生成ステップST1は画像D1Bhを画像D1hとし、画像D1Bvを画像D1vとし、画像D1h及び画像D1vから成る中間画像D1を出力する。以上の動作は中間画像生成手段1と同等である。
 次に図21~24のフローに従って中間画像処理ステップST2の動作について説明する。
 まず、非線形処理ステップST2Aでは中間画像D1に対し、以下のような処理を行う。
 まず、水平方向非線形処理ステップST2Ahでは、図22に示すフローに従った処理で画像D1hから画像D2Ahを生成する。図22に示すフローでの処理は以下の通りである。まず、ゼロクロス判定ステップST311hでは、画像D1hにおける画素値の変化を水平方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、ゼロクロス点の左右に位置する画素を信号増幅ステップST312hに通知する。信号増幅ステップST312hでは画像D1hについて、ゼロクロス点の左右に位置すると通知された画素の画素値を増幅し、その画像を画像D2Ahとして出力する。即ち、非線形処理ステップST2Ahは、画像D1hに対し、水平方向非線形処理手段2Ahと同様の処理を行い、画像D2Ahを生成する。
 次に、垂直方向非線形処理ステップST2Avでは、図23に示すフローに従った処理で画像D1vから画像D2Avを生成する。図23に示すフローでの処理は以下の通りである。まず、ゼロクロス判定ステップST311vでは、画像D1vにおける画素値の変化を垂直方向に沿って確認する。そして画素値が正の値から負の値へ、あるいは負の値から正の値へと変化する箇所をゼロクロス点として捉え、ゼロクロス点の上下に位置する画素を信号増幅ステップST312vに通知する。信号増幅ステップST312vでは画像D1vについて、ゼロクロス点の上下に位置すると通知された画素の画素値を増幅し、その画像を画像D2Avとして出力する。即ち、非線形処理ステップST2Avは、画像D1vに対し、垂直方向非線形処理手段2Avと同様の処理を行い、画像D2Avを生成する。
 以上が非線形処理ステップST2Aの動作であり、非線形処理ステップST2Aは画像D2Ah及び画像D2Avから成る画像D2Aを生成する。その動作は非線形処理手段2Aと同等である。
 次に、高周波数成分画像生成ステップST2Bでは画像D2Aに対し、以下の様な処理を行う。
 まず、水平方向高周波数成分画像生成ステップST2Bhでは、画像D2Ahに対し水平方向のハイパスフィルタ処理を行った画像D2Bhを生成する。即ち、水平方向高周波数成分画像生成ステップST2Bhは、水平方向高周波数成分画像生成手段2Bhと同様の処理を行う。
 次に、垂直方向高周波数成分画像生成ステップST2Bvでは、画像D2Avに対し垂直方向のハイパスフィルタ処理を行った画像D2Bvを生成する。即ち、垂直方向高周波数成分画像生成ステップST2Bvは、垂直方向高周波数成分画像生成手段2Bvと同様の処理を行う。
 以上が高周波数成分画像生成ステップST2Bの動作であり、高周波数成分画像生成ステップST2Bは画像D2Bh及び画像D2Bvから成る画像D2Bを生成する。その動作は高周波数成分画像生成手段2Bと同等である。
 次に、加算ステップST2Cでは、図24に示すフローに従った処理で、画像D1h、画像D1v、画像D2Bh、及び画像D2Bvを加算して画像D2Cを生成する。加算ステップST2Cの処理は以下の通りである。
 まず、重み係数生成ステップST401では、水平方向成分に対する重み係数D512hと垂直方向成分に対する重み係数D512vを求める。重み係数生成ステップST401は、エッジ方向推定ステップST511、及び重み係数決定ステップST512を含み、これらの動作は、重み係数生成手段401のエッジ方向推定手段511、及び重み係数決定手段512の動作と同等である。
 次に、水平垂直統合ステップST411では、重み係数生成ステップST401で求められた重み係数D512h及びD512vを用いて画像D1hと画像D1vを画素ごとに重み付け加算して統合し、画像D1hvを生成する。また、水平垂直統合ステップST412では、同じく重み係数D512h及びD512vを用いて画像D2Bhと画像D2Bvを画素ごとに重み付け加算して統合し、画像D2Bhvを生成する。
 次に、中間画像加算ステップST42では、画像D1hvと画像D2Bhvを加算する。この際、画像D1hvと画像D2Bhvの加算は重み付け加算でもよい。
 以上の加算ステップST2Cの動作は、加算手段2Cの動作と同等である。
 以上が中間画像処理ステップST2の動作であり、中間画像処理ステップST2は画像D2Cを中間画像D2として出力する。この動作は中間画像処理手段2と同等である。
 加算ステップST3は入力画像DINと中間画像D2を加算し、出力画像DOUTを生成する。出力画像DOUTが本発明における画像処理方法の最終出力画像として出力される。即ち、加算ステップST3の動作は加算手段3の動作と同等である。
 以上が本発明の実施の形態3における画像処理方法の動作である。
 本発明の実施の形態3における画像処理方法の動作はその説明から明らかなように、本発明の実施の形態1における画像処理装置と同等である。したがって実施の形態3における画像処理方法は、実施の形態1における画像処理装置と同様の効果を持つ。また、図6に示す画像表示装置において、例えば画像処理装置U2内部で上記の画像処理方法を実施することで、上記の画像処理方法で処理された画像を、図6に示す画像表示装置U3で表示することもできる。
実施の形態4.
 実施の形態4による画像処理方法は、実施の形態3における画像処理方法の加算ステップST2Cにおいて、画像D2Bhと画像D2Bvを統合する際に用いる重み係数を、画像D2Bh及びD2Bvから求めるものである。
 図25は本発明の実施の形態4による画像処理方法の加算ステップST2Cのフローを示す。まず、重み係数生成ステップST401では、画像D1h及び画像D1vから、画像D1hに対する重み係数D512hと、画像D1vに対する重み係数D512vとを求める。重み係数生成ステップST401は、エッジ方向推定ステップST511、及び重み係数決定ステップST512を含み、これらの動作は、重み係数生成手段401のエッジ方向推定手段511、及び重み係数決定手段512の動作と同等である。
 次に、水平垂直統合ステップST411では、重み係数生成ステップST401で求められた重み係数D512h及びD512vを用いて画像D1hと画像D1vを重み付け加算し、水平方向成分と垂直方向成分が統合された画像D1hvを得る。
 また、重み係数生成ステップST402では、画像D2Bh及び画像D2Bvから、画像D2Bhに対する重み係数D522hと、画像D2Bvに対する重み係数D522vとを求める。重み係数生成ステップST402は、エッジ方向推定ステップST521、及び重み係数決定ステップST522を含み、これらの動作は、実施の形態2における重み係数生成手段402のエッジ方向推定手段521、及び重み係数決定手段522の動作と同等である。
 次に、水平垂直統合ステップST412において、重み係数生成ステップST402で求められた重み係数D522h及びD522vにしたがって画像D2Bhと画像D2Bvを重み付け加算し、水平方向成分と垂直方向成分が統合された画像D2Bhvを得る。
 次に、中間画像加算ステップST42において、画像D1hvと画像D2Bhvを加算して画像D2Cを出力する。
 以上の加算ステップST2Cの動作は、実施の形態2における加算手段2Cの動作と同等である。さらに、本発明の実施の形態4における画像処理方法の動作は、本発明の実施の形態2における画像処理装置と同等である。したがって実施の形態4における画像処理方法は、実施の形態2における画像処理装置と同様の効果を持つ。また、図6に示す画像表示装置において、例えば画像処理装置U2内部で上記の画像処理方法を実施することで、上記の画像処理方法で処理された画像を、図6に示す画像表示装置U3で表示することもできる。
 1 中間画像生成手段、 1A 高周波数成分画像生成手段、 1B 低周波数成分画像生成手段、 2 中間画像処理手段、 2A 非線形処理手段、 2B 高周波数成分画像生成手段、 2C 加算手段、 3 加算手段、 401、402 重み係数生成手段、 411 第1の水平垂直統合手段、 412 第2の水平垂直統合手段、 DIN 入力画像、 D1 第1の中間画像、 D1h 第1の水平方向中間画像、 D1v 第1の垂直方向中間画像、 D2 第2の中間画像、 D2Bh 第2の水平方向中間画像、 D2Bv 第1の垂直方向中間画像、 DOUT 出力画像。

Claims (15)

  1.  入力画像の水平方向に関して特定の周波数帯域の成分を取り出した第1の水平方向中間画像と、前記入力画像の垂直方向に関して特定の周波数帯域の成分を取り出した第1の垂直方向中間画像を生成する中間画像生成手段と、
     前記第1の水平方向中間画像及び前記第1の垂直方向中間画像をもとに第2の中間画像を生成する中間画像処理手段と、
     前記入力画像と前記第2の中間画像を加算する第1の加算手段を有し、
     前記中間画像処理手段は、
     前記第1の水平方向中間画像の画素に応じて処理の内容を変化させる水平方向非線形処理手段と、
     前記第1の垂直方向中間画像の画素に応じて処理の内容を変化させる垂直方向非線形処理手段とを含み、
     前記中間画像処理手段は、
     前記第1の水平方向中間画像と、
     前記第1の垂直方向中間画像と、
     前記水平方向非線形処理手段の出力を処理した第2の水平方向中間画像と、
     前記垂直方向非線形処理手段の出力を処理した第2の垂直方向中間画像と
     を加算して、加算結果を前記第2の中間画像として出力する第2の加算手段を有し、
     第2の加算手段は、
     前記第1の水平方向中間画像と前記第1の垂直方向中間画像を重み付け加算して統合する第1の水平垂直統合手段と、
     前記第2の水平方向中間画像と前記第2の垂直方向中間画像を重み付け加算して統合する第2の水平垂直統合手段の少なくとも一方を有することを特徴とする画像処理装置。
  2.  前記第2の加算手段は、
     前記第1の水平方向中間画像と前記第1の垂直方向中間画像をもとに第1の重み係数を求める第1の重み係数生成手段をさらに有し、
     前記第1の水平垂直統合手段及び前記第2の水平垂直統合手段の少なくとも一方は、
     前記第1の重み係数をもとに前記重み付け加算を行うことを特徴とする請求項1に記載の画像処理装置。
  3.  前記第1の重み係数生成手段は、
     前記第1の水平方向中間画像と前記第1の垂直方向中間画像をもとに前記入力画像のエッジの方向に対応するエッジ方向推定量を求める第1のエッジ方向推定手段と、
     前記第1のエッジ方向推定量をもとに前記第1の重み係数を決定する第1の重み係数決定手段とを有する
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記第1のエッジ方向推定手段は、
     前記第1の水平方向中間画像と前記第1の垂直方向中間画像の各画素の絶対値の差分を前記第1のエッジ方向推定量として出力する
     ことを特徴とする請求項3に記載の画像処理装置。
  5.  前記第1の重み係数決定手段は、
     前記第1の水平方向中間画像に対する重み係数を前記第1のエッジ方向推定量に対して単調増加する特性により決定し、
     前記第1の垂直方向中間画像に対する重み係数を前記第1のエッジ方向推定量に対して単調減少する特性により決定し、
     前記第1の水平方向中間画像に対する重み係数と前記第1の垂直方向中間画像に対する重み係数の和はつねに一定となる関係を満たすことを特徴とする請求項4に記載の画像処理装置。
  6.  前記第2の加算手段は、
     前記第2の水平方向中間画像と前記第2の垂直方向中間画像をもとに第2の重み係数を求める第2の重み係数生成手段をさらに有し、
     前記第1の水平垂直統合手段は前記第1の重み係数をもとに前記重み付け加算を行い、
     前記第2の水平垂直統合手段は前記第2の重み係数をもとに前記重み付け加算を行う、
    ことを特徴とする請求項2乃至5のいずれかに記載の画像処理装置。
  7.  前記第2の重み係数生成手段は、
     前記第2の水平方向中間画像と前記第2の垂直方向中間画像をもとに前記入力画像のエッジの方向に対応するエッジ方向推定量を求める第2のエッジ方向推定手段と、
     前記第2のエッジ方向推定量をもとに前記第2の重み係数を決定する第2の重み係数決定手段とを有する
     ことを特徴とする請求項6に記載の画像処理装置。
  8.  前記第2のエッジ方向推定手段は、
     第2の水平方向中間画像と第2の垂直方向中間画像の各画素の絶対値の差分を前記第2のエッジ方向推定量として出力する
     ことを特徴とする請求項7に記載の画像処理装置。
  9.  前記第2の重み係数決定手段は、
     第2の水平方向中間画像に対する重み係数を前記第2のエッジ方向推定量に対して単調増加する特性により決定し、
     第2の垂直方向中間画像に対する重み係数を前記第2のエッジ方向推定量に対して単調減少する特性により決定し、
     前記第2の水平方向中間画像に対する重み係数と前記第2の垂直方向中間画像に対する重み係数の和はつねに一定となる関係を満たす
     ことを特徴とする請求項8に記載の画像処理装置。
  10.  前記中間画像生成手段は、
     前記入力画像の各画素の水平方向の近傍に存在する画素を用いて第1の所定の水平方向周波数以上の高周波数成分を取り出した第1の水平方向高周波数成分画像を生成する第1の水平方向高周波数成分画像生成手段と、
     前記入力画像の各画素の垂直方向の近傍に存在する画素を用いて第1の所定の垂直方向周波数以上の高周波数成分を取り出した第1の垂直方向高周波数成分画像を生成する第1の垂直方向高周波数成分画像生成手段と、
     前記第1の水平方向高周波数成分画像の第2の所定の水平方向周波数以下の低周波数成分のみを取り出して前記第1の水平方向中間画像を生成する水平方向低周波数成分画像生成手段と、
     前記第1の垂直方向高周波数成分画像の第2の所定の垂直方向方向周波数以下の低周波数成分のみを取り出して前記第1の垂直方向中間画像を生成する垂直方向低周波数成分画像生成手段を有する
     ことを特徴とする請求項1乃至9のいずれかに記載の画像処理装置。
  11.  前記水平方向非線形処理手段は、前記第1の水平方向中間画像の各画素値を画素に応じて変化させた増幅率で増幅した水平方向非線形処理画像を生成し、
     前記水平方向非線形処理手段は、前記第1の垂直方向中間画像の各画素値を画素に応じて変化させた増幅率で増幅した垂直方向非線形処理画像を生成し、
     前記中間画像処理手段は、
     前記水平方向非線形処理画像の各画素の水平方向の近傍に存在する画素を用いて第3の所定の水平方向周波数以上の高周波数成分のみを取り出して前記第2の水平方向中間画像を生成する第2の水平方向高周波数成分画像生成手段と、
     前記垂直方向非線形処理画像の各画素の垂直方向の近傍に存在する画素を用いて第3の所定の垂直方向周波数以上の高周波数成分のみを取り出して前記第2の垂直方向中間画像を生成する第2の垂直方向高周波数成分画像生成手段をさらに有する
     ことを特徴とする請求項10に記載の画像処理装置。
  12.  前記水平方向非線形処理手段は、
     前記第1の水平方向中間画像の画素値が正から負へ、もしくは負から正へと変化する箇所をゼロクロス点として判定する水平方向ゼロクロス点判定手段と、
     前記水平方向ゼロクロス点判定手段の判定結果に応じて前記第1の水平方向中間画像の各画素に対する増幅率を決定する水平方向信号増幅手段を有し、
     前記垂直方向非線形処理手段は、
     前記第1の垂直方向中間画像の画素値が正から負へ、もしくは負から正へと変化する箇所をゼロクロス点として判定する垂直方向ゼロクロス点判定手段と
     前記垂直方向ゼロクロス点判定手段の判定結果に応じて前記第1の垂直方向中間画像の各画素に対する増幅率を決定する垂直方向信号増幅手段を有する
     ことを特徴とする請求項11に記載の画像処理装置。
  13.  請求項1乃至12のいずれかに記載の画像処理装置を備えたことを特徴とする画像表示装置。
  14.  入力画像の水平方向に関して特定の周波数帯域の成分を取り出した第1の水平方向中間画像と、前記入力画像の垂直方向に関して特定の周波数帯域の成分を取り出した第1の垂直方向中間画像を生成する中間画像生成ステップと、
     前記第1の水平方向中間画像及び前記第1の垂直方向中間画像をもとに第2の中間画像を生成する中間画像処理ステップと、
     前記入力画像と前記第2の中間画像を加算する第1の加算ステップを有し、
     前記中間画像処理ステップは、
     前記第1の水平方向中間画像の画素に応じて処理の内容を変化させる水平方向非線形処理ステップと、
     前記第1の垂直方向中間画像の画素に応じて処理の内容を変化させる垂直方向非線形処理ステップと
     を含み、
     前記中間画像処理ステップは、
     前記第1の水平方向中間画像と、
     前記第1の垂直方向中間画像と、
     前記水平方向非線形処理ステップの出力を処理した第2の水平方向中間画像と、
     前記垂直方向非線形処理ステップの出力を処理した第2の垂直方向中間画像と
     を加算して、加算結果を前記第2の中間画像として出力する第2の加算ステップを有し、
     第2の加算ステップは、
     前記第1の水平方向中間画像と前記第1の垂直方向中間画像を重み付け加算して統合する第1の水平垂直統合ステップと、
     前記第2の水平方向中間画像と前記第2の垂直方向中間画像を重み付け加算して統合する第2の水平垂直統合ステップの少なくとも一方を有することを特徴とする画像処理方法。
  15.  請求項14に記載の画像処理方法により処理された画像を表示する画像表示装置。
PCT/JP2009/006914 2009-01-22 2009-12-16 画像処理装置及び方法並びに画像表示装置 WO2010084549A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US12/747,837 US8648859B2 (en) 2009-01-22 2009-12-16 Image display apparatus, image processing apparatus and method to output an image with high perceived resolution
EP09838743.4A EP2390837B1 (en) 2009-01-22 2009-12-16 Image processing device and method, and image display device
CN2009801554346A CN102292742B (zh) 2009-01-22 2009-12-16 图像处理装置、方法以及图像显示装置
HK12101310.7A HK1160972A1 (en) 2009-01-22 2012-02-09 Image processing device and method, and image display device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009-011745 2009-01-22
JP2009011745A JP4994400B2 (ja) 2009-01-22 2009-01-22 画像処理装置及び方法並びに画像表示装置

Publications (1)

Publication Number Publication Date
WO2010084549A1 true WO2010084549A1 (ja) 2010-07-29

Family

ID=42355626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/006914 WO2010084549A1 (ja) 2009-01-22 2009-12-16 画像処理装置及び方法並びに画像表示装置

Country Status (6)

Country Link
US (1) US8648859B2 (ja)
EP (1) EP2390837B1 (ja)
JP (1) JP4994400B2 (ja)
CN (1) CN102292742B (ja)
HK (1) HK1160972A1 (ja)
WO (1) WO2010084549A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5668596B2 (ja) * 2011-05-11 2015-02-12 株式会社Jvcケンウッド 輪郭補正装置、輪郭補正方法及び輪郭補正プログラム
JP5701816B2 (ja) * 2012-05-22 2015-04-15 株式会社東芝 画像処理装置、画像処理プログラム及び画像処理方法
US20130114888A1 (en) * 2011-11-08 2013-05-09 Kanako Saito Image processing apparatus, computer program product, and image processing method
JP5984480B2 (ja) * 2012-04-25 2016-09-06 三菱電機株式会社 画像処理装置及び方法、並びに画像表示装置
JP6189172B2 (ja) 2013-10-17 2017-08-30 株式会社東芝 画像処理装置、画像処理方法およびプログラム
JP6469397B2 (ja) * 2014-09-19 2019-02-13 株式会社デンソーテン 画像処理装置、画像処理方法及びプログラム
DE112015005697T5 (de) * 2015-01-20 2017-09-07 Olympus Corporation Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
JP6242431B2 (ja) * 2016-04-28 2017-12-06 三菱電機株式会社 画像処理装置及び方法、並びに画像表示装置
JP7208723B2 (ja) * 2018-07-09 2023-01-19 キヤノン株式会社 画像処理装置およびその制御方法、放射線撮影システム、プログラム

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0492576A (ja) * 1990-08-06 1992-03-25 Samsung Electron Co Ltd 重畳を解除された映像信号からの重畳搬送波と側波帯の除去状態を改善する装置
JPH07177386A (ja) * 1993-12-21 1995-07-14 Matsushita Electric Ind Co Ltd 画像輪郭強調装置
JPH08111792A (ja) * 1994-10-13 1996-04-30 Matsushita Electric Ind Co Ltd 画像輪郭強調器
JPH08204995A (ja) * 1995-01-20 1996-08-09 Matsushita Electric Ind Co Ltd 輪郭補正回路
JPH0944651A (ja) 1995-07-27 1997-02-14 Fuji Photo Film Co Ltd 画像処理方法および装置
JPH0946576A (ja) * 1995-07-28 1997-02-14 Sony Corp ディジタル信号処理カメラ
JPH1175205A (ja) * 1997-08-29 1999-03-16 Matsushita Electric Ind Co Ltd 固体撮像装置
JP2002325186A (ja) * 2001-04-25 2002-11-08 Matsushita Electric Ind Co Ltd 撮像装置
WO2004057534A1 (ja) * 2002-12-20 2004-07-08 Mitsubishi Denki Kabushiki Kaisha 画像処理装置、画像表示装置、画像処理方法、及び画像表示方法
JP2005142832A (ja) * 2003-11-06 2005-06-02 Canon Inc 輪郭補正回路及び撮像装置
JP2006340006A (ja) * 2005-06-01 2006-12-14 Sony Corp 撮像装置と映像信号処理装置と映像信号処理方法およびプログラム
JP2007110303A (ja) * 2005-10-12 2007-04-26 Matsushita Electric Ind Co Ltd 輪郭補正装置
JP2008125112A (ja) * 2005-10-12 2008-05-29 Matsushita Electric Ind Co Ltd 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP2008176447A (ja) * 2007-01-17 2008-07-31 Sony Corp 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP2008252767A (ja) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd ノイズ低減装置、ノイズ低減方法、及び電子機器

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6005983A (en) * 1993-09-08 1999-12-21 California Institutue Of Technology Image enhancement by non-linear extrapolation in frequency space
US5717789A (en) * 1993-09-08 1998-02-10 California Institute Of Technology Image enhancement by non-linear extrapolation in frequency space
US6724398B2 (en) * 2000-06-20 2004-04-20 Mitsubishi Denki Kabushiki Kaisha Image processing method and apparatus, and image display method and apparatus, with variable interpolation spacing
WO2002054778A1 (en) 2001-01-04 2002-07-11 Northshore Laboratories, Inc. Apparatus for synthetically extending the bandwidth of a spatially-sampled video image
EP2323100A3 (en) * 2005-10-12 2012-03-21 Panasonic Corporation Visual processing apparatus, display apparatus, visual processing method, program and integrated circuit

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0492576A (ja) * 1990-08-06 1992-03-25 Samsung Electron Co Ltd 重畳を解除された映像信号からの重畳搬送波と側波帯の除去状態を改善する装置
JPH07177386A (ja) * 1993-12-21 1995-07-14 Matsushita Electric Ind Co Ltd 画像輪郭強調装置
JPH08111792A (ja) * 1994-10-13 1996-04-30 Matsushita Electric Ind Co Ltd 画像輪郭強調器
JPH08204995A (ja) * 1995-01-20 1996-08-09 Matsushita Electric Ind Co Ltd 輪郭補正回路
JPH0944651A (ja) 1995-07-27 1997-02-14 Fuji Photo Film Co Ltd 画像処理方法および装置
JPH0946576A (ja) * 1995-07-28 1997-02-14 Sony Corp ディジタル信号処理カメラ
JPH1175205A (ja) * 1997-08-29 1999-03-16 Matsushita Electric Ind Co Ltd 固体撮像装置
JP2002325186A (ja) * 2001-04-25 2002-11-08 Matsushita Electric Ind Co Ltd 撮像装置
WO2004057534A1 (ja) * 2002-12-20 2004-07-08 Mitsubishi Denki Kabushiki Kaisha 画像処理装置、画像表示装置、画像処理方法、及び画像表示方法
JP2005142832A (ja) * 2003-11-06 2005-06-02 Canon Inc 輪郭補正回路及び撮像装置
JP2006340006A (ja) * 2005-06-01 2006-12-14 Sony Corp 撮像装置と映像信号処理装置と映像信号処理方法およびプログラム
JP2007110303A (ja) * 2005-10-12 2007-04-26 Matsushita Electric Ind Co Ltd 輪郭補正装置
JP2008125112A (ja) * 2005-10-12 2008-05-29 Matsushita Electric Ind Co Ltd 視覚処理装置、表示装置、視覚処理方法、プログラムおよび集積回路
JP2008176447A (ja) * 2007-01-17 2008-07-31 Sony Corp 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
JP2008252767A (ja) * 2007-03-30 2008-10-16 Sanyo Electric Co Ltd ノイズ低減装置、ノイズ低減方法、及び電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ATSUSHI SHIMURA ET AL.: "epsilon-Filter o Mochiita Edge Koka no Shojinai Koshuhasu Seibun Suitei o Tomonau Digital Gazo Kakudaiho no Teian", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J86-A, no. 5, 1 May 2003 (2003-05-01), pages 540 - 551, XP008147380 *

Also Published As

Publication number Publication date
EP2390837A4 (en) 2013-10-16
EP2390837A1 (en) 2011-11-30
US20110050701A1 (en) 2011-03-03
JP4994400B2 (ja) 2012-08-08
HK1160972A1 (en) 2012-08-17
CN102292742B (zh) 2013-12-11
CN102292742A (zh) 2011-12-21
US8648859B2 (en) 2014-02-11
EP2390837B1 (en) 2014-07-30
JP2010170302A (ja) 2010-08-05

Similar Documents

Publication Publication Date Title
JP4994400B2 (ja) 画像処理装置及び方法並びに画像表示装置
WO2010013401A1 (ja) 画像処理装置及び方法、並びに画像表示装置
WO2010073496A1 (ja) 画像処理装置及び方法並びに画像表示装置
JP5300656B2 (ja) 画像処理装置及び方法、並びに画像表示装置
JP5247628B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP5247633B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP4610642B2 (ja) 画像処理装置及び方法、並びに画像表示装置
JP4994409B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP5349204B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP4994353B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP5471175B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP5247632B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP5247627B2 (ja) 画像処理装置及び方法、並びに画像表示装置
JP4994354B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP4912418B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP5225144B2 (ja) 画像処理装置及び方法、並びに画像表示装置
JP4958876B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP5383385B2 (ja) 画像処理装置及び方法、並びに画像表示装置及び方法
JP4483407B2 (ja) 映像信号処理装置
JP6242431B2 (ja) 画像処理装置及び方法、並びに画像表示装置
JP4994407B2 (ja) 画像処理装置及び方法並びに画像表示装置
JP5984480B2 (ja) 画像処理装置及び方法、並びに画像表示装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980155434.6

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 12747837

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09838743

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009838743

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE