WO2009130820A1 - 画像処理装置、表示装置、画像処理方法、プログラムおよび記録媒体 - Google Patents

画像処理装置、表示装置、画像処理方法、プログラムおよび記録媒体 Download PDF

Info

Publication number
WO2009130820A1
WO2009130820A1 PCT/JP2008/072403 JP2008072403W WO2009130820A1 WO 2009130820 A1 WO2009130820 A1 WO 2009130820A1 JP 2008072403 W JP2008072403 W JP 2008072403W WO 2009130820 A1 WO2009130820 A1 WO 2009130820A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
interpolation
edge
pixel
difference
Prior art date
Application number
PCT/JP2008/072403
Other languages
English (en)
French (fr)
Inventor
誠 塩見
保 酒井
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US12/863,212 priority Critical patent/US8358307B2/en
Priority to CN200880125297.7A priority patent/CN101952854B/zh
Publication of WO2009130820A1 publication Critical patent/WO2009130820A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0142Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being edge adaptive

Definitions

  • the present invention relates to an image processing apparatus and an image processing method for upscaling the resolution of input image data to a high resolution.
  • a method of interpolating target pixel information by a simple filter such as a bilinear method, a bicubic method, or a LANCZOS method.
  • these methods only fill in the spaces between the pixels in the input image data according to a certain rule, and essentially only an image equivalent to the sharpness of the original image can be obtained.
  • Patent Document 1 since the technique of Patent Document 1 performs interpolation so as to maintain continuity of gradations in all directions, there is a problem that appropriate interpolation cannot be performed at the edge portion. For this reason, it cannot be said that the technique of the said patent document 1 is optimal for the scene which requires a higher definition image.
  • transmission standards for transmitting a high-resolution video signal standards such as DVI and HD-SDI are known.
  • 2K1K class horizontal 2000 pixels ⁇ vertical 1000
  • 4K2K class horizontal direction 4000 pixels ⁇ vertical direction 2000 pixels
  • the upscaled 4K2K class video signal Since it cannot be transmitted by one transmission line, it is necessary to divide into video signals for each of a plurality of areas so as to transmit using a plurality of transmission lines.
  • 4K2K is a term used in the expansion of digital cinema and high-definition, and a resolution of 4096 dots ⁇ 2160 lines in cinema and 3840 dots ⁇ 2160 lines in high-vision is used.
  • 2K1K is a term used correspondingly, and generally has a resolution of 2048 ⁇ 1080 and 1920 ⁇ 1080. Since these two transmission standards are defined identically, they are generally expressed as 4K2K and 2K1K.
  • the present invention has been made in view of the above problems, and an object thereof is to divide input image data into image data of a plurality of regions, and to perform image processing for converting the resolution of each divided image data to a high resolution.
  • An object of the present invention is to provide an image processing apparatus capable of generating a high-definition image without increasing the circuit scale and processing time.
  • an image processing apparatus configured to divide input image data into a plurality of divided image data, and to upscale the resolution of each of the divided image data to a high resolution.
  • An image processing apparatus including a plurality of upscale processing units, wherein the division processing unit superimposes a part of the other divided image data on a boundary portion between the divided image data and the other divided image data.
  • Each of the divided image data so as to be included, and each of the upscale processing units is configured to extract the edge of the image by extracting an edge in the image by a calculation using a differential or difference of a gradation value near the pixel of interest.
  • a difference calculation unit that performs a difference calculation process for calculating a gradation value of the pixel, and an averaging process for performing an averaging process for calculating a value obtained by averaging the gradation values near the target pixel as the gradation value of the target pixel
  • a correlation value indicating a correlation between the difference image data obtained by performing the difference calculation process on the divided image data and the averaged image data obtained by performing the difference calculation process and the averaging process on the divided image data.
  • each divided image data only needs to include a gradation value near each target pixel to be referred to in the difference calculation process, it is not necessary to track the entire image as in the conventional edge detection method.
  • Image data to be used can be reduced, the circuit scale can be reduced, and the processing time can be shortened.
  • Each of the upscaling processing units includes an edge identification unit that identifies the edge portion included in the divided image data and a portion other than the edge portion by comparing the correlation value for each pixel with a preset threshold value.
  • the interpolation processing unit may be configured to perform interpolation processing on the edge portion by an interpolation method in which the edge is more prominent than the edge portion.
  • Interpolation processing is performed using gradation values of a predetermined number of pixels or less selected in order of the distance from the straight line parallel to the straight line, and for interpolation pixels other than the edge portion, the level of each pixel adjacent to the interpolation pixel is calculated. Key It may be configured to perform interpolation processing using.
  • the ratio between the gradation value of the target pixel after the horizontal difference calculation process and the gradation value of the target pixel after the vertical difference calculation process is determined by the inclination angle of the edge.
  • the edge direction can be detected.
  • the pixels of the predetermined number or less selected from the pixels adjacent to the interpolated pixel in the order of the distance from the straight line passing through the interpolated pixel and parallel to the inclination direction of the edge are interpolation processing.
  • interpolation processing is performed using gradation values
  • interpolation processing is performed using the gradation values of each pixel adjacent to the interpolation pixel, thereby sharpening the edges for the edge portion. This makes it possible to perform interpolation with an emphasis on continuity of gradation except for the edge portion, and a more detailed upscale image can be generated.
  • the edges can be clearly expressed and the influence of noise can be appropriately reduced.
  • the difference calculation unit may be configured to perform the difference calculation process on a 5 pixel ⁇ 5 pixel block centered on the pixel of interest.
  • an edge can be accurately detected by the correlation value calculated without referring to the divided image data for the other upscale circuits in each upscale circuit. Therefore, the circuit scale can be reduced by reducing the size of image data used for edge detection in each upscale circuit.
  • the division processing unit may be configured to superimpose image data of 2 lines or more and 5 lines or less in the other divided image data on a boundary portion with the other divided image data in each divided image data.
  • the display device of the present invention includes any one of the above-described image processing devices and a display unit that displays an image upscaled by the image processing device.
  • a high-definition image can be generated and displayed without increasing the circuit scale and processing time.
  • the image processing method of the present invention uses a plurality of upscaling units to perform a division processing step for dividing input image data into a plurality of divided image data and a process for upscaling the resolution of each of the divided image data to a high resolution.
  • Difference calculation processing for generating data and calculating the tone value of the pixel of interest for extracting an edge in the image by calculation using the differentiation or difference of the tone value near the pixel of interest
  • a difference calculating step an averaging process step of performing an averaging process for calculating a gradation value of the pixel of interest as a gradation value of the pixel of interest, and the divided image
  • a correlation calculation step for calculating a correlation value indicating a correlation between the difference image data obtained by performing the difference calculation process on the data and the averaged image data obtained by performing the difference calculation process and the averaging process on the divided image data;
  • an interpolation processing step of performing interpolation processing on the divided image data by an interpolation method according to the correlation value.
  • the correlation value calculated in this way it is possible to appropriately identify whether the vicinity of the target pixel is an edge portion or a portion other than the edge portion. In other words, noise other than the edge and thin lines other than the edge are erased by the averaging process except for the edge part, so the above correlation value is small. Therefore, the correlation value becomes large. For this reason, it is possible to appropriately identify whether the vicinity of the target pixel is an edge portion or a portion other than the edge portion based on the correlation value.
  • the divided image data is upscaled by performing an interpolation process on the divided image data by an interpolation method according to the correlation value.
  • different interpolation processing can be performed on the edge portion and the portion other than the edge portion, so that a high-definition image can be generated.
  • each divided image data only needs to include a gradation value near each target pixel to be referred to in the difference calculation process, it is not necessary to track the entire image as in the conventional edge detection method.
  • Image data to be used can be reduced, the circuit scale can be reduced, and the processing time can be shortened.
  • the image processing apparatus may be realized by a computer.
  • Possible recording media are also included in the scope of the present invention.
  • FIG. 2 is a block diagram showing a schematic configuration of the display device 1 according to the present embodiment.
  • the display device 1 includes an image processing device 10 and a liquid crystal panel (display unit) 2.
  • the image processing apparatus 10 includes a dividing circuit 11, upscale circuits 12a to 12d, and a liquid crystal driving circuit (display control unit) 13.
  • the dividing circuit 11 divides the image data input to the image processing apparatus 10 into a predetermined number of areas of image data, and outputs the divided image data to the upscale circuits 12a to 12d, respectively.
  • 2K1K class high-definition data is input and divided into upper left, upper right, lower left, and lower right image data.
  • the number of image divisions and the arrangement positions of the divided regions are not limited to this.
  • the divided areas may be divided so that they are arranged in the horizontal direction, or the divided areas may be divided so that they are arranged in the vertical direction. Which division method is adopted may be selected in view of characteristics of each division method, circuit technology at the time of implementation, liquid crystal panel technology, and the like.
  • each area becomes 2K1K image data, so that the drive used in the conventional 2K1K class display device is used.
  • the system can be applied as it is, and the same signal processing circuit (signal processing LSI) as that used in the 2K1K class can be used, so that there is an advantage that manufacturing cost and development cost can be reduced.
  • each divided area is not divided into 960 pixels ⁇ 540 pixels, but (960 + ⁇ ) pixels ⁇ (540 + ⁇ ) pixels.
  • a part of the adjacent divided regions overlap each other. Details of the image dividing method will be described later.
  • the liquid crystal driving circuit 13 controls the liquid crystal panel 2 based on the image data after upscaling input from the upscaling circuits 12a to 12d, and displays the upscaled image on the liquid crystal panel 2.
  • the liquid crystal driving circuit 13 is described as one block. However, the configuration is not limited thereto, and the liquid crystal driving circuit 13 may be configured by a plurality of blocks.
  • liquid crystal drive circuits 13a to 13d may be provided corresponding to the upscale circuits 12a to 12d, and the respective divided regions in the liquid crystal panel 2 may be driven by these liquid crystal drive circuits.
  • the drive timings of the respective regions can be easily matched so that there is an advantage of good controllability, while the number of input / output pins increases.
  • the size (IC size) becomes large.
  • the chip size can be reduced (in particular, in the case of the present embodiment, each divided area is a 2K1K class, so that the conventional 2K1K class display device is provided.
  • the input image data to the image processing apparatus 10 is 1920 ⁇ 1080 and the display size of the liquid crystal panel 2 is 4096 ⁇ 2160
  • the input image data is upscaled (enlarged) twice vertically and horizontally to 3840 ⁇ 2160. become.
  • the size in the horizontal direction (3840 dots) is smaller than the display size (4096 dots)
  • it is necessary to display the image of the left half divided area by shifting to the right by 2048 ⁇ 1920 128 dots. .
  • the correction process for shifting the left half image to the right may be performed in any part of the image processing apparatus 10, but the divided circuit data is corrected by the dividing circuit 11 so that the video of all the divided image data is 2048 ⁇ 1080.
  • this correction is performed by the liquid crystal drive circuit 13 a general-purpose 4K2K liquid crystal display module capable of supporting many video formats can be realized. It should be noted that correction is preferably performed later in an application where a relatively high priority is not given to projecting 2K video.
  • a liquid crystal panel is used as the display unit.
  • the present invention is not limited to this.
  • a display unit including a plasma display, an organic EL display, or a CRT may be used.
  • a display control unit corresponding to the display unit may be provided.
  • FIG. 3 is an explanatory diagram schematically showing processing in the display device 1 according to the present embodiment.
  • the dividing circuit 11 converts the input image data into four (1K + ⁇ ) ⁇ (0.5K + ⁇ ) divided image data. To divide.
  • the broken line portion ( ⁇ portion) shown in FIG. 3 is an overlap portion with other adjacent divided image data.
  • the upscale circuits 12a to 12d perform interpolation processing (upscale processing) on each divided image data divided as described above, and generate 2K1K post-interpolation image data (upscaled image data).
  • the upscale circuits 12a to 12d perform the above interpolation processing in parallel.
  • the liquid crystal drive circuit 13 generates divided video signals corresponding to the respective post-interpolation image data subjected to the interpolation processing by the upscale circuits 12a to 12d, and the images corresponding to the respective divided video signals are divided into the respective divisions of the liquid crystal panel 2. Display in the area.
  • FIG. 4 is a block diagram showing a schematic configuration of the upscale circuits 12a to 12d.
  • each of the upscale circuits 12a to 12d includes an edge detection circuit 21 and an interpolation circuit 22.
  • the edge detection circuit 21 detects the position and direction of the edge in the divided image data.
  • the interpolation circuit 22 performs an interpolation process using different interpolation methods for the edge portion and the portion other than the edge portion. Specifically, for the edge portion, interpolation is performed using the average value of the pixel values of pixels adjacent in the edge direction, and for other than the edge portion, interpolation is performed using the weighted average value of the pixel values of pixels adjacent to all directions. To do.
  • FIG. 1 is a block diagram showing a schematic configuration of the edge detection circuit 21. As shown in the figure, a difference circuit 31, a filter rotation circuit 32, a direction setting circuit 33, an averaging circuit 34, a correlation calculation circuit 35, and an edge identification circuit 36 are provided.
  • a differential filter in which a filter coefficient is set for each dot of 3 dots ⁇ 3 dots for a 5 dot ⁇ 5 dot block centered on the target pixel in the input image data. Applying this, a difference calculation result of 3 dots ⁇ 3 dots centered on the target pixel is obtained.
  • the pixel value of each dot in the input image data is dij (i and j are integers of 1 to 3)
  • the difference filter is aij
  • the pixel value of each dot in the difference calculation result is bkl (k , L is an integer from 1 to 3)
  • the difference filter aij is a 1: 2: 1 filter shown below,
  • the difference filter aij is not limited to this, and any filter can be used as long as it can extract an edge in an image by calculation using a differentiation or difference of gradation values near the target pixel.
  • the following 3: 2: 3, 1: 1: 1, or 1: 6: 1 filter may be used.
  • Etc. may be used.
  • the difference filter is expressed as a: b: a as described above, the greater the weight of b, the more accurately the vicinity of the pixel of interest can be evaluated, but the weaker against noise.
  • the smaller the weight of b the easier it is to miss a small change, although the state around the pixel of interest can be comprehensively captured.
  • the filter coefficient of the difference filter may be appropriately selected according to the target image characteristics. For example, in a content such as a photograph that is essentially dense and less blurry, it is easier to grasp the feature when the weight of b is larger.
  • a 3 dot ⁇ 3 dot filter is used as the difference filter.
  • the present invention is not limited to this.
  • a 5 dot ⁇ 5 dot or 7 dot ⁇ 7 dot difference filter may be used.
  • the filter rotation circuit 32 performs a rotation process on the difference filter used in the difference circuit 31.
  • the direction setting circuit 33 controls the rotation of the difference filter by the filter rotation circuit 32 and outputs a signal indicating the application state of the difference filter to the edge identification circuit 36.
  • the difference calculation is performed on the input image data using the difference filter aij to perform horizontal edge detection processing, and then the filter obtained by rotating the difference filter aij by 90 degrees is used.
  • the vertical edge is detected by performing the difference calculation again on the input image data.
  • the edge detection processing in the horizontal direction and the vertical direction may be performed in parallel.
  • the difference circuit 31, the filter rotation circuit 32, the direction setting circuit 33, the averaging circuit 34, the correlation calculation circuit 35, Two sets of edge identification circuits 36 may be provided.
  • FIG. 6 shows an image of sharp edges in the vertical direction (image A), an image of thin lines extending in the vertical direction (image B), an image of messy lines (image C), and 1 for each of these images.
  • FIG. 6 is an explanatory diagram showing a result of performing a difference calculation in the horizontal direction and the vertical direction using a difference filter of 2: 1: 1;
  • edge detection process may be performed, and the processing result may be databased as an exception process when an erroneous detection occurs in edge detection using 3 dot ⁇ 3 dot difference image data.
  • edge detection with higher accuracy can be performed. For example, even an edge that is buried in a texture with high periodicity can be detected appropriately.
  • the ratio of the average value for the 3 dot ⁇ 3 dot block centered on the target pixel to the median value is 0.67 for image D and 0 for image E.
  • the numerical value increases as there is a clear edge (or an image close to the edge).
  • the ratio of the average value to the median value for the 3 dot ⁇ 3 dot block is 0.06, and it is difficult to be recognized as an edge.
  • FIG. 8 shows an image with an edge with an inclination 1/2 (image G), an image with an edge with inclination 1 (image H), an image with an edge with inclination 2 (image I), and 1: 2 for each of these images: It is explanatory drawing which shows the result of having performed the difference calculation of the horizontal direction and the vertical direction using 1 difference filter. Since each image in FIG. 8 is an edge portion image, the ratio of the average value to the median value of the 3 dot ⁇ 3 dot block centered on the target pixel in the difference calculation result in the horizontal direction and the vertical direction is increased. Yes.
  • the ratio of the median value of the difference calculation results in the horizontal direction and the median value of the difference calculation results in the vertical direction in these images is 2/4 for the image G, 3/3 for the image H, and 4/2 for the image I. And coincides with the inclination of the edge in each image.
  • the median value the value of the pixel of interest
  • the slope of the edge is calculated on the basis of the ratio. As for the edge in the horizontal direction or the vertical direction, since either the median value in the difference calculation result in the horizontal direction or the median value in the difference calculation result in the horizontal direction is 0, the edge direction can be easily determined.
  • the averaging circuit 34 calculates b13, b23, b31, b32, and b33 by sequentially shifting a 3 dot ⁇ 3 dot block in the difference image data by one dot at a time. That is, averaged image data is calculated for a total of nine pixels including the target pixel and the surrounding eight pixels. Then, the averaged image data of these nine pixels is output to the correlation calculation circuit 35.
  • FIG. 10 is an explanatory diagram showing the concept of edge identification processing by the edge identification circuit 36. As shown in FIG. 10, when the edge portion and the noise are mixed in the input image data, the edge portion and the influence of the noise are reflected in the difference image data. Therefore, the edge detection is performed using only the difference image data. Will be affected by this noise.
  • the edge portion remains as it is even after the averaging process, so that the correlation value R increases in the edge portion, and conversely in the other portions than the edge portion.
  • the value R becomes smaller.
  • the correlation value R has a value of 1 or a value close to 1 at the edge portion, and becomes a value abruptly smaller than the correlation value of the edge portion except for the edge portion. Therefore, the edge portion can be detected with very high accuracy by checking in advance the range in which the correlation value changes abruptly through experiments or the like and setting the threshold Th within this range.
  • the edge identification circuit 36 detects the edge direction (edge extension direction) using the result of the difference calculation process in the horizontal direction and the result of the difference calculation process in the vertical direction, and the detection result is interpolated by the interpolation circuit. 22 for output.
  • the value of the ratio a may vary due to the influence of noise included in the input image data. For this reason, it is not always necessary to strictly calculate the angle ⁇ for the edge direction, and any one of the five patterns shown in FIG. 11 or any of nine patterns including an intermediate inclination of these five patterns. It only needs to be categorized. Therefore, in order to simplify the edge direction detection process and reduce the circuit scale required for edge direction detection, the value of the ratio a does not necessarily have to be directly calculated. It may be determined which one of the five patterns shown in FIG.
  • a 5 dot ⁇ 5 dot filter may be used to detect the inclination in the edge direction.
  • the value (luminance) of each pixel (reference point: ⁇ in the figure) in the input image data is left as it is, and the space between these pixels is left as it is.
  • This is a method of interpolating pixels ( ⁇ mark in the figure).
  • the present invention is not limited to this, and the second method can also be used.
  • pixels B, E, F, and I are selected as peripheral pixels
  • pixels D, E, H, and I are selected as peripheral pixels.
  • the pixels adjacent in the edge direction are selected as peripheral pixels.
  • a texture-oriented interpolation method in which the edge is not conspicuous is applied.
  • Texture emphasis here refers to processing that is relatively resistant to noise, with emphasis on tone and hue maintenance and continuity of tone change.
  • various conventionally known methods such as a bilinear method, a bicubic method, and a lanczos filter method (LANCZOS method) can be used.
  • LANCZOS method when the upscale enlargement factor is constant (in this embodiment, the enlargement factor is double), the LANCZOS method is known as an excellent and simple filter and is suitable.
  • the target pixel is an edge portion based on difference image data and averaged image data calculated based on 5 dot ⁇ 5 dot image data centered on the target pixel in the input image data.
  • Judge whether or not. Therefore, when the input image data is divided into a plurality of regions, each of the divided image data obtained by simply dividing the input image data into four is divided into two boundary portions included in the image data of the divided regions adjacent to the divided image data.
  • the edge portion in each divided image data is It can be detected with high accuracy.
  • the number of pixels in the horizontal direction of the input image data is nx and the number of pixels in the vertical direction is ny
  • the number of pixels in each divided area is set to nx / 2 + 2 in the horizontal direction and ny + 2 in the vertical direction.
  • Edge detection and upscaling can be performed with high accuracy without considering the interaction with the region.
  • the circuit scale can be reduced and the processing time can be shortened. That is, since it is not necessary to track the edge of the entire image as in the prior art, it is not necessary to pass the information of the entire image to each divided upscale circuit for edge determination. Therefore, edge detection can be performed with high accuracy in each upscale circuit without considering the interaction with other divided regions.
  • the edge detection process for each divided image data is performed in parallel. As a result, the time required for edge detection for the entire image can be further shortened.
  • difference image data (3 dot ⁇ 3 dot difference image data) and averaged image data calculated based on image data of 5 dots ⁇ 5 dots centered on the target pixel in the input image data.
  • the size of the block referred to at the time of edge detection is not limited to this.
  • the size of the block to be referenced is 5 dots ⁇ 5 dots
  • the size of the difference image data and the average image data is 3 dots ⁇ 3 dots, and is added to each divided image data in consideration of symmetry with respect to the pixel of interest (
  • edge detection is performed using 3 dot ⁇ 3 dot difference image data and an average value of 9 dots in the averaged image data.
  • the present invention is not limited to this.
  • the edge detection may be performed using the average value of the surrounding 8 dots excluding the target pixel in the difference image data of 3 dots ⁇ 3 dots and the averaged image data. Even in this case, it is possible to obtain edge detection accuracy substantially equivalent to the case where the average value of 9 dots is used only by changing the parameter accordingly.
  • the averaging process is performed on the difference image data calculated by the difference calculation, but the present invention is not limited to this.
  • the averaged image data may be calculated by performing an averaging process on the input image data and performing a difference operation on the image data subjected to the averaging process. Good.
  • substantially the same effect as when the averaging process is performed on the difference image data calculated by the difference calculation can be obtained.
  • the configuration in which only one difference circuit 33 is provided in each of the upscale circuits 12a to 12d has been described.
  • the present invention is not limited to this.
  • a difference circuit that generates difference image data to be output to the averaging circuit 34 (or a difference circuit that performs a difference operation on the averaged image data output from the averaging circuit 34) may be provided separately.
  • each interpolation pixel is discriminated into two types, that is, an edge portion or other than an edge portion, and interpolation is performed by an interpolation method according to the discrimination result. There is no need to distinguish clearly.
  • an edge parameter obtained by dividing a value that can be taken by the correlation value R into a plurality of values is generated, and an interpolation value calculated by an interpolation method for an edge portion and an interpolation value calculated by an interpolation method for a portion other than the edge portion are set according to the edge parameter.
  • the weighted and added value may be calculated as the pixel value of the interpolated pixel.
  • the interpolation value calculated by the interpolation method for the edge portion and the interpolation value calculated by the interpolation method for other than the edge portion may be synthesized at a ratio according to the degree of edgeness.
  • the possible values (0 to 1) of the correlation value R are divided into 16, and an edge parameter (correction coefficient) ⁇ is set for each division range, and an edge identification circuit (correction coefficient) (Calculation unit) 36 or another circuit (correction coefficient calculation unit) specifies the edge parameter ⁇ corresponding to the correlation value R calculated based on the divided image data.
  • the divided range including the maximum value has a ratio between the value of the target pixel of the difference calculation result and the average value of 3 dots ⁇ 3 dots in the clear edge portion as shown in FIGS. Since it was 0.67, for example, it may be set to about 0.7 to 1, and the edge parameter ⁇ corresponding to this division range may be set to 1. Further, the number of divisions for dividing the possible values of the correlation value R is not limited to 16, and may be about 8 divisions, for example.
  • each circuit (each block) constituting the image processing apparatus 10 may be realized by software using a processor such as a CPU. That is, the image processing apparatus 10 includes a CPU (central processing unit) that executes instructions of a control program that realizes each function, a ROM (read only memory) that stores the program, and a RAM (random access memory) that expands the program.
  • a configuration may be adopted in which a storage device (recording medium) such as a memory for storing the program and various data is provided.
  • an object of the present invention is a recording medium in which a program code (execution format program, intermediate code program, source program) of a control program of the image processing apparatus 10 which is software for realizing the functions described above is recorded so as to be readable by a computer. Is supplied to the image processing apparatus 10, and the computer (or CPU or MPU) reads and executes the program code recorded on the recording medium.
  • a program code execution format program, intermediate code program, source program
  • the image processing apparatus 10 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • the communication network is not particularly limited.
  • the Internet intranet, extranet, LAN, ISDN, VAN, CATV communication network, virtual private network, telephone line network, mobile communication network, satellite communication. A net or the like is available.
  • the transmission medium constituting the communication network is not particularly limited.
  • wired such as IEEE 1394, USB, power line carrier, cable TV line, telephone line, ADSL line, etc.
  • infrared rays such as IrDA and remote control, Bluetooth (Registered trademark), 802.11 wireless, HDR, mobile phone network, satellite line, terrestrial digital network, and the like can also be used.
  • the present invention can also be realized in the form of a computer data signal embedded in a carrier wave in which the program code is embodied by electronic transmission.
  • the present invention can be applied to an image processing apparatus and an image processing method that upscale the resolution of input image data to a high resolution.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

 分割された画像データをそれぞれ入力される各アップスケール回路(12a~12d)に、注目画素近傍の階調値の微分または差分を用いて画像中のエッジを抽出するように上記注目画素の階調値を算出する差分回路(31)と、注目画素近傍の階調値を平均化するように上記注目画素の階調値を算出する平均化回路(34)と、分割画像データに差分演算処理を施した差分画像データと分割画像データに差分演算処理および平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算回路(35)とを設ける。そして、算出した相関値に応じた補間方法で分割画像データに補間処理を施す。これにより、入力画像データを複数の領域の画像データに分割し、分割した各画像データの解像度を高解像度に変換する画像処理装置において、回路規模および処理時間を増大させることなく高精細な画像を生成できる。

Description

画像処理装置、表示装置、画像処理方法、プログラムおよび記録媒体
 本発明は、入力される画像データの解像度を高解像度にアップスケールする画像処理装置および画像処理方法に関するものである。
 従来から、入力される画像データの解像度を高解像度にアップスケールするアップスケール技術に関しては、比較的多くの研究がなされている。
 最も単純な手法としては、例えば、バイリニア法、バイキュービック法、LANCZOS法などの単純なフィルタによって対象となる画素情報を補間する手法がある。しかしながら、これらの手法は一定のルールに従って入力画像データにおける画素間を穴埋めしているにすぎず、本質的に元の画像の先鋭度と同等の画像しか得られない。
 一方、例えば特許文献1には、対象画素の周囲の輝度パターンに応じて補間パラメータを選定し、選定した補間パラメータを用いてアップスケール処理を行う技術が開示されている。また、特許文献1には、輝度変化の状況に応じたマッチングパターンの選定の精度を、経験と学習によって高める技術が開示されている。
特許第3243861号公報(平成6年6月24日公開)
 しかしながら、上記特許文献1の技術は、全方位の階調の連続性を保つように補間を行うので、エッジ部分において適切な補間を行えないという問題がある。このため、上記特許文献1の技術は、より高精細な画像を必要とする場面には最適であるとはいえない。
 この問題を解決するために、入力画像データにおけるエッジ部分を抽出し、エッジ部分についてはそのエッジ方向に即した補間を行うことが考えられる。
 ところが、このような処理を行うためには、隣接画素との間で階調差が生じている部分がエッジであるかどうかを判定するために、画像全体(あるいは画像中の非常に広い領域)にわたって階調変化を追跡し、この階調変化が画像中の領域を区分しているか否かを判定する必要がある。このため、エッジ検出を行うための回路規模が大きくなってしまうという問題がある。なお、回路規模の増大を避けるために、MPEGのエッジ抽出などで行われるように、適当なサイズのブロック(例えば8×8のエリア)を平均した縮小画像を用いる方式もある。しかしながら、この方式では、高精細画像を生成するためのエッジ抽出としては十分な精度が得られず、ブロックサイズ単位でぼやけてしまったり、ブロックサイズ以下のサイズのエッジを誤判定してしまったりする。
 特に、高解像度の映像信号を伝送するための伝送規格としてはDVI,HD-SDI等の規格が知られているが、これら従来の伝送規格では、例えば2K1Kクラス(水平方向2000画素×垂直方向1000画素程度)の表示容量の画像データ(ハイビジョンデータ)を4K2Kクラス(水平方向4000画素×垂直方向2000画素程度)の表示容量の画像データにアップスケールする場合、アップスケール後の4K2Kクラスの映像信号を1本の伝送線で伝送することができないので、複数の伝送線を用いて伝送するように複数の領域毎の映像信号に分割する必要がある。
 なお、4K2Kとは、デジタルシネマおよびハイビジョンの拡張において用いられる用語であり、シネマでは4096ドット×2160ライン、ハイビジョンでは3840ドット×2160ラインの解像度が用いられる。同様に、2K1Kはこれに対応して用いられる用語であり、一般に2048×1080,1920×1080の解像度である。これら2系統の伝送規格は同一に定められていることから、一般に、4K2K,2K1Kと表現される。
 しかしながら、画像中のエッジを適切に検出するためには、上記したように画像全体(あるいは画像中の非常に広い領域)にわたって階調変化を追跡する必要があるので、画像を複数領域に分割して取り扱うと、エッジの連続性を適切にチェックすることができないという問題があった。このような問題は、各分割画像の境界部において特に発生しやすい。
 また、従来のエッジ検出方法では、画像全体(あるいは画像中の非常に広い領域)にわたって階調変化を追跡する必要があるので、エッジ検出にかかる処理時間が長くなるという問題、および回路規模が大きくなってコストが増大するという問題があった。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、入力画像データを複数の領域の画像データに分割し、分割した各画像データの解像度を高解像度に変換する画像処理装置において、回路規模および処理時間を増大させることなく高精細な画像を生成できる画像処理装置を提供することにある。
 本発明の画像処理装置は、上記の課題を解決するために、入力画像データを複数の分割画像データに分割する分割処理部と、上記各分割画像データの解像度を高解像度にアップスケールするための複数のアップスケール処理部とを備えた画像処理装置であって、上記分割処理部は、上記各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データの一部を重畳して含めるように上記各分割画像データを生成し、上記各アップスケール処理部は、注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出するための上記注目画素の階調値を算出する差分演算処理を行う差分演算部と、注目画素近傍の階調値を平均化した値を上記注目画素の階調値として算出する平均化処理を行う平均化処理部と、上記分割画像データに上記差分演算処理を施した差分画像データと上記分割画像データに上記差分演算処理および上記平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算部と、上記相関値に応じた補間方法で上記分割画像データに補間処理を施す補間処理部とを備えていることを特徴としている。
 上記の構成によれば、各アップスケール処理部は、注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出するための上記注目画素の階調値を算出する差分演算処理を行う差分演算部と、注目画素近傍の階調値を平均化した値を上記注目画素の階調値として算出する平均化処理を行う平均化処理部と、上記分割画像データに上記差分演算処理を施した差分画像データと上記分割画像データに上記差分演算処理および上記平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算部とを備えている。このように算出される相関値により、注目画素近傍がエッジ部分であるかエッジ部分以外であるかを適切に識別できる。つまり、エッジ部分以外では平均化処理によりエッジ以外のノイズや細い線等が消去されるので上記の相関値は小さくなる一方、エッジ部分では平均化処理を施しても平均化処理前に対する変化が小さいので上記の相関値は大きくなる。このため、上記相関値により、注目画素近傍がエッジ部分であるかエッジ部分以外であるかを適切に識別できる。
 そして、上記の構成では、補間処理部が上記相関値に応じた補間方法で上記分割画像データに補間処理を施して上記分割画像データをアップスケールする。これにより、エッジ部分とエッジ部分以外とに異なる補間処理を施すことができるので、高精細な画像を生成できる。
 また、各分割画像データは、差分演算処理において参照する各注目画素近傍の階調値を含むだけでよいので、従来のエッジ検出方法のように画像全体を追跡する必要がないため、エッジ検出処理に用いる画像データを少なくでき、回路規模を小さくするとともに、処理時間を短縮することができる。
 また、上記各アップスケール回路は、互いに並行して上記差分演算処理、上記平均化処理、上記相関値の算出処理、および上記補間処理を行う構成としてもよい。
 上記の構成によれば、各アップスケール回路において他のアップスケール回路に対応する分割画像データを参照することなく上記差分演算処理、上記平均化処理、上記相関値の算出処理、および上記補間処理を行うことができる。このため、上記各アップスケール回路が上記各処理を並行して行うことが可能であり、それによって画像全体に対するアップスケールに要する時間を短縮できる。
 また、上記各アップスケール処理部は、各画素についての上記相関値と予め設定された閾値とを比較することで上記分割画像データに含まれるエッジ部分とエッジ部分以外とを識別するエッジ識別部を備え、上記補間処理部は、エッジ部分に対してはエッジ部分以外よりもエッジが際立つ補間方法で補間処理を施す構成としてもよい。
 上記の構成によれば、エッジ部分とエッジ部分以外とを明確に識別すことができ、エッジ部分に対してはエッジ部分以外よりもエッジが際立つ補間方法で補間処理を施すことにより、エッジをより鮮明に際立たせた高精細なアップスケール画像を生成できる。
 また、上記差分演算部は、上記分割画像データに対して水平方向のエッジを抽出するための上記差分演算処理である水平差分演算処理と垂直方向のエッジを抽出するための上記差分演算処理である垂直差分演算処理とを行い、上記エッジ識別部は、エッジ部分であると判定された注目画素について、上記水平差分演算処理後の注目画素の階調値と上記垂直差分演算処理後の注目画素の階調値との比をエッジの傾き角度として算出し、上記補間処理部は、エッジ部分の補間画素に対しては当該補間画素に隣接する各画素のうち上記補間画素を通り上記エッジの傾き方向に平行な直線との距離が近い順に選択される所定数以下の画素の階調値を用いて補間処理を行い、エッジ部分以外の補間画素に対しては当該補間画素に隣接する各画素の階調値を用いて補間処理を行う構成としてもよい。
 上記の構成によれば、水平方向の差分演算処理を施した後の注目画素の階調値と垂直方向の差分演算処理を施した後の注目画素の階調値との比をエッジの傾き角度として算出することにより、エッジ方向を検出できる。そして、エッジ部分の補間画素に対しては当該補間画素に隣接する各画素のうち上記補間画素を通り上記エッジの傾き方向に平行な直線との距離が近い順に選択される所定数以下の画素の階調値を用いて補間処理を行い、エッジ部分以外の補間画素に対しては当該補間画素に隣接する各画素の階調値を用いて補間処理を行うことで、エッジ部分についてはエッジを鮮明に際立たせ、エッジ部分以外については階調の連続性を重視した補間を行うことができ、より高詳細なアップスケール画像を生成できる。
 また、上記各アップスケール処理部は、上記相関値の大きさに応じた補正係数を算出する補正係数算出部を備え、上記補間処理部は、各補間画素について、エッジを抽出するための第1の補間処理と、全方位についての階調の連続性を実現するための第2の補間処理とを行い、第1の補間処理の結果および第2の補間処理の結果に上記補正係数に応じた重み付けを行って加算することで上記分割画像データの補間処理を行う構成としてもよい。
 上記の構成によれば、エッジを明瞭に表現するとともに、ノイズの影響を適切に低減することができる。
 また、上記差分演算部は、注目画素を中心とする5画素×5画素のブロックに対して上記差分演算処理を施す構成としてもよい。
 上記の構成によれば、各アップスケール回路において他のアップスケール回路に対する分割画像データを参照することなく算出される上記相関値により、エッジを精度よく検出できる。したがって、各アップスケール回路においてエッジ検出に用いられる画像データのサイズを小さくして回路規模を低減できる。
 また、上記分割処理部は、上記各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データにおける2ライン以上5ライン以下の画像データを重畳させる構成としてもよい。
 上記の構成によれば、各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データにおける2ライン以上5ライン以下の画像データを重畳させるだけで、各分割画像データにおけるエッジを精度よく検出できる。したがって、各アップスケール回路においてエッジ検出に用いられる画像データのサイズを小さくして回路規模を低減できる。
 本発明の表示装置は、上記したいずれかの画像処理装置と、上記画像処理装置によってアップスケールされた画像を表示する表示部とを備えていることを特徴としている。
 上記の構成によれば、回路規模および処理時間を増大させることなく高精細な画像を生成し、表示することができる。
 本発明の画像処理方法は、入力画像データを複数の分割画像データに分割する分割処理工程と、上記各分割画像データの解像度を高解像度にアップスケールする処理を複数のアップスケール処理部を用いて行う画像処理方法であって、上記分割処理工程では、上記各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データの一部を重畳して含めるように上記各分割画像データを生成し、上記アップスケール処理部は、注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出するための上記注目画素の階調値を算出する差分演算処理を行う差分演算工程と、注目画素近傍の階調値を平均化した値を上記注目画素の階調値として算出する平均化処理を行う平均化処理工程と、上記分割画像データに上記差分演算処理を施した差分画像データと上記分割画像データに上記差分演算処理および上記平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算工程と、上記相関値に応じた補間方法で上記分割画像データに補間処理を施す補間処理工程とを行うことを特徴としている。
 上記の方法によれば、各アップスケール処理部は、注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出するための上記注目画素の階調値を算出する差分演算処理を行う差分演算工程と、注目画素近傍の階調値を平均化した値を上記注目画素の階調値として算出する平均化処理を行う平均化処理工程と、上記分割画像データに上記差分演算処理を施した差分画像データと上記分割画像データに上記差分演算処理および上記平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算工程とを行う。このように算出される相関値により、注目画素近傍がエッジ部分であるかエッジ部分以外であるかを適切に識別できる。つまり、エッジ部分以外では平均化処理によりエッジ以外のノイズや細い線等が消去されるので上記の相関値は小さくなる一方、エッジ部分では平均化処理を施しても平均化処理前に対する変化が小さいので上記の相関値は大きくなる。このため、上記相関値により、注目画素近傍がエッジ部分であるかエッジ部分以外であるかを適切に識別できる。
 そして、上記の方法では、補間処理工程において、上記相関値に応じた補間方法で上記分割画像データに補間処理を施して上記分割画像データをアップスケールする。これにより、エッジ部分とエッジ部分以外とに異なる補間処理を施すことができるので、高精細な画像を生成できる。
 また、各分割画像データは、差分演算処理において参照する各注目画素近傍の階調値を含むだけでよいので、従来のエッジ検出方法のように画像全体を追跡する必要がないため、エッジ検出処理に用いる画像データを少なくでき、回路規模を小さくするとともに、処理時間を短縮することができる。
 なお、上記画像処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各部として動作させることにより、上記画像処理装置をコンピュータにて実現させるプログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に含まれる。
本発明の一実施形態にかかる画像処理装置に備えられるエッジ検出回路の概略構成を示すブロック図である。 図1の画像処理装置を備えた表示装置の概略構成を示すブロック図である。 図1の画像処理装置における処理の概要を示す説明図である。 図1の画像処理装置に備えられるアップスケール回路の概略構成を示すブロック図である。 図1の画像処理装置において行われる差分演算処理の概要を示す説明図である。 図1の画像処理装置において差分演算処理を行った結果の一例を示す説明図である。 図1の画像処理装置において差分演算処理を行った結果の一例を示す説明図である。 図1の画像処理装置において差分演算処理を行った結果の一例を示す説明図である。 図1の画像処理装置において行われる平均化処理の概要を示す説明図である。 図1の画像処理装置において行われるエッジ検出処理の概要を示す説明図である。 図1の画像処理装置において3ドット×3ドットのブロックで表現されるエッジの傾きのパターンを示す説明図である。 アップスケール処理で用いられる補間方法の一例を示す説明図である。 図1に示した画像処理装置においてエッジ部分に適用される補間方法を示す説明図である。 図1の画像処理装置において行われるエッジ検出処理の変形例を示す説明図である。
符号の説明
1 表示装置
2 液晶パネル
10 画像処理装置
11 分割回路
12a~12d アップスケール回路
13 液晶駆動回路
21 エッジ検出回路
22 補間回路
31 差分回路
32 フィルタ回転回路
33 方向設定回路
34 平均化回路
35 相関演算回路
36 エッジ識別回路
 本発明の一実施形態について説明する。
 図2は、本実施形態にかかる表示装置1の概略構成を示すブロック図である。この図に示すように、表示装置1は、画像処理装置10と液晶パネル(表示部)2とを備えている。
 画像処理装置10は、分割回路11、アップスケール回路12a~12d、および液晶駆動回路(表示制御部)13を備えている。
 分割回路11は、画像処理装置10に入力される画像データを所定数の領域の画像データに分割し、分割した画像データをそれぞれアップスケール回路12a~12dに出力する。
 なお、本実施形態では、2K1Kクラスのハイビジョンデータを入力され、これを左上,右上,左下,および右下の4領域の画像データに分割する場合について説明する。ただし、画像の分割数および各分割領域の配置位置はこれに限るものではない。例えば、各分割領域が水平方向に並ぶように分割してもよく、各分割領域が垂直方向に並ぶように分割してもよい。いずれの分割方法を採用するかについては、各分割方法の特性と、実施する時点での回路技術、液晶パネル技術などに鑑みて選択すればよい。
 本実施形態のように左上,右上,左下,および右下の4領域の画像データに分割する場合、各領域は2K1Kの画像データになるので、従来の2K1Kクラスの表示装置で用いられている駆動方式をそのまま適用でき、また信号処理回路(信号処理LSI)も2K1Kクラスで用いられている従来と同じものを使用できるので、製造コストおよび開発コストを低減できるという利点がある。
 一方、各分割領域が水平方向に並ぶように分割(縦分割;1K2K×4領域に分割)する場合、および各分割領域が垂直方向に並ぶように分割(横分割;4K0.5K×4領域に分割)する場合には、各分割領域が従来用いられている表示装置の形状およびサイズとことなるため、駆動上の問題が生じるおそれがある。
 例えば、縦分割の場合、全ての分割領域が同じ時系列で入力信号に対応して処理されるため、信号処理ロジックを構成しやすいという有利があるが、駆動本数が多くなるために従来の1/2の充電時間で書き込みを完了する必要があり、表示ムラや輝度低下などの信頼上の問題が生じやすい。
 また、横分割の場合、縦分割の場合のような充電時間の問題はないものの、ソースラインが領域をまたいで配線されるなど、パネル容量特性や開口率の低下などの問題が生じるため基本性能としての不利を被りやすい。
 また、本実施形態では、各分割領域の境界部に隣接する他の分割領域の一部を含めるようになっている。例えば、入力画像データがハイビジョンの水平方向1920画素×垂直方向1080画素の画像データである場合、各分割領域を960画素×540画素に分割するのではなく、(960+α)画素×(540+α)画素とし、隣接する分割領域同士の一部を互いにオーバーラップ(重畳)させるようになっている。画像の分割方法の詳細については後述する。
 アップスケール回路12a~12dは、分割された画像データをそれぞれ入力され、入力された画像データにアップスケール処理を施して液晶駆動回路13に出力する。アップスケール処理の詳細については後述する。
 液晶駆動回路13は、各アップスケール回路12a~12dから入力されるアップスケール後の画像データに基づいて液晶パネル2を制御し、アップスケールされた画像をこの液晶パネル2に表示させる。なお、図2では液晶駆動回路13を1つのブロックとして表記しているが、これに限らず、複数のブロックによって構成されていてもよい。例えば、アップスケール回路12a~12dに対応して液晶駆動回路13a~13dを設け、これら各液晶駆動回路によって液晶パネル2における各分割領域を駆動するようにしてもよい。1つの液晶駆動回路13で液晶パネル2の全体を駆動する場合、各領域の駆動タイミングを容易に一致させることができるので制御性がよいという利点がある一方、入出力ピン数が多くなるので回路サイズ(ICサイズ)が大きくなってしまう。また、液晶駆動回路13を分割領域に応じて複数設ける場合、チップサイズを小さくできるという利点がある(特に本実施形態の場合、各分割領域が2K1Kクラスであるので従来の2K1Kクラスの表示装置に用いられている2Kコントロールチップを使用できるので経済的である)一方、各液晶駆動回路の同期を保つための調停回路を設ける必要がある。
 液晶パネル2は液晶駆動回路13によって制御され、画像処理装置10においてアップスケール処理された画像データに応じた画像を表示する。なお、本実施形態では、水平方向4096画素×垂直方向2160画素(4K2Kクラス)の液晶パネルを用いている。ただし、液晶パネルの表示容量はこれに限るものではない。
 なお、画像処理装置10に対する入力画像データのサイズが1920×1080であり、液晶パネル2の表示サイズが4096×2160の場合、入力画像データを縦横2倍にアップスケール(拡大)して3840×2160になる。この場合、横方向のサイズ(3840ドット)が表示サイズ(4096ドット)よりも小さいので、左半分の分割領域の画像については、2048-1920=128ドット分だけ右側にずらして表示する必要がある。
 この左半分の画像を右側にずらす補正処理については画像処理装置10内のどの部分で行ってもよいが、分割回路11で分割画像データを補正してすべての分割画像データの映像を2048×1080として扱うようにすることにより、より多くのビデオフォーマットに容易に対応できる汎用的なアップコンバートシステムを実現できる。また、この補正を液晶駆動回路13で行えば、多くのビデオフォーマットに対応できる汎用的な4K2K液晶表示モジュールを実現できる。なお、2K映像を映すことに比較的重点を置かない用途では後段で補正することが好ましい。
 また、本実施形態では表示部として液晶パネルを用いているがこれに限るものではなく、例えばプラズマディスプレイ、有機ELディスプレイ、CRTなどからなる表示部を用いてもよく、その場合には液晶駆動回路13に代えて表示部に応じた表示制御部を備えればよい。
 図3は、本実施形態にかかる表示装置1における処理を概略的に示した説明図である。この図に示すように、入力画像(原画像)データとして2K1Kの画像データが入力されると、分割回路11がこの入力画像データを(1K+α)×(0.5K+α)の4つの分割画像データに分割する。なお、図3に示した破線部分(αの部分)は隣接する他の分割画像データとのオーバーラップ部分である。
 上記のように分割された各分割画像データに対して、アップスケール回路12a~12dが補間処理(アップスケール処理)を行い、2K1Kの補間後画像データ(アップスケール後画像データ)を生成する。なお、アップスケール回路12a~12dは上記の補間処理を並列処理する。
 その後、液晶駆動回路13が、アップスケール回路12a~12dによって補間処理された各補間後画像データに応じた分割映像信号を生成し、これら各分割映像信号に応じた画像を液晶パネル2の各分割領域に表示させる。
 図4は、アップスケール回路12a~12dの概略構成を示すブロック図である。この図に示すように、各アップスケール回路12a~12dは、エッジ検出回路21と、補間回路22とを備えている。エッジ検出回路21は、分割画像データにおけるエッジの位置および方向を検出する。補間回路22は、エッジ部分とエッジ部分以外とで異なる補間方法を用いて補間処理を行う。具体的には、エッジ部分についてはエッジ方向に隣接する画素の画素値の平均値を用いて補間し、エッジ部分以外については全方位に隣接する各画素の画素値の加重平均値を用いて補完する。
 図1は、エッジ検出回路21の概略構成を示すブロック図である。この図に示すように、差分回路31、フィルタ回転回路32、方向設定回路33、平均化回路34、相関演算回路35、およびエッジ識別回路36を備えている。
 差分回路31は、入力されてくる画像データに対して差分フィルタを用いた差分演算を行って差分画像データを算出し、算出した差分画像データを平均化回路34および相関演算回路35に出力する。
 例えば、図5に示すように、入力された画像データにおける注目画素を中心とする5ドット×5ドットのブロックに対して、3ドット×3ドットの各ドットにそれぞれフィルタ係数を設定した差分フィルタを適用し、注目画素を中心とする3ドット×3ドットの差分演算結果を得る。この場合、上記の差分演算は、入力画像データにおける各ドットの画素値をdij(i,jは1~3の整数)、差分フィルタをaij、差分演算結果における各ドットの画素値をbkl(k、lは1~3の整数)とすると、
Figure JPOXMLDOC01-appb-M000001
で表される。
 なお、本実施形態では、差分フィルタaijとして、以下に示す1:2:1のフィルタ、
Figure JPOXMLDOC01-appb-M000002
を用いる。ただし、差分フィルタaijはこれに限るものではなく、注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出できるものであればよい。例えば、以下に示す3:2:3,1:1:1,あるいは1:6:1のフィルタを用いてもよい。
Figure JPOXMLDOC01-appb-M000003
などを用いてもよい。差分フィルタを上記のようにa:b:aと表現した場合、bの重みが大きいほどが大きいほど注目画素の近傍を正確に評価できる一方でノイズには弱くなる。また、bの重みが小さいほど注目画素の周辺の様子を包括的にとらえることができるものの小さな変化を逃しやすくなる。このため、差分フィルタのフィルタ係数については、目標とする画像特性に応じて適宜選択すればよい。例えば、写真のような本質的に緻密でぼやけが少ないようなコンテンツではbの重みが大きい方がその特徴をつかみやすい。また、動きの激しい映像、特に暗い映像など、ぼやけ,ノイズが大きくなりやすいコンテンツではbの重みを相対的に小さくすることで誤判定を抑制できる。また、本実施形態では差分フィルタとして3ドット×3ドットのフィルタを用いているが、これに限るものではなく、例えば5ドット×5ドットや7ドット×7ドットの差分フィルタを用いてもよい。
 フィルタ回転回路32は差分回路31で用いる差分フィルタに回転処理を施すものである。また、方向設定回路33はフィルタ回転回路32による差分フィルタの回転を制御するとともに、差分フィルタの適用状態を示す信号をエッジ識別回路36に出力するものである。
 本実施形態では、入力画像データに対してまず上記の差分フィルタaijを用いて差分演算を行うことで水平方向のエッジ検出処理を行い、その後、上記の差分フィルタaijを90度回転させたフィルタを用いて上記入力画像データに対して差分演算を再度行うことで垂直方向のエッジを検出する。なお、水平方向および垂直方向のエッジ検出処理を並行して行うようにしてもよく、この場合には差分回路31、フィルタ回転回路32、方向設定回路33、平均化回路34、相関演算回路35、およびエッジ識別回路36を2組設けておけばよい。
 図6は、垂直方向のはっきりとしたエッジの画像(画像A)、垂直方向に延伸する細い線の画像(画像B)、乱雑な線の画像(画像C)、およびこれら各画像に対して1:2:1の差分フィルタを用いて水平方向および垂直方向の差分演算を行った結果を示す説明図である。
 この図に示すように、入力画像データにおける注目画素(中心画素)の周囲3ドット×3ドットのパターンは同じであり、注目画素の水平方向についての差分演算結果(中央値)はいずれも4になる。ところが、水平方向の差分演算結果における注目画素を中心とする3ドット×3ドットのブロックについての平均値の中央値に対する比率は、画像Aが0.67、画像Bが0.33、画像Cが0.22となっており、はっきりとしたエッジ(あるいはエッジに近い画像)があるものほど数値が大きくなる。つまり、細い線の画像Bはエッジであるかもしれないが模様(テクスチャ)である可能性もあり、画像Aに比べて差分演算結果の平均値(エッジ性(エッジらしさ)を示す値)が半分程度しかない。また、乱雑な中にある線の画像Cは、本当のエッジであるのかノイズであるのかの区別ができず、画像Aに比べて差分演算結果の平均値が1/3程度になっている。
 なお、差分画像データにおける5ドット×5ドットあるいは7ドット×7ドットのブロックでは、入力画像データのパターンの違いによる平均値の差が3ドット×3ドットの場合に比べて小さくなっている。このため、差分画像データにおける5ドット×5ドットあるいは7ドット×7ドットのブロックの平均値を用いてエッジ検出を行う場合には詳細な条件判断を行う必要がある。このことから、エッジ検出処理には3ドット×3ドットの差分画像データを用いることが好ましい。なお、3ドット×3ドットの差分画像データを得るためには入力画像データにおける5ドット×5ドットのブロックを参照することになる。
 また、回路規模に余裕がある場合には、3ドット×3ドットの差分画像データを用いたエッジ検出に加えて、5ドット×5ドットおよび/または7ドット×7ドットの差分画像データを用いたエッジ検出処理を行い、その処理結果を3ドット×3ドットの差分画像データを用いたエッジ検出で誤検出が生じる場合の例外処理としてデータベース化するようにしてもよい。これにより、より高精度なエッジ検出を行うことができる。例えば、周期性の高いテクスチャの中に埋もれているようなエッジであっても適切に検出できる。
 図7は、斜め方向のはっきりとしたエッジの画像(画像D)、斜め方向に延伸する細い線の画像(画像E)、乱雑な線の画像(画像F)、およびこれら各画像に対して1:2:1の差分フィルタを用いて水平方向および垂直方向の差分演算を行った結果を示す説明図である。
 画像D,Eに対する水平方向および垂直方向の差分演算結果における注目画素を中心とする3ドット×3ドットのブロックについての平均値の中央値に対する比率は、画像Dが0.67、画像Eが0.33となっており、画像A,Bに対する水平方向の差分演算結果と同様、はっきりとしたエッジ(あるいはエッジに近い画像)があるものほど数値が大きくなる。また、画像Fでは、3ドット×3ドットのブロックについての平均値の中央値に対する比率が0.06となっており、エッジとして認識されにくくなっている。
 図8は、傾き1/2のエッジの画像(画像G)、傾き1のエッジの画像(画像H)、傾き2のエッジの画像(画像I)、およびこれら各画像に対して1:2:1の差分フィルタを用いて水平方向および垂直方向の差分演算を行った結果を示す説明図である。図8における各画像はエッジ部分の画像なので、水平方向および垂直方向の差分演算結果における注目画素を中心とする3ドット×3ドットのブロックについての平均値の中央値に対する比率はいずれも大きくなっている。
 また、これら各画像における水平方向の差分演算結果の中央値と垂直方向の差分演算結果の中央値との比は、画像Gが2/4、画像Hが3/3、画像Iが4/2となっており、各画像におけるエッジの傾きと一致している。本実施形態では、この特性を用いて、後述するエッジ識別回路36が、注目画素がエッジ部分であると判定した場合に、水平方向および垂直方向の差分演算結果における中央値(注目画素の値)の比に基づいてエッジの傾きを算出するようになっている。なお、水平方向または垂直方向のエッジについては、水平方向の差分演算結果における中央値または水平方向の差分演算結果における中央値のいずれかが0になるので、エッジ方向を容易に判定できる。
 平均化回路34は、差分回路31から入力される差分画像データbijに基づいて、注目画素の画素値を当該注目画素およびその周辺画素の画素値で平均化した値とした平均化画像データを生成する。
 なお、上記の平均化処理は、例えば図9に示すように2ドット×2ドットのローパスフィルタ(LPF)を用いたフィルタ処理によって行ってもよい。図9に示す例では、差分回路31から入力された差分画像データにおける3ドット×3ドットのブロックに対して、2ドット×2ドットの各ドットにそれぞれフィルタ係数を設定しローパスフィルタを適用し、2ドット×2ドットの平均化処理結果を得る。この場合、上記の平均化演算は、差分画像データにおける各ドットの画素値をbij(i,jは1~3の整数)、ローパスフィルタをcij、平均化画像データにおける各ドットの画素値をb’ijとすると、
Figure JPOXMLDOC01-appb-M000004
で表される。
 また、平均化回路34は、差分画像データにおける3ドット×3ドットのブロックを1ドットずつ順次ずらして同様の演算を行うことにより、b13,b23,b31,b32,およびb33を算出する。すなわち、注目画素およびその周囲8画素の合計9画素についての平均化画像データを算出する。そして、これら9画素の平均化画像データを相関演算回路35に出力する。
 相関演算回路35は、差分回路31から入力された差分画像データと、平均化回路34から入力された平均化画像データとの相関を示す値を算出する。具体的には、差分回路31から入力された注目画素を中心とする9画素の差分画像データの平均値A、および平均化回路34から入力された注目画素を中心とする9画素の平均化画像データの平均値Bを算出し、これらの平均値AおよびBに基づいて注目画素についての相関値R=B/Aを算出する処理を、水平方向および垂直方向についてそれぞれ行う。そして、水平方向について算出した相関値Rおよび垂直方向について算出した相関値Rのうち、値が大きい方の相関値Rを採用してエッジ識別回路36に出力する。
 エッジ識別回路36は、相関演算回路35から入力された注目画素についての相関値Rと、予め設定された閾値Thとを比較することにより、この注目画素がエッジ画素であるか否かを判断する。なお、上記の閾値Thは、多数のサンプル画像に基づいて各画素の相関値Rを算出し、エッジ部分の画素について算出された相関値Rとエッジ部分以外の画素について算出された相関値Rとを比較する実験を行うことによって予め設定しておけばよい。
 図10は、エッジ識別回路36によるエッジ識別処理の概念を示す説明図である。図10に示すように、入力画像データにエッジ部分とノイズとが混在している場合、差分画像データにはエッジ部分とノイズの影響とが反映されるので、差分画像データだけを用いてエッジ検出を行うとこのノイズの影響を受けてしまう。
 つまり、入力画像データにおいて縦方向にのびるエッジがある場合、この入力画像データに対して上記の差分演算を行った差分画像データは0でない値をもち、階調変化がない状態では0となる。ところが、このポイントにノイズが存在する場合や、細かい縦ストライプが存在する場合にも差分画像データの値は0でない値になる。
 これに対して、差分画像データに平均化処理を施すことにより、図10に示すように、差分画像データからノイズを除去することができる。
 つまり、平均化の範囲内に1ドットだけ存在するノイズは平均化処理によって消し去られる。また、平均化の範囲を3ドット×3ドット、4ドット×4ドット、5ドット×5ドットというように大きくしていくと、微小なノイズやテクスチャ等を消し去ることができる。
 一方、エッジ部分については、比較的大きな領域を分割しているので、平均化処理されたブロックにおいても平均化処理前の差分情報が維持されやすい。
 このため、差分画像データとこの差分画像データを平均化処理した平均化画像データとの相関関係を調べることにより、ノイズあるいはテクスチャを識別してエッジ部分を精度よく検出することができる。
 つまり、平均化画像データではノイズやテクスチャが消し去られる一方、エッジ部分は平均化処理してもそのまま残るので、エッジ部分では上記の相関値Rが大きくなり、逆にエッジ部分以外では上記の相関値Rが小さくなる。また、上記の相関値Rは、エッジ部分では1あるいは1に近い値を有しており、エッジ部分以外ではエッジ部分の相関値よりも急激に小さな値になる。したがって、この相関値が急激に変化する範囲を実験等により予め調べ、閾値Thをこの範囲内に設定しておくことにより、エッジ部分を非常に精度よく検出することができる。
 また、エッジ識別回路36は、水平方向について差分演算処理を行った結果と垂直方向について差分演算処理を行った結果とを用いてエッジ方向(エッジの伸長方向)を検出し、検出結果を補間回路22に出力する。
 具体的には、水平方向についての差分演算結果における注目画素の値をa1、垂直方向についての差分演算結果における注目画素の値をa2として、これらの比a=a1/a2を算出する。そして、このように算出した比aを用いて、エッジの傾き角度θをθ=arctan(a)より算出する。
 なお、3ドット×3ドットのブロックで表現できる傾きのパターン(種類)は図11に示す5種類しかない。また、上記の比aの値は入力画像データに含まれるノイズの影響によって変動する場合がある。このため、エッジ方向については、必ずしも上記角度θを厳密に算出する必要はなく、図11に示した5パターンのうちのいずれか、あるいはこれら5パターンの中間の傾きを含む9パターンのうちのいずれかに分類できればよい。したがって、エッジ方向の検出処理の簡略化およびエッジ方向の検出に要する回路規模の低減を図るためには、上記比aの値は必ずしも直接計算する必要はなく、例えば乗算回路と比較とによって図11に示した5パターンまたはその中間を含む9パターンのうちのいずれに相当するかを判定すればよい。
 また、エッジ方向の傾きを検出するために5ドット×5ドットのフィルタを用いてもよい。5ドット×5ドットの領域で判定できる傾きのパターンは単純なパターンで9種類あり、これら9種類の中間の傾きを考慮すると10数種類ある。したがって、5ドット×5ドットのフィルタを用いてエッジ方向の傾きをより精度よく判定し、傾きの各パターンに応じた補間演算を行うことにより、3ドット×3ドットのブロックで傾きを判定する場合よりもより広域のエッジ状態を良好に補間することができる。ただし、5ドット×5ドットのブロックでエッジ方向の傾きを判定する場合には、3ドット×3ドットのブロックで判定する場合よりも小さい周期で方向が変化するようなエッジを見逃しやすい。したがって、いずれのブロックでエッジ方向の傾きを判定するかについては、表示するコンテンツの種類,特性等に応じて適宜選択するようにしてもよい。
 補間回路22は、エッジ識別回路36のエッジ検出結果に基づいて、エッジ部分およびエッジ以外の部分に対して、それぞれの特性に適した補間処理を行う。
 なお、入力された画像データの解像度を水平方向および垂直方向について2倍にアップスケールする場合、図12の(a)および(b)に示す2種類の補間方法が考えられる。
 第1の方法は、図12の(a)に示すように、入力された画像データにおける各画素(基準点:図中の○印)の値(輝度)をそのまま残し、これら各画素の間の画素(図中の△印)を補間する方法である。
 第2の方法は、図12の(b)に示すように、入力された画像データにおける各画素(基準点:図中の○印)の周囲4画素(図中の△印)を補間する方法である。この方法では入力された画像データにおける各画素の画素値(輝度)は補間処理後には残らない。
 入力された画像に鮮明なエッジがあった場合、第2の方法では入力画像データの各画素の画素値が残らないので、エッジがぼやけてしまう場合がある。また、第2の方法よりも第1の方法の方が演算が容易であり、回路規模を低減できる。このため、本実施形態では第1の方法を採用する。ただし、本発明はこれに限るものではなく、第2の方法を用いることも可能である。
 図13は、エッジ部分の補間方法を説明するための説明図であり、傾きの大きさが1の斜め方向のエッジ部分についての補間の例を示している。
 この図に示す補間方法では、まず補間する画素の周辺4画素を選択する。なお、傾き方向に平行な線分を含む平行四辺形の各頂点を形成するように4画素を選択することにより、補間演算を容易にすることができる。
 具体的には、図13に示す補間画素xについては周辺画素として画素B,E,F,Iが選択され、補間画素yについては周辺画素として画素D,E,H,Iが選択される。なお、補間画素zのようにエッジ方向に隣接する画素同士を結ぶ直線上に存在する補間画素についてはエッジ方向に隣接する上記各画素(この場合2画素)を周辺画素として選択する。そして、選択した各周辺画素の平均値を補間画素の画素値とする。すなわち、z=(E+I)/2、y=(D+E+H+I)/4、x=(B+E+F+I)/4とする。
 なお、エッジ方向の傾きの大きさが1ではない場合、周辺4画素の各画素値に傾きに応じて画素毎に設定される係数を乗じた値の平均値を用いればよい。例えば、図13において傾きの大きさが2の場合、z=((3×E+F)/4+(H+3×I))/2、y=((3×E+D)/4+(3×H+I)/4)/2、x=(B+I)/2といったように設定すればよい。
 上記のエッジの傾きに応じた係数は、例えば3ドット×3ドットのブロックで表現できる上記の5パターンあるいは9パターンに対応する値を予め近似計算等によって設定しておいてもよい。
 一方、エッジ部分ではないと判定された部分(例えばなだらかな階調変化を表現している部分やノイズ部分など)については、エッジが際立たないテクスチャ重視の補間方法を適用する。ここで言うテクスチャ重視とは、階調や色相の保全性、階調変化の連続性に重点を置き、比較的ノイズに強い処理のことを意味する。このような方法としては、例えば、バイリニア法、バイキュービック法、lanczosフィルタ法(LANCZOS法)などの従来から公知の種々の方法を用いることができる。特に、アップスケールの拡大率が一定である場合(本実施形態では拡大率は2倍)、LANCZOS法は優秀かつ簡易なフィルタとして知られており、好適である。
 以上のように、本実施形態にかかる画像処理装置10では、入力画像データに対して差分演算を施した差分画像データと、この差分画像データに対して平均化処理を施した平均化画像データとの相関値を算出し、算出した相関値に基づいてエッジ部分およびエッジ方向を検出する。これにより、入力画像データにおけるエッジ部分を高精度に検出することができる。
 また、本実施形態では、入力画像データにおける注目画素を中心とする5ドット×5ドットの画像データに基づいて算出される差分画像データおよび平均化画像データに基づいて注目画素がエッジ部分であるか否かを判断する。したがって、入力画像データを複数の領域毎に分割する際、入力画像データを単純に4分割した各分割画像データに、これら各分割画像データに隣接する分割領域の画像データに含まれる境界部の2ドット分(水平方向に隣接する分割画像データの2列分および垂直方向に隣接する分割画像データの2行分)の画像データを付加(オーバーラップ)させるだけで、各分割画像データにおけるエッジ部分を高精度に検出することができる。つまり、入力画像データの水平方向の画素数をnx、垂直方向の画素数をnyとすると、各分割領域の画素数を水平方向nx/2+2、垂直方向ny+2とすることにより、各分割領域において他の領域との相互作用を考えずに個別にエッジ検出およびアップスケールを精度よく行える。
 したがって、エッジ検出処理に用いる画像データを少なくできるので、回路規模を小さくすること、および処理時間を短縮することができる。つまり、従来のように画像全体についてエッジを追跡する必要がないので、エッジ判定のために画像全体の情報を分割された各アップスケール回路に渡す必要がない。このため、各アップスケール回路において他の分割領域との相互作用を考慮することなくエッジ検出を高精度に行える。
 また、本実施形態では、各分割画像データにおけるエッジ検出処理を並行して行う。これにより、画像全体に対するエッジ検出に要する時間をさらに短くすることができる。
 なお、本実施形態では、入力画像データにおける注目画素を中心とする5ドット×5ドットの画像データに基づいて算出される差分画像データ(3ドット×3ドットの差分画像データ)および平均化画像データ(3ドット×3ドットの平均化画像データ)に基づいて注目画素がエッジ部分であるか否かを判断するものとしたが、エッジ検出時に参照するブロックのサイズはこれに限るものではない。
 参照するブロックのサイズを変化させてエッジ検出を行ったところ、5ドット×5ドットまでのサイズではサイズが大きくなるほどエッジの検出精度が高くなったが、5ドット×5ドットを超えるサイズでは検出精度は序々に向上するもののほとんど変化がなく、5ドット×5ドットのブロックを参照することで十分なエッジ検出精度が得られることがわかった。
 これは、参照するブロックのサイズを大きくするほど平均化処理によってノイズやテクスチャが消去されやすくなるが、参照するブロックのサイズを5ドット×5ドットとすることにより大部分のノイズやテクスチャを消去できるためであると考えられる。一方、参照するブロックのサイズを大きくするほど、入力画像データを分割する各分割領域に付加(オーバーラップ)させるデータ量が大きくなる。このため、参照するブロックのサイズは、5ドット×5ドットにすることがより好ましい。
 なお、参照するブロックのサイズを5ドット×5ドットとした場合、差分画像データおよび平均画像データのサイズは3ドット×3ドットとなり、注目画素に対する対称性を考慮すると、各分割画像データに付加(オーバーラップ)させるドット数は2ドット(上記α=2)となる。
 ただし、現在の映像技術では、映像信号タイミングがずれて入力画像データを分割する際のカウンターが誤作動することがある。このため、上記の理論上の付加ドット数に加えて数ドット程度(例えば1ドット~3ドット)のマージンを付加しておくことが好ましい。このようなマージンを付加しておくことにより、例えばエッジ以外の部分の補間方法を映像の種類に応じて切り替える場合や、エッジ方向をより詳細に検出したい場合などに、上記のマージン部分のデータを用いることができる。
 また、本実施形態では、3ドット×3ドットの差分画像データおよび平均化画像データにおける9ドットの平均値を用いてエッジ検出を行っているがこれに限るものではない。例えば、3ドット×3ドットの差分画像データおよび平均化画像データにおける注目画素を除く周囲8ドットの平均値を用いてエッジ検出を行ってもよい。この場合でも、パラメータをそれに応じて変更するだけで9ドットの平均値を用いる場合と略同等のエッジ検出精度を得ることができる。
 また、本実施形態では、差分演算によって算出された差分画像データに対して平均化処理を施しているが、これに限るものではない。例えば、図14に示すように、入力画像データに対して平均化処理を施し、この平均化処理を施した画像データに対して差分演算を行うことにより平均化画像データを算出するようにしてもよい。この場合にも差分演算によって算出された差分画像データに対して平均化処理を施す場合と略同様の効果を得ることができる。
また、本実施形態では、各アップスケール回路12a~12dに差分回路33を1つのみ設ける構成について説明したが、これに限らず、例えば相関演算回路35に出力する差分画像データを生成する差分回路と、平均化回路34に出力する差分画像データを生成する差分回路(あるいは平均化回路34から出力された平均化画像データに差分演算を施す差分回路)とを別々に設けてもよい。
 また、本実施形態では、各補間画素がエッジ部分であるかエッジ部分以外であるかの2種類に判別し、この判別結果に応じた補間方法で補間を行っているが、必ずしも上記2種類に明確に判別する必要はない。
 例えば、上記の相関値Rの取りうる値を複数に分割したエッジパラメータを生成し、エッジ部分に対する補間方法で算出した補間値およびエッジ部分以外に対する補間方法で算出した補間値を上記エッジパラメータに応じて重み付けして加算した値を補間画素の画素値として算出するようにしてもよい。つまり、エッジらしさの程度に応じた比率でエッジ部分に対する補間方法で算出した補間値とエッジ部分以外に対する補間方法で算出した補間値とを合成するようにしてもよい。これにより、エッジを明瞭に表現するとともに、ノイズの影響を低減することができるアップスケール回路を小さい回路規模で実現できる。
 具体的には、例えば、上記の相関値Rの取りうる値(0~1)を16分割し、各分割範囲毎にエッジパラメータ(補正係数)βを設定しておき、エッジ識別回路(補正係数算出部)36あるいは他の回路(補正係数算出部)が、分割画像データに基づいて算出した相関値Rに対応するエッジパラメータβを特定する。そして、補間回路22が、エッジ部分の補間方法で算出した補間値をp1、エッジ部分以外の補間方法(例えばLANCZOS法)で算出した補間値をp2とした場合に、最終的な補間画素の画素値pをp=β×p1+(1-β)×p2によって算出する。なお、各分割範囲のうち最大値を含む分割範囲は、図6~8に示したようにはっきりしたエッジ部分における差分演算結果の注目画素の値と3ドット×3ドットの平均値との比が0.67であったことから、例えば0.7程度~1に設定し、この分割範囲に対応するエッジパラメータβは1に設定すればよい。また、相関値Rの取りうる値を分割する分割数は16に限るものではなく、例えば8分割程度としてもよい。
 また、画像処理装置10を構成する各回路(各ブロック)は、CPU等のプロセッサを用いてソフトウェアによって実現されてもよい。すなわち、画像処理装置10は、各機能を実現する制御プログラムの命令を実行するCPU(central processing unit)、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている構成としてもよい。この場合、本発明の目的は、上述した機能を実現するソフトウェアである画像処理装置10の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、画像処理装置10に供給し、そのコンピュータ(またはCPUやMPU)が記録媒体に記録されているプログラムコードを読み出し実行することによって達成される。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ系、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM/MO/MD/DVD/CD-R等の光ディスクを含むディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM/EPROM/EEPROM/フラッシュROM等の半導体メモリ系などを用いることができる。
 また、画像処理装置10を通信ネットワークと接続可能に構成し、通信ネットワークを介して上記プログラムコードを供給してもよい。この通信ネットワークとしては、特に限定されず、例えば、インターネット、イントラネット、エキストラネット、LAN、ISDN、VAN、CATV通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、通信ネットワークを構成する伝送媒体としては、特に限定されず、例えば、IEEE1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL回線等の有線でも、IrDAやリモコンのような赤外線、Bluetooth(登録商標)、802.11無線、HDR、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
 また、画像処理装置10の各回路(各ブロック)は、ソフトウェアを用いて実現されるものであってもよく、ハードウェアロジックによって構成されるものであってもよく、処理の一部を行うハードウェアと当該ハードウェアの制御や残余の処理を行うソフトウェアを実行する演算手段とを組み合わせたものであってもよい。
 本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 本発明は、入力される画像データの解像度を高解像度にアップスケールする画像処理装置および画像処理方法に適用できる。

Claims (11)

  1.  入力画像データを複数の分割画像データに分割する分割処理部と、上記各分割画像データの解像度を高解像度にアップスケールするための複数のアップスケール処理部とを備えた画像処理装置であって、
     上記分割処理部は、上記各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データの一部を重畳して含めるように上記各分割画像データを生成し、
     上記各アップスケール処理部は、
     注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出するための上記注目画素の階調値を算出する差分演算処理を行う差分演算部と、
     注目画素近傍の階調値を平均化した値を上記注目画素の階調値として算出する平均化処理を行う平均化処理部と、
     上記分割画像データに上記差分演算処理を施した差分画像データと上記分割画像データに上記差分演算処理および上記平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算部と、
     上記相関値に応じた補間方法で上記分割画像データに補間処理を施す補間処理部とを備えていることを特徴とする画像処理装置。
  2.  上記各アップスケール処理部は、互いに並行して上記差分演算処理、上記平均化処理、上記相関値の算出処理、および上記補間処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3.  上記各アップスケール処理部は、各画素についての上記相関値と予め設定された閾値とを比較することで上記分割画像データに含まれるエッジ部分とエッジ部分以外とを識別するエッジ識別部を備え、
     上記補間処理部は、エッジ部分に対してはエッジ部分以外よりもエッジが際立つ補間方法で補間処理を施すことを特徴とする請求項1または2に記載の画像処理装置。
  4.  上記差分演算部は、上記分割画像データに対して水平方向のエッジを抽出するための上記差分演算処理である水平差分演算処理と垂直方向のエッジを抽出するための上記差分演算処理である垂直差分演算処理とを行い、
     上記エッジ識別部は、エッジ部分であると判定された注目画素について、上記水平差分演算処理後の注目画素の階調値と上記垂直差分演算処理後の注目画素の階調値との比をエッジの傾き角度として算出し、
     上記補間処理部は、エッジ部分の補間画素に対しては当該補間画素に隣接する各画素のうち上記補間画素を通り上記エッジの傾き方向に平行な直線との距離が近い順に選択される所定数以下の画素の階調値を用いて補間処理を行い、エッジ部分以外の補間画素に対しては当該補間画素に隣接する各画素の階調値を用いて補間処理を行うことを特徴とする請求項3に記載の画像処理装置。
  5.  上記各アップスケール処理部は、上記相関値の大きさに応じた補正係数を算出する補正係数算出部を備え、
     上記補間処理部は、
     各補間画素について、エッジを抽出するための第1の補間処理と、全方位についての階調の連続性を実現するための第2の補間処理とを行い、第1の補間処理の結果および第2の補間処理の結果に上記補正係数に応じた重み付けを行って加算することで上記分割画像データの補間処理を行うことを特徴とする請求項1または2に記載の画像処理装置。
  6.  上記差分演算部は、注目画素を中心とする5画素×5画素のブロックに対して上記差分演算処理を施すことを特徴とする請求項1から5のいずれか1項に記載の画像処理装置。
  7.  上記分割処理部は、
     上記各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データにおける2ライン以上5ライン以下の画像データを重畳させることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8.  請求項1から7のいずれか1項に記載の画像処理装置と、
     上記画像処理装置によってアップスケールされた画像を表示する表示部とを備えていることを特徴とする表示装置。
  9.  入力画像データを複数の分割画像データに分割する分割処理工程と、上記各分割画像データの解像度を高解像度にアップスケールする処理を複数のアップスケール処理部を用いて行う画像処理方法であって、
     上記分割処理工程では、上記各分割画像データにおける他の分割画像データとの境界部に上記他の分割画像データの一部を重畳して含めるように上記各分割画像データを生成し、
     上記アップスケール処理部は、
     注目画素近傍の階調値の微分または差分を用いた演算によって画像中のエッジを抽出するための上記注目画素の階調値を算出する差分演算処理を行う差分演算工程と、
     注目画素近傍の階調値を平均化した値を上記注目画素の階調値として算出する平均化処理を行う平均化処理工程と、
     上記分割画像データに上記差分演算処理を施した差分画像データと上記分割画像データに上記差分演算処理および上記平均化処理を施した平均化画像データとの相関関係を示す相関値を算出する相関演算工程と、
     上記相関値に応じた補間方法で上記分割画像データに補間処理を施す補間処理工程とを行うことを特徴とする画像処理方法。
  10.  請求項1から7のいずれか1項に記載の画像処理装置を動作させるプログラムであって、コンピュータを上記各部として機能させるためのプログラム。
  11.  請求項10に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2008/072403 2008-04-21 2008-12-10 画像処理装置、表示装置、画像処理方法、プログラムおよび記録媒体 WO2009130820A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/863,212 US8358307B2 (en) 2008-04-21 2008-12-10 Image processing device, display device, image processing method, program, and storage medium
CN200880125297.7A CN101952854B (zh) 2008-04-21 2008-12-10 图像处理装置、显示装置、图像处理方法、程序和记录介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008110737 2008-04-21
JP2008-110737 2008-04-21

Publications (1)

Publication Number Publication Date
WO2009130820A1 true WO2009130820A1 (ja) 2009-10-29

Family

ID=41216565

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/072403 WO2009130820A1 (ja) 2008-04-21 2008-12-10 画像処理装置、表示装置、画像処理方法、プログラムおよび記録媒体

Country Status (3)

Country Link
US (1) US8358307B2 (ja)
CN (1) CN101952854B (ja)
WO (1) WO2009130820A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144158A1 (ja) * 2011-04-22 2012-10-26 パナソニック株式会社 画像処理装置及び画像処理方法
JP2013130902A (ja) * 2011-12-20 2013-07-04 Jvc Kenwood Corp 映像信号処理装置及び映像信号処理方法
WO2014065160A1 (ja) * 2012-10-24 2014-05-01 シャープ株式会社 画像処理装置
JP2014106909A (ja) * 2012-11-29 2014-06-09 Jvc Kenwood Corp 画像拡大装置、画像拡大方法、及び画像拡大プログラム
JP2014187601A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP2016143006A (ja) * 2015-02-04 2016-08-08 シナプティクス・ディスプレイ・デバイス合同会社 表示装置、表示パネルドライバ、表示パネルの駆動方法
JP2017215941A (ja) * 2016-05-27 2017-12-07 キヤノン株式会社 画像処理装置及びその制御方法
WO2018193333A1 (ja) * 2017-04-21 2018-10-25 株式会社半導体エネルギー研究所 画像処理方法および受像装置
CN108734668A (zh) * 2017-04-21 2018-11-02 展讯通信(上海)有限公司 图像色彩恢复方法、装置、计算机可读存储介质及终端
CN116563312A (zh) * 2023-07-11 2023-08-08 山东古天电子科技有限公司 一种用于双屏机显示图像分割方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685000B (zh) * 2008-09-25 2012-05-30 鸿富锦精密工业(深圳)有限公司 影像边界扫描的计算机系统及方法
WO2013025157A2 (en) * 2011-08-17 2013-02-21 Telefonaktiebolaget L M Ericsson (Publ) Auxiliary information map upsampling
WO2013036972A1 (en) * 2011-09-09 2013-03-14 Panamorph, Inc. Image processing system and method
JP2013219462A (ja) * 2012-04-05 2013-10-24 Sharp Corp 画像処理装置、画像表示装置、画像処理方法、コンピュータプログラム及び記録媒体
JP6255760B2 (ja) * 2013-07-16 2018-01-10 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム
JP6075888B2 (ja) * 2014-10-16 2017-02-08 キヤノン株式会社 画像処理方法、ロボットの制御方法
JP6473608B2 (ja) * 2014-11-27 2019-02-20 三星ディスプレイ株式會社Samsung Display Co.,Ltd. 画像処理装置、画像処理方法、及びプログラム
US9478007B2 (en) * 2015-01-21 2016-10-25 Samsung Electronics Co., Ltd. Stable video super-resolution by edge strength optimization
CN104820577B (zh) 2015-05-29 2017-12-26 京东方科技集团股份有限公司 显示装置及其显示信号输入系统、显示信号输入方法
CN105847730B (zh) * 2016-04-01 2019-01-15 青岛海信电器股份有限公司 一种视频码流输出的控制及处理方法、芯片、系统
JP7139333B2 (ja) * 2017-08-11 2022-09-20 株式会社半導体エネルギー研究所 表示装置
CN110998703A (zh) * 2017-08-24 2020-04-10 株式会社半导体能源研究所 图像处理方法
KR102407932B1 (ko) * 2017-10-18 2022-06-14 삼성디스플레이 주식회사 영상 프로세서, 이를 포함하는 표시 장치, 및 표시 장치의 구동 방법
JP7005458B2 (ja) * 2018-09-12 2022-01-21 株式会社東芝 画像処理装置、及び、画像処理プログラム、並びに、運転支援システム
GB2578769B (en) 2018-11-07 2022-07-20 Advanced Risc Mach Ltd Data processing systems
US10896492B2 (en) * 2018-11-09 2021-01-19 Qwake Technologies, Llc Cognitive load reducing platform having image edge enhancement
US10417497B1 (en) 2018-11-09 2019-09-17 Qwake Technologies Cognitive load reducing platform for first responders
US11890494B2 (en) 2018-11-09 2024-02-06 Qwake Technologies, Inc. Retrofittable mask mount system for cognitive load reducing platform
GB2583061B (en) * 2019-02-12 2023-03-15 Advanced Risc Mach Ltd Data processing systems
US11915376B2 (en) 2019-08-28 2024-02-27 Qwake Technologies, Inc. Wearable assisted perception module for navigation and communication in hazardous environments
US11238775B1 (en) * 2020-12-18 2022-02-01 Novatek Microelectronics Corp. Image adjustment device and image adjustment method suitable for light-emitting diode display
CN117115433B (zh) * 2023-10-24 2024-05-07 深圳市磐鼎科技有限公司 显示异常检测方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346070A (ja) * 2000-06-02 2001-12-14 Alps Electric Co Ltd 画像信号の輪郭検出回路及びそれを備えた画像表示装置
JP2002064704A (ja) * 2000-08-23 2002-02-28 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2005293265A (ja) * 2004-03-31 2005-10-20 Canon Inc 画像処理装置及び方法
JP2005346639A (ja) * 2004-06-07 2005-12-15 Nec Display Solutions Ltd 画像処理装置および画像処理方法
JP2006308665A (ja) * 2005-04-26 2006-11-09 Canon Inc 画像処理装置
JP2008021207A (ja) * 2006-07-14 2008-01-31 Fuji Xerox Co Ltd 画像処理システムおよび画像処理プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE68926702T2 (de) * 1988-09-08 1996-12-19 Sony Corp Bildverarbeitungsgerät
KR100360206B1 (ko) * 1992-12-10 2003-02-11 소니 가부시끼 가이샤 화상신호변환장치
JP3243861B2 (ja) 1992-12-10 2002-01-07 ソニー株式会社 画像情報変換装置
JPH06189231A (ja) * 1992-12-16 1994-07-08 Toshiba Corp 液晶表示装置
JP3766231B2 (ja) 1999-05-10 2006-04-12 Necビューテクノロジー株式会社 液晶表示装置
DE60040786D1 (de) * 1999-08-05 2008-12-24 Sanyo Electric Co Bildinterpolationsverfahren
JP2001078113A (ja) * 1999-09-06 2001-03-23 Sony Corp 映像機器および映像表示方法
JP3523170B2 (ja) 2000-09-21 2004-04-26 株式会社東芝 表示装置
JP4218249B2 (ja) * 2002-03-07 2009-02-04 株式会社日立製作所 表示装置
JP4177652B2 (ja) 2002-12-06 2008-11-05 シャープ株式会社 液晶表示装置
JP2004212503A (ja) 2002-12-27 2004-07-29 Casio Comput Co Ltd 照明装置及びその発光駆動方法並びに表示装置
JP2005309338A (ja) 2004-04-26 2005-11-04 Mitsubishi Electric Corp 画像表示装置および画像表示方法
JP4904783B2 (ja) 2005-03-24 2012-03-28 ソニー株式会社 表示装置及び表示方法
JP2007225871A (ja) 2006-02-23 2007-09-06 Alpine Electronics Inc 表示装置及びその表示方法
JP4808073B2 (ja) 2006-05-22 2011-11-02 シャープ株式会社 表示装置
JP5114872B2 (ja) 2006-06-03 2013-01-09 ソニー株式会社 表示制御装置、表示装置及び表示制御方法
JP2008096956A (ja) * 2006-09-15 2008-04-24 Olympus Corp 画像表示方法および画像表示装置
JP2008116554A (ja) 2006-11-01 2008-05-22 Sharp Corp バックライト制御装置、及び該装置を備えた映像表示装置
TWI354960B (en) * 2006-11-07 2011-12-21 Realtek Semiconductor Corp Method for controlling display device
JP4285532B2 (ja) 2006-12-01 2009-06-24 ソニー株式会社 バックライト制御装置、バックライト制御方法、および液晶表示装置
JP5117762B2 (ja) 2007-05-18 2013-01-16 株式会社半導体エネルギー研究所 液晶表示装置
JP2009031585A (ja) 2007-07-27 2009-02-12 Toshiba Corp 液晶表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001346070A (ja) * 2000-06-02 2001-12-14 Alps Electric Co Ltd 画像信号の輪郭検出回路及びそれを備えた画像表示装置
JP2002064704A (ja) * 2000-08-23 2002-02-28 Sony Corp 画像処理装置および方法、並びに記録媒体
JP2005293265A (ja) * 2004-03-31 2005-10-20 Canon Inc 画像処理装置及び方法
JP2005346639A (ja) * 2004-06-07 2005-12-15 Nec Display Solutions Ltd 画像処理装置および画像処理方法
JP2006308665A (ja) * 2005-04-26 2006-11-09 Canon Inc 画像処理装置
JP2008021207A (ja) * 2006-07-14 2008-01-31 Fuji Xerox Co Ltd 画像処理システムおよび画像処理プログラム

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144158A1 (ja) * 2011-04-22 2012-10-26 パナソニック株式会社 画像処理装置及び画像処理方法
US8842930B2 (en) 2011-04-22 2014-09-23 Panasonic Corporation Image processing device and image processing method
JP5914843B2 (ja) * 2011-04-22 2016-05-11 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
JP2013130902A (ja) * 2011-12-20 2013-07-04 Jvc Kenwood Corp 映像信号処理装置及び映像信号処理方法
WO2014065160A1 (ja) * 2012-10-24 2014-05-01 シャープ株式会社 画像処理装置
JP2014085892A (ja) * 2012-10-24 2014-05-12 Sharp Corp 画像処理装置
JP2014106909A (ja) * 2012-11-29 2014-06-09 Jvc Kenwood Corp 画像拡大装置、画像拡大方法、及び画像拡大プログラム
JP2014187601A (ja) * 2013-03-25 2014-10-02 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
JP2016143006A (ja) * 2015-02-04 2016-08-08 シナプティクス・ディスプレイ・デバイス合同会社 表示装置、表示パネルドライバ、表示パネルの駆動方法
JP2017215941A (ja) * 2016-05-27 2017-12-07 キヤノン株式会社 画像処理装置及びその制御方法
WO2018193333A1 (ja) * 2017-04-21 2018-10-25 株式会社半導体エネルギー研究所 画像処理方法および受像装置
CN108734668A (zh) * 2017-04-21 2018-11-02 展讯通信(上海)有限公司 图像色彩恢复方法、装置、计算机可读存储介质及终端
JPWO2018193333A1 (ja) * 2017-04-21 2020-02-27 株式会社半導体エネルギー研究所 画像処理方法および受像装置
CN108734668B (zh) * 2017-04-21 2020-09-11 展讯通信(上海)有限公司 图像色彩恢复方法、装置、计算机可读存储介质及终端
US11238559B2 (en) 2017-04-21 2022-02-01 Semiconductor Energy Laboratory Co., Ltd. Image processing method and image receiving apparatus
JP7184488B2 (ja) 2017-04-21 2022-12-06 株式会社半導体エネルギー研究所 画像処理方法および受像装置
CN116563312A (zh) * 2023-07-11 2023-08-08 山东古天电子科技有限公司 一种用于双屏机显示图像分割方法
CN116563312B (zh) * 2023-07-11 2023-09-12 山东古天电子科技有限公司 一种用于双屏机显示图像分割方法

Also Published As

Publication number Publication date
US8358307B2 (en) 2013-01-22
CN101952854A (zh) 2011-01-19
CN101952854B (zh) 2012-10-24
US20110043526A1 (en) 2011-02-24

Similar Documents

Publication Publication Date Title
WO2009130820A1 (ja) 画像処理装置、表示装置、画像処理方法、プログラムおよび記録媒体
JP5302961B2 (ja) 液晶表示装置の制御装置、液晶表示装置、液晶表示装置の制御方法、プログラムおよびその記録媒体
JP4806102B2 (ja) 液晶表示装置の制御装置、液晶表示装置、液晶表示装置の制御方法、プログラムおよび記録媒体
US7613363B2 (en) Image superresolution through edge extraction and contrast enhancement
US8224085B2 (en) Noise reduced color image using panchromatic image
EP2130176B1 (en) Edge mapping using panchromatic pixels
US9240033B2 (en) Image super-resolution reconstruction system and method
US8873889B2 (en) Image processing apparatus
JP4002871B2 (ja) デルタ構造ディスプレイでのカラー映像の表現方法及びその装置
US20040145599A1 (en) Display apparatus, method and program
US7945121B2 (en) Method and apparatus for interpolating image information
CN101753838B (zh) 图像处理装置和图像处理方法
US11854157B2 (en) Edge-aware upscaling for improved screen content quality
CN101675454A (zh) 采用全色像素的边缘绘图
JP2005122361A (ja) 画像処理装置及び方法、コンピュータプログラム、記録媒体
US8233748B2 (en) Image-resolution-improvement apparatus and method
US8948502B2 (en) Image processing method, and image processor
TWI384417B (zh) 影像處理方法及其裝置
US20110032269A1 (en) Automatically Resizing Demosaicked Full-Color Images Using Edge-Orientation Maps Formed In The Demosaicking Process
JP4966080B2 (ja) 対象物検出装置
US20160203617A1 (en) Image generation device and display device
US6718072B1 (en) Image conversion method, image processing apparatus, and image display apparatus
JP4658714B2 (ja) 画像中の線を検出する方法、装置、プログラム、および記憶媒体
CN101847252B (zh) 保持图像光滑性的图像放大方法
JP4827137B2 (ja) 解像度変換処理方法、画像処理装置、画像表示装置及びプログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880125297.7

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08874047

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12863212

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08874047

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP