WO2004102976A1 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
WO2004102976A1
WO2004102976A1 PCT/JP2004/003667 JP2004003667W WO2004102976A1 WO 2004102976 A1 WO2004102976 A1 WO 2004102976A1 JP 2004003667 W JP2004003667 W JP 2004003667W WO 2004102976 A1 WO2004102976 A1 WO 2004102976A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
signal
interpolation
pixels
interpolated
Prior art date
Application number
PCT/JP2004/003667
Other languages
French (fr)
Japanese (ja)
Inventor
Yukio Koyanagi
Original Assignee
Neuro Solution Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Neuro Solution Corp. filed Critical Neuro Solution Corp.
Publication of WO2004102976A1 publication Critical patent/WO2004102976A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N11/00Colour television systems
    • H04N11/06Transmission systems characterised by the manner in which the individual colour picture signal components are combined
    • H04N11/12Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only
    • H04N11/14Transmission systems characterised by the manner in which the individual colour picture signal components are combined using simultaneous signals only in which one signal, modulated in phase and amplitude, conveys colour information and a second signal conveys brightness information, e.g. NTSC-system
    • H04N11/146Decoding means therefor

Definitions

  • the present invention relates to an image processing apparatus, and in particular, to increase the resolution by increasing the number of pixels constituting a color image by interpolation processing, and to increase the definition of the image.
  • a color video signal is composed of a color signal (C signal) and a luminance signal (Y signal).
  • the chrominance signal is orthogonally modulated with a 3.58 MHz reference signal called a color subcarrier (color subcarrier) and multiplexed with a luminance signal.
  • the phase of the color subcarrier is opposite between both lines and between frames as shown in FIG.
  • Video signal processing on the receiver side is performed separately for the chrominance signal and the luminance signal, converted to RGB signals, and output to the display device. That is, on the receiver side, the color signal band is extracted from the frequency band characteristics of the composite video signal, and color demodulation is performed on the axes of two color difference signals (R-Y signal and B-Y signal). Then, a G-Y signal is generated by matrix synthesis from the demodulated R-Y and B-Y signals. Further, a luminance signal is added to these three color difference signals to generate an R signal, a G signal, and a B signal.
  • FIG. 3 is a diagram showing the configuration of these three types of YC separation circuits.
  • the two-dimensional YC separation utilizes the fact that the phase of a single subcarrier is inverted every line due to frequency interleaving. That is, as shown in FIG. 3 (b), a signal of one line is subtracted from a signal of a certain line to extract a color signal, and further, a color signal is extracted by a band pass filter of 3.58 MHz.
  • the three-dimensional YC separation further utilizes the fact that the phase of the color subcarrier is inverted for each frame. That is, as shown in Fig. 3 (c), the three-dimensional YC separation circuit combines the time-direction filter that subtracts the signal between two frames to extract the color signal and the one-dimensional and two-dimensional filters described above. Be composed.
  • the current NTSC video signal uses a 2: 1 interlaced scan, so the vertical resolution is about 300 lines.
  • the number of scanning lines of a CRT used in a general television receiver is 525, and the resolution is reduced by the interless scanning. Therefore, by increasing the number of pixels in the vertical direction by field interpolation using a field buffer to make the scanning non-interlaced, the vertical resolution is improved. Techniques for increasing the degree are known.
  • Some CRTs used in high-definition television receivers have the number of vertical pixels set to about twice as large as the CRT of a normal television receiver.
  • a method is known in which the number of pixels in the scanning line direction is doubled by interpolation to increase the resolution in the horizontal direction.
  • the present invention has been made to solve such a problem, and an object of the present invention is to make it possible to achieve high definition of an image with a relatively simple circuit configuration.
  • an image processing apparatus of the present invention performs an interpolation operation using a finite number of sample functions using each pixel data of a target pixel and a plurality of peripheral pixels around the target pixel.
  • the pixel of interest and this Interpolation processing means for obtaining an interpolated composite video signal comprising pixel data of interpolation pixels on a straight line connecting to each of the four peripheral pixels arranged at the closest position in the diagonal direction of the pixel; and the interpolation processing means
  • the first operation on the pixel data adjacent between the lines using the pixel data of each interpolated pixel obtained by the above, the luminance signal and the chrominance signal are obtained from the interpolated composite video signal.
  • the YC separation unit performs a second operation on pixel data adjacent in the line direction using the pixel data after the first operation has been performed, Means for adjusting the phase of the color signal separated from the interpolated composite video signal.
  • the pixel value of the interpolation pixel on a straight line connecting the target pixel and each of the four peripheral pixels arranged at the closest position in the oblique direction to the target pixel is calculated as follows. Using the pixel values of the pixels, the values are obtained according to an interpolation operation using a finite number of sampling functions, and then the luminance signal and the chrominance signal are separated. It is only necessary to perform interpolation processing on one composite video signal instead of on the video signal, and it is possible to reduce the memory to be prepared for interpolation of the number of pixels. As a result, the circuit scale of the image processing apparatus can be reduced, and higher definition of an image can be achieved with a simpler circuit configuration than in the past. , Brief description of drawings
  • FIG. 1 is a diagram showing a waveform of a composite video signal.
  • FIG. 2 is a diagram showing the phase of a color subcarrier in a composite video signal.
  • FIG. 3 is a diagram showing the configuration of three types of YC separation circuits according to the conventional method.
  • FIG. 4 is a block diagram illustrating a configuration example of a main part of the image processing apparatus according to the present embodiment.
  • FIG. 5 is a diagram showing the relationship between the arrangement of each pixel included in the three scanning lines forming the original image and the four interpolated pixels obtained by the interpolation processing in the present embodiment.
  • FIG. 6 is a diagram showing a sampling function used for the interpolation processing of the present embodiment.
  • FIG. 7 is a diagram illustrating a configuration example of the interpolation processing unit according to the present embodiment that performs the interpolation calculation illustrated in FIG.
  • FIG. 8 is a diagram showing the relationship between each pixel constituting the composite video signal input to the interpolation processing unit and the phase of the color signal.
  • FIG. 9 is a diagram showing the relationship between each pixel constituting the high-definition composite video signal output from the interpolation processing unit and the phase of the color signal.
  • FIG. 10 is a diagram showing the phase of a color signal extracted from a high-definition composite video signal.
  • FIG. 11 is a diagram showing the adjusted phase of the color signal extracted from the high-definition composite video signal.
  • FIG. 12 is a diagram showing the relationship between the arrangement of each pixel included in the three scanning lines constituting the original image and the four interpolation pixels obtained by another interpolation processing in the present embodiment.
  • FIG. 13 is a diagram illustrating a configuration example of a pixel value extraction unit included in the interpolation processing unit according to the present embodiment that performs the interpolation calculation illustrated in FIG.
  • FIG. 14 is a diagram illustrating a configuration example of a pixel value calculation unit included in the interpolation processing unit according to the present embodiment that performs the interpolation calculation illustrated in FIG. BEST MODE FOR CARRYING OUT THE INVENTION
  • FIG. 4 is a block diagram illustrating a configuration example of a main part of the image processing apparatus according to the present embodiment. As shown in FIG. 4, the image processing apparatus according to the present embodiment includes an AZD converter 1, an interpolation processing unit 2, and a YC separation circuit 3.
  • the A / D converter 1 converts analog composite video signals (excluding sync and burst signals) to digital data.
  • the input composite video signal is generated, for example, by detecting an image signal by image intermediate frequency processing.
  • the digital composite video signal output from the A / D converter 1 is input to the interpolation processing unit 2.
  • the interpolation processing unit 2 calculates the pixel value (pixel data) of the interpolated pixel on a straight line connecting the two adjacent pixels arranged diagonally closest to each other with respect to the pixel of interest and the two adjacent pixels. Interpolation calculation is performed to find the average of each pixel value in the pixel. At this time, the interpolation position of each interpolated pixel is set to the position of 1 Z 4 of the distance from the pixel of interest to each neighboring pixel, and four interpolation pixels are generated around the pixel of interest, and instead of the pixel of interest and the neighboring pixels, Outputs the pixel data of the interpolation pixel.
  • the YC separation circuit 3 uses the pixel data of each interpolated pixel output from the interpolation processing unit 2 to obtain a luminance signal (Y signal) and a chrominance signal (C signal) in a frequency-in-leave relationship.
  • the luminance signal and the chrominance signal are separated from the interpolated composite video signal. Specifically, the signal of a certain line generated by interpolation is added to the signal of the previous line, and the resulting signal is subtracted from the signal of the certain line to obtain a color signal.
  • Extract luminance signal by subtracting from video signal.
  • the interpolation processing unit 2 when the sampling frequency is 14.318 MHz, the horizontal Since approximately 63 S, which is one line period, is divisible by 9 10 clocks, the pixels are arranged in a line along the vertical direction.
  • FIG. 5 is a diagram showing the relationship between the arrangement of each pixel included in the three scanning lines forming the original image and the four interpolated pixels obtained by the interpolation processing in the present embodiment.
  • the horizontal direction shown in FIG. 5 is the line direction along each scanning line corresponding to the input signal.
  • the points indicated by “letters” indicate pixels of the original image that are regularly arranged in the vertical and horizontal directions along each scanning line, and the points indicated by “ ⁇ ” indicate the vicinity of the pixel of interest. Indicates interpolation pixels obtained by the interpolation processing.
  • the pixel values a 0, a 1, a 2, and a 3 of the four interpolation pixels Q 0, Q 1, Q 2, and Q 3 arranged on the diagonal line around the pixel of interest P are arranged on the diagonal line.
  • the calculation is based on the pixel values of the three pixels arranged side by side (the pixel of interest and its two neighboring pixels). For example, when obtaining the pixel value a 0 of the interpolation pixel Q 0, each pixel of the pixel of interest P arranged on the diagonal line including the interpolation pixel Q 0 and the neighboring pixels P 0 and P 3 located closest to the pixel of interest P Use the values a, b, and e.
  • the position of the interpolated pixel Q 0 is set at the position of 14 on the line connecting the target pixel P and the diagonal pixel P 0, and the pixel value a 0 of the interpolated pixel Q 0 is obtained by the following operation .
  • the pixel values a l, a 2, and a 3 of the other three interpolation pixels Q l, Q 2, and Q 3 are calculated as follows.
  • the function shown in Fig. 6 is a sampling function, which is differentiable only once in the entire region, and converges to 0 at finite sample positions t1 and t2.
  • a case where the value of a function has a finite value other than 0 in a local region and becomes 0 in other regions is called a finite base.
  • the interpolation operation is performed using a finite number of sampling functions as shown in Fig. 6, so that only a finite number of discrete data is used and the censoring error It is possible to obtain an accurate interpolated value without causing any distortion, and to minimize distortion of the output waveform.
  • the numerical sequence forming the coefficients ⁇ 8, 1, -1 ⁇ included in the interpolation arithmetic expressions (1) to (4) for the interpolation pixels Q0 to Q3 is the above-mentioned finite sample It is the basis of the transformation function. Therefore, it can be said that the interpolation calculations shown in the above equations (1) to (4) interpolate the number of pixels without distortion using a finite number of sampling functions.
  • FIG. 7 is a diagram showing an example of a hardware configuration for executing the interpolation calculations of the above equations (1) to (4).
  • the interpolation processing unit 2 shown in Fig. 7 has six D-type flip-flops 10 to 15, four adders 20 to 23, four subtractors 30 to 33, and two lines. It is configured to include memories 50 and 52 and an eightfold multiplier 40.
  • one horizontal line corresponds to 910 clocks, and one horizontal line is composed of 910 pixels. 14.3 18
  • the pixel data (pixel value d) of pixel P 2 input with a delay of two pixels is shifted from the D-type flip-flop 12 by the pixel data of pixel P (pixel value d) input with a delay of (910 + 1) pixels.
  • a) is the pixel data (pixel value c) of the pixel P 1 input with a delay of (910 x 2) pixels from the line memory 50, and (910 x 2 + 2) pixels from the line memory 52.
  • the pixel data (pixel value b) of the pixel P0 input with a partial delay is output from the D-type flip-flop 14 respectively.
  • the output value of the line memory 50 is multiplied by 8 (8 a) and the output value of the D-type flip-flop 14 ( b) is subtracted from the output value (e) of the D-type flip-flop 10 to obtain the pixel value a 0 of the interpolated pixel Q 0 shown in the above equation (1).
  • the output value of the line memory 50 is multiplied by 8 (8 a) and the output value of the D-type flip-flop 12 (d)
  • the output value (c) of the line memory 52 is obtained.
  • the interpolation values a 0, a 1, a 2, and a 3 corresponding to the four interpolation pixels Q 0 to Q 3 are output from the four subtractors 30 to 33, respectively. After these values are temporarily held in the D-type flip-flop 15, they are output as four interpolation results by the interpolation processing unit 2.
  • the contents of the interpolation processing unit 2 are disclosed in Japanese Patent Application Laid-Open No. 2000-148610 filed by the present inventors.
  • FIG. 8 is a diagram showing the relationship between each pixel constituting the composite video signal input to the interpolation processing unit 2 and the phase of the color signal.
  • the color signal returns to its original state in four pixels (four clocks), and the phase shifts by 90 degrees for each pixel.
  • one horizontal line is composed of 910 pixels. Therefore, the order of the color signal
  • the phases are reversed between the lines as shown in Figure 8.
  • the two-dimensional YC separation described above uses the fact that the phase of the color signal is inverted for each line in this way, and subtracts the signal one line before from the signal on a certain line to obtain the color signal. Has been taken out.
  • FIG. 9 is a diagram showing the relationship between each pixel constituting the high-definition composite video signal output from the interpolation processing unit 2 and the phase of the color signal.
  • the pixel values a0 to a3 of the four interpolation pixels Q0 to Q3 shown in FIG. It is calculated by 4).
  • the phase of the color signal at the pixel Q 0 is as shown by the arrow in FIG.
  • the phases of the color signals at the other three interpolation pixels Q1 to Q3 are as shown by arrows in FIG.
  • the phase of the color signal at each of the interpolation pixels becomes as shown in FIG. Become.
  • the phase of the resulting high-definition composite video signal is well-aligned, and the phase of the color signal constituting the video signal before interpolation becomes clear.
  • the phase of the color signal is reversed between the lines. Therefore, even after the image has been refined by the interpolation processing, the color signal can be extracted by calculating the signal of a certain line and the signal of the previous line.
  • the extraction of the color signal at the interpolation pixel Q 0 generated from the pixel of interest P is performed by the pixel value a 0 of the interpolation pixel Q 0 and the pixel value a 2 ′ of the interpolation pixel Q 2 ′ one line before.
  • a 0 " a 0-(a 0 + a 2 ') / 2.0. 6 6 6 ⁇ ⁇ ⁇ (5)
  • a 0" is the color signal at the interpolation pixel Q 0 This is a pixel value having only components.
  • the pixel value a 0 of a certain line is added to the pixel value a 2 'of the previous line, and 2.
  • a luminance signal is obtained by dividing by 0 6 16.
  • a 1 " a 1-(a 1 + a 3 ') / 2.0 6 1 6
  • a 3 " a 3-(a 3 + a 1 ') / 2.0 6 1 6
  • FIG. 10 shows the phase of the color signal extracted from the high-definition composite video signal as described above.
  • the phase of the extracted color signal is shifted from the vertical or horizontal direction, and the correlation with the phase of the burst signal cannot be correctly obtained. Therefore, it is necessary to adjust the phase of the color signal to the phase of the burst signal.
  • This adjustment can be performed in the subsequent stage (not shown) of the YC separation circuit 3, but can also be performed in the YC separation circuit 3.
  • FIG. 11 is a diagram showing the adjusted phase of the color signal when the phase of the color signal is adjusted by the YC separation circuit 3.
  • the phase adjustment of the color signal at the interpolated pixel Q 3 located on the diagonal of the interpolated pixel Q 0 is performed by the pixel value a 3 "of the interpolated pixel Q 3 and the pixel value a 2 "and
  • the calculation is performed by: As described above, it is preferable to form the pixel values after the phase adjustment diagonally, since the color signal components are arranged evenly.
  • color signals at two interpolation pixels Q 0 and Q 3 have been described here, color signals at two interpolation pixels Q 1 and Q 2 on different diagonals are generated. May be. Alternatively, all the color signals at the four interpolation pixels Q 0, Q 1, Q 2, and Q 3 may be generated.
  • the image is made high-definition by the interpolation calculation of the above equations (1) to (4). Therefore, the high-definition composite video signal after interpolation is also obtained before interpolation. Similarly to the above, the phase of the color signal can be made to be opposite between the lines. Therefore, as shown in FIG. 4, the interpolation processing unit 2 is arranged in the preceding stage of the YC separation circuit 3, and the YC separation can be performed after the image is made high definition.
  • the color signal is extracted by calculating the signals of the adjacent lines constituting the high-definition composite video signal, and the luminance signal is obtained by subtracting the color signal from the high-definition composite video signal.
  • the luminance signal is extracted by performing the operation of the second term on the right side of equations (5) to (8), and the color signal is obtained by subtracting the luminance signal from the high-definition composite video signal. Is also good.
  • the interpolation operation disclosed in Japanese Patent Application Laid-Open No. 2000-148061 shown in FIGS. 5 and 7 has been described.
  • the present invention is not limited to this.
  • this is also good after applying the interpolation operation disclosed in Japanese Patent Laid-Open No. 2000-38021 filed by the present inventor.
  • FIGS. 12 to 14 are diagrams for explaining the interpolation process disclosed in Japanese Patent Application Laid-Open No. 2000-38021.
  • FIG. 12 is a diagram showing the relationship between the arrangement of each pixel constituting the original image and the interpolated pixels obtained by the interpolation processing.
  • the horizontal direction shown in Fig. 12 is the line direction along each scanning line corresponding to the input signal, and the points indicated by "parables" are the vertical and horizontal directions along each scanning line.
  • the pixels of the original image that are regularly arranged are shown in Fig. 7, and points indicated by " ⁇ " indicate the interpolated pixels obtained by the interpolation process around the target pixel.
  • a 2 ⁇ 8 e + (b + c + f)-. (D + g + h) ⁇ / 8 ⁇ ⁇ ⁇ (12)
  • a 3 ⁇ 8 e + (d + g + h)-(b + c + f) ⁇ / 8---(13)
  • a 4 ⁇ 8 e + (f + h + i)-(a + b + d) ⁇ / 8---(14)
  • a new pixel generated on a straight line connecting the central pixel P 5 and the lower right pixel P 1 at a quarter of the distance from the central pixel P 5 to the pixel P 1 is Q 1
  • the new pixel generated on the straight line connecting the central pixel P5 and the lower left pixel P3 at the position 14 of the distance from the central pixel P5 to the pixel P3 is Q2, and the central pixel
  • FIG. 13 is a diagram showing a detailed configuration of the pixel value extraction unit 100 that extracts the pixel values a to i of the nine pixels P 1 to P 9 described above.
  • the pixel value extraction unit 100 is configured to include six D-type flip-flops 110 to 115 and two line memories 12 0 and 12 1. ing.
  • the pixel value extraction unit 100 stores a pixel value of each pixel included in the scanning line corresponding to the input signal as data of a predetermined number of bits (pixel data) as a clock corresponding to a predetermined sampling frequency. Input in synchronization with signal CK1.
  • Each input pixel data is composed of two cascade-connected D-type flip-flops 110, 111, a cascade-connected line memory 120, and two D-type flip-flops 1 1, 2, 1 1 and 3 respectively.
  • the pixel data of each pixel output from the line memory 120 is input to the cascade-connected line memory 121 and D-type flip-flops 114, 115.
  • Each of the line memories 12 0 and 12 1 is a first-in first-out memory that stores the pixel values of each pixel corresponding to one scanning line of the input signal in the input order, and stores the pixel data of each input pixel. Output at the timing delayed by one scan line.
  • the pixel P arranged at the upper left of the central pixel P 5 Considering the point in time when the pixel data (pixel value i) corresponding to 9 is input to the pixel value extraction unit 100, the pixel data (pixel value h) of the pixel P8 input one pixel ahead is D
  • the pixel data (pixel value g) of the pixel P7 output from the type flip-flop 110 and input two pixels ahead is output from the D-type flip-flop 111.
  • the pixel data (pixel value f) of the pixel P 6 input one scan line ahead is output from the line memory 120, and the pixel of the central pixel P 5 input one scan line and one pixel ahead
  • the data (pixel value e) is output from the D-type flip-flop 112, and the pixel data of the pixel P4 (pixel value d) input one scanning line and two pixels ahead is converted to the D-type flip-flop 111. Output from 3.
  • the pixel data (pixel value c) of the pixel P3 input two scanning lines ahead is output from the line memory 121, and the pixel P2 pixel input two pixels ahead and one pixel ahead is input.
  • the data (pixel value b) is output from the D-type flip-flop 114, and the pixel data (pixel value a) of the pixel P1 (pixel value a) input two scan lines and two pixels ahead is converted to the D-type flip-flop 11 Output from 5.
  • FIG. 14 shows a detailed configuration of a pixel value calculation unit 200 that calculates pixel values A 1 to A 4 in four interpolation pixels Q 1 to Q 4 from nine pixel values a to i.
  • the pixel value calculation unit 200 is composed of 12 adders 13 0-: 14 1, 4 subtracters 15 0-15 3, and 8 times It is configured to include a multiplier 160 for performing multiplication and four dividers 170 to 173 for performing a division process of dividing an input value by 8.
  • the arithmetic processing of the pixel value A 1 is performed by adding an adder 13 0, 13 2, 13 4, 13 7, 13 8, a subtractor 15 0, a multiplier 16 0, and a divider 17 0. It is performed using. Specifically, three pixel values a are obtained by two adders 1 30 and 1 3 4. , B, and d are added, and three pixel values f, h, and i are added by the other two adders 13 2 and 13 7.
  • the output value (a + b + d), which is the addition result output from the adder 134, is added to the adder 133
  • the result of subtracting the output value (f + h + i), which is the addition result output from, is output.
  • the addition result ⁇ 8 e + (a + b + d)-(f + h + i) ⁇ is output.
  • the pixel value A 1 shown in the equation (11) is calculated by performing the division process with the divisor 8 by the divider 170 connected in the subsequent stage, and the calculation result is output from the divider 170 Is output.
  • the arithmetic processing of the pixel value A 2 is performed by adding an adder 13 1, 13 3, 13 5, 13 6, 13 9, a subtractor 15 1, a multiplier 16 0, and a divider 17 1 It is performed using and. Specifically, three pixel values b, c, and f are added by two adders 13 1 and 13 5, and three pixel values are added by the other two adders 13 3 and 1 36. Pixel values d, g, and h are added.
  • the output value (b + c + f) which is the addition result output from the adder 135 is added to the adder 1 36
  • the result of subtracting the output value (d + g + h), which is the addition result output from, is output.
  • the addition result ⁇ 8 e + (b + c + f) — (d + g + h) ⁇ is output.
  • the pixel value A 2 shown in equation (12) is calculated by performing a division process with a divisor of 8 by a divider 17 1 connected to the subsequent stage, and this calculation result is output from the divider 17 1 Is output.
  • the arithmetic processing of the pixel value A 3 is performed by the adders 13 1, 13 3, 13 5, 1 This is performed using 36, 140, a subtractor 152, a multiplier 160, and a divider 1772. Specifically, three pixel values d, g, and h are added by two adders 13 3 and 1 36, and three pixel values are added by the other two adders 13 1 and 1 35. Pixel values b, c, and f are added.
  • the output value (d + g + h) output from the adder 13 6 is calculated from the output value (d + g + h).
  • the result of subtracting the output value (b + c + i), which is the addition result output from, is output.
  • the addition result (8e + (d + g + h)-(b + c + f) ⁇ is output.
  • the pixel value A3 shown in the equation (13) is calculated by performing the division process with the divisor 8 by the divider 172 connected at the subsequent stage, and the calculation result is output from the divider 172. Is output.
  • the arithmetic processing of the pixel value A 4 is performed by adding the adders 13 0, 13 2, 13 4, 13 7, 14 1, the subtractor 15 3, the multiplier 16 0, and the divider 17 3 It is performed using and. Specifically, three pixel values f, h, and i are added by two adders 1332 and 137, and three pixel values are added by the other two adders 1330 and 1334. Pixel values a, b, and d are added.
  • the phase of the color signal of the high-definition composite video signal after the interpolation is linear.
  • the phase can be reversed between the images, and the YC separation can be performed after the image has been refined. Therefore, the memory to be prepared for interpolation of the number of pixels can be reduced to one for the composite video signal, and the circuit scale can be reduced.
  • a 1 ⁇ 10 e + (a + b + d) — (c + f + g + h + i) ⁇ / 8--(15)
  • a 3 ⁇ 10 e + (d + g + h)-(a + b + c + f + i) ⁇ / 8
  • a 4 ⁇ 10 e + (f + h + i)-(a + b + c + d + g) ⁇ / 8--(18)
  • a 1 ⁇ 10 e + 2 b + 2 d-(c + f + g + h) ⁇ / 10 (19)
  • a 2 (10 .e + 2 b + 2 f-(a + d + h + i) ⁇ / 10---(20)
  • a 3 ⁇ 10 e + 2 d + 2 h-(a + b + f + i) ⁇ / 10 (21)
  • a 4 ⁇ 10 e + 2 f + 2 h-(b + c + d + g) ⁇ / 10---(22)
  • the NTSC system is used as an example of an image signal.
  • the present invention can be similarly applied to other signal standards such as the PAL system and the SECAM system.
  • the technique of YC separation is realized by a hardware configuration.
  • DSP ⁇ software or the like.
  • the YC separation device of this embodiment is actually configured with a computer CPU or MPU, RAM, ROM, etc., and is stored in RAM or ROM. It can be realized by running a program.
  • the present invention can be realized by recording a program that causes a computer to perform the functions of the above-described embodiment on a recording medium such as a CD-ROM and reading it into the computer.
  • a recording medium for recording the above program a flexible disk, a disk, a magnetic tape, an optical disk, a magneto-optical disk, a DVD, a nonvolatile memory card, and the like can be used in addition to the CD-ROM.
  • it can be realized by downloading the above program to a computer via a network such as an Internet network.
  • all or some of the programs may be executed by another computer.
  • the present invention is useful for a device having a function of increasing the resolution by increasing the number of pixels constituting a color image by interpolation processing and increasing the definition of the image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Of Color Television Signals (AREA)
  • Color Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

An image processing device has an interpolating section (2) for creating pixel data on each interpolated pixel by interpolation using a sampling function with finite supports and a YC separating circuit (3) for separating the luminance signal and the color signal from the interpolated composite video signal by carrying out a predetermined calculation of data on adjacent pixels of the interpolated pixel on an adjacent line. Therefore, for even the interpolated-pixel composite signal, the phase of the color signal of one line is opposite to that of the adjacent line. As a result, after the image is converted to a high definition one, YC separation is carried out. The R, G, and B signals are not subjected to interpolation, but only one composite signal is subjected to interpolation. Memories for interpolating pixels can be reduced.

Description

画像処理装置 Image processing device
技術分野 Technical field
本発明は画像処理装置に関し、 特に、 カラー画像を構成する画素の数 を補間処理によって増やすことにより解像度を上げ、 画像を高精細化す 明  The present invention relates to an image processing apparatus, and in particular, to increase the resolution by increasing the number of pixels constituting a color image by interpolation processing, and to increase the definition of the image.
る機能を備えた装置に用いて好適なものである。 It is suitable for use in an apparatus having a function of
糸田 1  Itoda 1
 book
背景技術 Background art
一般に、 カラービデオ信号は、 色信号 ( C信号) と輝度信号 (Y信号 Generally, a color video signal is composed of a color signal (C signal) and a luminance signal (Y signal).
) とが周波数多重されて構成され、 コンポジッ ト · ビデオ信号と呼ばれ ている。 N T S C信号の場合、 図 1 に示すように、 色信号は色副搬送波 (カラ一サブキャ リア) と呼ばれる 3 . 5 8 M H z の基準信号を直交変 調して、 輝度信号に多重されている。 カラーサブキャリアの位相は、 図 2 に示すようにライン間およびフレーム間の双方で逆相となっている。 また、 輝度信号に色信号を多重する際、 色復調時に位相の基準となるバ —ス ト信号も同時に多重される。 ) Are frequency-multiplexed and are called composite video signals. In the case of the NTSSC signal, as shown in FIG. 1, the chrominance signal is orthogonally modulated with a 3.58 MHz reference signal called a color subcarrier (color subcarrier) and multiplexed with a luminance signal. The phase of the color subcarrier is opposite between both lines and between frames as shown in FIG. When multiplexing a luminance signal with a chrominance signal, a burst signal serving as a phase reference during color demodulation is also multiplexed.
受信機側でのビデオ信号処理は、 色信号と輝度信号とに対して別々に 行われ、 R G B信号に変換されて表示装置に出力される。 すなわち、 受 信機側では、 コンポジッ ト · ビデオ信号の周波数帯域特性から色信号の 帯域を抜き取り、 2つの色差信号 (R— Y信号、 B— Y信号) の軸で色 復調を行う。 そして、 復調された R— Y信号、 B— Y信号から G— Y信 号をマト リクス合成で生成する。 さ らに、 これら 3つの色差信号に輝度 信号を加算して R信号、 G信号、 B信号を生成する。 受信機側における上述のようなビデオ信号処理を行うために、 コンポ ジッ ト · ビデオ信号から色信号成分と輝度信号成分とを分離する必要が ある。 この分離は一般的に Y C分離と呼ばれる。 Y C分離の方法は、 1 次元 Y C分離、 2次元 Y C分離、 3次元 Y C分離の 3つに大きく分類さ れる。 図 3は、 これら 3種類の Y C分離回路の構成を示す図である。 Video signal processing on the receiver side is performed separately for the chrominance signal and the luminance signal, converted to RGB signals, and output to the display device. That is, on the receiver side, the color signal band is extracted from the frequency band characteristics of the composite video signal, and color demodulation is performed on the axes of two color difference signals (R-Y signal and B-Y signal). Then, a G-Y signal is generated by matrix synthesis from the demodulated R-Y and B-Y signals. Further, a luminance signal is added to these three color difference signals to generate an R signal, a G signal, and a B signal. In order to perform the above-mentioned video signal processing on the receiver side, Jitter · It is necessary to separate the chrominance signal component and the luminance signal component from the video signal. This separation is commonly called YC separation. The methods of YC separation are roughly classified into three types: one-dimensional YC separation, two-dimensional YC separation, and three-dimensional YC separation. FIG. 3 is a diagram showing the configuration of these three types of YC separation circuits.
1次元 Y C分離は、 図 3 ( a ) に示すように、 色信号が 3 . 5 8 M H z付近にあることに着目して、 色信号の帯域を通すバンドパスフィル夕 で色信号を取り出し、 その他の信号を輝度信号とする方法である。  In the one-dimensional YC separation, as shown in Fig. 3 (a), focusing on the fact that the color signal is near 3.58 MHz, extracting the color signal with a bandpass filter that passes the color signal band, This is a method of using other signals as luminance signals.
2次元 Y C分離は、 カラ一サブキャリアの位相が周波数インタリーブ により 1 ライン毎に反転していることを利用したものである。 すなわち 、 図 3 ( b ) に示すように、 あるラインの信号から 1 ライン前の信号を 引き算して色信号を取り出し、 更に 3 . 5 8 M H z のバンドパスフィル 夕で色信号を取り出す。  The two-dimensional YC separation utilizes the fact that the phase of a single subcarrier is inverted every line due to frequency interleaving. That is, as shown in FIG. 3 (b), a signal of one line is subtracted from a signal of a certain line to extract a color signal, and further, a color signal is extracted by a band pass filter of 3.58 MHz.
また、 3次元 Y C分離は、 カラーサブキャリアの位相が 1 フレーム毎 に反転していることを更に利用したものである。 すなわち、 3次元 Y C 分離回路は図 3 ( c ) に示すように、 2 フレーム間の信号を引き算して 色信号を取り出す時間方向のフィルタと、 上述した 1次元および 2次元 のフィルタとを組み合わせて構成される。  The three-dimensional YC separation further utilizes the fact that the phase of the color subcarrier is inverted for each frame. That is, as shown in Fig. 3 (c), the three-dimensional YC separation circuit combines the time-direction filter that subtracts the signal between two frames to extract the color signal and the one-dimensional and two-dimensional filters described above. Be composed.
ところで、 近年ではテレビジョ ン画像の高精細化が強く要求されてお り、 画像の品質を向上させるための手法として、 走査線の数を増やすと ともに水平画素の数を増やす方法が提供されている。  By the way, in recent years, there has been a strong demand for higher definition television images, and as a method for improving image quality, a method has been provided in which the number of scanning lines and the number of horizontal pixels are increased. I have.
例えば、 現行の N T S C方式のビデオ信号は、 2 : 1 のインターレス 走査を行っているため、 垂直解像度は 3 0 0本程度となる。 ところが、 一般のテレビジョ ン受像機で用いられている C R Tの走査線は 5 2 5本 であり、 インタ一レス走査によって解像度が低下している。 そこで、 フ ィ一ルドバッファを用いたフィールド補間によって垂直方向の画素数を 増やして走査をノン · インターレス化することにより、 垂直方向の解像 度を上げる手法が知られている。 For example, the current NTSC video signal uses a 2: 1 interlaced scan, so the vertical resolution is about 300 lines. However, the number of scanning lines of a CRT used in a general television receiver is 525, and the resolution is reduced by the interless scanning. Therefore, by increasing the number of pixels in the vertical direction by field interpolation using a field buffer to make the scanning non-interlaced, the vertical resolution is improved. Techniques for increasing the degree are known.
また、 高品位テレビジョ ン受像機に用いられている C R Tには、 垂直 画素数が通常のテレビジョ ン受像機の C R Tに比べて 2倍程度に設定さ れたものがある。 この種のテレビジョ ン受像機において、 走査線方向の 画素数を補間によって 2倍に増やすことにより、 水平方向の解像度を上 げる手法が知られている。  Some CRTs used in high-definition television receivers have the number of vertical pixels set to about twice as large as the CRT of a normal television receiver. In a television receiver of this type, a method is known in which the number of pixels in the scanning line direction is doubled by interpolation to increase the resolution in the horizontal direction.
しなしながら、 上述のようにテレビジョ ン画像の品質を上げるために 画素数を補間すると、 各ライン間におけるカラーサブキャ リアの位相関 係に狂いが生じ、 1 ライン毎に位相が反転していることを利用した Y C 分離の手法 ( 2次元 Y C分離および 3次元 Y C分離) が利用できなくな つてしまう。 そのために従来は、 高精細化のための補間処理を行う前に Y C分離処理を行わざるを得なかった。  However, if the number of pixels is interpolated to improve the quality of the television image as described above, the positional correlation of the color subcarriers between the lines will be out of order, and the phase will be inverted every line. The YC separation method (two-dimensional YC separation and three-dimensional YC separation) that takes advantage of this fact cannot be used. Therefore, conventionally, the YC separation processing had to be performed before the interpolation processing for high definition was performed.
ところが、 Y C分離を行った後に画像の高精細化を行う場合には、 Y C分離後に生成された R信号、 G信号、 B信号のそれぞれに対して補間 処理を行う必要がある。 通常、 画素数の補間のためには大容量のメモリ が必要になるが、 このメモリ を R信号、 G信号、 B信号のそれぞれに対 して用意しなくてはならないため、 回路規模が非常に大きくなつてしま うという問題があった。 発明の開示  However, when performing high-definition images after performing YC separation, it is necessary to perform interpolation processing on each of the R, G, and B signals generated after YC separation. Normally, a large-capacity memory is required to interpolate the number of pixels, but since this memory must be prepared for each of the R, G, and B signals, the circuit scale is extremely large. There was a problem of growing. Disclosure of the invention
本発明は、 このような問題を解決するために成されたものであり、 比 較的簡単な回路構成によって画像の高精細化を行う ことができるように することを目的としている。  The present invention has been made to solve such a problem, and an object of the present invention is to make it possible to achieve high definition of an image with a relatively simple circuit configuration.
上記課題を解決するために、 本発明の画像処理装置は、 着目画素およ びその周囲にある複数の周辺画素の各画素データを用いて、 有限台の標 本化関数を用いた補間演算を行う ことにより、 上記着目画素とこの着目 画素の斜め方向の最近接位置に配置された 4個の周辺画素のそれぞれと を結ぶ直線上の補間画素の画素データから成る補間済みコンポジッ ト · ビデオ信号を求める補間処理手段と、 上記補間処理手段により求められ た各補間画素の画素デ一夕を用いて、 ライン間で隣接する画素データに 対して第 1 の演算を行う ことにより、 上記補間済みコンポジッ ト · ビデ ォ信号から輝度信号と色信号とを分離する Y C分離手段とを備える。 本発明の他の態様では、 上記 Y C分離手段は、 上記第 1 の演算が行わ れた後の画素データを用いて、 ライン方向に隣接する画素データに対し て第 2の演算を行う ことにより、 上記補間済みコンポジッ ト · ビデオ信 号から分離した色信号の位相を調整する手段を含む。 In order to solve the above problem, an image processing apparatus of the present invention performs an interpolation operation using a finite number of sample functions using each pixel data of a target pixel and a plurality of peripheral pixels around the target pixel. By doing so, the pixel of interest and this Interpolation processing means for obtaining an interpolated composite video signal comprising pixel data of interpolation pixels on a straight line connecting to each of the four peripheral pixels arranged at the closest position in the diagonal direction of the pixel; and the interpolation processing means By performing the first operation on the pixel data adjacent between the lines using the pixel data of each interpolated pixel obtained by the above, the luminance signal and the chrominance signal are obtained from the interpolated composite video signal. YC separating means for separating the above. In another aspect of the present invention, the YC separation unit performs a second operation on pixel data adjacent in the line direction using the pixel data after the first operation has been performed, Means for adjusting the phase of the color signal separated from the interpolated composite video signal.
本発明は上述したように、 着目画素とこの着目画素の斜め方向の最近 接位置に配置された 4個の周辺画素のそれぞれとを結ぶ直線上の補間画 素の画素値を、 着目画素および周辺画素の各画素値を用いて、 有限台の 標本化関数を用いた補間演算に従って求め、 その後で輝度信号と色信号 との分離を行うようにしたので、 R信号、 G信号、 B信号のそれぞれに 対してではなく、 1つのコンポジッ ト · ビデオ信号に対してのみ補間処 理を行えばよく、 画素数の補間のために用意すべきメモリを少なくする ことができる。 これにより、 画像処理装置の回路規模を削減することが でき、 従来に比べて簡単な回路構成によって画像の高精細化を行う こと ができるようになる。 , 図面の簡単な説明  As described above, according to the present invention, the pixel value of the interpolation pixel on a straight line connecting the target pixel and each of the four peripheral pixels arranged at the closest position in the oblique direction to the target pixel is calculated as follows. Using the pixel values of the pixels, the values are obtained according to an interpolation operation using a finite number of sampling functions, and then the luminance signal and the chrominance signal are separated. It is only necessary to perform interpolation processing on one composite video signal instead of on the video signal, and it is possible to reduce the memory to be prepared for interpolation of the number of pixels. As a result, the circuit scale of the image processing apparatus can be reduced, and higher definition of an image can be achieved with a simpler circuit configuration than in the past. , Brief description of drawings
図 1 は、 コンポジッ ト · ビデオ信号の波形を示す図である。  FIG. 1 is a diagram showing a waveform of a composite video signal.
図 2は、 コンポジッ ト · ビデオ信号におけるカラーサブキャ リアの位 相を示す図である。  FIG. 2 is a diagram showing the phase of a color subcarrier in a composite video signal.
図 3は、 従来方式による 3種類の Y C分離回路の構成を示す図である • 図 4は、 本実施形態による画像処理装置の要部構成例を示すブロック 図である。 Figure 3 is a diagram showing the configuration of three types of YC separation circuits according to the conventional method. • FIG. 4 is a block diagram illustrating a configuration example of a main part of the image processing apparatus according to the present embodiment.
図 5は、 原画像を構成する 3本の走査線に含まれる各画素の配置と、 本実施形態における補間処理によって得られる 4個の補間画素との関係 を示す図である。  FIG. 5 is a diagram showing the relationship between the arrangement of each pixel included in the three scanning lines forming the original image and the four interpolated pixels obtained by the interpolation processing in the present embodiment.
図 6は、 本実施形態の補間処理に用いる標本化関数を示す図である。 図 7 は、 図 5 に示す補間演算を行う本実施形態による補間処理部の構 成例を示す図である。  FIG. 6 is a diagram showing a sampling function used for the interpolation processing of the present embodiment. FIG. 7 is a diagram illustrating a configuration example of the interpolation processing unit according to the present embodiment that performs the interpolation calculation illustrated in FIG.
図 8は、 補間処理部に入力されるコンポジッ ト · ビデオ信号を構成す る各画素と色信号の位相との関係を示す図である。  FIG. 8 is a diagram showing the relationship between each pixel constituting the composite video signal input to the interpolation processing unit and the phase of the color signal.
図 9は、 補間処理部より出力される高精細化コンポジッ ト · ビデオ信 号を構成する各画素と色信号の位相との関係を示す図である。  FIG. 9 is a diagram showing the relationship between each pixel constituting the high-definition composite video signal output from the interpolation processing unit and the phase of the color signal.
図 1 0は、 高精細化コンポジッ ト · ビデオ信号から抜き取った色信号 の位相を示す図である。  FIG. 10 is a diagram showing the phase of a color signal extracted from a high-definition composite video signal.
図 1 1 は、 高精細化コンポジッ ト · ビデオ信号から抜き取った色信号 の調整後の位相を示す図である。  FIG. 11 is a diagram showing the adjusted phase of the color signal extracted from the high-definition composite video signal.
図 1 2は、 原画像を構成する 3本の走査線に含まれる各画素の配置と 、 本実施形態における他の補間処理によって得られる 4個の補間画素と の関係を示す図である。  FIG. 12 is a diagram showing the relationship between the arrangement of each pixel included in the three scanning lines constituting the original image and the four interpolation pixels obtained by another interpolation processing in the present embodiment.
図 1 3は、 図 1 2 に示す補間演算を行う本実施形態による補間処理部 を構成する画素値抽出部の構成例を示す図である。  FIG. 13 is a diagram illustrating a configuration example of a pixel value extraction unit included in the interpolation processing unit according to the present embodiment that performs the interpolation calculation illustrated in FIG.
図 1 4は、 図 1 2 に示す補間演算を行う本実施形態による補間処理部 を構成する画素値演算部の構成例を示す図である。 発明を実施するための最良の形態 以下、 本発明の一実施形態を図面に基づいて説明する。 図 4は、 本実 施形態による画像処理装置の要部構成例を示すブロック図である。 図 4 に示すように、 本実施形態の画像処理装置は、 A Z D変換器 1、 補間処 理部 2および Y C分離回路 3 を備えて構成されている。 FIG. 14 is a diagram illustrating a configuration example of a pixel value calculation unit included in the interpolation processing unit according to the present embodiment that performs the interpolation calculation illustrated in FIG. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 4 is a block diagram illustrating a configuration example of a main part of the image processing apparatus according to the present embodiment. As shown in FIG. 4, the image processing apparatus according to the present embodiment includes an AZD converter 1, an interpolation processing unit 2, and a YC separation circuit 3.
A / D変換器 1 は、 アナログのコンポジッ ト · ビデオ信号 (同期信号 およびバース ト信号を除く) をデジタルデータに変換する。 この入力コ ンポジッ ト · ビデオ信号は、 例えば画像中間周波処理で画像信号を検波 することによって生成される。 A / D変換器 1 より出力されたデジタル のコンポジッ ト · ビデオ信号は、 補間処理部 2 に入力される。  The A / D converter 1 converts analog composite video signals (excluding sync and burst signals) to digital data. The input composite video signal is generated, for example, by detecting an image signal by image intermediate frequency processing. The digital composite video signal output from the A / D converter 1 is input to the interpolation processing unit 2.
補間処理部 2は、 ある着目画素を挟んで斜め方向の最近接位置に配置 された 2つの近接画素を結ぶ直線上の補間画素の画素値 (画素データ) を、 着目画素おょぴ 2つの近接画素における各画素値の平均として求め る補間演算を行う。 このとき、 各補間画素の補間位置を着目画素から各 近接画素までの距離の 1 Z 4の位置に設定して着目画素の周辺に 4つの 補間画素を生成し、 着目画素および近接画素の代わりに補間画素の画素 データを出力する。  The interpolation processing unit 2 calculates the pixel value (pixel data) of the interpolated pixel on a straight line connecting the two adjacent pixels arranged diagonally closest to each other with respect to the pixel of interest and the two adjacent pixels. Interpolation calculation is performed to find the average of each pixel value in the pixel. At this time, the interpolation position of each interpolated pixel is set to the position of 1 Z 4 of the distance from the pixel of interest to each neighboring pixel, and four interpolation pixels are generated around the pixel of interest, and instead of the pixel of interest and the neighboring pixels, Outputs the pixel data of the interpolation pixel.
Y C分離回路 3は、 補間処理部 2より出力された各補間画素の画素デ 一夕を用いて、 輝度信号 (Y信号) と色信号 ( C信号) とが周波数イ ン 夕リーブの関係になっている補間済みのコンポジッ ト · ビデオ信号から 当該輝度信号と色信号とを分離する。 具体的には、 補間によって生成さ れたあるラインの信号と 1 ライン前の信号とを加算し、 これを上記ある ラインの信号から引き算することによって色信号を取り出すとともに、 これを補間済みコンポジッ ト · ビデオ信号から引き算することによって 輝度信号を取り出す。  The YC separation circuit 3 uses the pixel data of each interpolated pixel output from the interpolation processing unit 2 to obtain a luminance signal (Y signal) and a chrominance signal (C signal) in a frequency-in-leave relationship. The luminance signal and the chrominance signal are separated from the interpolated composite video signal. Specifically, the signal of a certain line generated by interpolation is added to the signal of the previous line, and the resulting signal is subtracted from the signal of the certain line to obtain a color signal. · Extract luminance signal by subtracting from video signal.
以下に、 補間処理部 2の詳細について説明する。 例えば N T S C方式 においては、 サンプリ ング周波数が 1 4 . 3 1 8 M H z のときに、 水平 1 ライン期間である約 6 3 S は 9 1 0クロックとなって割り切れるの で、 各画素は、 垂直方向に規則的に沿って並んで配置される。 The details of the interpolation processing unit 2 will be described below. For example, in the NTSC system, when the sampling frequency is 14.318 MHz, the horizontal Since approximately 63 S, which is one line period, is divisible by 9 10 clocks, the pixels are arranged in a line along the vertical direction.
図 5は、 原画像を構成する 3本の走査線に含まれる各画素の配置と、 本実施形態における補間処理によって得られる 4個の補間画素との関係 を示す図である。 図 5 に示す水平方向が、 入力信号に対応した各走査線 に沿ったライン方向である。 また、 「書」 で示された点が各走査線に沿 つて垂直方向と水平方向とに規則正しく配置された原画像の画素を示し ており、 「〇」 で示された点が着目画素の周辺で補間処理によって得ら れた補間画素を示している。  FIG. 5 is a diagram showing the relationship between the arrangement of each pixel included in the three scanning lines forming the original image and the four interpolated pixels obtained by the interpolation processing in the present embodiment. The horizontal direction shown in FIG. 5 is the line direction along each scanning line corresponding to the input signal. In addition, the points indicated by “letters” indicate pixels of the original image that are regularly arranged in the vertical and horizontal directions along each scanning line, and the points indicated by “〇” indicate the vicinity of the pixel of interest. Indicates interpolation pixels obtained by the interpolation processing.
着目画素 Pの周囲であって対角線上に配置された 4つの補間画素 Q 0 , Q 1 , Q 2 , Q 3の各画素値 a 0, a 1 , a 2 , a 3は、 対角線上に 一列に並んで配置される 3つの画素 (着目画素とそれに近接する 2つの 周辺画素) の画素値に基づいて計算する。 例えば補間画素 Q 0の画素値 a 0 を求める場合には、 この補間画素 Q 0を含む対角線上に配置された 着目画素 Pとその最近接位置にある近接画素 P 0, P 3 との各画素値 a , b , e を用いる。  The pixel values a 0, a 1, a 2, and a 3 of the four interpolation pixels Q 0, Q 1, Q 2, and Q 3 arranged on the diagonal line around the pixel of interest P are arranged on the diagonal line. The calculation is based on the pixel values of the three pixels arranged side by side (the pixel of interest and its two neighboring pixels). For example, when obtaining the pixel value a 0 of the interpolation pixel Q 0, each pixel of the pixel of interest P arranged on the diagonal line including the interpolation pixel Q 0 and the neighboring pixels P 0 and P 3 located closest to the pixel of interest P Use the values a, b, and e.
具体的には、 着目画素 Pと対角線上の画素 P 0 とを結ぶ線上の 1 4 の位置に補間画素 Q 0の位置を設定し、 以下の演算によって補間画素 Q 0 の画素値 a 0 を求める。  Specifically, the position of the interpolated pixel Q 0 is set at the position of 14 on the line connecting the target pixel P and the diagonal pixel P 0, and the pixel value a 0 of the interpolated pixel Q 0 is obtained by the following operation .
a 0 = ( 8 a + b - e ) / 8 · · · (1)  a 0 = (8 a + b-e) / 8
同様にして、 他の 3つの補間画素 Q l , Q 2 , Q 3 の各画素値 a l , a 2, a 3は、 以下のようにして計算する。  Similarly, the pixel values a l, a 2, and a 3 of the other three interpolation pixels Q l, Q 2, and Q 3 are calculated as follows.
a l = ( 8 a + c - d ) / 8 · · · (2)  a l = (8 a + c-d) / 8
a 2 = ( 8 a + d - c ) / 8 · · · (3)  a 2 = (8 a + d-c) / 8
a 3 = ( 8 a + e - b ) / 8 · · · (4)  a 3 = (8 a + e-b) / 8
ここで、 上記式(1)〜(4)の補間演算中に含まれる係数 { 8, 1 , 一 1 } を成す数値列の意味について説明する。 この数値列は、 {— 1 , 1, 8, 8, 1 , - 1 } の数値列より成るデジタル基本関数の半分を構成す るものである。 このデジタル基本関数の数値列をオーバーサンプリ ング しながら畳み込み演算すると、 図 6 に示すような関数が得られる。 Here, the coefficients {8, 1, 1 1 included in the interpolation calculations of the above equations (1) to (4) } The meaning of the numeric sequence that forms {} will be explained. This sequence constitutes half of the digital basic function consisting of the sequence {-1, 1, 8, 8, 1, -1}. When a convolution operation is performed while oversampling the numerical sequence of the digital basic function, a function as shown in FIG. 6 is obtained.
図 6 に示す関数は、 標本化関数であって、 全域において 1回だけ微分 可能であり、 しかも有限の標本位置 t 1 , t 2において 0 に収束する関 数である。 このように、 関数の値が局所的な領域で 0以外の有限の値を 有し、 それ以外の領域で 0 となる場合を有限台と言う。 標本位置が ±∞ のところで収束する従来の標本化関数の代わりに、 図 6 に示す有限台の 標本化関数を用いて補間演算を行う ことにより、 有限個の離散データを 用いるだけで、 打ち切り誤差を生じることもなく正確な補間値を得るこ とができ、 出力波形の歪みを最小限に抑えることができる。  The function shown in Fig. 6 is a sampling function, which is differentiable only once in the entire region, and converges to 0 at finite sample positions t1 and t2. In this way, a case where the value of a function has a finite value other than 0 in a local region and becomes 0 in other regions is called a finite base. Instead of the conventional sampling function that converges at the sampling position ± ∞, the interpolation operation is performed using a finite number of sampling functions as shown in Fig. 6, so that only a finite number of discrete data is used and the censoring error It is possible to obtain an accurate interpolated value without causing any distortion, and to minimize distortion of the output waveform.
ここで説明したように、 補間画素 Q 0〜Q 3に関する補間演算式(1)〜 (4)中に含まれる係数 { 8, 1 , - 1 } を成す数値列は、 上述した有限台 の標本化関数の基礎となるものである。 したがって、 上記式(1)~ (4)に 示す補間演算は、 有限台の標本化関数を用いて画素数を歪みなく補間す るものと言える。  As described here, the numerical sequence forming the coefficients {8, 1, -1} included in the interpolation arithmetic expressions (1) to (4) for the interpolation pixels Q0 to Q3 is the above-mentioned finite sample It is the basis of the transformation function. Therefore, it can be said that the interpolation calculations shown in the above equations (1) to (4) interpolate the number of pixels without distortion using a finite number of sampling functions.
図 7は、 上記式(1)〜(4)の補間演算を実行するためのハードウェア構 成例を示す図である。 図 7 に示す補間処理部 2は、 6つの D型フリ ップ フロップ 1 0〜 1 5 と、 4つの加算器 2 0〜 2 3 と、 4つの減算器 3 0 〜 3 3 と、 2つのラインメモリ 5 0, 5 2 と、 8倍の乗算器 4 0 とを含 んで構成されている。  FIG. 7 is a diagram showing an example of a hardware configuration for executing the interpolation calculations of the above equations (1) to (4). The interpolation processing unit 2 shown in Fig. 7 has six D-type flip-flops 10 to 15, four adders 20 to 23, four subtractors 30 to 33, and two lines. It is configured to include memories 50 and 52 and an eightfold multiplier 40.
上述したように、 N T S C方式においては、 水平 1 ラインに 9 1 0ク ロックが対応しており、 9 1 0個の画素によって水平 1 ラインが構成さ れているものとする。 1 4. 3 1 8 MH z のサンプリ ング周波数に対応 したクロック信号 C K 1 に同期して補間処理部 2 に入力される各画素デ —夕は、 3つの D型フリ ップフロップ 1 0〜 1 2 と、 2つのラインメモ リ 5 0, 5 2 と、 2つの D型フリ ップフロップ 1 3, 1 4に順に入力さ れ、 保持される。 As described above, in the NTSC system, one horizontal line corresponds to 910 clocks, and one horizontal line is composed of 910 pixels. 14.3 18 Each pixel data input to the interpolation processing unit 2 in synchronization with the clock signal CK1 corresponding to the sampling frequency of 18 MHz — In the evening, three D-type flip-flops 10 to 12, two line memories 50 and 52, and two D-type flip-flops 13 and 14 are sequentially input and held.
2つのラインメモリ 5 0, 5 2のそれぞれは、 1水平ラインに対応す る画素データの数よりも 1画素分少ない容量を有している。 例えば各画 素に対応して 1バイ トの画素データが入力されるものとすると、 9 1 0 一 1 = 9 0 9バイ トの容量を有するシフ トレジスタによって構成されて いる。 また、 各 D型フリ ップフロップ 1 0〜 1 4は、 入力される 1画素 分の画素データを保持する。  Each of the two line memories 50 and 52 has a capacity smaller by one pixel than the number of pixel data corresponding to one horizontal line. For example, assuming that one byte of pixel data is input corresponding to each pixel, a shift register having a capacity of 910 bytes = 909 bytes is provided. Each of the D-type flip-flops 10 to 14 holds input pixel data of one pixel.
図 5 に示した 3本の水平ラインに沿った画素データが順に入力されて 、 画素 P 3 に対応した画素データ (画素値 e ) が D型フリ ップフロップ 1 0から出力される場合を考えると、 2画素分遅れて入力された画素 P 2の画素データ (画素値 d ) が D型フリ ップフロップ 1 2から、 ( 9 1 0 + 1 ) 画素分遅れて入力された画素 Pの画素データ (画素値 a ) がラ インメモリ 5 0から、 ( 9 1 0 x2 ) 画素分遅れて入力された画素 P 1 の 画素データ (画素値 c ) がラインメモリ 5 2から、 ( 9 1 0 x2 + 2 ) 画 素分遅れて入力された画素 P 0の画素データ (画素値 b ) が D型フリ ツ プフロップ 1 4からそれぞれ出力される。  Consider the case where the pixel data along the three horizontal lines shown in FIG. 5 are sequentially input, and the pixel data (pixel value e) corresponding to the pixel P 3 is output from the D-type flip-flop 10. The pixel data (pixel value d) of pixel P 2 input with a delay of two pixels is shifted from the D-type flip-flop 12 by the pixel data of pixel P (pixel value d) input with a delay of (910 + 1) pixels. a) is the pixel data (pixel value c) of the pixel P 1 input with a delay of (910 x 2) pixels from the line memory 50, and (910 x 2 + 2) pixels from the line memory 52. The pixel data (pixel value b) of the pixel P0 input with a partial delay is output from the D-type flip-flop 14 respectively.
したがって、 加算器 2 0 と減算器 3 0 と乗算器 4 0 とを組み合わせて 、 ラインメモリ 5 0の出力値を 8倍した値 ( 8 a ) と D型フリ ップフロ ップ 1 4の出力値 ( b ) とを加算した結果から D型フリ ップフロップ 1 0の出力値 ( e ) を減算することにより、 上述した式(1)に示した補間画 素 Q 0の画素値 a 0が得られる。  Therefore, by combining the adder 20, the subtractor 30 and the multiplier 40, the output value of the line memory 50 is multiplied by 8 (8 a) and the output value of the D-type flip-flop 14 ( b) is subtracted from the output value (e) of the D-type flip-flop 10 to obtain the pixel value a 0 of the interpolated pixel Q 0 shown in the above equation (1).
同様に、 加算器 2 1 と減算器 3 1 と乗算器 4 0 とを組み合わせて、 ラ インメモリ 5 0の出力値を 8倍した値 ( 8 a ) とラインメモリ 5 2の出 力値 ( c ) とを加算した結果から D型フリ ップフロップ 1 2の出力値 ( d ) を減算することにより、 上述した式(2)に示した補間画素 Q 1 の画素 値 a 1が得られる。 Similarly, a value obtained by multiplying the output value of the line memory 50 by 8 (8a) and the output value of the line memory 52 (c ) And the output value of D-type flip-flop 12 By subtracting d), the pixel value a1 of the interpolated pixel Q1 shown in the above equation (2) is obtained.
また、 加算器 2 2 と減算器 3 2 と乗算器 4 0 とを組み合わせて、 ライ ンメモリ 5 0の出力値を 8倍した値 ( 8 a ) と D型フリ ップフロップ 1 2の出力値 ( d ) とを加算した結果からラインメモリ 5 2の出力値 ( c ) を減算することにより、 上述した式(3)に示した補間画素 Q 2の画素値 a 2が得られる。  Also, by combining the adder 22, the subtracter 32 and the multiplier 40, the output value of the line memory 50 is multiplied by 8 (8 a) and the output value of the D-type flip-flop 12 (d) By subtracting the output value (c) of the line memory 52 from the result of adding the above, the pixel value a2 of the interpolated pixel Q2 shown in the above equation (3) is obtained.
さらに、 加算器 2 3 と減算器 3 3 と乗算器 4 0 とを組み合わせて、 ラ インメモリ 5 0の出力値を 8倍した値 ( 8 a ) と D型フリ ップフロップ 1 0の出力値 ( e ) とを加算した結果から D型フリ ップフロップ 1 4の 出力値 ( b ) を減算することにより、 上述した式(4)に示した補間画素 Q 3の画素値 a 3が得られる。  Further, a combination of the adder 23, the subtractor 33, and the multiplier 40, the output value of the line memory 50 multiplied by 8 (8a) and the output value of the D-type flip-flop 10 (e ) Is subtracted from the output value (b) of the D-type flip-flop 14 to obtain the pixel value a3 of the interpolated pixel Q3 shown in the above equation (4).
このようにして、 4つの減算器 3 0〜 3 3のそれぞれから、 4つの補 間画素 Q 0〜Q 3のそれぞれに対応する補間値 a 0, a 1 , a 2 , a 3 が出力され、 これらの値が D型フリ ップフロップ 1 5 に一旦保持された 後に、 補間処理部 2 による 4つの補間結果として出力される。 なお、 こ の補間処理部 2の内容については、 本発明者が既に出願した特開 2 0 0 0 — 1 4 8 0 6 1号公報に開示されている。  In this way, the interpolation values a 0, a 1, a 2, and a 3 corresponding to the four interpolation pixels Q 0 to Q 3 are output from the four subtractors 30 to 33, respectively. After these values are temporarily held in the D-type flip-flop 15, they are output as four interpolation results by the interpolation processing unit 2. The contents of the interpolation processing unit 2 are disclosed in Japanese Patent Application Laid-Open No. 2000-148610 filed by the present inventors.
次に、 Y C分離回路 3の動作について詳細に説明する。 図 8は、 補間 処理部 2 に入力されるコンポジッ ト · ビデオ信号を構成する各画素と色 信号の位相との関係を示す図である。 なお、 この図 8は、 N T S C方式 で画像のサンプリ ング周波数 f sがカラーサブキヤ リァの周波数 f scの 4 倍 ( f s= 4 f sc) である場合についての関係を示している。 Next, the operation of the YC separation circuit 3 will be described in detail. FIG. 8 is a diagram showing the relationship between each pixel constituting the composite video signal input to the interpolation processing unit 2 and the phase of the color signal. Incidentally, FIG. 8 shows the relationship between the case sampling frequency f s of the image in the NTSC system is 4 times the frequency f sc of Karasabukiya Ria (f s = 4 f sc).
図 8 に示すように、 色信号は 4画素 ( 4クロック) で位相が元に戻り 、 1画素ごとに 9 0度ずつ位相がずれる。 また、 上述のように水平 1 ラ インは 9 1 0個の画素によって構成されている。 そのため、 色信号の位 相は、 図 8 に示すようにライン間で逆相となっている。 上述した 2次元 Y C分離は、 このように色信号の位相が 1 ラインごとに反転しているこ とを利用して、 あるラインの信号から 1 ライ ン前の信号を引き算するこ とによって色信号を取り出している。 As shown in FIG. 8, the color signal returns to its original state in four pixels (four clocks), and the phase shifts by 90 degrees for each pixel. As described above, one horizontal line is composed of 910 pixels. Therefore, the order of the color signal The phases are reversed between the lines as shown in Figure 8. The two-dimensional YC separation described above uses the fact that the phase of the color signal is inverted for each line in this way, and subtracts the signal one line before from the signal on a certain line to obtain the color signal. Has been taken out.
図 9は、 補間処理部 2より出力される高精細化コンポジッ ト · ビデオ 信号を構成する各画素と色信号の位相との関係を示す図である。 上述し たように、 補間処理部 2では、 図 8 に示す着目画素 Pに関して、 図 9 に 示す 4つの補間画素 Q 0〜Q 3の各画素値 a 0〜 a 3が式(1 )〜(4)によ つて演算される。 このとき、 例えば 1つの補間画素 Q 0の画素値 a 0 を 求めるときに用いる 3つの画素 P, P 0 , P 3 における色信号の位相を 式(1 )の係数に従ってべク トル合成すると、 補間画素 Q 0 における色信号 の位相は図 9の矢印で示すようになる。 同様に、 他の 3つの補間画素 Q 1〜Q 3 における色信号の位相も図 9の矢印で示すようになる。  FIG. 9 is a diagram showing the relationship between each pixel constituting the high-definition composite video signal output from the interpolation processing unit 2 and the phase of the color signal. As described above, in the interpolation processing unit 2, with respect to the target pixel P shown in FIG. 8, the pixel values a0 to a3 of the four interpolation pixels Q0 to Q3 shown in FIG. It is calculated by 4). At this time, for example, when the phases of the color signals at the three pixels P, P 0, and P 3 used to obtain the pixel value a 0 of one interpolated pixel Q 0 are vector-combined according to the coefficient of equation (1), The phase of the color signal at the pixel Q 0 is as shown by the arrow in FIG. Similarly, the phases of the color signals at the other three interpolation pixels Q1 to Q3 are as shown by arrows in FIG.
全ての画素に順次着目して上記式(1 ) ~ (4)の演算を実行すると、 4倍 に高精細化された各補間画素における色信号の位相は、 図 9の全体に示 す通りになる。 この図 9から明らかなように、 本実施形態による補間手 法に従って画像を 4倍に高精細化すると、 得られる高精細化コンポジッ ト · ビデオ信号を構成する色信号の位相はきれいに整い、 補間前と同様 に色信号の位相はライン間で逆相となる。 したがって、 補間処理によつ て画像を高精細化した後でも、 あるラインの信号と 1 ライン前の信号と を演算することによって色信号を抜き取ることができる。  When the calculations of the above equations (1) to (4) are executed by sequentially focusing on all the pixels, the phase of the color signal at each of the interpolation pixels, which has been quadrupled, becomes as shown in FIG. Become. As can be seen from FIG. 9, when the image is quadrupled in accordance with the interpolation method according to the present embodiment, the phase of the resulting high-definition composite video signal is well-aligned, and the phase of the color signal constituting the video signal before interpolation becomes clear. Similarly to the above, the phase of the color signal is reversed between the lines. Therefore, even after the image has been refined by the interpolation processing, the color signal can be extracted by calculating the signal of a certain line and the signal of the previous line.
例えば、 着目画素 Pから生成された補間画素 Q 0での色信号の抜き取 りは、 当該補間画素 Q 0の画素値 a 0 と、 1 ライン前の補間画素 Q 2 ' の画素値 a 2 ' とを用いて、  For example, the extraction of the color signal at the interpolation pixel Q 0 generated from the pixel of interest P is performed by the pixel value a 0 of the interpolation pixel Q 0 and the pixel value a 2 ′ of the interpolation pixel Q 2 ′ one line before. And using
a 0 " = a 0 - ( a 0 + a 2 ' ) / 2 . 0 6 1 6 · · · (5) なる演算によって行う。 ここで、 a 0 " は補間画素 Q 0 において色信号 成分のみを有する画素値である。 また、 2. 0 6 1 6で割り算している のは、 色信号のべク トル方向が垂直あるいは水平からずれていることを 考慮したものである ( { ( 82+ ( 1 + 1 ) 2) 1/2} / 4 = 2. 0 6 1 6 ) この式(5)に示されるように、 あるラインの画素値 a 0 と 1 ライン前の 画素値 a 2 ' とを加算して 2. 0 6 1 6で割ると輝度信号となり、 着目 している画素 Q 0の画素値 a 0からこの輝度信号成分を引けば、 当該着 目画素 Q 0の色信号を分離することができる。 他の補間画素 Q 1〜Q 3 においても同様に、 次の式(6)〜(8)によって色信号を分離する。 a 0 "= a 0-(a 0 + a 2 ') / 2.0. 6 6 6 · · · (5) where a 0" is the color signal at the interpolation pixel Q 0 This is a pixel value having only components. Also, the division by 2.06 16 takes into account that the vector direction of the color signal is deviated from vertical or horizontal ({(8 2 + (1 + 1) 2 ) 1/2 } / 4 = 2.06 6 16) As shown in this equation (5), the pixel value a 0 of a certain line is added to the pixel value a 2 'of the previous line, and 2. A luminance signal is obtained by dividing by 0 6 16. By subtracting this luminance signal component from the pixel value a 0 of the pixel Q 0 of interest, the color signal of the pixel of interest Q 0 can be separated. Similarly, color signals are separated from the other interpolation pixels Q 1 to Q 3 by the following equations (6) to (8).
a 1 " = a 1 - ( a 1 + a 3 ' ) / 2. 0 6 1 6 · · · (6)  a 1 "= a 1-(a 1 + a 3 ') / 2.0 6 1 6
a 2 " = a 2 - ( a 2 + a 0 ' ) / 2. 0 6 1 6 ••• (7)  a 2 "= a 2-(a 2 + a 0 ') / 2.0 6 1 6
a 3 " = a 3 - ( a 3 + a 1 ' ) / 2. 0 6 1 6 ••• (8)  a 3 "= a 3-(a 3 + a 1 ') / 2.0 6 1 6
図 1 0 に、 以上のようにして高精細化コンポジッ ト ビデォ信号から 取り出した色信号の位相を示す。 図 1 0 に示すように 取り出した色信 号の位相は垂直方向あるいは水平方向からずれており このままではバ 一ス ト信号の位相との相関が正しく とれない。 したがって、 色信号の位 相をバース 卜信号の位相に合わせることが必要となる。 この調整を Y C 分離回路 3の後段 (図示せず) で行う ことも可能であるが、 Y C分離回 路 3 にて行う ことも可能である。  FIG. 10 shows the phase of the color signal extracted from the high-definition composite video signal as described above. As shown in Fig. 10, the phase of the extracted color signal is shifted from the vertical or horizontal direction, and the correlation with the phase of the burst signal cannot be correctly obtained. Therefore, it is necessary to adjust the phase of the color signal to the phase of the burst signal. This adjustment can be performed in the subsequent stage (not shown) of the YC separation circuit 3, but can also be performed in the YC separation circuit 3.
図 1 1 は、 Y C分離回路 3で色信号の位相を調整した場合における当 該色信号の調整済み位相を示す図である。 例えば、 着目画素 Pから生成 された補間画素 Q 0 における色信号の位相調整は、 当該補間画素 Q 0の 画素値 a 0 " と、 1画素隣りの補間画素 Q 1 の画素値 a 1 " とを用いて a 0 "'= ( a 0 " + a 1 " ) / 2 (9)  FIG. 11 is a diagram showing the adjusted phase of the color signal when the phase of the color signal is adjusted by the YC separation circuit 3. For example, the phase adjustment of the color signal at the interpolation pixel Q 0 generated from the pixel of interest P is performed by comparing the pixel value a 0 of the interpolation pixel Q 0 with the pixel value a 1 of the interpolation pixel Q 1 adjacent to the next pixel. Using a 0 "'= (a 0" + a 1 ") / 2 (9)
なる演算によって行う。 同様に、 補間画素 Q 0の対角に位置する補間画素 Q 3 における色信号 の位相調整は、 当該補間画素 Q 3の画素値 a 3 " と、 1画素隣りの補間 画素 Q 2の画素値 a 2 " とを用いて、 The calculation is performed by: Similarly, the phase adjustment of the color signal at the interpolated pixel Q 3 located on the diagonal of the interpolated pixel Q 0 is performed by the pixel value a 3 "of the interpolated pixel Q 3 and the pixel value a 2 "and
a 3 '" = ( a 2 " + a 3 " ) / 2 … ( 1 0)  a 3 '"= (a 2" + a 3 ") / 2… (1 0)
なる演算によって行う。 このように、 位相調整済みの画素値を対角状に 作ることにより、 色信号成分が均等に並ぶので好ましい。 The calculation is performed by: As described above, it is preferable to form the pixel values after the phase adjustment diagonally, since the color signal components are arranged evenly.
なお、 ここでは 2つの補間画素 Q 0 , Q 3 における色信号を生成する 例について説明したが、 これと異なる対角上にある 2つの補間画素 Q 1 , Q 2における色信号を生成するようにしても良い。 また、 4つの補間 画素 Q 0, Q l , Q 2 , Q 3 における色信号を全て生成するようにして も良い。  Although an example in which color signals are generated at two interpolation pixels Q 0 and Q 3 has been described here, color signals at two interpolation pixels Q 1 and Q 2 on different diagonals are generated. May be. Alternatively, all the color signals at the four interpolation pixels Q 0, Q 1, Q 2, and Q 3 may be generated.
以上詳しく説明したように、 本実施形態では、 上記式(1 )〜(4)の補間 演算によって画像を高精細化しているので、 補間後の高精細化コンポジ ッ ト · ビデオ信号についても補間前と同様に、 色信号の位相がライン間 で逆相となるようにすることができる。 そのため、 図 4に示すように Y C分離回路 3の前段に補間処理部 2 を配置し、 画像を高精細化してから Y C分離することができる。  As described above in detail, in the present embodiment, the image is made high-definition by the interpolation calculation of the above equations (1) to (4). Therefore, the high-definition composite video signal after interpolation is also obtained before interpolation. Similarly to the above, the phase of the color signal can be made to be opposite between the lines. Therefore, as shown in FIG. 4, the interpolation processing unit 2 is arranged in the preceding stage of the YC separation circuit 3, and the YC separation can be performed after the image is made high definition.
これにより、 Y C分離の後に画像の高精細化処理を行っていた従来の ように R信号、 G信号、 B信号のそれぞれに対して補間処理を行う必要 がなく、 1つのコンポジッ ト · ビデオ信号に対してのみ補間処理を行え ばよくなる。 したがって、 画素数の補間のために用意すべきメモリ を少 なくでき、 回路規模を削減することができる。  This eliminates the need to perform interpolation processing on each of the R, G, and B signals as in the conventional case where high-definition processing is performed on the image after YC separation. It is only necessary to perform the interpolation processing for this. Therefore, the number of memories to be prepared for the interpolation of the number of pixels can be reduced, and the circuit scale can be reduced.
なお、 上記実施形態では、 高精細化コンポジッ ト , ビデオ信号を構成 する隣接ラインの信号を演算することによって色信号を抜き取り、 これ を高精細化コンポジッ ト · ビデオ信号から引き算することによって輝度 信号を得る例について説明したが、 これとは逆に、 隣接ラインの信号に 対して式(5)~ (8)の右辺第 2項の演算を行う ことによって輝度信号を抜 き取り、 これを高精細化コンポジッ ト · ビデオ信号から引き算すること によって色信号を得るようにしても良い。 In the above embodiment, the color signal is extracted by calculating the signals of the adjacent lines constituting the high-definition composite video signal, and the luminance signal is obtained by subtracting the color signal from the high-definition composite video signal. We have explained the example of how to obtain it, but on the contrary, On the other hand, the luminance signal is extracted by performing the operation of the second term on the right side of equations (5) to (8), and the color signal is obtained by subtracting the luminance signal from the high-definition composite video signal. Is also good.
また、 上記実施形態では、 補間処理部 2の例として、 図 5および図 7 に示す特開 2 0 0 0 - 1 4 8 0 6 1号公報に開示の補間動作を挙げて説 明したが、 本発明はこれに限定されない。 例えば、 これも本発明者が既 に出願している特開 2 0 0 0 - 3 0 8 0 2 1号公報に開示の補間動作を 適用してち良レ 。  Also, in the above embodiment, as an example of the interpolation processing unit 2, the interpolation operation disclosed in Japanese Patent Application Laid-Open No. 2000-148061 shown in FIGS. 5 and 7 has been described. The present invention is not limited to this. For example, this is also good after applying the interpolation operation disclosed in Japanese Patent Laid-Open No. 2000-38021 filed by the present inventor.
図 1 2〜図 1 4は、 特開 2 0 0 0 - 3 0 8 0 2 1号公報に開示の補間 処理を説明するための図である。 このうち図 1 2 は、 原画像を構成する' 各画素の配置と補間処理によって得られる補間画素との関係を示す図で ある。 こ こでも、 図 1 2 に示す水平方向が、 入力信号に対応した各走査 線に沿ったライン方向であり、 「譬」 で示された点が各走査線に沿って 垂直方向と水平方向とに規則正しく配置された原画像の画素を示してお り、 「〇」 で示された点が着目画素の周辺で補間処理によって得られた 補間画素を示している。  FIGS. 12 to 14 are diagrams for explaining the interpolation process disclosed in Japanese Patent Application Laid-Open No. 2000-38021. Among them, FIG. 12 is a diagram showing the relationship between the arrangement of each pixel constituting the original image and the interpolated pixels obtained by the interpolation processing. Again, the horizontal direction shown in Fig. 12 is the line direction along each scanning line corresponding to the input signal, and the points indicated by "parables" are the vertical and horizontal directions along each scanning line. The pixels of the original image that are regularly arranged are shown in Fig. 7, and points indicated by "〇" indicate the interpolated pixels obtained by the interpolation process around the target pixel.
図 1 2に示す例では、 隣接した 3本の走査線のそれぞれに沿った 3個 の画素、 すなわち水平方向および垂直方向のそれぞれについて 3画素、 合計で 9個の画素 P 1〜 P 9 の画素値 a〜 i に基づいて、 これら 9画素 P 1〜 P 9の中心にある中心画素 P 5の周囲に新たに 4個の補間画素 Q 1〜Q 4を生成し、 これら補間画素 Q 1〜Q 4の画素値 A 1〜A 4を次 の式(11)~ (14)によ り演算する。  In the example shown in Figure 12, three pixels along each of three adjacent scan lines, i.e., three pixels in each of the horizontal and vertical directions, for a total of nine pixels P1 to P9 Based on the values a to i, four new interpolated pixels Q1 to Q4 are generated around a center pixel P5 at the center of these nine pixels P1 to P9, and these interpolated pixels Q1 to Q4 are generated. The pixel values A1 to A4 of 4 are calculated by the following equations (11) to (14).
A 1 - { 8 e + ( a + b + d) - ( f + h + i ) } / 8 - - - (11) A 2 = { 8 e + ( b + c + f ) - .( d + g + h ) } / 8 ·■ · (12) A 3 = { 8 e + ( d + g + h ) - ( b + c + f ) } / 8 - - - (13) A 4 = { 8 e + ( f + h + i ) - ( a + b + d ) } / 8 - - - (14) ここで、 中心画素 P 5 とその右下の画素 P 1 とを結ぶ直線上であって 中心画素 P 5から画素 P 1 までの距離の 1 / 4の位置に生成される新た な画素を Q 1、 中心画素 P 5 とその左下の画素 P 3 とを結ぶ直線上であ つて中心画素 P 5から画素 P 3 までの距離の 1 4の位置に生成される 新たな画素を Q 2、 中心画素 P 5 とその右上の画素 P 7 とを結ぶ直線上 であって中心画素 P 5から画素 P 7 までの距離の 1 Z 4の位置に生成さ れる新たな画素を Q 3、 中心画素 P 5 とその左上の画素 P 9 とを結ぶ直 線上であって中心画素 P 5から画素 P 9 までの距離の 1 Z 4の位置に生 成される新たな画素を Q 4とする。 A 1-{8 e + (a + b + d)-(f + h + i)} / 8---(11) A 2 = {8 e + (b + c + f)-. (D + g + h)} / 8 · ■ · (12) A 3 = {8 e + (d + g + h)-(b + c + f)} / 8---(13) A 4 = {8 e + (f + h + i)-(a + b + d)} / 8---(14) Here, a new pixel generated on a straight line connecting the central pixel P 5 and the lower right pixel P 1 at a quarter of the distance from the central pixel P 5 to the pixel P 1 is Q 1 The new pixel generated on the straight line connecting the central pixel P5 and the lower left pixel P3 at the position 14 of the distance from the central pixel P5 to the pixel P3 is Q2, and the central pixel P A new pixel generated on the straight line connecting 5 and the pixel P 7 on the upper right and at a position of 1 Z 4 from the center pixel P 5 to the pixel P 7 is Q 3, the center pixel P 5 and its A new pixel generated on the line connecting the upper left pixel P 9 and the position 1 Z 4 at the distance from the center pixel P 5 to the pixel P 9 is defined as Q 4.
図 1 3は、 上述した 9個の画素 P 1〜P 9の画素値 a〜 i を抽出する 画素値抽出部 1 0 0の詳細な構成を示す図である。 図 1 3 に示すように 、 画素値抽出部 1 0 0は、 6個の D型フリ ップフロップ 1 1 0〜 1 1 5 と 2個のラインメモリ 1 2 0, 1 2 1 とを含んで構成されている。  FIG. 13 is a diagram showing a detailed configuration of the pixel value extraction unit 100 that extracts the pixel values a to i of the nine pixels P 1 to P 9 described above. As shown in FIG. 13, the pixel value extraction unit 100 is configured to include six D-type flip-flops 110 to 115 and two line memories 12 0 and 12 1. ing.
この画素値抽出部 1 0 0には、 入力信号に対応した走査線に含まれる 各画素の画素値が所定ビッ ト数のデータ (画素デ一夕) として、 所定の サンプリ ング周波数に対応したクロック信号 C K 1 に同期して入力され る。 入力される各画素データは、 縦続接続された 2個の D型フリ ップフ ロップ 1 1 0 , 1 1 1 と、 縦続接続されたラインメモリ 1 2 0および 2 つの D型フリ ップフロップ 1 1 2, 1 1 3 とにそれぞれ入力される。  The pixel value extraction unit 100 stores a pixel value of each pixel included in the scanning line corresponding to the input signal as data of a predetermined number of bits (pixel data) as a clock corresponding to a predetermined sampling frequency. Input in synchronization with signal CK1. Each input pixel data is composed of two cascade-connected D-type flip-flops 110, 111, a cascade-connected line memory 120, and two D-type flip-flops 1 1, 2, 1 1 and 3 respectively.
また、 ラインメモリ 1 2 0から出力される各画素の画素データは、 縦 続接続されたラインメモリ 1 2 1および D型フリ ップフロップ 1 1 4, 1 1 5に入力される。 ラインメモリ 1 2 0, 1 2 1 のそれぞれは、 入力 信号の 1走査線に対応した数の各画素の画素値を入力順に格納する先入 れ先出しメモリであり、 入力される各画素の画素データを 1走査線分遅 らせたタイミングで出力する。  The pixel data of each pixel output from the line memory 120 is input to the cascade-connected line memory 121 and D-type flip-flops 114, 115. Each of the line memories 12 0 and 12 1 is a first-in first-out memory that stores the pixel values of each pixel corresponding to one scanning line of the input signal in the input order, and stores the pixel data of each input pixel. Output at the timing delayed by one scan line.
したがって、 図 1 2において中心画素 P 5の左上に配置された画素 P 9 に対応する画素データ (画素値 i ) が画素値抽出部 1 0 0 に入力され た時点を考えると、 1画素分先に入力された画素 P 8の画素データ (画 素値 h ) が D型フリ ップフロップ 1 1 0から出力され、 2画素分先に入 力された画素 P 7の画素データ (画素値 g ) が D型フリ ップフロップ 1 1 1から出力される。 Therefore, in FIG. 12, the pixel P arranged at the upper left of the central pixel P 5 Considering the point in time when the pixel data (pixel value i) corresponding to 9 is input to the pixel value extraction unit 100, the pixel data (pixel value h) of the pixel P8 input one pixel ahead is D The pixel data (pixel value g) of the pixel P7 output from the type flip-flop 110 and input two pixels ahead is output from the D-type flip-flop 111.
また、 1走査線分先に入力された画素 P 6の画素データ (画素値 f ) がラインメモリ 1 2 0から出力され、 1走査線と 1画素分先に入力され た中心画素 P 5の画素データ (画素値 e ) が D型フリ ップフロップ 1 1 2から出力され、 1走査線と 2画素分先に入力された画素 P 4の画素デ 一夕 (画素値 d ) が D型フリ ップフロップ 1 1 3から出力される。  Further, the pixel data (pixel value f) of the pixel P 6 input one scan line ahead is output from the line memory 120, and the pixel of the central pixel P 5 input one scan line and one pixel ahead The data (pixel value e) is output from the D-type flip-flop 112, and the pixel data of the pixel P4 (pixel value d) input one scanning line and two pixels ahead is converted to the D-type flip-flop 111. Output from 3.
さらに、 2走査線分先に入力された画素 P 3の画素データ (画素値 c ) がラインメモリ 1 2 1から出力され、 2走査線と 1画素分先に入力さ れた画素 P 2の画素データ (画素値 b ) が D型フリ ップフロップ 1 1 4 から出力され、 2走査線と 2画素分先に入力された画素 P 1 の画素デ一 夕 (画素値 a ) が D型フリ ップフロップ 1 1 5から出力される。  Further, the pixel data (pixel value c) of the pixel P3 input two scanning lines ahead is output from the line memory 121, and the pixel P2 pixel input two pixels ahead and one pixel ahead is input. The data (pixel value b) is output from the D-type flip-flop 114, and the pixel data (pixel value a) of the pixel P1 (pixel value a) input two scan lines and two pixels ahead is converted to the D-type flip-flop 11 Output from 5.
このようにして、 画素値抽出部 1 0 0からは、 図 1 2 に示した 9個の 画素 P 1〜 P 9 に対応した各画素デ一タ &〜 i が並行して出力される。 図 1 4は、 9個の画素値 a ~ i から 4個の補間画素 Q 1〜 Q 4におけ る画素値 A 1〜A 4を算出する画素値演算部 2 0 0 の詳細な構成を示す 図である。 図 1 4に示すように、 画素値演算部 2 0 0は、 1 2個の加算 器 1 3 0〜 : 1 4 1 と、 4個の減算器 1 5 0〜 1 5 3 と、 8倍の乗算を行 う乗算器 1 6 0 と、 入力値を 8で割る除算処理を行う 4個の除算器 1 7 0〜 1 7 3 とを含んで構成されている。  In this way, the pixel value extraction unit 100 outputs the pixel data & to i corresponding to the nine pixels P1 to P9 shown in FIG. 12 in parallel. FIG. 14 shows a detailed configuration of a pixel value calculation unit 200 that calculates pixel values A 1 to A 4 in four interpolation pixels Q 1 to Q 4 from nine pixel values a to i. FIG. As shown in Fig. 14, the pixel value calculation unit 200 is composed of 12 adders 13 0-: 14 1, 4 subtracters 15 0-15 3, and 8 times It is configured to include a multiplier 160 for performing multiplication and four dividers 170 to 173 for performing a division process of dividing an input value by 8.
画素値 A 1 の演算処理は、 加算器 1 3 0 , 1 3 2 , 1 3 4 , 1 3 7 , 1 3 8 と減算器 1 5 0 と乗算器 1 6 0 と除算器 1 7 0 とを用いて行われ る。 具体的には、 2個の加算器 1 3 0, 1 3 4によって 3個の画素値 a , b , dが加算され、 他の 2個の加算器 1 3 2, 1 3 7 によって 3個の 画素値 f , h, i が加算される。 The arithmetic processing of the pixel value A 1 is performed by adding an adder 13 0, 13 2, 13 4, 13 7, 13 8, a subtractor 15 0, a multiplier 16 0, and a divider 17 0. It is performed using. Specifically, three pixel values a are obtained by two adders 1 30 and 1 3 4. , B, and d are added, and three pixel values f, h, and i are added by the other two adders 13 2 and 13 7.
そして、 これら 2個の加算結果を減算器 1 5 0 に入力することにより 、 加算器 1 3 4から出力される加算結果である出力値 ( a + b + d ) か ら、 加算器 1 3 7から出力される加算結果である出力値 ( f + h + i ) を減算した結果が出力される。  By inputting these two addition results to the subtractor 150, the output value (a + b + d), which is the addition result output from the adder 134, is added to the adder 133 The result of subtracting the output value (f + h + i), which is the addition result output from, is output.
さらに、 加算器 1 3 8 によって、 この出力値に乗算器 1 6 0の乗算結 果 ( 8 e ) を加算することにより、 加算結果 { 8 e + ( a + b + d ) - ( f + h + i ) } が出力される。 さらに、 その後段に接続された除算器 1 7 0 によって除数 8で除算処理を行う ことにより、 式(11)に示した画 素値 A 1が演算され、 この演算結果が除算器 1 7 0から出力される。  Further, by adding the multiplication result (8 e) of the multiplier 160 to this output value by the adder 1 38, the addition result {8 e + (a + b + d)-(f + h + i)} is output. Further, the pixel value A 1 shown in the equation (11) is calculated by performing the division process with the divisor 8 by the divider 170 connected in the subsequent stage, and the calculation result is output from the divider 170 Is output.
また、 画素値 A 2の演算処理は、 加算器 1 3 1 , 1 3 3 , 1 3 5, 1 3 6 , 1 3 9 と減算器 1 5 1 と乗算器 1 6 0 と除算器 1 7 1 とを用いて 行われる。 具体的には、 2個の加算器 1 3 1 , 1 3 5 によって 3個の画 素値 b, c , f が加算され、 他の 2つの加算器 1 3 3 , 1 3 6 によって 3個の画素値 d, g , hが加算される。  The arithmetic processing of the pixel value A 2 is performed by adding an adder 13 1, 13 3, 13 5, 13 6, 13 9, a subtractor 15 1, a multiplier 16 0, and a divider 17 1 It is performed using and. Specifically, three pixel values b, c, and f are added by two adders 13 1 and 13 5, and three pixel values are added by the other two adders 13 3 and 1 36. Pixel values d, g, and h are added.
そして、 これら 2個の加算結果を減算器 1 5 1 に入力することにより 、 加算器 1 3 5から出力される加算結果である出力値 ( b + c + f ) か ら、 加算器 1 3 6から出力される加算結果である出力値 ( d + g + h ) を減算した結果が出力される。  By inputting these two addition results to the subtractor 15 1, the output value (b + c + f) which is the addition result output from the adder 135 is added to the adder 1 36 The result of subtracting the output value (d + g + h), which is the addition result output from, is output.
さらに、 加算器 1 3 9 によって、 この出力値に乗算器 1 6 0の乗算結 果 ( 8 e ) を加算することにより、 加算結果 { 8 e + ( b + c + f ) — ( d + g + h ) } が出力される。 さらに、 その後段に接続された除算器 1 7 1 によって除数 8で除算処理を行う ことにより、 式(12)に示した画 素値 A 2が演算され、 この演算結果が除算器 1 7 1から出力される。  Further, by adding the multiplication result (8 e) of the multiplier 16 0 to the output value by the adder 1 39, the addition result {8 e + (b + c + f) — (d + g + h)} is output. Further, the pixel value A 2 shown in equation (12) is calculated by performing a division process with a divisor of 8 by a divider 17 1 connected to the subsequent stage, and this calculation result is output from the divider 17 1 Is output.
また、 画素値 A 3の演算処理は、 加算器 1 3 1 , 1 3 3 , 1 3 5 , 1 3 6, 1 4 0 と減算器 1 5 2 と乗算器 1 6 0 と除算器 1 7 2 とを用いて 行われる。 具体的には、 2個の加算器 1 3 3 , 1 3 6 によって 3個の画 素値 d , g , hが加算され、 他の 2個の加算器 1 3 1, 1 3 5 によって 3個の画素値 b , c , f が加算される。 The arithmetic processing of the pixel value A 3 is performed by the adders 13 1, 13 3, 13 5, 1 This is performed using 36, 140, a subtractor 152, a multiplier 160, and a divider 1772. Specifically, three pixel values d, g, and h are added by two adders 13 3 and 1 36, and three pixel values are added by the other two adders 13 1 and 1 35. Pixel values b, c, and f are added.
そして、 これら 2個の加算結果を減算器 1 5 2 に入力することにより 、 加算器 1 3 6から出力される加算結果である出力値 ( d + g + h ) か ら、 加算器 1 3 5から出力される加算結果である出力値 ( b + c + i ) を減算した結果が出力される。  By inputting these two addition results to the subtractor 15 2, the output value (d + g + h) output from the adder 13 6 is calculated from the output value (d + g + h). The result of subtracting the output value (b + c + i), which is the addition result output from, is output.
さらに、 加算器 1 4 0 によって、 この出力値に乗算器 1 6 0の乗算結 果 ( 8 e ) を加算することにより、 加算結果 { 8 e + ( d + g + h ) - ( b + c + f ) } が出力される。 さらに、 その後段に接続された除算器 1 7 2 によって除数 8で除算処理を行う ことにより、 式(13)に示した画 素値 A 3が演算され、 この演算結果が除算器 1 7 2から出力される。 また、 画素値 A 4の演算処理は、 加算器 1 3 0, 1 3 2 , 1 3 4, 1 3 7 , 1 4 1 と減算器 1 5 3 と乗算器 1 6 0 と除算器 1 7 3 とを用いて 行われる。 具体的には、 2個の加算器 1 3 2, 1 3 7 によって 3個の画 素値 f , h , i が加算され、 他の 2個の加算器 1 3 0 , 1 3 4によって 3個の画素値 a, b , dが加算される。  Further, by adding the multiplication result (8e) of the multiplier 160 to the output value by the adder 140, the addition result (8e + (d + g + h)-(b + c + f)} is output. Further, the pixel value A3 shown in the equation (13) is calculated by performing the division process with the divisor 8 by the divider 172 connected at the subsequent stage, and the calculation result is output from the divider 172. Is output. The arithmetic processing of the pixel value A 4 is performed by adding the adders 13 0, 13 2, 13 4, 13 7, 14 1, the subtractor 15 3, the multiplier 16 0, and the divider 17 3 It is performed using and. Specifically, three pixel values f, h, and i are added by two adders 1332 and 137, and three pixel values are added by the other two adders 1330 and 1334. Pixel values a, b, and d are added.
そして、 これら 2個の加算結果を減算器 1 5 3 に入力することにより 、 加算器 1 3 7から出力される加算結果である出力値 ( f + h + i ) か ら、 加算器 1 3 4から出力される加算結果である出力値 ( a + b + d ) を減算した結果が出力される。  By inputting these two addition results to the subtractor 15 3, the output value (f + h + i) which is the addition result output from the adder 13 7 is obtained. The result of subtracting the output value (a + b + d), which is the addition result output from, is output.
さらに、 加算器 1 4 1 によって、 この出力値に乗算器 1 6 0の乗算結 果 ( 8 e ) を加算することにより、 加算結果 { 8 e + ( f + h + i ) 一 ( a + b + d ) } が出力される。 さらに、 その後段に接続された除算器 1 7 3 によって除数 8で除算処理を行う ことにより、 式(14)に示した画 素値 A 4が演算され、 この演算結果が除算器 1 7 3から出力される。 以上説明した式(11)〜(14)中に含まれる係数も { 8 , 1, - 1 } の数 値列から成っており、 これは図 6 に示す有限台の標本化関数の基礎とな るものである。 したがって、 上記式(11)〜(: 14)に示す補間演算も、 有限 台の標本化関数を用いて画素数を歪みなく補間するものと言える。 Further, by adding the multiplication result (8 e) of the multiplier 16 0 to this output value by the adder 14 1, the addition result {8 e + (f + h + i) 1 (a + b + d)} is output. Further, by performing a division process with a divisor of 8 by a divider 17 3 connected to the subsequent stage, the image shown in Expression (14) is obtained. The prime value A 4 is calculated, and the calculation result is output from the divider 173. The coefficients included in equations (11) to (14) described above also consist of a sequence of {8, 1, -1} numerical values, which is the basis of the finite-level sampling function shown in Fig. 6. Things. Therefore, it can be said that the interpolation calculations shown in the above equations (11) to (: 14) also interpolate the number of pixels without distortion using a finite number of sampling functions.
したがって、 補間処理部 2 においてこの式(11) ~ (14)の補間演算によ つて画像を高精細化する場合も、 補間後の高精細化コンポジッ ト · ビデ ォ信号について色信号の位相がライン間で逆相となるようにすることが でき、 画像を高精細化してから Y C分離することができる。 よって、 画 素数の補間のために用意すべきメモリ をコンポジッ ト · ビデオ信号の 1 つ分に少なくでき、 回路規模を削減することができる。  Therefore, even when the interpolation processing unit 2 enhances the image by the interpolation calculation of the equations (11) to (14), the phase of the color signal of the high-definition composite video signal after the interpolation is linear. The phase can be reversed between the images, and the YC separation can be performed after the image has been refined. Therefore, the memory to be prepared for interpolation of the number of pixels can be reduced to one for the composite video signal, and the circuit scale can be reduced.
なお、 上記特開 2 0 0 0 — 3 0 8 0 2 1号公報では、 補間演算式とし て上述の式(11)〜(14)の他に、 次の式(15)〜(18)あるいは式(19)〜(22) も開示している。 本実施形態ではこれらの演算によって補間を行うよう にしても良い。  In the above-mentioned Japanese Patent Application Laid-Open No. 2000-308021, in addition to the above equations (11) to (14), the following equations (15) to (18) or Equations (19)-(22) are also disclosed. In the present embodiment, interpolation may be performed by these calculations.
A 1 = { 1 0 e + ( a + b + d ) — ( c + f + g + h + i ) } / 8 - - (15)  A 1 = {10 e + (a + b + d) — (c + f + g + h + i)} / 8--(15)
A 2 = { 1 0 e + ( b + c + f ) — ( a + d + g + h + i ) } / 8 · • (16)  A 2 = {1 0 e + (b + c + f) — (a + d + g + h + i)} / 8 · • (16)
A 3 = { 1 0 e + ( d + g + h ) - ( a + b + c + f + i ) } / 8 · - (17)  A 3 = {10 e + (d + g + h)-(a + b + c + f + i)} / 8
A 4 = { 1 0 e + ( f + h + i ) - ( a + b + c + d + g ) } / 8 - - (18)  A 4 = {10 e + (f + h + i)-(a + b + c + d + g)} / 8--(18)
A 1 = { 1 0 e + 2 b + 2 d - ( c + f + g + h ) } / 1 0 · · · (19) A 2 = { 1 0.e + 2 b + 2 f - ( a + d + h + i ) } / 1 0 - - - (20) A 3 = { 1 0 e + 2 d + 2 h - ( a + b + f + i ) } / 1 0 · · · (21) A 4 = { 1 0 e + 2 f + 2 h - ( b + c + d + g ) } / 1 0 - - - (22) また、 上記実施形態では、 画像信号の例として N T S C方式を挙げて 説明したが、 P A L方式、 S E C A M方式など他の信号規格にも同様に 適用することが可能である。 A 1 = {10 e + 2 b + 2 d-(c + f + g + h)} / 10 (19) A 2 = (10 .e + 2 b + 2 f-(a + d + h + i)} / 10---(20) A 3 = {10 e + 2 d + 2 h-(a + b + f + i)} / 10 (21) A 4 = {10 e + 2 f + 2 h-(b + c + d + g)} / 10---(22) In the above embodiment, the NTSC system is used as an example of an image signal. As described above, the present invention can be similarly applied to other signal standards such as the PAL system and the SECAM system.
また、 上記実施形態では、 Y C分離の手法をハー ドウェア構成により 実現する例について説明したが、 D S Pゃソフ トウエアなどによっても 実現することが可能である。 例えばソフ トウエアによって実現する場合 、 本実施形態の Y C分離装置は、 実際にはコンピュータの C P Uあるい は M P U、 R AM、 R OMなどを備えて構成され、 R AMや R OMに記 憶されたプログラムが動作することによって実現できる。  Further, in the above-described embodiment, an example has been described in which the technique of YC separation is realized by a hardware configuration. However, it is also possible to realize the technique by DSP ゃ software or the like. For example, when realized by software, the YC separation device of this embodiment is actually configured with a computer CPU or MPU, RAM, ROM, etc., and is stored in RAM or ROM. It can be realized by running a program.
したがって、 コンピュータが上記実施形態の機能を果たすように動作 させるプログラムを例えば C D— R 0 Mのような記録媒体に記録し、 コ ンピュー夕に読み込ませることによって実現できるものである。 上記プ ログラムを記録する記録媒体としては、 C D— R OM以外に、 フレキシ ブルディスク、 Λ—ドディスク、 磁気テープ、 光ディスク、 光磁気ディ スク、 DVD、 不揮発性メモリカード等を用いることができる。 また、 上記プログラムをイ ン夕一ネッ ト等のネッ トワークを介してコンビュ一 夕にダウンロードすることによつても実現できる。  Therefore, the present invention can be realized by recording a program that causes a computer to perform the functions of the above-described embodiment on a recording medium such as a CD-ROM and reading it into the computer. As a recording medium for recording the above program, a flexible disk, a disk, a magnetic tape, an optical disk, a magneto-optical disk, a DVD, a nonvolatile memory card, and the like can be used in addition to the CD-ROM. In addition, it can be realized by downloading the above program to a computer via a network such as an Internet network.
また、 上記実施形態による Y C分離の機能をネッ トワーク環境で実現 するべく、 全部あるいは一部のプログラムが他のコンピュータで実行さ れるようになっていても良い。  Further, in order to realize the function of YC separation according to the above-described embodiment in a network environment, all or some of the programs may be executed by another computer.
また、 コンピュータが供給されたプログラムを実行することにより上 記実施形態の機能が実現されるだけでなく、 そのプログラムがコンビュ 一夕において稼働している O S (オペレーティ ングシステム) あるいは 他のアプリケーショ ンソフ ト等と共同して上記実施形態の機能が実現さ れる場合や、 供給されたプログラムの処理の全てあるいは一部がコンピ ユ ー夕の機能拡張ボードや機能拡張ユニッ トにより行われて上記実施形 態の機能が実現される場合も、 かかるプログラムは本発明に含まれる。 その他、 上記実施形態は、 何れも本発明を実施するにあたっての具体 化の一例を示したものに過ぎず、 これらによって本発明の技術的範囲が 限定的に解釈されてはならないものである。 すなわち、 本発明はその精 神、 またはその主要な特徴から逸脱することなく、 様々な形で実施する ことができる。 産業上の利用可能性 Further, not only the functions of the above-described embodiment are realized by executing the supplied program by the computer, but also the operating system (OS) or other application software on which the program runs on the computer. If the functions of the above embodiment are realized in cooperation with Such a program is also included in the present invention when the functions of the above-described embodiments are realized by a user's function expansion board or function expansion unit. In addition, each of the above embodiments is merely an example of a specific embodiment for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. That is, the present invention can be embodied in various forms without departing from its spirit or its main features. Industrial applicability
本発明は、 カラ一画像を構成する画素の数を補間処理によって増やす ことにより解像度を上げ、 画像を高精細化する機能を備えた装置に有用 である。  INDUSTRIAL APPLICABILITY The present invention is useful for a device having a function of increasing the resolution by increasing the number of pixels constituting a color image by interpolation processing and increasing the definition of the image.

Claims

請 求 の 範 囲 The scope of the claims
1 . 着目画素およびその周囲にある複数の周辺画素の各画素データを用 いて、 有限台の標本化関数を用いた補間演算を行う ことにより、 上記着 目画素とこの着目画素の斜め方向の最近接位置に配置された 4個の周辺 画素のそれぞれとを結ぶ直線上の補間画素の画素データから成る補間済 みコンポジッ ト · ビデオ信号を求める補間処理手段 、 1. Using the pixel data of the target pixel and a plurality of peripheral pixels surrounding the target pixel, an interpolation operation using a finite number of sampling functions is performed to obtain the latest pixel in the diagonal direction between the target pixel and the target pixel. Interpolation processing means for obtaining an interpolated composite video signal comprising pixel data of an interpolated pixel on a straight line connecting each of the four peripheral pixels arranged at the tangent position;
上記補間処理手段により求められた各補間画素の画素デ一夕を用いて 、 ライン間で隣接する画素データに対して第 1 の演算を行うことにより 、 上記補間済みコンポジッ ト · ビデオ信号から輝度信号と色信号とを分 離する Y C分離手段とを備えたことを特徴とする画像処理装置。  Using the pixel data of each interpolated pixel obtained by the interpolation processing means, a first operation is performed on pixel data adjacent between lines to obtain a luminance signal from the interpolated composite video signal. An image processing apparatus comprising: a YC separation unit that separates a color signal from a color signal.
2 . 上記 Y C分離手段は、 上記第 1 の演算が行われた後の画素データを 用いて、 ライン方向に隣接する画素データに対して第 2の演算を行う こ とにより、 上記補間済みコンポジッ ト · ビデオ信号から分離した色信号 の位相を調整する手段を含むことを特徴とする請求の範囲第 1項に記載 の画像処理装置。 2. The YC separation unit performs the second operation on the pixel data adjacent in the line direction using the pixel data after the first operation, thereby obtaining the interpolated composite. · The image processing apparatus according to claim 1, further comprising means for adjusting a phase of a color signal separated from a video signal.
PCT/JP2004/003667 2003-05-13 2004-03-18 Image processing device WO2004102976A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003134114A JP2004349737A (en) 2003-05-13 2003-05-13 Image processing apparatus
JP2003-134114 2003-05-13

Publications (1)

Publication Number Publication Date
WO2004102976A1 true WO2004102976A1 (en) 2004-11-25

Family

ID=33447143

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/003667 WO2004102976A1 (en) 2003-05-13 2004-03-18 Image processing device

Country Status (3)

Country Link
JP (1) JP2004349737A (en)
TW (1) TW200501756A (en)
WO (1) WO2004102976A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332316B2 (en) 2004-04-07 2012-12-11 American Express Travel Related Services Company, Inc. System and method for transferring a line of credit balance to a cash account

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6350190A (en) * 1986-08-19 1988-03-03 Sony Corp Interpolating circuit for digital color video signal
JP2000148061A (en) * 1998-11-05 2000-05-26 Niigata Seimitsu Kk Image processing circuit
JP2000308021A (en) * 1999-04-20 2000-11-02 Niigata Seimitsu Kk Image processing circuit

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6350190A (en) * 1986-08-19 1988-03-03 Sony Corp Interpolating circuit for digital color video signal
JP2000148061A (en) * 1998-11-05 2000-05-26 Niigata Seimitsu Kk Image processing circuit
JP2000308021A (en) * 1999-04-20 2000-11-02 Niigata Seimitsu Kk Image processing circuit

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8332316B2 (en) 2004-04-07 2012-12-11 American Express Travel Related Services Company, Inc. System and method for transferring a line of credit balance to a cash account

Also Published As

Publication number Publication date
JP2004349737A (en) 2004-12-09
TW200501756A (en) 2005-01-01

Similar Documents

Publication Publication Date Title
US4712130A (en) Chrominance signal frequency converter as for a pix-in-pix television receiver
JP3825751B2 (en) Y / C separation circuit and method
JPH03258179A (en) High-precision television
JP3894046B2 (en) YC separation circuit
KR0141705B1 (en) Motion vector estimation in television images
JPH07110063B2 (en) Television equipment
JP2000308021A (en) Image processing circuit
JPH0646817B2 (en) Video signal processor
JP3926376B2 (en) Video signal processing circuit, video signal display device, and video signal recording device
WO2004102976A1 (en) Image processing device
JP3573025B2 (en) YC separation circuit
JPS6345988A (en) Circuit for separating luminance signal and chrominance signal
JP2004048088A (en) Signal processor
JP3052582B2 (en) Luminance signal / color signal separation circuit and television receiver or video signal recording / reproducing device
JP3441771B2 (en) Imaging device
JP3426090B2 (en) Image information processing device
US20060125966A1 (en) Luminance and color separation
JPH06178315A (en) Method and device for detecting motion and separating y/c in pal system
JPS6213185A (en) Adaptive sub sample filter device
JP2005328413A (en) Yc separation circuit and yc separation method for composite video signal
JPS61288584A (en) Filter device for adaptive sub sampling
JPH04347991A (en) Motion adaptive three-dimensional y/c separator circuit
JPS6328190A (en) Separating circuit for luminance signal and chrominance signal
JPH046982A (en) Interpolation filter device
JP2003143617A (en) Image pickup device

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP