WO2000065830A1 - Dispositif et procede de conversion d'image - Google Patents

Dispositif et procede de conversion d'image Download PDF

Info

Publication number
WO2000065830A1
WO2000065830A1 PCT/JP2000/002636 JP0002636W WO0065830A1 WO 2000065830 A1 WO2000065830 A1 WO 2000065830A1 JP 0002636 W JP0002636 W JP 0002636W WO 0065830 A1 WO0065830 A1 WO 0065830A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
field
image signal
input image
mode
Prior art date
Application number
PCT/JP2000/002636
Other languages
English (en)
French (fr)
Inventor
Tetsujiro Kondo
Yasushi Tatehira
Masaaki Hattori
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US09/720,348 priority Critical patent/US6646684B1/en
Priority to EP00917418A priority patent/EP1111918B1/en
Priority to DE60041114T priority patent/DE60041114D1/de
Priority to JP2000614655A priority patent/JP4470323B2/ja
Publication of WO2000065830A1 publication Critical patent/WO2000065830A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • H04N7/0132Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter the field or frame frequency of the incoming video signal being multiplied by a positive integer, e.g. for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes

Definitions

  • the present invention relates to an image conversion device and method suitable for use in a television receiver, a VTR, and the like.
  • a field frequency of a television scanning method 50 Hz (PAL method, SEC AM method, etc.) or 60 Hz (NTSC method) has been widely adopted.
  • the field frequency is relatively low, such as 50 Hz, there is a problem that a large area of the display image is flickered, that is, a so-called field flit is generated.
  • FIG. 17 schematically shows an example and another example of a pixel structure obtained by the field double-speed processing, in which the vertical axis represents a vertical position v and the horizontal axis represents time t.
  • an output image signal having a period of 1 to 2 of the field period of the input image signal is formed. Since the input image signal is interlaced, the vertical position (line position) of the input pixel indicated by a white circle is shifted by 12 between two fields that are temporally continuous.
  • the pixel structure shown in FIG. 17A is obtained by doubling the speed so that the double-speed field of the output image signal has an instantaneous relationship.
  • three pixels during input are supplied to the median filter in order to form output pixels of a field not existing in the input image signal.
  • an output pixel (indicated by a star mark) is generated by a median fill from three input pixels surrounded by a dashed triangle line. Mede Ianfill outputs a pixel having an intermediate pixel value among the three input pixels.
  • the median filter processing is shown for some output pixels, but all output pixels other than the output pixel that matches the input pixel position are processed by the media: ⁇ filter. Generated.
  • the output image signal having the pixel structure shown in FIG. 17A is called an ABAB type.
  • the pixel structure of the output image signal shown in FIG. 17B is double-speed so that a pixel of a new field exists at the same vertical position as the temporally previous field of the input image signal. It has been made. In Fig. 17B, the speed can be doubled by repeatedly outputting the previous field in time.
  • the output image signal having the pixel structure shown in FIG. 17B is called an AAB B type.
  • the ABAB type Since the AAB B type repeatedly outputs the same field, the resolution in the time direction is not improved by doubling the speed. Rather, in the case of an image taken by panning a video camera, a double image is generated and the image quality may be degraded.
  • the ABAB type has advantages over the AAB B type in terms of spatio-temporal resolution (temporal and spatial resolution). However, in the ABAB type, three input pixels included in the previous and next fields are processed by median fill and the output pixels are interpolated. In the case of, degradation occurs in which the vertical line looks like a comb tooth. For example, when a screen in which numbers and characters are lined up like a stock information scrolls horizontally, there is a disadvantage that the numbers and characters are difficult to see.
  • Another object of the present invention is to adapt the ABAB type to the pattern of the input image. It is an object of the present invention to provide an image conversion device and method capable of improving image quality by switching between AABB and AABB types.
  • the invention according to claim 1 provides an input image signal in which a pixel position of a first field and a pixel position of a second field which are adjacent to each other are different from each other.
  • an image conversion apparatus for converting into an output image signal having a field frequency of N times N is an integer of 2 or more
  • At least all fields not present in the input image signal are sequentially set as a field of interest, and for each pixel of interest of the field of interest, based on a plurality of pixels of the input image signal determined based on the pixel of interest.
  • a class determination unit that determines a class for the pixel of interest; a memory unit that stores prediction information obtained in advance;
  • a prediction pixel selection unit that selects a plurality of pixels of the input image signal for each pixel of interest
  • a pixel generation unit that generates each target pixel of the output image signal based on prediction information corresponding to the class determined by the class determination unit and the plurality of pixels selected by the prediction pixel selection unit;
  • the pixel position of the output image signal changes in units of fields equal to N, and the pixel position of each field coincides with the pixel position of one of the first and second fields of the input image signal.
  • the invention according to claim 13 is characterized in that an input image signal in which the pixel position of the first field and the pixel position of the second field adjacent to each other are different from each other is N times (N is the field frequency of the input image signal) , An integer greater than or equal to 2) to an output image signal having a field frequency of hand,
  • At least all fields not present in the input image signal are sequentially set as a field of interest, and for each pixel of interest of the field of interest, based on a plurality of pixels of the input image signal determined based on the pixel of interest.
  • the pixel position of the output image signal changes in units of fields equal to N, and the pixel position of each field is the same as the pixel position of one of the first and second fields of the input image signal.
  • This is an image conversion method characterized by matching.
  • a pixel value of an output field that does not exist in the input image signal is generated by the class classification adaptive processing using the image information of the preceding and succeeding input fields. Therefore, as compared with the conventional method of simply outputting the same field repeatedly, it is possible to solve the problem that the second output field has image information corresponding to the time and has no time resolution.
  • the class classification adaptive processing a class is detected based on a plurality of pixels of an input image signal, and a pixel value of an output image signal is created using an estimated prediction formula that is optimal for each class. This makes it possible to improve the resolution of the output image signal as compared with the case of performing the operation.
  • AABB Eve and ABAB type can be selectively generated. Therefore, it is possible to select the AB AB type for a picture requiring a spatio-temporal resolution as the input image signal, and to select the A AB B type when viewing many horizontally moving telops. Become.
  • FIG. 1 is a schematic diagram schematically showing a pixel structure used for describing a first embodiment of the present invention.
  • FIG. 2 is a block diagram of a second embodiment of the present invention.
  • FIG. 3 is a waveform chart for explaining field doubling.
  • FIG. 4 is a schematic diagram for explaining a vertical synchronizing signal with respect to a field double speed output image signal.
  • FIG. 5 is a schematic diagram showing an arrangement of pixels of an input image signal and pixels of an AABB type output image signal.
  • FIG. 6 is a schematic diagram showing an arrangement of pixels of an input image signal and pixels of an ABAB type output image signal.
  • FIG. 7 is a schematic diagram showing a tap structure when generating an AABB type output image signal.
  • FIG. 8 is a schematic diagram showing an example of a prediction tap and a cluster tap in the AABB type.
  • FIG. 9 is a schematic diagram illustrating an example of prediction taps and class taps in the AAB B type.
  • FIG. 10 is a schematic diagram showing a tap structure when an ABAB type output image signal is generated.
  • FIG. 11 is a schematic diagram showing an example of prediction taps and cluster taps in the ABAB type.
  • Fig. 12 shows prediction taps and clusters in ABAB type. It is an approximate line figure showing other examples of a loop.
  • FIG. 13 is a schematic diagram showing still another example of the prediction tap and the cluster tap in the ABAB type.
  • FIG. 14 is a block diagram showing a configuration when learning a prediction coefficient.
  • FIG. 15 is a schematic diagram for explaining the positional relationship between the pixels of the teacher image and the pixels of the student image when learning the prediction coefficients for the AABB type.
  • FIG. 16 is a schematic diagram for explaining the positional relationship between the pixels of the teacher image and the pixels of the student image when learning the prediction coefficients for the ABBA type.
  • FIG. 17 is a schematic diagram for explaining one example of the conventional field doubling process and another example.
  • the field double speed processing device used in the first embodiment generates at least pixels of an output field that do not exist in an input image signal by a class classification adaptive process.
  • Fig. 1 schematically shows the pixel structure obtained by the field double-speed processing, as in Fig. 17, with the vertical axis representing the vertical position v and the horizontal axis representing time t.
  • the input image is indicated by a white circle and the output image is indicated by a black circle or star.
  • FIG. 1A shows a conventional process similar to FIG. 17A, and is a diagram for comparison with the process according to the present invention. In other words, it indicates that double speed processing is performed by repeatedly outputting the same field as the field in the input image signal.
  • FIG. 1B shows the process of doubling the speed according to the present invention.
  • the input image signal is Pixel X 1 belonging to the temporally previous field of the field that does not exist inside, and having the same vertical position, pixels X 2 and X 3 above and below, and the temporally subsequent field And use pixels X 4 and X 5 at the top and bottom in the vertical direction to generate pixel y for the new field.
  • This processing is a classification adaptive processing. Note that, as is clear from the description of the second embodiment described later, the input pixels used in the classification adaptive processing are not limited to xl to x5.
  • the input pixels of the preceding and succeeding input fields are used, and the output pixels of the new field are generated by the classification adaptive processing.
  • a new field with time resolution can be created. Therefore, it is possible to prevent a double image from being generated on a panned screen as in the conventional method of repeatedly outputting the same field.
  • the input image signal is an interless signal having a field frequency of 60 Hz and the number of lines is 525, and the input image signal is converted to a field frequency of 120 Hz and the number of lines is increased by a field doubling process. It is designed to convert it into 5 2 5 output image signals.
  • the pixel structure of the output image signal it is possible to switch between the AAB type and the ABAB type according to a user setting or in accordance with the input image signal.
  • pixels are generated by the method described with reference to FIG. 1B.
  • pixels are generated by the classification adaptive processing.
  • the spatio-temporal resolution can be higher than the conventional method using the median filter.
  • the classification adaptive processing has a storage unit that performs class division according to temporal and / or spatial characteristics of an image signal as an input signal, and stores a prediction coefficient value obtained by learning in advance for each class. This is a method to output the optimum estimated value by the calculation based on the prediction formula.
  • the resolution can be increased more than that of the input image signal by the class classification adaptive processing.
  • an input interface image signal (525 lines, Z 60 Hz) is supplied to a region cutout unit 1 and is required for class classification and prediction calculation.
  • An area including a plurality of pixels is cut out.
  • the output of the region cutout unit 1 is supplied to the class detection circuits 2 and 12, and the prediction tap selection circuits 3 and 13.
  • the class detection circuits 2 and 12 detect a class corresponding to the characteristics of an input pixel near an output pixel to be created.
  • the class detection circuits 2 and 12 may detect a motion class.
  • the two configurations for generating pixels in parallel are provided to generate a pixel in a field existing in the input image signal and to generate a pixel in a field not present in the input image signal. .
  • the classes detected by the class detection circuits 2 and 12, respectively, are supplied to the prediction tap selection circuits 3, 13 and the prediction coefficient memories 4, 14.
  • the prediction coefficient set corresponding to the class is read from the prediction coefficient memories 4 and 14, and the read prediction coefficient set is supplied to the product-sum operation circuits 5 and 15.
  • the prediction tap selection circuits 3 and 13 are configured to select a prediction tap to be used according to the class. When the prediction coefficient set of each class is obtained in advance by learning, both the prediction coefficient set and the information on the position of the prediction tap to be used are obtained.
  • the prediction tap selection circuits 3 and 13 are provided with memories in which prediction tap position information is stored for each class. Have been.
  • Predicted tap position information read from the memory corresponding to the class is supplied to a selector for switching the evening tap, and the selector selectively outputs a predicted tap.
  • the prediction taps from the prediction tap selection circuits 3 and 13 are supplied to the product-sum operation circuits 5 and 15.
  • the product-sum operation circuits 5 and 15 calculate the data of the output image signal using a linear estimation formula of the prediction tap (pixel of the input image signal) and the prediction coefficient set.
  • the sum-of-products arithmetic circuits 5 and 15 simultaneously output the first and second pixel values of adjacent fields of the field double speed output image signal, respectively.
  • the first pixel value from the product-sum operation circuit 5 is supplied to the field doubler 6, and the second pixel value from the product-sum operation circuit 15 is supplied to the field doubler 16.
  • Each of the field doublers 6 and 16 has a field memory and performs a process of doubling the field frequency of each of the first and second fields generated by the class classification process.
  • the outputs of the field doublers 6 and 16 are input to a selector 7 that can be switched for each field.
  • the selector 7 alternately selects the outputs of the field doublers 6 and 16 to generate an output image signal (525 lines / 120 Hz output signal).
  • the output image signal is supplied to, for example, a CRT display.
  • the synchronizing system of the CRT display is configured so that an output image signal can be displayed.
  • a broadcast signal or a playback signal of a playback device such as a VTR is supplied. That is, this example can be incorporated in a television receiver.
  • a selection signal generator 8 is provided.
  • the selection signal generating section 8 generates selection signals SL1 and SL2 for instructing whether to generate an AABB type or an ABAB type as an output image signal.
  • the high and low levels of the selection signals SL 1 and SL 2 AABB type and ABAB type are associated with each other.
  • the selection signal generator 8 generates selection signals SL1 and SL2 by manually operating switches and the like while viewing the image presented by the output image signal. Not only manual operation but also selection signals SL 1 and SL 2 may be generated in response to an instruction of a control signal sent together with the input image signal. Further, the selection signals SL1 and SL2 may be automatically generated according to the characteristics of the input image signal itself.
  • the selection signal S L 1 controls the extraction method of the area extraction unit 1.
  • the selection signal S L2 controls the setting of the class taps and prediction taps in the class detection circuits 2 and 12 and the prediction tap selection circuits 3 and 13.
  • the prediction coefficient tables of the prediction coefficient memories 4 and 14 are switched by the selection signal SL2.
  • the selection signal SL2 is supplied to the synchronizing signal generator 9, and a vertical synchronizing signal suitable for each type of output image signal is generated.
  • the vertical deflection of the CRT monitor (not shown) is controlled by the vertical synchronization signal.
  • FIG. 3 shows the operation of the field doublers 6 and 16 with time on the horizontal axis and the addresses of the field memories in the field doublers 6 and 16 on the vertical axis.
  • the data of the first field and the data of the second field are simultaneously generated by the multiply-accumulation circuits 5, 15.
  • FIG. 3A shows the address when the image signal of the first field generated by the product-sum operation circuit 5 is written into the field memory
  • FIG. 3C shows the second address generated by the product-sum operation circuit 15. This is the address when writing the image signal of the field No. into the field memory.
  • the numbers 1 A, 1 B, 2 A, 2 B,... Added to each field indicate the two fields (A and B) that make up one frame. Also, ignoring the delay caused by the class classification adaptive processing, the input image signal and the product-sum operation circuits 5, 15 Numbers are assigned to the output image signals.
  • the output image signal of the product-sum operation circuit 5 shown in FIG. 3A is supplied to the field doubler 6.
  • one field (for example, 1A in FIG. 3A) of the output of the multiply-accumulate operation circuit 5 is written into the field memory, and is twice as fast as the write speed so as not to overtake this write address.
  • One field (for example, 1A in Fig. 3B) is read from the field memory at the speed. Reading of one field is repeated twice. Therefore, as shown in FIG. 3B, an output having a doubled field frequency is generated from the field doubler 6.
  • the other field doubler 16 also generates an output signal (FIG. 3D) in which the field frequency of the operation signal from the product-sum operation circuit 15 is doubled, similarly to the field doubler 6.
  • the output signals of these field doublers 6 and 16 are supplied to a selector 7, and the selector 7 alternately selects each output signal for each field.
  • an output image signal shown in FIG. 3E is obtained from the selector 7.
  • the output image signal is obtained by alternately positioning the image signal of the first field generated by the product-sum operation circuit 5 and the image signal of the second field generated by the product-sum video circuit 15 in the time axis direction. This is an image signal whose field frequency is doubled.
  • the configuration of the field doubling speed of the class classification adaptive processing shown in FIG. 2 corresponds to one component of the color image signal, and is divided into three components of a luminance signal and two color difference signals.
  • the configuration shown in FIG. 2 may be provided.
  • the present invention can be applied not only to a component color image signal but also to a composite color image signal.
  • FIG. 4 illustrates the vertical sync signal generated by the sync signal generator 9.
  • FIG. 4A When the output image signal is of the ABAB type, raster scanning is performed in an interless mode, as shown in FIG. 4A. That is, scanning is performed from the first line of the first field to the second field in the middle of the 263rd line, and scanning is performed up to the 525th line.
  • the line (dashed line) of the second field exists at the center position between the lines above and below the first field.
  • a vertical synchronizing signal having a period of 262.5 lines is output from the synchronizing signal generator 9.
  • the operation is performed at the physical position of the last scan.
  • a scan of line 262 from line 1 to line 262 is performed, and in the second field, line 1 to line 262 of the previous field are identical. Is scanned, and further, the scanning of 262.5 lines up to the first half of the 2263rd line is performed.
  • the third field scanning starts from the latter half of the 263rd line, and 263 lines up to the first half of the 263rd line are scanned.
  • scanning is performed from the latter half of line 263, and scanning of line 262.5 up to line 262 is performed. The fourth raster scan returns to the first scan.
  • the synchronization signal generator 9 In order to perform one raster scan shown in FIG. 4C, the synchronization signal generator 9 generates a vertical synchronization signal in the AABB type as shown in FIG. 4D. Thus, the synchronization signal generator 9 The vertical synchronization signal is generated according to the type indicated by the selection signal SL2 from the selection signal generator 8. The vertical synchronization of the CRT monitor is controlled by this vertical synchronization signal, and the output image signal of the field double speed is displayed.
  • the classification adaptive processing according to the second embodiment of the present invention will be described in more detail.
  • Pixels in the fields existing in the input image signal are generated by the classification process. That is, the pixels in the field that do not exist in the input image signal are generated by the class detection circuit 2, the prediction tap selection circuit 3, the prediction coefficient memory 4, and the product-sum operation circuit 5. Pixels in the field that are not present in the input image signal are generated by the class detection circuit 12, the prediction tap selection circuit 13, the prediction coefficient memory 14, and the product-sum operation circuit 15. Then, the AABB type output image signal having the pixel arrangement shown in FIG. 5 is generated by the field doublers 6 and 16 and the selector 7.
  • FIG. 6 schematically shows a pixel position when an ABAB type output image signal is generated when the vertical axis is the vertical direction and the horizontal axis is the time direction.
  • Pixels in the fields existing in the input image signal are generated by the class detection circuit 2, the prediction tap selection circuit 3, the prediction coefficient memory 4, and the product-sum operation circuit 5.
  • Pixels in the fields not present in the input image signal are generated by the class detection circuit 12, the prediction tap selection circuit 13, the prediction coefficient memory 14, and the product-sum operation circuit 15. Then, the field doublers 6 and 16 and the selector 7 generate an ABB type output image signal having the pixel arrangement shown in FIG.
  • FIG. 7 shows the vertical and temporal tap structures.
  • Mode 1 is a mode in which pixels in one of the odd and even fields present in the input image signal are This is a process of generating a pixel at the same position in the direction as a pixel of the first field.
  • Mode 2 is a process of generating a pixel in a field that does not exist in the input image signal at the same position in the vertical direction as a pixel in one field as a pixel in the second field.
  • Mode 3 is a process to generate a pixel as a third field pixel at the same position in the vertical direction as a pixel in the other field of the odd field and the even field existing in the input image signal. is there.
  • Mode 4 is a process of generating a pixel in a field that does not exist in the input image signal, at the same position in the vertical direction as a pixel in the other field, as a pixel in the fourth field.
  • the input pixels in the fields before and after the newly generated field are class-tapped or predicted as shown by the triangles in Fig. 7. Used as a tap. That is, it is included in the field (referred to as one field) before the new field to be generated, is included in the pixel at the same position as the pixel to be generated, and is included in the field (0 field) after the new field. Pixels that are vertically above and below the pixel to be used are used as evening pixels.
  • FIG. 8A is an example of a prediction tap in mode 1 and mode 3
  • FIG. 8B is an example of a class tap in mode 1 and mode 3.
  • 8A and 8B show the arrangement of pixels with the vertical axis being the vertical direction and the horizontal axis being the horizontal direction.
  • Fig. 8A the pixels to be generated (black circles) y included in one field and the six input pixels x vertically above and below.
  • ⁇ x 5, 0 is included in the field, four input pixels x 6 ⁇ x of the pixel y to be cane product vertically adjacent left and right positions, the prediction tap by the sum 1 0 of the input pixel with the structure
  • FIG. 8B is an example of class taps in mode 2 and mode 4.
  • 9A and 9B show the pixel arrangement with the vertical axis being the vertical direction and the horizontal axis being the horizontal direction.
  • the five input pixels x that are included in the —1 field and that are the same in the vertical direction as the pixel to be generated (black circle) y.
  • ⁇ x 4, 0 contained in a field by a total of 1 one input pixel of the six input picture element x 5 ⁇ x 1 0 of the upper and lower positions in the vertical direction to the pixel y to be generate A prediction tap is configured.
  • the spatial position of the generated pixel y and the input pixel X2 is the same.
  • five input pixels X By to X 4, class tap mode 2 and mode 4 is formed. X.
  • X and X 2 are pixels included in one field and located vertically above and below the pixel y to be generated.
  • X 3 and X 4 are included in the 0 field, the pixel positions of the upper and lower in vertical direction with respect to the pixel y to be cane product.
  • FIG. 10 shows the vertical and temporal sunset structures.
  • Mode 1 is for one of the fields present in the input image signal. This is a process of generating a pixel at the same position in the vertical direction as the pixels in the inside. mode
  • Reference numeral 2 denotes a pixel in a field which does not exist in the input image signal, and generates a pixel at a position shifted by one or two lines in the vertical direction from a pixel in one field.
  • Mode 3 is a process for generating a pixel at a position shifted by 12 lines in the vertical direction from a pixel in the other field existing in the input image signal.
  • Mode 4 is a process of generating a pixel in a field that does not exist in the input image signal at the same position in the vertical direction as a pixel in the other field.
  • mode 2 and mode 4 the input pixels of the fields before and after the new field including the pixel to be generated are used as taps as shown by the triangles in FIG.
  • mode 2 — The pixels included in the 1 field and located vertically above and below the pixel to be generated, and the pixels included in the 0 field and located at the same vertical position as the pixel to be generated Is used as a tap.
  • mode 4 the pixels that are included in one field and are at the same vertical position as the pixel to be generated, and the pixels that are included in the 0 field and are vertically above and below the pixel to be generated are Is used as a tap.
  • FIG. 11A is an example of a prediction tap in mode 2
  • FIG. 11B is an example of a class tap in mode 2.
  • Fig. 11 A And Fig. 11B shows the pixel arrangement with the vertical axis being the vertical direction and the horizontal axis being the horizontal direction.
  • ⁇ x 5, 0 contained in a field, in the same position in the pixel y direction perpendicular to you'll generate five input pixels x 6 ⁇ x,.
  • the prediction tap is composed of a total of 11 input pixels.
  • FIG. 11 B five input pixels X.
  • motor - class tap de 2 is constructed.
  • X. And X are included in the —1 field and are pixels vertically above and below the pixel y to be generated.
  • X 2 is 0 included in the field is a pixel of the same position as the pixel y to be cane product.
  • X 3 and X 4 are included in the 0 field, a pixel position in the vertical in a direction perpendicular to the pixel to be cane product.
  • FIG. 12B is an example of a prediction tap in mode 3
  • FIG. 12B is an example of a class tap in mode 3.
  • FIGS. 12A and 12B show the arrangement of pixels with the vertical axis being the vertical direction and the horizontal axis being the horizontal direction. As shown in FIG. 12A, two input pixels x included in one field and located vertically above and below the pixel y to be generated.
  • a prediction tap is composed of a total of 10 input pixels including the two input pixels x 8 and ⁇ 9 at the upper and lower positions.
  • X. And X are — contained in one field, and vertically above and below the pixel y to be generated.
  • Pixel. X 2 and X 3 are included in the 0 field, a pixel position in the vertical in a direction perpendicular to the pixel y to generated so.
  • FIG. 13A is an example of a prediction tap in mode 4
  • FIG. 13B is an example of a cluster tap in mode 4.
  • FIGS. 13A and 13B show the pixel arrangement with the vertical axis being the vertical direction and the horizontal axis being the horizontal direction.
  • Fig. 13A five input pixels x included in one field and located at the same vertical position as the pixel y to be generated.
  • ⁇ ⁇ 4 and 6 input pixels x 5 to x 10 that are included in the 0 field and are located vertically above and below the pixel y to be generated.11 Predicted by 1 input pixel A tap is configured.
  • X. X4 constitutes a mode 4 class tap.
  • X. I a pixel that is included in one field and is at the same vertical position as the pixel to be generated.
  • X and X 2 are pixels included in one field and located vertically above and below the pixel to be generated.
  • X 3 and X 4 are included in the 0 Fi one field, a pixel position in the vertical in a direction perpendicular to the pixel y to be cane product.
  • the prediction tap and class tap in mode 1 are processing to recreate the fields existing in the input signal, and are the same as those in mode 1 of the ABA B type shown in Fig. 8A. Is good.
  • the selection signal SL2 is supplied to the class detection circuits 2 and 12 to switch the class tap between the AABB type and the ABAB type described above.
  • the selection signal SL2 is supplied to the prediction tap selection circuits 3 and 13 to switch the prediction tap according to the type. Is done. Switching between class tap and prediction tap modes
  • the region extracting circuit 1 simultaneously outputs all input pixels that may be used as a class tap and a prediction tap.
  • the class detection circuits 2 and 12 are adapted to select a cluster tap according to the mode and the position of the pixel of interest.
  • the class detection circuits 2 and 12 detect characteristics of the class tap, for example, a level distribution. In this case, in order to prevent the number of classes from becoming enormous, processing is performed to compress the input data of 8 bits per pixel into data of a smaller number of bits.
  • data of an input pixel of a class tap is compressed by ADR C (Adaptive Dynamic Range Coding).
  • ADR C Adaptive Dynamic Range Coding
  • a compression method such as DPCM (prediction coding) and VQ (vector quantization) may be used in addition to ADRC.
  • ADRC is an adaptive requantization method developed for high-efficiency coding for VTRs (Video Tape Recoders) .However, since local features at the signal level can be expressed efficiently with a short word length, In this example, ADRC is used to generate code for classification.
  • ADR C the dynamic range of the cluster tap is DR
  • the bit allocation is n
  • the data level of the pixel of the class tap is L
  • the requantization code is Q. Re-quantization is performed by dividing equally between the value MIN and the specified bit length.
  • a class may be detected by integrating a motion class with a motion class. In this case, depending on the motion class, The cluster top may be switched.
  • the multiply-accumulation circuits 5 and 15 include the prediction taps (pixel values) selected by the prediction tap selection circuits 3 and 13 and the prediction coefficient sets read from the prediction coefficient memories 4 and 14, respectively. Pixel values are generated by a linear linear combination with The pixel value may be generated not only by the linear expression but also by a higher-order estimation expression of second order or higher.
  • the prediction coefficient memories 4 and 14 store a prediction coefficient table used in the AABB type and a prediction coefficient table used in the ABAB type. Each table has a plurality of prediction coefficient sets corresponding to the modes and the classes determined by the class detection circuits 2 and 12. Each table (prediction coefficient) is obtained in advance by a learning process described later.
  • the product-sum operation circuit 5 includes a prediction tap (pixel value) xl, X 2, ⁇ ⁇ ⁇ ⁇ ⁇ from the prediction tap selection circuit 3 or 13, and a prediction coefficient set w 2 , wi
  • pixel values in the case of mode 1 and mode 3 are calculated, for example.
  • the product-sum operation circuit 15 calculates the pixel values in the case of the mode 2 and the mode 4 in the same manner.
  • the prediction coefficient set is determined in advance for each class by learning, and then stored in the prediction coefficient memories 4 and 14. A calculation is performed based on the input prediction taps and the read prediction coefficient set, and output data corresponding to the input data is formed and output, thereby simply interpolating the input data. Unlike processing, it can output high-quality field double-speed image signals.
  • the decimation unit 31 converts the number of pixels in the vertical direction from a progressive image signal having a field frequency of 120 Hz (field double speed) to 1 2 in the vertical direction, and the field frequency 6 It forms an image signal (student image) at 0 Hz.
  • the number of pixels in the vertical direction is set to 1 Z2 by the thinning unit 41 to form an image signal (teacher image) having a field frequency of 120 Hz.
  • the teacher image is of AABB type or AB AB type.
  • the thinning unit 41 forms one of the AABB type and ABAB type teacher images by changing the method of thinning each field in the vertical direction.
  • the teacher image from the thinning unit 41 and the student image from the thinning unit 31 are used as a learning pair.
  • FIG. 15 shows a pixel structure at the time of learning a prediction coefficient for forming an AABB type output image signal.
  • FIG. 16 shows a pixel structure when learning a prediction coefficient for forming an output image signal of an ABAB evening.
  • the vertical axis is the vertical direction, and the horizontal axis is the time direction.
  • black circles indicate pixels of the progressive image having a field frequency of 120 Hz.
  • the thinning-out section 41 thins out 1 to 2 pixels in the vertical direction so that pixels at the same position in the vertical direction in continuous fields are used as pixels of the teacher image.
  • 1Z2 thinning in the vertical direction is performed in the thinning unit 41 such that the vertical position has a shift of one line of the progressive image in continuous fields.
  • the field circumference Time thinning is performed so that the wave number is 60 Hz, and the vertical position is shifted by one line of the progressive image between temporally continuous fields after the time thinning.
  • One-two thinning is performed. The student image formed in this way corresponds to the input image at the time of pixel value generation.
  • the student image signal from the thinning section 31 is supplied to the predicted tap area cutout section 32 and the class tap area cutout section 33.
  • Class tap The class tap from the region cutout section 33 is supplied to the class detection circuits 34 and 35.
  • the prediction tap area cutout unit 32 outputs a prediction tap for creating a pixel in each mode.
  • the class detection circuits 34 and 35 compress the cluster map data set for each mode by ADRC, similarly to the class detection circuits 2 and 12 in the pixel generation device shown in FIG. Generate information.
  • the class detection circuits 34, 35 independently detect the classes for Modes 1 and 3 and Modes 2 and 4, respectively.
  • the prediction tap from the prediction tap area cutout section 32 is supplied to normal equation addition circuits 36 and 37.
  • learning of a conversion formula from a plurality of input pixels to output pixels and signal conversion using the prediction formula will be described.
  • the prediction coefficient set w,, ⁇ ⁇ ⁇ sets the linear estimation equation of n tap according to w n. before this is shown in equation (3) below.
  • Wi is undetermined coefficient.
  • y Wi xi + w 2 x 2 + ⁇ ⁇ ⁇ + W «x n (3)
  • Learning is performed on multiple signal data for each class.
  • the following equation (4) is set according to the equation (3).
  • Equation (7) can be rewritten into Equation (10) using a matrix.
  • Each of the regular equation addition circuits 36 and 37 in FIG. 14 includes the class information supplied from the class detection circuits 34 and 35 and the prediction tap supplied from the prediction tap area cutout unit 32.
  • the normal equation is added using the pixels of the teacher image.
  • the normal equation adding circuits 36 and 37 output the normal equation data to the prediction coefficient determination unit 38.
  • the prediction coefficient determination unit 38 solves for W i using a general matrix solution such as a sweeping method of a normal equation, and calculates a prediction coefficient set.
  • the prediction coefficient determination unit 38 writes the calculated prediction coefficient set in the prediction coefficient memories 39, 40.
  • the prediction coefficient memories 39, 40 can estimate the closest true value for estimating the target pixel y of the field double-speed signal for each class.
  • the prediction coefficient is stored. Forecast
  • the prediction coefficients stored in the measurement coefficient memories 39 and 40 are loaded into the prediction coefficient memories 4 and 14 in the above-described image conversion device.
  • the prediction coefficient determination unit 38 obtains more prediction coefficient sets for each class. From the obtained prediction coefficient sets, the prediction coefficient sets to be used are selected in ascending order of absolute value. The selected prediction coefficient set is stored in the addresses corresponding to the classes of the memories 39 and 40, respectively. Therefore, a prediction tap is selected for each class, and the selected position information of the prediction tap is stored in a memory (not shown) for each class. By such a prediction tap selection process, it is possible to select a prediction tap suitable for each class. With the above processing, the learning of the prediction coefficients for creating the image of the field frequency of 120 Hz from the interlaced image signal of the field frequency of 60 Hz is completed by the linear estimation formula.
  • the type of an output image signal whose field is doubled according to the pattern of the input image signal can be selected. So you can see high quality playback images.
  • the AABB type is generated as the output image signal while performing the field doubling speed
  • a field that does not exist in the input image signal is generated using the image information of the preceding and succeeding input fields.
  • the generated field becomes image information corresponding to the time. Therefore, it is possible to solve the problem of not having the time resolution of the process of simply repeating the same field as the input field.
  • the class classification adaptive processing is used, the spatio-temporal resolution can be improved.
  • the AABB type and the ABAB type can be selected as the pixel structure as the output image signal, it is possible to perform the field double speed processing adapted to the pattern of the input image signal. Therefore, in the case of a screen in which characters are scrolled horizontally, for example, a stock information presentation screen, the characters are clearly displayed by selecting the AABB type, and otherwise, by selecting the ABAB type. Images with good spatio-temporal resolution can be displayed.
  • the present invention is not limited to the above-described embodiments and the like, and various modifications and applications are possible without departing from the gist of the present invention.
  • the description has been given of the double-speed processing of a field frequency of 60 Hz and 120 Hz, the present invention can be similarly applied to the double-speed processing of 50 Hz to 100 Hz.
  • the field frequency of the input image signal is not limited to 50 Hz or 60 Hz.
  • the processing of the field doubling has been described.
  • the processing of doubling the number of pixels in the horizontal and Z or vertical directions is simultaneously performed. May be.
  • the field frequency conversion may be performed at an arbitrary ratio without being limited to the double speed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Television Systems (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Description

明 細 書
画像変換装置および方法
技術分野
この発明は、 テレビジョン受像機、 V T R等に用いて好適な画像変 換装置および方法に関する。
背景技術
従来、 テレビジョン走査方式のフィールド周波数としては、 5 0 Hz ( P A L方式、 S E C A M方式等) または 6 0 Hz ( N T S C方式) が 広く採用されている。 フィールド周波数が 5 0 Hzのような比較的低い 場合には、 表示画像の大面積がチカチカする、 所謂フィールドフリツ 力が発生する問題があった。
フィールドフリッカを低減するために、 入力画像信号のフィールド 数を 2倍とする画像処理装置が知られている。 このような処理は、 フ ィ一ルド倍速処理と称される。 第 1 7図は、 フィールド倍速処理によ り得られる画素構造の一例および他の例を概略的に示すものであり、 縦軸を垂直方向位置 v、 横軸を時間 t とするものである。 フィールド 倍速処理の結果、 入力画像信号のフィールド周期の 1ノ 2の周期の出 力画像信号が形成される。 入力画像信号は、 インターレス方式である ため、 白い丸印で示す入力画素の垂直方向の位置 (ライン位置) が時 間的に連続する 2フィールド間で、 1 2ずれている。
第 1 7図 Aに示す画素構造は、 出力画像信号の倍速フィールドがィ ン夕ーレス関係を有するように、 倍速化を行うことで得られる。 従来 では、 入力画像信号に存在してないフィールドの出力画素を形成する ために、 入力中の 3画素をメディアンフィル夕に供給していた。 第 1 7図 Aにおいて、 3角形の破線で囲まれた 3個の入力画素から出力画 素 (星マークで示す) がメディアンフィル夕により生成される。 メデ イアンフィル夕は、 3個の入力画素の中間の画素値を有するものを出 力する。 第 1 7図 Aでは、 一部の出力画素について、 メディアンフィ ル夕の処理が示されているが、 入力画素の位置と一致する出力画素以 外の全ての出力画素がメディア:^フィル夕により生成される。 第 1 7 図 Aに示す画素構造の出力画像信号を A BABタイプと称する。
また、 第 1 7図 Bに示す出力画像信号の画素構造は、 入力画像信号 の時間的に前のフィ一ルドと同一の垂直方向の位置に新たなフィール ドの画素が存在するように、 倍速化を行ったものである。 第 1 7図 B は、 時間的に前のフィールドを繰り返して出力することによって、 倍 速化を行うことができる。 第 1 7図 Bに示す画素構造の出力画像信号 を AAB Bタイプと称する。
AAB Bタイプは、 同じフィールドを繰り返し出力するので、 倍速 化によって、 時間方向の解像度が向上しない。 むしろ、 ビデオカメラ をパンして撮影された画像の場合には、 2重像が生じ、 画質が劣化す ることがある。 ABABタイプは、 AAB Bタイプと比較して時空間 解像度 (時間方向および空間内解像度) の点で有利である。 しかしな がら、 ABABタイプは、 時間的に前後のフィールドに含まれる 3個 の入力画素をメディアンフィル夕で処理して出力画素を補間したもの であるために、 全画面の動き、 文字の横スクロールの場合には、 縦線 が櫛歯状に見える劣化が生じる。 例えば株式情報のように、 画面に数 字、 文字が並んでいる画面が横スクロールする場合には、 数字、 文字 が見にくくなる欠点がある。
従って、 この発明の一つの目的は、 AAB Bタイプの問題点である 時空間解像度がない問題点を解決することができる画像変換装置およ び方法を提供することにある。
この発明の他の目的は、 入力画像の絵柄に適応して ABABタイプ と A A B Bタイプとを切り替えることによって、 画質を向上できる画 像変換装置および方法を提供することにある。
発明の開示
上述した課題を達成するために、 請求の範囲 1の発明は、 互いに隣 接する第 1のフィ一ルドの画素位置と第 2のフィールドの画素位置が 異なる入力画像信号を、 入力画像信号のフィールド周波数の N倍 (N は、 2以上の整数) のフィールド周波数を有する出力画像信号に変換 する画像変換装置において、
出力画像信号のうち、 少なくとも入力画像信号に存在しない全ての フィールドを順次注目フィールドに設定し、 注目フィールドの注目画 素毎に、 注目画素に基づいて決定される入力画像信号の複数の画素に 基づいて、 注目画素に対するクラスを決定するクラス決定部と、 予め取得された予測情報を記憶するメモリ部と、
注目画素毎に、 入力画像信号の複数の画素を選択する予測画素選択 部と、
クラス決定部で決定されたクラスに対応する予測情報と、 予測画素 選択部で選択された複数の画素とに基づいて、 出力画像信号の各注目 画素を生成する画素生成部とを備え、
出力画像信号は、 Nと等しいフィールド単位に画素位置が変化する と共に、 各フィールドの画素位置が、 入力画像信号の第 1又は第 2の フィールドのいずれか一方のフィ一ルドの画素位置と一致することを 特徴とする画像変換装置である。
また、 請求の範囲 1 3の発明は、 互いに隣接する第 1のフィールド の画素位置と第 2のフィ一ルドの画素位置が異なる入力画像信号を、 入力画像信号のフィールド周波数の N倍 (Nは、 2以上の整数) のフ ィールド周波数を有する出力画像信号に変換する画像変換方法におい て、
出力画像信号のうち、 少なくとも入力画像信号に存在しない全ての フィールドを順次注目フィールドに設定し、 注目フィールドの注目画 素毎に、 注目画素に基づいて決定される入力画像信号の複数の画素に 基づいて、 注目画素に対するクラスを決定するクラス決定ステップと 注目画素毎に、 入力画像信号の複数の画素を選択する予測画素選択 ステップと、
決定されたクラスに対応する予測情報と、 予測画素選択ステップで 選択された複数の画素とに基づいて、 出力画像信号の各注目画素を生 成する画素生成ステツプとを備え、
出力画像信号は、 Nと等しいフィールド単位に画素位置が変化する と共に、 各フィールドの画素位置が、 入力画像信号の第 1又は第 2の フィ一ルドのいずれか一方のフィ一ルドの画素位置と一致することを 特徴とする画像変換方法である。
この発明によれば、 A A B Bタイプの出力画像信号を生成する時に 、 入力画像信号中に存在しない出カフィールドの画素値を前後の入力 フィールドの画像情報を使用して、 クラス分類適応処理で生成するの で、 単に同一フィールドを繰り返し出力する従来の方法と比較して、 2度目に出力されるフィールドがその時間に対応する画像情報を持ち 、 時間解像度がないという問題点を解決することができる。 また、 ク ラス分類適応処理は、 入力画像信号の複数画素に基づいてクラスを検 出し、 各クラスで最適となる推定予測式を用いて出力画像信号の画素 値を作成するので、 メディアンフィルタにより補間する場合と比較し て出力画像信号の解像度を良好とすることができる。
また、 フィールド倍速化の結果、 出力画像信号として、 A A B B夕 イブと、 ABABタイプとを選択的に生成することができる。 従って 、 入力画像信号として、 時空間解像度を要求される絵柄の場合には、 AB ABタイプを選択し、 水平移動するテロップなどを多く見る場合 には、 A AB Bタイプを選択することが可能となる。
図面の簡単な説明
第 1図は、 この発明の第 1の実施形態の説明に用いる画素構造を概 略的に示す略線図である。
第 2図は、 この発明の第 2の実施形態のブロック図である。
第 3図は、 フィールド倍速化を説明するための波形図である。 第 4図は、 フィールド倍速の出力画像信号に対する垂直同期信号を 説明するための略線図である。
第 5図は、 入力画像信号の画素と A AB Bタイプの出力画像信号の 画素の配置を示す略線図である。
第 6図は、 入力画像信号の画素と ABABタイプの出力画像信号の 画素の配置を示す略線図である。
第 7図は、 A AB Bタイプの出力画像信号を生成する場合のタップ 構造を示す略線図である。
第 8図は、 AAB Bタイプにおける予測タツプおよびクラスタツプ の一例を示す略線図である。
第 9図は、 AAB Bタイプにおける予測タップおよびクラスタップ の一例を示す略線図である。
第 1 0図は、 ABABタイプの出力画像信号を生成する場合のタツ プ構造を示す略線図である。
第 1 1図は、 ABABタイプにおける予測タップおよびクラスタツ プの一例を示す略線図である。
第 1 2図は、 ABABタイプにおける予測タップおよびクラスタツ プの他の例を示す略線図である。
第 1 3図は、 A B A Bタイプにおける予測タップおよびクラスタツ プのさらに他の例を示す略線図である。
第 1 4図は、 予測係数を学習する時の構成を示すブロック図である „
第 1 5図は、 A A B Bタイプに関する予測係数を学習する時の教師 画像と生徒画像の画素の位置関係を説明するための略線図である。 第 1 6図は、 A B A Bタイプに関する予測係数を学習する時の教師 画像と生徒画像の画素の位置関係を説明するための略線図である。 第 1 7図は、 従来のフィールド倍速化処理の一例および他の例を説 明するための略線図である。
発明を実施するための最良の形態
以下、 この発明の第 1の実施形態について説明する。 第 1の実施形 態で使用するフィールド倍速処理装置は、 クラス分類適応処理によつ て、 少なくとも入力画像信号中に存在しない出力フィールドの画素を 生成するものである。 最初にこの発明が適用された A A B Bタイプの 出力画像信号を生成するようにしたフィールド倍速化の処理について 、 第 1図を参照して説明する。 第 1図は、 第 1 7図と同様に、 フィ一 ルド倍速処理により得られる画素構造を概略的に示すものであり、 縦 軸を垂直方向位置 v、 横軸を時間 tとするものであり、 入力画像を白 い丸印で示し、 出力画像を黒い丸印または星マークで示す。
第 1図 Aは、 第 1 7図 Aと同様の従来の処理を示し、 この発明によ る処理との比較のための図である。 すなわち、 入力画像信号中のフィ 一ルドと同一のフィールドを繰り返して出力することによって倍速化 の処理を行うことを示す。 第 1図 Bは、 この発明による倍速化の処理 を示す。 第 1図 Bにおいて、 破線で囲んで示すように、 入力画像信号 中に存在していないフィ一ルドの時間的に前のフィールドに属し、 垂 直方向の位置が同一位置の画素 X 1と、 その上下の画素 x 2および X 3と、 時間的に後のフィールドに属し、 垂直方向の上下の位置の画素 X 4および X 5を使用して、 新たなフィールドの画素 yを生成する。 この処理は、 クラス分類適応処理である。 なお、 後述する第 2の実施 形態の説明から明らかなように、 クラス分類適応処理で使用する入力 画素は、 x l〜x 5に限られない。
この発明の第 1の実施形態は、 第 1図 Bに示すように、 前後の入力 フィールドの入力画素を使用し、 クラス分類適応処理によって新たな フィールドの出力画素を生成するので、 AAB Bタイプであって、 時 間方向の解像度を持った新たなフィ一ルドを生成することができる。 従って、 同一フィールドを繰り返し出力する従来の方法のように、 パ ンした画面で 2重像が生じることを防止することができる。
次に、 この発明の第 2の実施形態について説明する。 第 2の実施形 態では、 入力画像信号がフィールド周波数 60Hz、 ライン数が 5 2 5 本のィンターレス信号であって、 フィールド倍速化の処理によって、 入力画像信号をフィールド周波数 1 2 0Hz、 ライン数が 5 2 5本の出 力画像信号へ変換するようにしたものである。 また、 第 2の実施形態 では、 出力画像信号の画素構造として、 AAB Bタイプと ABAB夕 イブとをユーザの設定によって、 または入力画像信号に適応して切り 替えることを可能としたものである。 AAB Bタイプの画像信号を出 力する場合には、 第 1図 Bを参照して説明した方法でもって、 画素を 生成する。 ABABタイプについても、 クラス分類適応処理によって 、 画素を生成する。 ABABタイプに関して、 クラス分類適応処理を 使用するので、 メディアンフィル夕を使用する従来の方法と比較して 、 時空間の解像度をより高くすることができる。 クラス分類適応処理は、 入力信号である画像信号の時間的および/ または空間的特徴に応じてクラス分割を行い、 クラス毎に予め学習に より獲得された予測係数値を格納した記憶手段を持ち、 予測式に基づ いた演算により最適な推定値を出力する方式であり、 クラス分類適応 処理によって、 解像度を入力画像信号のもの以上に高めることが可能 である。
この画素生成装置の一例では、 第 2図に示すように、 入力インター レス画像信号 (5 2 5ライン Z 6 0 Hz) が領域切り出し部 1に供給さ れ、 クラス分類および予測演算に必要とされる複数の画素が含まれる 領域が切り出される。 領域切り出し部 1の出力がクラス検出回路 2お よび 1 2、 予測タップ選択回路 3および 1 3に供給される。 クラス検 出回路 2および 1 2は、 作成すべき出力画素の近傍の入力画素の特徵 に対応するクラスを検出する。 クラス検出回路 2および 1 2において 、 動きクラスを検出しても良い。 並列に画素生成のための二つの構成 を設けるのは、 入力画像信号中に存在するフィールドの画素を生成す る構成と、 入力画像信号中に存在しないフィ一ルドの画素を生成する ためである。
クラス検出回路 2および 1 2のそれぞれにより検出されたクラスが 予測タップ選択回路 3、 1 3と予測係数メモリ 4、 1 4とに供給され る。 予測係数メモリ 4、 1 4からは、 クラスに対応する予測係数セッ トが読出され、 積和演算回路 5、 1 5に読出された予測係数セットが 供給される。 予測タップ選択回路 3、 1 3は、 クラスに応じて使用す る予測夕ップを選択する構成とされている。 予め各クラスの予測係数 セットを学習によって得る時に、 予測係数セッ卜と使用する予測タツ プ位置情報との両者を得るようにしている。 予測タップ選択回路 3、 1 3には、 予測タップ位置情報がクラス毎に記憶されたメモリが設け られている。 このメモリからクラスに対応して読出された予測夕ップ 位置情報が夕ップ切り替え用のセレクタに供給され、 セレクタが選択 的に予測タップを出力する。 予測タップ選択回路 3 、 1 3からの予測 タップが積和演算回路 5、 1 5に供給される。
積和演算回路 5、 1 5では、 予測タップ (入力画像信号の画素) と 予測係数セッ卜との線形推定式を用いて出力画像信号のデータを算出 する。 積和演算回路 5、 1 5がそれぞれフィールド倍速の出力画像信 号の隣り合うフィールドの第 1および第 2の画素値を同時に出力する 。 積和演算回路 5からの第 1の画素値がフィールドダブラ 6に供給さ れ、 積和演算回路 1 5からの第 2の画素値がフィールドダプラ 1 6に 供給される。 フィールドダプラ 6 、 1 6は、 フィールドメモリを有し 、 クラス分類処理で生成された第 1および第 2のフィールドのそれぞ れのフィールド周波数を 2倍とする処理を行う。 フィールドダプラ 6 、 1 6の出力がフィールド毎に切り替えられるセレクタ 7に入力され る。 セレクタ 7は、 フィールドダプラ 6、 1 6のそれぞれの出力を交 互に選択し、 出力画像信号 ( 5 2 5ライン / 1 2 0 Hzの出力信号) を 発生する。
図示しないが、 出力画像信号が例えば C R Tディスプレイに供給さ れる。 C R Tディスプレイは、 出力画像信号を表示することが可能な ように、 その同期系が構成されている。 入力画像信号としては、 放送 信号、 または V T R等の再生装置の再生信号が供給される。 すなわち 、 この一例をテレビジョン受像機に内蔵することができる。
さらに、 選択信号発生部 8が設けられている。 選択信号発生部 8は 、 出力画像信号として A A B Bタイプのものを生成するか、 A B A B タイプのものを生成するかを指示する選択信号 S L 1および S L 2を 発生する。 選択信号 S L 1および S L 2のハイレベル、 ローレベルが A A B Bタイプと A B A Bタイプとにそれぞれ対応付けられている。 選択信号発生部 8は、 ユーザが出力画像信号により提示される画像を 見ながらスィツチ等をマニュアル操作することによって選択信号 S L 1および S L 2を発生する。 マニュアル操作に限らず、 入力画像信号 と共に送られる制御信号の指示に応答して選択信号 S L 1および S L 2を発生しても良い。 さらに、 入力画像信号自体の特性に応じて自動 的に選択信号 S L 1および S L 2を発生しても良い。
選択信号 S L 1により領域切り出し部 1の切り出し方法が制御され る。 選択信号 S L 2によりクラス検出回路 2, 1 2および予測タップ 選択回路 3, 1 3におけるクラスタップおよび予測タップの設定が制 御される。 選択信号 S L 2により予測係数メモリ 4, 1 4の予測係数 テーブルが切り替えられる。 さらに、 選択信号 S L 2が同期信号発生 部 9に供給され、 出力画像信号の各タイプに適応した垂直同期信号が 生成される。 この垂直同期信号によって C R Tモニタ一 (図示しない ) の垂直偏向が制御される。
第 3図は、 フィールドダプラ 6および 1 6の動作を横軸に時間、 縦 軸にフィールドダブラ 6および 1 6内のフィールドメモリのアドレス をとつて示すものである。 積和演算回路 5、 1 5によって、 第 1のフ ィ一ルドおよび第 2のフィールドのデータが同時に生成される。 第 3 図 Aが積和演算回路 5によって生成された第 1のフィールドの画像信 号をフィールドメモリに書き込む時のァドレスであり、 第 3図 Cが積 和演算回路 1 5によって生成された第 2のフィールドの画像信号をフ ィ一ルドメモリに書き込む時のァドレスである。 各フィ一ルドに対し て付加された番号 1 A, 1 B, 2 A , 2 B, · · · は、 1フレームを 構成する 2フィールド (Aおよび B ) を示す。 また、 クラス分類適応 処理による遅れを無視して、 入力画像信号と積和演算回路 5、 1 5の 出力画像信号に対して番号が付されている。
第 3図 Aに示す積和演算回路 5の出力画像信号がフィールドダブラ 6に供給される。 フィールドダプラ 6では、 積和演算回路 5の出力の 1フィールド (例えば第 3図 A中の 1 A ) がフィールドメモリに書き 込まれ、 この書き込みアドレスを追い越さないように、 書き込み速度 の 2倍の速度でフィ一ルドメモリから 1フィールド (例えば第 3図 B 中の 1 A ) が読み出される。 また、 1フィールドの読み出しが 2回繰 り返される。 従って、 第 3図 Bに示すように、 2倍のフィールド周波 数とされた出力がフィールドダブラ 6から発生する。 他方のフィール ドダブラ 1 6も、 フィールドダプラ 6と同様に積和演算回路 1 5から の演算信号のフィールド周波数を 2倍に変換した出力信号 (第 3図 D ) を発生する。
これらのフィールドダプラ 6および 1 6の出力信号がセレクタ 7に 供給され、 セレクタ 7がそれぞれの出力信号をフィールド毎に交互に 選択する。 その結果、 セレクタ 7からは、 第 3図 Eに示す出力画像信 号が得られる。 出力画像信号は、 積和演算回路 5により生成された第 1のフィールドの画像信号と、 積和映像回路 1 5により生成された第 2のフィールドの画像信号とが時間軸方向に交互に位置し、 且つフィ —ルド周波数が 2倍とされた画像信号である。
なお、 第 2図に示されるクラス分類適応処理のフィールド倍速化の 構成は、 カラー画像信号の一つのコンポーネン卜に対応したものであ り、 輝度信号、 二つの色差信号の計 3個のコンポーネントに対して、 第 2図に示される構成をそれぞれ設けても良い。 さらに、 コンポ一ネ ントカラ一画像信号に限らず、 コンポジッ トカラ一画像信号に対して もこの発明を適用することができる。
第 4図は、 同期信号発生部 9により生成される垂直同期信号を説明 するための図である。 出力画像信号が A B A Bタイプの場合には、 第 4図 Aに示すように、 ィンターレス方式でラスター走査がなされる。 すなわち、 第 1フィールドの第 1ラインから実線で示すように、 走査 が行われ、 第 2 6 3ラインの中間で第 2フィールドに移り、 以降、 第 5 2 5ラインまで走査がなされる。 第 1フィールドの上下のライン間 の中央位置に第 2フィールドのライン (破線) が存在する。 従って、 第 4図 Bに示すように、 A B A Bタイプでは、 2 6 2 . 5ラインの周 期を有する垂直同期信号が同期信号発生部 9から出力される。
A A B Bタイプの場合では、 第 4図 Cに示すように、 ラス夕一走査 の物理的位置で動作がなされる。 最初のフィールドでは、 第 1ライン から第 2 6 2ラインまでの 2 6 2ラインの走査がなされ、 2番目のフ ィ一ルドでは、 前のフィールドの第 1ラインから第 2 6 2ラインと同 一の位置の走査がされ、 さらに、 第 2 6 3ラインの前半までの 2 6 2 . 5ラインの走査がなされる。 3番目のフィールドでは、 第 2 6 3ラ インの後半から走査が開始され、 第 2 6 3ラインの前半までの 2 6 3 ラインの走査がなされる。 4番目のフィールドでは、 第 2 6 3ライン の後半から走査がなされ、 第 2 6 2ラインまでの 2 6 2 . 5ラインの 走査がなされる。 4番目のラスタ一走査は、 第 1番目の走査に戻る。 このように、 4フィールド周期でもって、 ラスタ一走査がなされる。 第 4図 Cに示すラスタ一走査を行うために、 同期信号発生部 9は、 A A B Bタイプでは、 第 4図 Dに示すように、 垂直同期信号を発生する このように、 同期信号発生部 9は、 選択信号発生部 8からの選択信 号 S L 2によって指示されるタイプに適応して垂直同期信号を発生す る。 この垂直同期信号によって C R Tモニターの垂直偏向が制御され 、 フィールド倍速の出力画像信号が表示される。 以下、 この発明の第 2の実施形態におけるクラス分類適応処理につ いて、 より詳細に説明する。 第 5図は、 縦軸を垂直方向、 横軸を時間 方向とした時に、 A A B Bタイプの出力画像信号を生成する場合の画 素位置を概略的に示す。 入力画像信号中に存在しているフィ一ルド内 の画素がクラス分類処理によって生成される。 すなわち、 クラス検出 回路 2、 予測タップ選択回路 3、 予測係数メモリ 4、 積和演算回路 5 によって、 入力画像信号中に存在しないフィールド内の画素が生成さ れる。 入力画像信号中に存在していないフィールド内の画素がクラス 検出回路 1 2、 予測タップ選択回路 1 3、 予測係数メモリ 1 4、 積和 演算回路 1 5によって生成される。 そして、 フィールドダプラ 6およ び 1 6とセレクタ 7とによって、 第 5図に示す画素の配置を有する A A B Bタイプの出力画像信号が生成される。
第 6図は、 縦軸を垂直方向、 横軸を時間方向とした時に、 A B A B タイプの出力画像信号を生成する場合の画素位置を概略的に示す。 入 力画像信号中に存在しているフィ一ルド内の画素がクラス検出回路 2 、 予測タップ選択回路 3、 予測係数メモリ 4、 積和演算回路 5によつ て生成される。 入力画像信号中に存在していないフィ一ルド内の画素 がクラス検出回路 1 2、 予測タップ選択回路 1 3、 予測係数メモリ 1 4、 積和演算回路 1 5によって生成される。 そして、 フィールドダブ ラ 6および 1 6とセレクタ 7とによって、 第 6図に示す画素の配置を 有する A B A Bタイプの出力画像信号が生成される。
第 5図に示す A A B Bタイプの出力画像信号を生成する場合のタツ プ構造について説明する。 第 7図は、 垂直方向および時間方向のタツ プ構造を示す。 説明の便宜上、 画素生成動作の共通性に基づいて、 4 個のモードを規定する。 モード 1は、 入力画像信号中に存在する奇数 フィールドおよび偶数フィ一ルドの一方のフィ一ルド内の画素と垂直 方向で同一位置に画素を第 1のフィ一'ルドの画素として生成する処理 である。 モード 2は、 入力画像信号に存在しないフィールドの画素で 、 一方のフィールドの画素と垂直方向で同一位置に画素を第 2のフィ 一ルドの画素として生成する処理である。 モード 3は、 入力画像信号 中に存在する奇数フィ一ルドおよび偶数フィールドの他方のフィール ド内の画素と垂直方向で同一位置に画素を第 3のフィ一ルドの画素と して生成する処理である。 モード 4は、 入力画像信号に存在しないフ ィ一ルドの画素で、 他方のフィ一ルドの画素と垂直方向で同一位置に 画素を第 4のフィールドの画素として生成する処理である。
A A B Bタイプの出力画像信号を生成するモード 2およびモード 4 では、 第 7図において、 三角形で囲んで示すように、 新たに生成され るフィ一ルドの前後のフィールドの入力画素がクラスタップまたは予 測タップとして使用される。 すなわち、 生成する新たなフィールドの 前のフィールド (一 1フィールドと称する) に含まれ、 生成しようと する画素と同一位置の画素と、 新たなフィールドの後のフィールド ( 0フィールド) に含まれ、 生成しょうとする画素に対して垂直方向で 上下の位置の画素とが夕ップとして使用される。
第 8図 Aは、 モード 1およびモード 3における予測夕ップの一例で あり、 第 8図 Bは、 モード 1およびモード 3におけるクラスタップの 一例である。 第 8図 Aおよび第 8図 Bは、 縦軸を垂直方向、 横軸を水 平方向にとって画素の配置を示す。 第 8図 Aに示すように、 — 1フィ 一ルドに含まれ、 生成しょうとする画素 (黒い丸印) yと垂直方向で 上下の位置の 6個の入力画素 x。 〜x 5 と、 0フィールドに含まれ、 生成しょうとする画素 yと上下左右の位置に隣接する 4個の入力画素 x 6 〜x , との合計 1 0個の入力画素により予測タップが構成される
4 第 8図 Bに示すように、 4個の入力画素 X。 〜X 3 によって、 モー ド 1およびモード 3のクラスタップが構成される。 X。 および X , は 、 一 1フィールドに含まれ、 生成しょうとする画素 yと垂直方向で上 下の位置の画素である。 X 2 および X 3 は、 0フィールドに含まれ、 生成しょうとする画素 yに対して垂直方向で上下の位置の画素である 第 9図 Aは、 モード 2およびモード 4における予測タツプの一例で あり、 第 9図 Bは、 モード 2およびモード 4におけるクラスタップの 一例である。 第 9図 Aおよび第 9図 Bは、 縦軸を垂直方向、 横軸を水 平方向にとって画素の配置を示す。 第 9図 Aに示すように、 — 1フィ —ルドに含まれ、 生成しょうとする画素 (黒い丸印) yと垂直方向で 同一位置の 5個の入力画素 x。 〜x 4 と、 0フィールドに含まれ、 生 成しようとする画素 yに対して垂直方向で上下の位置の 6個の入力画 素 x 5 〜x 1 0との合計 1 1個の入力画素により予測タップが構成され る。 生成される画素 yと入力画素 X 2の空間的位置が同一である。 第 9図 Bに示すように、 5個の入力画素 X。 〜X 4 によって、 モー ド 2およびモード 4のクラスタップが構成される。 X。 は、 — 1フィ —ルドに含まれ、 生成しょうとする画素 yと空間的に同一位置の画素 である。 X , および X 2 は、 一 1フィールドに含まれ、 生成しようと する画素 yに対して垂直方向で上下の位置の画素である。 X 3 および X 4 は、 0フィールドに含まれ、 生成しょうとする画素 yに対して垂 直方向で上下の位置の画素である。
第 6図に示す A B A Bタイプの出力画像信号を生成する場合のタツ プ構造について説明する。 第 1 0図は、 垂直方向および時間方向の夕 ップ構造を示す。 処理のモードの共通性に基づいて、 4個のモードを 規定する。 モード 1は、 入力画像信号中に存在する一方のフィールド 内の画素と垂直方向で同一位置に画素を生成する処理である。 モード
2は、 入力画像信号に存在しないフィールドの画素で、 一方のフィー ルドの画素と垂直方向で 1ノ 2ラインずれた位置に画素を生成する処 理である。 モード 3は、 入力画像信号中に存在する他方のフィールド 内の画素と垂直方向で 1 2ラインずれた位置に画素を生成する処理 である。 モード 4は、 入力画像信号に存在しないフィールドの画素で 、 他方のフィ一ルドの画素と垂直方向で同一位置に画素を生成する処 理である。
モード 2およびモード 4では、 第 1 0図において、 三角形で囲んで 示すように、 生成する画素の含まれる新たなフィールドの前後のフィ —ルドの入力画素がタップとして使用される。 モード 2では、 — 1フ ィールドに含まれ、 生成しょうとする画素に対して垂直方向で上下の 位置の画素と、 0フィールドに含まれ、 生成しょうとする画素と垂直 方向で同一位置の画素とがタップとして使用される。 モード 4では、 — 1フィールドに含まれ、 生成しょうとする画素と垂直方向で同一位 置の画素と、 0フィールドに含まれ、 生成しょうとする画素に対して 垂直方向で上下の位置の画素とがタップとして使用される。
モード 3では、 第 1 0図において、 菱形で囲んで示すように、 生成 する画素の含まれるフィールド (0フィールド) と同一フィールドで 、 その上下の入力画素と、 生成する画素のフィールドの前のフィール ド (— 1フィールド) に含まれ、 生成しょうとする画素と垂直方向で 同一位置の画素と、 新たなフィールドの後のフィールド (+ 1フィ一 ルド) に含まれ、 生成しょうとする垂直方向で同一位置の画素とがタ ップとして使用される。
第 1 1図 Aは、 モード 2における予測タップの一例であり、 第 1 1 図 Bは、 モード 2におけるクラスタップの一例である。 第 1 1図 Aお よび第 1 1図 Bは、 縦軸を垂直方向、 横軸を水平方向にとって画素の 配置を示す。 第 1 1図 Aに示すように、 — 1フィールドに含まれ、 生 成しようとする画素 yに対して垂直方向で上下の位置の 6個の入力画 素 x。 〜x5 と、 0フィールドに含まれ、 生成しょうとする画素 yと 垂直方向で同一位置の 5個の入力画素 x6 〜x ,。との合計 1 1個の入 力画素により予測タップが構成される。
第 1 1図 Bに示すように、 5個の入力画素 X。 〜X4 によって、 モ —ド 2のクラスタップが構成される。 X。 および X, は、 — 1フィ一 ルドに含まれ、 生成しょうとする画素 yに対して垂直方向で上下の位 置の画素である。 X2 は、 0フィールドに含まれ、 生成しょうとする 画素 yと同一位置の画素である。 X3 および X4 は、 0フィールドに 含まれ、 生成しょうとする画素に対して垂直方向で上下の位置の画素 である。
第 1 2図 Αは、 モード 3における予測タップの一例であり、 第 1 2 図 Bは、 モード 3におけるクラスタップの一例である。 第 1 2図 Aお よび第 1 2図 Bは、 縦軸を垂直方向、 横軸を水平方向にとって画素の 配置を示す。 第 1 2図 Aに示すように、 一 1フィールドに含まれ、 生 成しようとする画素 yに対して垂直方向で上下の位置の 2個の入力画 素 x。 および X , と、 0フィールドに含まれ、 生成しょうとする画素 yの周辺の 6個の入力画素 x2 〜x7 と、 + 1フィールドに含まれ、 生成しょうとする画素 yに対して垂直方向で上下の位置の 2個の入力 画素 x8 および χ9 との合計 1 0個の入力画素により予測タップが構 成される。
第 1 2図 Βに示すように、 6個の入力画素 X。 〜Χ5 によって、 モ —ド 3のクラスタップが構成される。 X。 および X, は、 — 1フィー ルドに含まれ、 生成しょうとする画素 yに対して垂直方向で上下の位 置の画素である。 X2 および X3 は、 0フィールドに含まれ、 生成し ようとする画素 yに対して垂直方向で上下の位置の画素である。 X4 および X5 は、 + 1フィールドに含まれ、 生成しょうとする画素 yに 対して垂直方向で上下の位置の画素である。
第 1 3図 Aは、 モード 4における予測タップの一例であり、 第 1 3 図 Bは、 モード 4におけるクラスタツプの一例である。 第 1 3図 Aお よび第 1 3図 Bは、 縦軸を垂直方向、 横軸を水平方向にとって画素の 配置を示す。 第 1 3図 Aに示すように、 一 1フィールドに含まれ、 生 成しようとする画素 yと垂直方向で同一位置の 5個の入力画素 x。 〜 χ4 と、 0フィールドに含まれ、 生成しょうとする画素 yに対して垂 直方向で上下の位置の 6個の入力画素 x5 〜x10との合計 1 1個の入 力画素により予測タツプが構成される。
第 1 3図 Bに示すように、 5個の入力画素 X。 〜X4 によって、 モ ード 4のクラスタップが構成される。 X。 は、 — 1フィールドに含ま れ、 生成しょうとする画素と垂直方向で同一位置の画素である。 X, および X2 は、 一 1フィールドに含まれ、 生成しょうとする画素に対 して垂直方向で上下の位置の画素である。 X3 および X4 は、 0フィ 一ルドに含まれ、 生成しょうとする画素 yに対して垂直方向で上下の 位置の画素である。
なお、 モード 1の予測タップおよびクラスタップは、 入力信号に存 在しているフィ一ルドを作りなおす処理であって、 例えば第 8図 Aに 示す ABA Bタイプのモ一ド 1と同様のもので良い。
上述した AABBタイプと ABABタイプとで、 クラスタップを切 り替えるために、 クラス検出回路 2および 1 2に対して選択信号 S L 2が供給される。 また、 タイプによって予測タップを切り替えるため に、 予測タップ選択回路 3および 1 3に対して選択信号 S L 2が供給 される。 クラスタップおよび予測タップのモードに応じた切り替えは
、 クラス検出回路 2 , 1 2および予測タップ選択回路 3, 1 3のそれ ぞれにおいてなされる。 領域切り出し回路 1は、 クラスタップおよび 予測夕ップとして使用される可能性のある全ての入力画素を同時に出 力するものである。 クラス検出回路 2および 1 2は、 モードと注目画 素の位置に応じてクラスタツプを選択するようになされている。
クラス検出回路 2、 1 2は、 クラスタップの特徵例えばレベル分布 を検出する。 この場合、 クラス数が膨大となることを防ぐために、 各 画素 8ビッ 卜の入力データをより少ないビット数のデータへ圧縮する ような処理を行う。 一例として、 ADR C (Adaptive Dynamic Range Coding ) によって、 クラスタップの入力画素のデータが圧縮される 。 なお、 情報圧縮方式としては、 ADRC以外に D P CM (予測符号 化) 、 VQ (ベクトル量子化) 等の圧縮方式を用いても良い。
本来、 ADRCは、 VTR (Video Tape Recoder) 向け高能率符号 化用に開発された適応的再量子化法であるが、 信号レベルの局所的な 特徴を短い語長で効率的に表現できるので、 この一例では、 ADRC をクラス分類のコード発生に使用している。 ADR Cは、 クラスタツ プのダイナミックレンジを DR、 ビッ ト割当を n、 クラスタップの画 素のデータレベルを L、 再量子化コードを Qとして、 以下の式 ( 1 ) により、 最大値 MAXと最小値 M I Nとの間を指定されたビット長で 均等に分割して再量子化を行う。
D R = MAX -M I N+ 1
Q= { (L -M I N + 0. 5) X 2 /D R} ( 1 ) ただし、 { } は切り捨て処理を意味する。
なお、 動きクラスを併用して、 クラスと動きクラスとを統合してク ラスを検出するようにしても良い。 この場合、 動きクラスに応じて、 クラスタツプを切り替えるようにしても良い。
そして、 積和演算回路 5, 1 5は、 予測タップ選択回路 3, 1 3で それぞれ選択された予測タップ (画素値) と、 予測係数メモリ 4, 1 4からそれぞれ読み出された予測係数セッ トとの線形 1次結合によつ て、 画素値を生成する。 線形 1次式に限らず、 2次以上の高次の推定 式によって画素値を生成しても良い。 この場合、 予測係数メモリ 4, 1 4には、 A AB Bタイプで使用する予測係数テーブルと、 ABAB タイプで使用する予測係数テーブルとが格納されている。 各テーブル は、 複数の予測係数セットを、 モードとクラス検出回路 2, 1 2で決 定されたクラスとに対応する個数有する。 各テーブル (予測係数) は 、 予め後述する学習処理によって取得されている。
積和演算回路 5は、 予測タップ選択回路 3、 または 1 3からの予測 夕ップ (画素値) x l, X 2 , · · · χ ί と、 予測係数セット , w2 , · · · w i との線形 1次結合式 (式 ( 2 ) ) の演算を行うこと により、 例えばモード .1およびモード 3の場合の画素値を算出する。 積和演算回路 1 5は、 同様にしてモード 2およびモード 4の場合の画 素値を算出する。
L 1 =Wi X 1 +w2 x 2 + · · · , +w i x i ( 2 このように、 予測係数セットが各クラス毎に予め学習により求めら れた上で、 予測係数メモリ 4、 1 4に記憶しておき、 入力される予測 タップおよび読出された予測係数セッ 卜に基づいて演算が行われ、 入 力されたデータに対応する出力データを形成して出力することにより 、 入力データを単に補間処理したのとは異なり、 高画質のフィールド 倍速の画像信号を出力することができる。
次に、 予測係数の作成 (学習) について第 1 4図を用いて説明する 。 AAB Bタイプの出力画像信号を形成する学習と、 ABABタイプ の出力画像信号を形成する学習とは、 別々の予測係数を求めるために 、 別々の処理である。 しかしながら、 いずれの学習のためにも、 第 1 4図の構成を使用することができる。 予測係数を学習によって得るた めには、 まず、 間引き部 3 1によって、 フィールド周波数が 1 20Hz (フィールド倍速) のプログレッシブの画像信号から、 垂直方向で画 素数が 1ノ2とされ、 フィールド周波数 6 0 Hzのィン夕一レス画像信 号 (生徒画像) を形成する。
また、 間引き部 4 1によって、 垂直方向で画素数が 1 Z2とされ、 フィールド周波数 1 2 0Hzの画像信号 (教師画像) を形成する。 教師 画像としては、 AABBタイプまたは AB ABタイプである。 間引き 部 4 1は、 各フィールドの垂直方向の間引きの方法を変えることによ つて、 A AB Bタイプおよび ABABタイプの一方の教師画像を形成 する。 間引き部 4 1からの教師画像と間引き部 3 1からの生徒画像と を学習用の対とする。
第 1 5図は、 AAB Bタイプの出力画像信号を形成するための予測 係数を学習する時の画素構造を示す。 また、 第 1 6図は、 ABAB夕 イブの出力画像信号を形成するための予測係数を学習する時の画素構 造を示す。 縦軸が垂直方向であり、 横軸が時間方向である。 第 1 5図 および第 1 6図において、 黒い丸印がフィールド周波数が 1 2 0Hzで 、 プログレッシブ画像の画素を示す。
AAB Bタイプの学習時には、 間引き部 4 1において、 連続するフ ィールドで垂直方向で同一の位置の画素を教師画像の画素とするよう に、 垂直方向の 1ノ 2間引きがなされる。 ABABタイプの学習時に は、 間引き部 4 1において、 連続するフィールドで、 垂直方向の位置 がプログレッシブ画像の 1ラインのずれを持つように、 垂直方向の 1 Z2間引きがなされる。 また、 間引き部 3 1において、 フィールド周 波数を 6 0Hzとするように、 時間間引きがなされ、 また、 時間間引き 後の時間的に連続するフィールド間で、 垂直方向の位置がプログレッ シブ画像の 1ラインのずれを持つように、 垂直方向の 1ノ2間引きが なされる。 このように形成される生徒画像は、 画素値生成時の入力画 像に対応するものである。
間引き部 3 1からの生徒画像信号が予測タップ領域切り出し部 3 2 およびクラスタップ領域切り出し部 3 3に供給される。 クラスタップ 領域切り出し部 3 3からのクラスタップがクラス検出回路 34および 3 5に供給される。 予測タップ領域切り出し部 3 2は、 各モードで画 素を作成するための予測タップを出力する。 クラス検出回路 34、 3 5は、 第 2図に示す画素生成装置におけるクラス検出回路 2、 1 2と 同様に、 モード毎に設定されたクラスタツプのデ一夕を AD R Cによ り圧縮し、 クラス情報を発生する。 クラス検出回路 34、 3 5は、 モ ード 1および 3と、 モード 2および 4のそれぞれに関するクラスを独 立に検出する。
予測タップ領域切り出し部 3 2からの予測タツプが正規方程式加算 回路 3 6、 3 7に供給される。 正規方程式加算回路 3 6、 3 7の説明 のために、 複数個の入力画素から出力画素への変換式の学習とその予 測式を用いた信号変換について述べる。 以下に、 説明のために、 より 一般化して n画素による予測を行う場合について説明する。 予測タツ プとして選択される入力画素のレベルをそれぞれ X , 、 *' · ·、 x„ と し、 教師画像中の出力画素レベルを yとしたとき、 クラス毎に予測係 数セット w, 、 ·· ··、 wn による nタップの線形推定式を設定する。 これを下記の式 ( 3) に示す。 学習前は、 Wi が未定係数である。 y = Wi x i + w2 x 2 +·· ··+ w« x n (3) 学習は、 クラス毎に複数の信号デ一夕に対して行う。 データ数が m の場合、 式 (3) にしたがって、 以下に示す式 (4) が設定される
y k = W i X kl + W2 X k2 + ·· · · + W„ X kn 、4)
( k = 1 , 2, ·· --m)
m>nの場合、 予測係数セッ ト Wi 、 ·· ·· w„ は、 一意に決まらな いので、 誤差ベクトル eの要素を以下の式 (5) で定義して、 式 (6 ) を最小にする予測係数セッ トを求める。 いわゆる、 最小自乗法によ る解法である。
e k = y k - { Wi Xki + w2 X kz+ ·· ·· +w„ x kn} C b )
( k = 1 , 2, ·· --m)
Figure imgf000025_0001
ここで、 式 (6) の Wi による偏微分係数を求める。 それは以下の 式 ( 7 ) を '0' にするように、 各係数 Wi を求めればよい。
de,
e. ( 7) owt =0 A=0
以下、 式 (8) 、 (9) のように Xij、 Yi を定義すると、 式 ( 7 ) は、 行列を用いて式 ( 1 0) へ書き換えられる。
( 8 )
X =∑ xn'xpj ( 9 )
*=0
( 1 0 )
Figure imgf000026_0001
この方程式は、 一般に正規方程式と呼ばれている。 第 1 4図中の正 規方程式加算回路 3 6、 3 7のそれぞれは、 クラス検出回路 3 4、 3 5から供給されたクラス情報と、 予測タップ領域切り出し部 3 2から 供給された予測タップと、 教師画像の画素を用いて、 この正規方程式 の加算を行う。
学習に充分なフレーム数のデータの入力が終了した後、 正規方程式 加算回路 3 6、 3 7は、 予測係数決定部 3 8に正規方程式デ一夕を出 力する。 予測係数決定部 3 8は、 正規方程式を掃き出し法等の一般的 な行列解法を用いて、 W i について解き、 予測係数セットを算出する 。 予測係数決定部 3 8は、 算出された予測係数セッ トを予測係数メモ リ 3 9、 4 0に書込む。
以上のように学習を行った結果、 予測係数メモリ 3 9、 4 0のそれ ぞれには、 クラス毎に、 フィールド倍速信号の注目画素 yを推定する ための、 もっとも真値に近い推定ができる予測係数が格納される。 予 測係数メモリ 3 9 、 4 0に格納された予測係数は、 上述の画像変換装 置において、 予測係数メモリ 4 、 1 4にロードされる。
また、 予測タップ領域切り出し部 3 2が出力する予測タップの個数 は、 画素生成装置において使用される予測タツプの個数より大きいも のとされる。 従って、 予測係数決定部 3 8は、 クラス毎により多くの 予測係数セッ トが求まる。 この求まった予測係数セッ トの中で、 絶対 値が大きいものから順に使用する数の予測係数セッ トが選択される。 選択された予測係数セッ卜がメモリ 3 9 、 4 0のクラスに対応するァ ドレスにそれぞれ格納される。 従って、 クラス毎に予測タップが選択 されることになり、 この予測タップの選択位置情報がクラス毎にメモ リ (図示しない) に格納される。 このような予測タップ選択処理によ つて、 各クラスに適合した予測夕ップを選択することが可能となる。 以上の処理により、 線形推定式により、 フィールド周波数が 6 0 Hz のィンターレス画像信号からフィ一ルド周波数が 1 2 0 Hzの画像のデ 一夕を作成するための予測係数の学習が終了する。
上述したこの発明による画像変換装置を例えば C R Tディスプレイ のような表示装置と入力信号源との間に設けることによって、 入力画 像信号の絵柄に応じてフィールド倍速化された出力画像信号のタイプ を選択することができるので、 良質な再生画像を見ることができる。 この発明は、 フィールド倍速化を行うと共に、 出力画像信号として A A B Bタイプのものを生成する時に、 入力画像信号中に存在しない フィールドが前後の入カフィールドの画像情報を使用して生成される ので、 生成されたフィ一ルドがその時間に対応する画像情報となる。 従って、 単に入カフィールドと同一のフィールドを繰り返す処理の時 間解像度を持たない問題点を解決することができる。 また、 クラス分 類適応処理を使用するので、 時空間解像度を向上させることができる また、 この発明は、 出力画像信号として、 画素構造として AAB B タイプと ABABタイプとを選択することができるので、 入力画像信 号の絵柄に適応したフィールド倍速処理を行うことができる。 従って 、 文字が横にスクロールされるような画面例えば株式情報の提示画面 の場合には、 A AB Bタイプを選択することによって文字を明瞭に表 示し、 それ以外では、 ABABタイプを選択することによって時空間 解像度の良好な画像を表示することができる。
この発明は、 上述した実施形態等に限定されるものでは無く、 この 発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 例 えばフィ一ルド周波数 6 0Hzカゝら 1 2 0Hzの倍速処理について説明し たが、 5 0Hzから 1 0 0Hzへの倍速処理に対しても同様にこの発明を 適用できる。 また、 入力画像信号のフィールド周波数は、 5 0Hz、 6 0Hzには限定されない。 さらに、 上述した第 2の実施形態では、 フィ —ルド倍速化の処理について説明したが、 フィールド倍速化に加えて 水平方向および Zまたは垂直方向の画素数を 2倍とする処理を同時に 行うようにしても良い。 さらに、 倍速化に限らず、 任意の比率のフィ —ルド周波数変換を行うようにしても良い。

Claims

請求の範囲
1 . 互いに隣接する第 1のフィールドの画素位置と第 2のフィールド の画素位置が異なる入力画像信号を、 上記入力画像信号のフィールド 周波数の N倍 (Nは、 2以上の整数) のフィールド周波数を有する出 力画像信号に変換する画像変換装置において、
上記出力画像信号のうち、 少なくとも上記入力画像信号に存在しな い全てのフィールドを順次注目フィ一ルドに設定し、 上記注目フィ一 ルドの注目画素毎に、 上記注目画素に基づいて決定される上記入力画 像信号の複数の画素に基づいて、 上記注目画素に対するクラスを決定 するクラス決定部と、
予め取得された予測情報を記憶するメモリ部と、
上記注目画素毎に、 上記入力画像信号の複数の画素を選択する予測 画素選択部と、
上記クラス決定部で決定されたクラスに対応する予測情報と、 上記 予測画素選択部で選択された複数の画素とに基づいて、 上記出力画像 信号の各注目画素を生成する画素生成部とを備え、
上記出力画像信号は、 上記 Nと等しいフィールド単位に画素位置が 変化すると共に、 各フィールドの画素位置が、 上記入力画像信号の上 記第 1又は第 2のフィールドのいずれか一方のフィールドの画素位置 と一致することを特徴とする画像変換装置。
2 . 請求の範囲 1において、
上記入力画像信号の上記第 1のフィ一ルドと上記第 2のフィ一ルド とは、 垂直方向に画素位置が異なることを特徴とする画像変換装置。
3 . 請求の範囲 2において、
上記入力画像信号の上記第 1のフィ一ルドと上記第 2のフィールド とは、 垂直方向に 1 2ライン分画素位置が異なることを特徴とする 画像変換装置。
4 . 請求の範囲 1において、
上記出力画像信号は、 上記入力画像信号の所定のフィ一ルドと時間 がー致するフィールドを先頭とした N個のフィ一ルドの画素位置が、 上記入力画像信号の所定のフィールドの画素位置と一致することを特 徵とする画像変換装置。
5 . 請求の範囲 1において、
上記クラス決定部は、 上記出力画像信号の全てのフィールドを順次 上記注目フィールドに設定することを特徴とする画像変換装置。
6 . 請求の範囲 1において、
上記 Nが 2であることを特徴とする画像変換装置。
7 . 請求の範囲 1において、
上記画素生成部は、 上記クラス決定部で決定されたクラスに対応す る上記予測情報と、 上記予測画素選択部で選択された複数の画素との 線形推定式を演算することで、 上記出力画像信号の各注目画素を生成 することを特徴とする画像変換装置
8 . 請求の範囲 1において、
上記入力画像信号がィンターレス信号であることを特徴とする画像 変換装置。
9 . 請求の範囲 1において、
上記メモリ部は、 第 1の変換モードと第 2の変換モードとに対応す る予測情報を記憶しており、
上記画素生成部は、
上記第 1の変換モードにおいて、 上記クラス決定部で決定されたク ラス及び上記第 1のモードに対応する予測情報と、 上記予測画素選択 部で選択された複数の画素とに基づいて、 上記出力画像信号の各注目 画素を生成することで、 上記 Nと等しいフィールド単位に画素位置が 変化すると共に、 各フィールドの画素位置が、 上記入力画像信号の上 記第 1又は第 2のフィールドのいずれか一方のフィ一ルドの画素位置 と一致する出力画像信号を生成し、
上記第 2の変換モードにおいて、 上記クラス決定部で決定されたク ラス及び上記第 2のモードに対応する予測情報と、 上記予測画素選択 部で選択された複数の画素とに基づいて、 上記出力画像信号の各注目 画素を生成することで、 各フィ一ルド単位に画素位置が変化すると共 に、 各フィールドの画素位置が、 上記入力画像信号の上記第 1又は第 2のフィ一ルドのいずれか一方のフィールドの画素位置と一致する出 力画像信号を生成することを特徴とする画像変換装置。
1 0 . 請求の範囲 9において、
上記第 1のモードと上記第 2のモードとで、 上記クラス決定部で上 記注目画素に基づいて決定される上記入力画像信号の複数の画素が互 いに異なることを特徴とする画像変換装置。
1 1 . 請求の範囲 9において、
上記予測画素選択部は、 上記第 1のモードと上記第 2のモードとで
、 上記注目画素毎に、 上記入力画像信号から異なる複数の画素を選択 することを特徴とする画像変換装置。
1 2 . 請求の範囲 9において、
上記第 1のモードに対応する同期信号と、 上記第 2のモードに対応 する同期信号とを選択的に発生する同期信号発生部をさらに有するこ とを特徴とする画像変換装置。
1 3 . 互いに隣接する第 1のフィールドの画素位置と第 2のフィ一ル ドの画素位置が異なる入力画像信号を、 上記入力画像信号のフィ一ル ド周波数の N倍 (Nは、 2以上の整数) のフィールド周波数を有する 出力画像信号に変換する画像変換方法において、
上記出力画像信号のうち、 少なくとも上記入力画像信号に存在しな い全てのフィールドを順次注目フィールドに設定し、 上記注目フィー ルドの注目画素毎に、 上記注目画素に基づいて決定される上記入力画 像信号の複数の画素に基づいて、 上記注目画素に対するクラスを決定 するクラス決定ステップと、
上記注目画素毎に、 上記入力画像信号の複数の画素を選択する予測 画素選択ステップと、
上記決定されたクラスに対応する予測情報と、 上記予測画素選択ス テツプで選択された複数の画素とに基づいて、 上記出力画像信号の各 注目画素を生成する画素生成ステツプとを備え、
上記出力画像信号は、 上記 Nと等しいフィ一ルド単位に画素位置が 変化すると共に、 各フィールドの画素位置が、 上記入力画像信号の上 記第 1又は第 2のフィールドのいずれか一方のフィ一ルドの画素位置 と一致することを特徴とする画像変換方法。
1 4 . 請求の範囲 1 3において、
上記入力画像信号の上記第 1のフィ一ルドと上記第 2のフィールド とは、 垂直方向に画素位置が異なることを特徴とする画像変換方法。
1 5 . 請求の範囲 1 4において、
上記入力画像信号の上記第 1のフィ一ルドと上記第 2のフィールド とは、 垂直方向に 1 Z 2ライン分画素位置が異なることを特徴とする 画像変換方法。
1 6 . 請求の範囲 1 3において、
上記出力画像信号は、 上記入力画像信号の所定のフィ一ルドと時間 がー致するフィールドを先頭とした N個のフィ一ルドの画素位置が、 上記入力画像信号の所定のフィールドの画素位置と一致することを特 徴とする画像変換方法。
1 7 . 請求の範囲 1 3において、
上記クラス決定ステツプは、 上記出力画像信号の全てのフィールド を順次上記注目フィールドに設定することを特徴とする画像変換方法
1 8 . 請求の範囲 1 3において、
上記 Nが 2であることを特徴とする画像変換方法。
1 9 . 請求の範囲 1 3において、
上記画素生成ステップは、 上記クラス決定ステップで決定されたク ラスに対応する上記予測情報と、 上記予測画素選択ステップで選択さ れた複数の画素との線形推定式を演算することで、 上記出力画像信号 の各注目画素を生成することを特徴とする画像変換方法。
2 0 . 請求の範囲 1 3において、
上記入力画像信号がィン夕ーレス信号であることを特徵とする画像 変換方法。
2 1 . 請求の範囲 1 3において、
上記画素生成ステップは、
上記第 1の変換モードにおいて、 上記クラス決定ステツプで決定さ れたクラス及び上記第 1のモ一ドに対応する予測情報と、 上記予測画 素選択ステップで選択された複数の画素とに基づいて、 上記出力画像 信号の各注目画素を生成することで、 上記 Nと等しいフィールド単位 に画素位置が変化すると共に、 各フィールドの画素位置が、 上記入力 画像信号の上記第 1又は第 2のフィ一ルドのいずれか一方のフィ一ル ドの画素位置と一致する出力画像信号を生成し、
上記第 2の変換モードにおいて、 上記クラス決定ステップで決定さ れたクラス及び上記第 2のモードに対応する予測情報と、 上記予測画 素選択ステツプで選択された複数の画素とに基づいて、 上記出力画像 信号の各注目画素を生成することで、 各フィ一ルド単位に画素位置が 変化すると共に、 各フィールドの画素位置が、 上記入力画像信号の上 記第 1又は第 2のフィ一ルドのいずれか一方のフィールドの画素位置 と一致する出力画像信号を生成することを特徴とする画像変換方法。
2 2 . 請求の範囲 2 1において、
上記第 1のモ一ドと上記第 2のモードとで、 上記クラス決定ステツ プで上記注目画素に基づいて決定される上記入力画像信号の複数の画 素が互いに異なることを特徴とする画像変換方法。
2 3 . 請求の範囲 2 1において、
上記予測画素選択ステツプは、 上記第 1のモードと上記第 2のモ一 ドとで、 上記注目画素毎に、 上記入力画像信号から異なる複数の画素 を選択することを特徴とする画像変換方法。
2 4 . 請求の範囲 2 1において、
上記第 1のモードに対応する同期信号と、 上記第 2のモードに対応 する同期信号とを選択的に発生する同期信号発生ステップをさらに有 することを特徴とする画像変換方法。
PCT/JP2000/002636 1999-04-23 2000-04-21 Dispositif et procede de conversion d'image WO2000065830A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US09/720,348 US6646684B1 (en) 1999-04-23 2000-04-21 Image conversion device and method
EP00917418A EP1111918B1 (en) 1999-04-23 2000-04-21 Image conversion device and method
DE60041114T DE60041114D1 (de) 1999-04-23 2000-04-21 Bildumwandlungsvorrichtung und -verfahren
JP2000614655A JP4470323B2 (ja) 1999-04-23 2000-04-21 画像変換装置および方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP11680699 1999-04-23
JP11/116806 1999-04-23

Publications (1)

Publication Number Publication Date
WO2000065830A1 true WO2000065830A1 (fr) 2000-11-02

Family

ID=14696131

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2000/002636 WO2000065830A1 (fr) 1999-04-23 2000-04-21 Dispositif et procede de conversion d'image

Country Status (6)

Country Link
US (1) US6646684B1 (ja)
EP (1) EP1111918B1 (ja)
JP (1) JP4470323B2 (ja)
KR (1) KR100730499B1 (ja)
DE (1) DE60041114D1 (ja)
WO (1) WO2000065830A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1686801B1 (en) * 2000-02-10 2009-12-16 Sony Corporation Image processing device and method and recording medium
JP4691812B2 (ja) * 2001-03-29 2011-06-01 ソニー株式会社 係数データの生成装置および生成方法、それを使用した情報信号の処理装置および処理方法
EP1326436B1 (en) * 2001-12-28 2013-02-13 Sony Corporation Displaying information
US8780093B2 (en) * 2009-03-25 2014-07-15 Himax Technologies Limited Method for transmitting image data through RSDS transmission interfaces
US20110025697A1 (en) * 2009-07-28 2011-02-03 Ying-Lieh Chen Method for transmitting image data through rsds transmission interfaces
EP2544145B1 (en) * 2011-07-06 2018-09-12 Brandenburgische Technische Universität Cottbus-Senftenberg Method, arrangement, computer programm and computer-readable storage medium for scaling two-dimensional structures

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02112392A (ja) * 1988-10-20 1990-04-25 Sony Corp 映像信号処理装置
JPH02127884A (ja) * 1988-11-08 1990-05-16 Sony Corp テレビジョン受像機
JPH02198286A (ja) * 1988-10-13 1990-08-06 Sony Corp 映像信号受像機
JPH06217264A (ja) * 1992-11-04 1994-08-05 Philips Electron Nv 画像信号変換回路

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2623040B1 (fr) * 1987-11-09 1990-02-09 France Etat Procede et dispositif de traitement de signaux d'image a balayage de trame entrelace
JPH02237280A (ja) * 1989-03-10 1990-09-19 Hitachi Ltd 標準/高品位テレビジョン受信装置
US5461420A (en) * 1992-09-18 1995-10-24 Sony Corporation Apparatus for coding and decoding a digital video signal derived from a motion picture film source
KR100360206B1 (ko) * 1992-12-10 2003-02-11 소니 가부시끼 가이샤 화상신호변환장치
JP3362463B2 (ja) 1993-07-09 2003-01-07 ソニー株式会社 フレーム補間装置
JP4190576B2 (ja) * 1994-08-31 2008-12-03 ソニー株式会社 撮像信号処理装置及び撮像信号処理方法、並びに撮像装置
JP3794505B2 (ja) * 1995-03-22 2006-07-05 ソニー株式会社 信号変換装置及び信号変換方法
US5852470A (en) * 1995-05-31 1998-12-22 Sony Corporation Signal converting apparatus and signal converting method
JP3669530B2 (ja) * 1995-06-30 2005-07-06 ソニー株式会社 画像信号変換装置及び画像信号変換方法
US5946044A (en) * 1995-06-30 1999-08-31 Sony Corporation Image signal converting method and image signal converting apparatus
EP0843475B1 (en) * 1996-05-30 2004-12-08 Sony Corporation Picture information converting apparatus and method
AU719477B2 (en) * 1996-12-11 2000-05-11 Sony Corporation Signal converting apparatus and method
JP3787823B2 (ja) * 1997-07-31 2006-06-21 ソニー株式会社 画像処理装置および画像処理方法
JP4093621B2 (ja) * 1997-12-25 2008-06-04 ソニー株式会社 画像変換装置および画像変換方法、並びに学習装置および学習方法
JP4158232B2 (ja) * 1998-07-23 2008-10-01 ソニー株式会社 画像情報変換装置および画像表示装置
JP4147632B2 (ja) * 1998-08-24 2008-09-10 ソニー株式会社 画像情報変換装置、画像情報変換方法、およびテレビジョン受像機
JP4140091B2 (ja) * 1998-09-14 2008-08-27 ソニー株式会社 画像情報変換装置および画像情報変換方法
JP4135229B2 (ja) * 1998-09-29 2008-08-20 ソニー株式会社 映像信号の変換装置および変換方法、並びにそれを使用した画像表示装置およびテレビ受信機
WO2000021301A1 (en) * 1998-10-05 2000-04-13 Sony Corporation Image transform device and method, learning device and method, and recording medium
US6307560B1 (en) * 1999-02-12 2001-10-23 Sony Corporation Classified adaptive spatio-temporal format conversion method and apparatus
US6377307B1 (en) * 1999-05-27 2002-04-23 Pioneer Corporation Line interpolation apparatus and video signal conversion device
US20040128391A1 (en) * 2002-12-31 2004-07-01 Robert Patzer Method and system for managing a validity period in association with a presence attribute

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02198286A (ja) * 1988-10-13 1990-08-06 Sony Corp 映像信号受像機
JPH02112392A (ja) * 1988-10-20 1990-04-25 Sony Corp 映像信号処理装置
JPH02127884A (ja) * 1988-11-08 1990-05-16 Sony Corp テレビジョン受像機
JPH06217264A (ja) * 1992-11-04 1994-08-05 Philips Electron Nv 画像信号変換回路

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1111918A4 *

Also Published As

Publication number Publication date
EP1111918A1 (en) 2001-06-27
US6646684B1 (en) 2003-11-11
EP1111918A4 (en) 2005-09-14
DE60041114D1 (de) 2009-01-29
EP1111918B1 (en) 2008-12-17
KR100730499B1 (ko) 2007-06-22
KR20010034918A (ko) 2001-04-25
JP4470323B2 (ja) 2010-06-02

Similar Documents

Publication Publication Date Title
JP4158232B2 (ja) 画像情報変換装置および画像表示装置
JP2533393B2 (ja) Ntsc―hdコンバ―タ
KR100367432B1 (ko) 영상 표시 장치 및 영상 표시 방법
JP4131048B2 (ja) 画像情報変換装置、変換方法および画像表示装置
JP3596520B2 (ja) 画像信号処理装置及び方法
JP4470323B2 (ja) 画像変換装置および方法
WO1997001936A1 (en) Method of generating high-resolution video
JP2005192230A (ja) 表示装置
JP4470324B2 (ja) 画像信号変換装置および方法
JP4078719B2 (ja) 画像情報変換装置、変換方法および画像表示装置
JP4847688B2 (ja) インターレース−プログレッシブ変換器及びその変換方法
JP2000092455A (ja) 画像情報変換装置および画像情報変換方法
EP1606954B1 (en) Arrangement for generating a 3d video signal
JP4099555B2 (ja) 画像情報変換装置
JP2003198980A (ja) 映像表示装置
WO1997001929A1 (en) Circuit for interpolating scan lines of a video signal and method of using same
JP4174891B2 (ja) 画像情報変換装置および方法
JP4154768B2 (ja) 画像情報変換装置および画像表示装置
JP4123587B2 (ja) 画像情報処理装置および方法
JP3800638B2 (ja) 画像情報変換装置および方法
JP4310847B2 (ja) 画像情報変換装置および変換方法
JP4186582B2 (ja) 画像信号の処理装置および処理方法
JP3480011B2 (ja) 画像情報変換装置
JP2007336239A (ja) デジタル放送受信装置及びデジタル放送信号の保存・再生方法
JPH0937175A (ja) 画像表示装置及び画像表示方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP KR US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 09720348

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020007014644

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2000917418

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007014644

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2000917418

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1020007014644

Country of ref document: KR