EP1535474A2 - Verfahren und vorrichtung zum umwandeln eines farbbildes - Google Patents

Verfahren und vorrichtung zum umwandeln eines farbbildes

Info

Publication number
EP1535474A2
EP1535474A2 EP03793773A EP03793773A EP1535474A2 EP 1535474 A2 EP1535474 A2 EP 1535474A2 EP 03793773 A EP03793773 A EP 03793773A EP 03793773 A EP03793773 A EP 03793773A EP 1535474 A2 EP1535474 A2 EP 1535474A2
Authority
EP
European Patent Office
Prior art keywords
sub
pixel
pixels
generated
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP03793773A
Other languages
English (en)
French (fr)
Inventor
Andrew Stevens
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Trident Microsystems (Far East) Ltd
Original Assignee
Philips Intellectual Property and Standards GmbH
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=31969045&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=EP1535474(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Philips Intellectual Property and Standards GmbH, Koninklijke Philips Electronics NV filed Critical Philips Intellectual Property and Standards GmbH
Publication of EP1535474A2 publication Critical patent/EP1535474A2/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • G09G2300/0439Pixel structures
    • G09G2300/0452Details of colour pixel setup, e.g. pixel composed of a red, a blue and two green components
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0457Improvement of perceived resolution by subpixel rendering
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2003Display of colours

Definitions

  • the present invention relates to a method and apparatus for converting color images, and more particularly to a method and apparatus for converting input data generated by scanning a color image with pixels arranged in a first grid into output data effect a reproduction of the color image with pixels arranged in a second grid.
  • the present invention relates to an image scaling device for a color display device with sub-pixels or sub-pixels (sub-pixels) for different components.
  • LCD Liquid Cristal Display
  • Such displays comprise a physically defined grid of pixels, each of the pixels comprising a trio of adjacent sub-pixels, each pixel comprising a sub-pixel for the red component, a sub-pixel for the green component and a sub-pixel for the blue component of the image pixel which is to be shown on the display.
  • display systems that include such screens must also be able to display image data whose scan grid is different from the grid that is physically implemented on the screen.
  • an image scaling device is provided in the control circuit of the display, which is activated in order to generate a version of the image which has been adapted to the physical display grid, for example by rescanning.
  • Image scaling typically calculate the resampled image data (output data) by filtering the original image data (input data) using a multi-tap digital filter with multiple taps (multi-tap polyphase digital filter).
  • multi-tap digital filter with multiple taps
  • multi-tap polyphase digital filter multi-tap polyphase digital filter
  • FIG. 1 shows a schematic representation of the scaling of a color image by converting the input pixels into output pixels according to a conventional approach.
  • six pixels 100 ⁇ to 100 6 are shown as an example, which originate from the original color image and represent the input data or input pixels.
  • For display on a screen it is now necessary to scale the input pixels in order to map them to the physically defined grid of the display device, which is achieved in that, based on the input pixels 100 ⁇ to 100 6 , six output pixels 102 ⁇ to 102 6 are also generated. Both for the input pixels 100 ⁇ to 100 6 and for the scaled output pixels 102 ⁇ to 102e it is assumed that the respective color components in the respective pixels are distributed evenly over each pixel.
  • the generation of the output pixel 102 4 is now considered as an example.
  • a weighting function is applied 104 ⁇ to the input pixel 100 ⁇ to 100, wherein the weighting function is referenced 104 on the center of the output pixel 102 4, as can be seen illustrated in Fig. 1 is.
  • the y-axis is the scale lation axis 106, and the distance from the center point of the scaled pixel, that is to say from the center point of the starting pixel 102 4 under consideration, is plotted along the x axis.
  • Figure 1 shows the mathematical relationship between the input pixel data (pixels 100x to 100 6 ) and the scaled output pixel data generated by conventional devices or circuits.
  • the luminance of an output pixel for example pixel 102, is derived as the weighted sum of the luminances of the input pixels 100 ⁇ to 100e, which are arranged around the position of the output pixel 102 in the image.
  • the exact weighting that is assigned to each of the input pixels is determined as a function of the position of the respective input pixel relative to the center of the output pixel 102, as can be seen from the course of the weighting function 104 in FIG. 1.
  • weighting function 104 filter core, filter kernel
  • device for efficiently realizing the calculations of the weighted sum in one or more dimensions are known to those skilled in the art.
  • the conversion for resampling (scaling) of the color images shown in FIG. 1 is implemented by individually filtering the separated color components in the input image data.
  • all color components are filtered using identical sampling positions (or sampling phases), the identical sampling positions each relating to the center of the output pixel to be scaled (see pixel 102 4 in FIG. 1) ,
  • This approach is optimal when the images are displayed on display elements in which the color components for each pixel are physically arranged together.
  • the present invention has for its object to provide an improved method and an improved device that enables the scaling of color images with increased sharpness.
  • the present invention provides a method for converting input data generated by scanning a color image with pixels arranged in a first grid to output data which reproduces the color image with pixels arranged in a second grid, each pixel of the input data and the output data has a plurality of sub-pixels, each sub-pixel of a pixel being assigned to a color component of the color image, with the following step:
  • the present invention further provides an apparatus for converting input data by a scan of a color image with pixels arranged in a first grid are generated in output data which bring about a reproduction of the color picture with pixels arranged in a second grid, each pixel of the input data and the output data having a plurality of sub-pixels, each sub-pixel of a pixel of a color component associated with the color image, the device comprising a processing unit which receives the input data and generates a sub-pixel of a color component of the output data by filtering the sub-pixels of the corresponding color component of the input data using a filter function which is locally related to this sub-pixel of the output data.
  • the present invention teaches a novel approach, according to which each color component is processed, for example by suitable filter elements, using sampling positions or sampling phases that correspond to the current one correspond to the physical location of the sub-pixel of a color component.
  • the advantage of the present invention is that the approach according to the invention creates scaled images which are significantly sharper when displayed than images generated by conventional approaches as described above.
  • the scaled image shows a lower passband attenuation, which is caused by the filters, and a lower aliasing effect.
  • the present invention thus provides an improved method and an improved device for resampling or scaling color images, for example for optimal display on color display elements, each image element (pixel) being divided into separate sub-pixels, each of which is assigned to a specific color component ,
  • the scaled output data are provided uncut, that is to say no "clipping" function has been applied to the output data.
  • a clipping error reduction is subsequently carried out to convert the input data into scaled output data, whereby preferably a disturbance or an error in the sub-pixel is initially determined for each generated sub-pixel, whereby the disturbance can be determined by falling below or exceeding the maximum permissible intensity for the output pixel neighboring sub-pixels are compensated with an opposite interference or an opposite error.
  • Figure 1 is a schematic representation of the conversion of input pixels to output pixels according to a conventional approach.
  • FIG. 2 is a block diagram showing the approach according to the invention for converting input pixels into output pixels according to a preferred exemplary embodiment
  • 3 shows a schematic representation of the conversion of input pixels into output pixels according to the present invention
  • 4 shows an exemplary embodiment of the device according to the invention for converting input pixels into output pixels
  • FIG. 5 shows an exemplary embodiment of a device according to the invention for reducing interference / errors in the output pixels generated according to the invention
  • FIG. 6 shows a first exemplary embodiment for the correction module of the device from FIG. 5;
  • FIG. 7 shows a second exemplary embodiment for the correction module of the device from FIG. 5.
  • FIG. 2 shows a block diagram which shows the approach according to the invention for converting input pixels into output pixels according to a preferred exemplary embodiment, the filtering of the sub-pixels being carried out according to the invention in a first block 108 and an error reduction in a subsequent block 110 he follows.
  • the original image data are entered in block 108, and at the output of block 108 and thus at the input of block 110 there are uncut, ie no subject to clipping, filtered image data on the basis of which the clipping is available -Fault reduction is carried out.
  • the cut and filtered image data are then available in scaled form, which, according to a preferred exemplary embodiment, were corrected using one-dimensional error diffusion in order to correct clipping interference.
  • poly-phase scaling filters are preferably used for the respective sub-pixels.
  • FIG. 3 shows a schematic illustration for converting input pixels into output pixels according to the present invention.
  • identical or similar elements that are already shown in FIG. 1 are provided with the same or similar reference symbols.
  • the scaled output pixels 102 ⁇ and 102 6 are shown by way of example, the sub-pixels assigned to the respective color pixels for the respective color component being additionally shown, each of the pixels 102 ⁇ to 102 6 being assigned three sub-pixels, it being assumed here by way of example a first sub-pixel for the red color component, a second sub-pixel for the green color component and a third sub-pixel for the blue color component is assigned, as is shown for example by the reference symbols R, G, B in pixel 102 6 .
  • the scaled output pixel 102 4 is also considered here by way of example, similar to FIG. 1.
  • each scaled output pixel is assigned a weighting function and thus also each coloring component the locally fixed weighting function, but according to the invention a weighting function and a separate scaling axis are assigned to each of the sub-pixels of the output pixel 102 in order to assign the proportions of the input pixels for each sub-pixel determine which flow into this sub-pixel.
  • the red color component is assigned the scaling axis 106a, around which the weighting function 108a assigned to this subpixel is arranged symmetrically.
  • the scanning axis 106b and the weighting function 108b are assigned to the sub-pixel for the yellow component of the pixel 102 4
  • the scanning axis 106c and the weighting function 108c are assigned to the sub-pixel for the blue component of the pixel 102 4 .
  • the distance from the respective scaled sub-pixel center is plotted along the x-axis, which is shown in FIG. 3.
  • the respective weighting functions 108a to 108c effect a corresponding weighting of the respective input color components in input pixels.
  • FIG. 3 thus shows the mathematical relationship between the input pixels 100 ⁇ to 100 ⁇ and the output pixels 102 ⁇ to 102 6 , which were generated by the scaling according to the invention.
  • the scaling is similar to that in FIG. 1, however the weighting of the luminance values of the input pixels for generating an output pixel for each color component is preferably related to a center of the sub-pixel in the output pixel 102 4 to be generated.
  • the actual relationship relates to a display device in which the pixels are divided into red, green and blue sub-pixels which are separated along the scaling axis.
  • FIG. 4 shows an embodiment of the device according to the invention for converting input pixels into output pixels, which implements the method explained in more detail with reference to FIG. 3.
  • 4 shows a block diagram for a one-dimensional sub-pixel scaling device, it being assumed for the illustrated exemplary embodiment that each pixel comprises three color components.
  • the device according to the invention comprises three filter units 110a, 110b and 110c which receive the respective color components of the input pixel data.
  • the filter units 110a to 110c are preferably polyphase filters which receive the respective intensities of the color components in the original image as input data .
  • a sampling phase interpolation device 112 is operatively connected to each of the filters 110a to 110b in order to provide suitable sampling positions for each of the color components, that is to say to shift the respective weighting functions according to the desired local position with respect to a sub-pixel.
  • the filter functions are preferably related to the center point of a sub-pixel, as shown in FIG. 3.
  • the filters 110a to 110b there is a scaled sub-pixel from which the output pixel data consist.
  • the filters specify an intensity for the respective sub-pixel, that is to say for the respective image color component in the scaled output image, which is uncut (not subject to a clipping function).
  • the exemplary embodiment of the device according to the invention shown in FIG. 4 is a one-dimensional sub-pixel scaling device, the precise design and the exact implementation of suitable polyphase filters and phase interpolation elements being known to those skilled in the art.
  • the main difference between the method according to the invention and the device according to the invention compared to conventional image scaling approaches is that, on the one hand, separate phases or scanning positions are generated for each of the color components, that is to say for each polyphase filter 110a to 110c, which ensures that the scanning position or the phase corresponds to the center points of the sub-pixels for the respective color component, and not, as is customary in the prior art, to the center point of the overall starting pixel.
  • the polyphase filter arithmetic units are implemented in such a way that no clipping function of the end value or the intermediate value is carried out, so that the arithmetic elements of the filter structures are designed such that they have a large numerical range, the size of which is sufficient is to handle arithmetic results that are far out of range.
  • the device according to the invention delivers identical results as are provided by a conventional scaling filter.
  • sampling phases provided by the device 112
  • the relationship of the sampling phases that are provided to the polyphase filters 110a to 110c depend on the actual scaling factor. Assuming that the sub-pixel elements for If the color component c have center points that are o c pixel widths away from the center of the pixel, then the shift ⁇ c for the polyphase filter for the color component c would result as follows:
  • s filter scaling factor (the ratio of the spacing of the input samples to the spacing of the output samples), and
  • conventional filter sampling phase for a complete pixel
  • the output signal of the scaling filter element or any scaling filter operation that uses a similar principle can tend to display visible color artifacts on the display , which are caused by the so-called clipping.
  • the shape of well-designed scaling filter cores is selected such that the weighting of input pixels near the filter center (kernel center) can exceed ONE, and the weighting of pixels far from the filter center (kernel center) can be negative.
  • the disturbances introduced into the displayed image by the clipping operation are generally not visible.
  • the disturbances only add an additional smear (blurring), which is masked by the (stronger) smear introduced by the scaling itself.
  • the clipping operation can cause color disturbances, although these are rarely perceptible after they only appear on edge pixels and after the human visual acuity is poor with closely spaced changes in intensive colors.
  • each color component has been filtered with a different phase
  • the clipping operation adds disturbances that are both larger in magnitude and more visible.
  • the amount of the disturbance is larger because the disturbance inserted by the clipping operation is different color components can have different signs.
  • the maximum color disturbance that is inserted can therefore be almost double that that is inserted by an overall pixel scaling.
  • Faults due to the clipping operation are also more visible, since the color disturbance occurs on black and white edges, so that the resulting colored edges on the edges of non-colored areas are perceived much faster than color disturbances on edges of farbi - areas.
  • a one-dimensional error diffusion unit is used to correct clipping errors, whereby color disturbances are reduced to a level so that they are no longer perceptible.
  • the device for reducing the clipping interference comprises a first module A, the so-called clipping module, which receives the uncut, filtered, ie scaled, intensity Pi for a pixel i at an input.
  • Module A determines a clipping error Ei and a cut intensity Ci at the respective outputs of module A, which can be seen in FIG. 5.
  • the device further comprises a first buffer 112 which buffers the signal Ei.
  • a module B is also provided, which determines a target correction. At a first input, module B receives the clipping error Ej, which is buffered in the first buffer 112 .
  • module B receives an uncorrected clipping error Uj_ 2 for a pixel that precedes the pixel whose intensity is received at the input of module A by two pixels. Based on these input signals, module B determines the total clipping error P_ ⁇ for the pixel that precedes the pixel whose intensity is received by module A. The total clipping error determined in this way is input into the correction module C, which generates the output intensity 0_ 2 for a pixel that precedes the pixel whose intensity is received in module A, the output intensity 0_ 2 , which is the finally corrected, cut output intensity of this pixel.
  • Module C also generates the uncorrected clipping error Ui_ ⁇ for the pixel that immediately precedes the pixel whose intensity is received at module A. This value is buffered in a second buffer 114. Furthermore, the module C generates the partially corrected cut intensity C'i, which is buffered in a third and a fourth buffer 116, 118, so that the partially corrected cut intensity C'i- 2 for a pixel which corresponds to the current pixel module by two pixels, module C can be made available again.
  • FIG. 5 shows the block diagram described above of the device for reducing the clipping interference for a single color component of a color image.
  • a complete device would include the arrangement shown in Figure 5 for each color component. For RGB color data that are processed, it would therefore be, for. B. required to have an error reduction device for the red component, the blue component and the green component.
  • the device shown in FIG. 5 is separately assigned to each output line of the filter shown in FIG. 4, so that the corresponding data relating to uncut color components which are output by the one-dimensional scaling filter shown in FIG. 4 corresponds to the corresponding clipping interference Be subjected to reduction.
  • the filtered color component intensity data are successively provided one pixel per unit of time at the input (module A). Sliced and corrected filtered color component intensity data is then output with a two pixel delay.
  • latches 112 and 114 are reset to zero and the device output is suppressed until the third pixel has been processed.
  • the last two output pixel values must be read out from the buffers 116 and 118.
  • each row corresponds to a row of pixels
  • each row corresponds to a column of pixels.
  • the cut and corrected output signal O 2 is obtained in the manner set out below by means of the arrangement shown in FIG. 5.
  • module A receives the intensity Pi for the next pixel to be processed (pixel i). From the received intensity, module A determines the cut intensity Ci and the clipping error Ei for the Pixels to be processed using the following calculation rule:
  • MAX maximum intensity that can be displayed
  • the clipping error Ei-i for the pixel i-1 preceding the current pixel i is forwarded from the buffer 112 to the arithmetic unit B, together with the uncorrected clipping error Ui- 2 for the pixel two pixels preceding the current pixel i i-2.
  • the arithmetic unit B calculates the total error ⁇ _ ⁇ , which has to be corrected around the pixel i-1. The calculation is based on the following calculation rule:
  • Different values or regulations for ⁇ are possible, provided that they keep the sign and reduce the amount. Selecting the different ⁇ enables a compromise between the uncorrected errors and the tendency to show visible error diffusion artifacts. A function that would reduce the amount by a smaller amount would be the uncorrected errors reduce, but would tend to show visible error diffusion artifacts if they occur within a certain error pattern.
  • the module C corrects the entire clipping error Ti_ ⁇ , which has accumulated for the pixel i-1, as comprehensively as possible.
  • the correction is carried out by setting the intensities of the neighboring pixels, namely the pixel i and the pixel i-2.
  • the cut intensity Ci is set for the pixel i in order to generate a partially corrected cut intensity C'i.
  • the partially corrected cut intensity C ' i_ 2 determined in the previous calculation step is set in order to obtain the finally corrected cut output intensity Oi- 2 for this pixel.
  • the entire setting used is selected in such a way that it is almost equal to -Ti_ ⁇ , if this is possible without causing the set intensities to exceed the physically representable intensity ranges. If an overall setting equal to -Ti_ ⁇ is possible, then the settings for the two neighboring pixels are selected so that they are as equal as possible.
  • a first approach which is explained in more detail below with reference to FIG. 6, is first to calculate the entire setting, which can be corrected, and then to distribute this entire correction as evenly as possible between the partially corrected intensities Ci and Ci_ 2 .
  • Figure 6 shows a block diagram for the implementation of module C using this approach.
  • module C comprises a first MaxC submodule 120 and a second MaxC submodule 122.
  • the maximum possible positive and negative corrections are calculated by means of modules 120 and 122.
  • the sub-module 120 determines the maximum possible positive correction C + and the maximum possible negative correction C- for the input value C ' i_ 2 , which can be carried out without generating intensities outside the displayable range.
  • Module 122 also generates the corresponding maximum possible positive and negative correction value for Ci. In the sub-modules 120 and 122, the calculation just described is carried out using the following calculation rule:
  • the maximum possible corrections C + determined by sub-modules 120 and 122 are summed by summer 124 in order to obtain the maximum possible positive correction T +.
  • the maximum negative correction value determined in each case by the sub-modules 120 and 122 is added by means of the summer 126 in order to determine the maximum possible negative correction T-.
  • the maximum possible positive and negative total correction values T + and T- calculated in this way are input to a selection module 128 together with the total error Ti_ ⁇ .
  • the selection module 128 calculates the actual correction ⁇ that can be made based on the input signals Ti-i, T + and T-.
  • the result of the selection is either ix if its amount is small enough, otherwise the result of the selection is either T- or T +, depending on which of the values has the same sign as Ti_ ⁇ .
  • the selection submodule 128 follows the calculation rule given below for determining the actual correction ⁇ :
  • the result of the selection by the selection sub-module 128 is fed to the separation sub-module 130, which has an almost identical partitioning of the selected actual correction value ⁇ into the correction values ⁇ L and ⁇ R for the input signals C, C'i_ 2 according to the following Calculation rule specifies:
  • the subtractor 132 subtracts the correction value ⁇ L from C ' 1 _ 2 and the result is fed to the clipping module 134 in order to limit the result of the difference formation to a range between the minimum permissible and the maximum permissible intensity trimming.
  • the clipping sub-module 134 operates according to the following calculation rule:
  • x represents the input variable of clipping submodule 134 provided by subtractor 132
  • [x] represents the truncated range of the input variable to the representable intensity range
  • E represents the difference between the trimmed input value and the untrimmed input value.
  • the correction value ⁇ R is subtracted from the value C, similar to the correction value ⁇ L in the subtractor 136, and the difference is provided to the clipping sub-module 138, which operates in the same way as the clipping module 134, which was described above.
  • the value E of the clipping sub-modules 134 and 138 represents the extent by which the ⁇ must be distributed unevenly in order to achieve the maximum possible correction.
  • the value of E each of the units 134 and 138 is therefore the cut output value [x] of the other module 138 and 134 ad ⁇ diert to ensure that the correct distribution of correction ⁇ is achieved sure.
  • a summer 140 receives the on the visible intensity range of C'i- 2 and adds to this value the value E provided by the sub-module 138 so as to obtain the finally corrected, cut intensity Oi_ 2 for the pixel i-2.
  • a further summer 142 receives the signal Ci cut to the maximum representable intensity range, for which the signal E generated by the clipping subunit 134, whereby the partially corrected cut intensity C 'is obtained for the pixel i. Furthermore, the In the exemplary embodiment of module C shown in FIG. 6, a subtractor 144 is provided which receives the actual correction ⁇ and the input signal Ti-i and subtracts them from one another, thereby generating the uncorrected clipping interference U ⁇ _ for the pixel i-1, which is required to be used in the correction of pixel i.
  • module C A second exemplary embodiment for module C from FIG. 5 is explained in more detail below with reference to FIG. 7.
  • the determined total error Ti- ⁇ is distributed as evenly as possible, and then the results are cut and corrected to obtain the maximum possible correction without generating intensities outside the displayable range .
  • a separation sub-module 146 is provided, which receives the calculated total error i_ ⁇ and calculates an almost uniform partitioning of the total error Ti_ for the pixel i-1 by the correction value T L i_ ⁇ and To generate T R i_ ⁇ according to the following calculation rule:
  • the division can also be done the other way round.
  • the correction value T L i- ⁇ is added to the partially corrected value C'i- 2 , and the value output by the summer 148 is provided to a clipping sub-module 150.
  • the clipping sub-module 150 works in exactly the same way as the clipping sub-modules described above with reference to FIG. 6 and produces a cut result, namely on the one hand the further corrected pixel value Fi_ 2 and the remaining, uncorrected error Li_ Li.
  • the value C'i_ 2 is the intermediate corrected value for the pixel i-2, which was calculated two operating cycles earlier.
  • the correction value T R i- ⁇ is added to the partially corrected value Ci, and the output of the summer 152 is provided to the input of a clipping sub-module 154.
  • the clipping sub-module 154 generates a cut result which contains the partially corrected value P'i for the pixel i and a remaining uncorrected error value Ri- ⁇ .
  • the remaining error R i and the corrected pixel value Fi_ 2 are added in the summer 156, and the sum generated by the summer 156 is made available to a further clipping sub-module 158, which operates on the basis of the calculation rule described above with reference to FIG. 6.
  • the module 158 generates a cut result and outputs the finally corrected value Oi_ 2 for the pixel i-2.
  • Module 158 also outputs the uncorrected part of T L _ ⁇ as U L i- ⁇ .
  • the remaining error Li_ ⁇ and the partially corrected value P'i are added, and the result is fed to the clipping sub-module 162, which generates a cut result and outputs the corrected intermediate value C'i for the pixel i and the outputs uncorrectable part of T R i_ ⁇ as U R i- ⁇ .
  • the uncorrectable parts of the total error T_ ⁇ are added in the summer 164 in order to obtain the uncorrected clipping error Ui_ ⁇ for the pixel i-1, which is used for the correction of the pixel i.
  • RGB components Although reference was made above to the preferred exemplary embodiments to color systems which have RGB components, the present invention is of course not restricted to this, but can also be used for systems which use other color components or color parameters, e.g. CMY, HSV.
  • the present invention has been described using an example of a dimension.
  • the invention can either be implemented two-dimensionally or, as described above, can be implemented one-dimensionally for rows and columns.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Color Television Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zum Umwandeln von Eingangsdaten, die durch eine Abtastung eines Farbbildes mit in einem ersten Gitter angeordneten Pixeln (1001 - 1006) erzeugt sind, in Ausgangsdaten, die eine Wiedergabe des Farbbildes mit in einem zweiten Gitter angeordneten Pixeln (1021 - 1026) bewirken, wobei jedes Pixel der Eingangsdaten und der Ausgangsdaten eine Mehrzahl von Unterpixeln aufweist, wobei jedes Unterpixel eines Pixels einer Farbkomponente ((R, G, B) des Farbbildes zugeordnet ist, erzeugt ein Unterpixel einer Farbkomponente (R, G, B) der Ausgangsdaten durch Filtern der Unterpixel der entsprechenden Farbkomponente der Eingangsdaten unter Verwendung einer auf dieses Unterpixel der Ausgangsdaten örtlich bezogene Filterfunktion (108a, 108b, 108c).

Description

Verfahren und Vorrichtung zum Umwandeln eines Farbbildes
Beschreibung
Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Umwandeln von Farbbildern und hier insbesondere auf ein Verfahren und auf eine Vorrichtung zum Umwandeln von Eingangsdaten, die durch eine Abtastung eines Farbbildes mit in einem ersten Gitter angeordneten Pixeln erzeugt sind, in Ausgangsdaten, die eine Wiedergabe des Farbbildes mit in einem zweiten Gitter angeordneten Pixeln bewirken. Insbesondere bezieht sich die vorliegende Erfindung auf eine Bildskalierungseinrichtung für Farbanzeigege- rät mit Unterpixeln bzw. Teilpixeln (Sub-Pixel) für unterschiedliche Komponenten.
Die Skalierung von Bildern findet insbesondere bei der Anzeige von Bildern auf Bildschirmen Anwendung, wobei die Skalierung in einer Steuerungsschaltung eines Bildschirms, wie beispielsweise eines Farb-Flüssigkristall-Bildschirms (LCD = Liquid Cristal Display) durchgeführt wird. Solche Anzeigen (Bildschirme) umfassen ein physikalisch festgelegtes Gitter von Pixeln, wobei jedes der Pixel ein Trio von benachbarten Unterpixeln umfasst, wobei jedes Pixel ein Unterpixel für die rote Komponente, ein Unterpixel für die grüne Komponente und ein Unterpixel für die blaue Komponente des Bildpixels umfasst, welches auf der Anzeige darzustellen ist. Typischerweise ist es jedoch erforderlich, dass Anzeigesysteme, die solche Bildschirme umfassen, auch in der Lage sein müssen, Bilddaten wiederzugeben, deren Abtastgitter sich von dem Gitter unterscheidet, welches in dem Bildschirm physikalisch implementiert ist. Werden solche Bilddaten bereitgestellt, so ist in der Steuerungs- Schaltung der Anzeige eine Bildskalierungsvorrichtung vorgesehen, die aktiviert wird, um eine Version des Bildes zu erzeugen, welches, beispielsweise durch erneute Abtastung, auf das physikalische Anzeigegitter angepasst wurde. Geräte, die eine Bild-Neuabtastung (Bildskalierung) mit hoher Qualität ermöglichen, berechnen typischerweise die neu abgetasteten Bilddaten (Ausgangsdaten) durch Filtern der ursprünglichen Bilddaten (Eingangsdaten) mittels eines Mehrphasen-Digitalfilters mit mehreren Abgriffen (Multi-Tap Polyphase Digitalfilter) . Obwohl es möglich ist, zweidimen- sionale Filter zu implementieren, ist es normalerweise ökonomischer die Bildskalierung derart zu implementieren, dass zwei eindimensionale Filter angewendet werden, nämlich ein horizontales Skalierungsfilter, welches auf jede Reihe oder Zeile in dem Bild angewendet wird, und ein vertikales Skalierungsfilter, welches auf jede Spalte in dem Eingangsbild angewendet wird.
Fig. 1 zeigt eine schematische Darstellung der Skalierung eines Farbbildes durch Umwandeln der Eingangspixel in Ausgangspixel gemäß einem herkömmlichen Ansatz. In Fig. 1 sind beispielhaft sechs Pixel 100ι bis 1006 gezeigt, welche von dem ursprünglichen Farbbild stammen und die Eingangsdaten oder Eingangspixel darstellen. Zur Darstellung auf einem Bildschirm ist es nun erforderlich, die Eingangspixel zu skalieren, um diese auf das physikalisch festgelegte Gitter der Anzeigevorrichtung abzubilden, was dadurch erreicht wird, dass basierend auf den Eingangspixeln 100χ bis 1006 ebenfalls sechs Ausgangspixel 102ι bis 1026 erzeugt werden. Sowohl für die Eingangspixel 100χ bis 1006 als auch für die skalierten Ausgangspixel 102χ bis 102e sei angenommen, dass die jeweiligen Farbkomponenten in den jeweiligen Pixeln gleichmäßig über jedes Pixel verteilt sind.
Beispielhaft sei nun die Erzeugung des Ausgangspixels 1024 betrachtet. Um den Wert (z.B. Intensitätswert) für dieses Pixel 1024 zu erhalten, wird eine Gewichtungsfunktion 104 auf die Eingangspixel 100ι bis 100δ angewandt, wobei die Gewichtungsfunktion 104 auf die Mitte des Ausgangspixel 1024 bezogen ist, wie dies in Fig. 1 zu erkennen ist. Bei dem in Fig. 1 gezeigten Beispiel ist die y-Achse die Ska- lierungsachse 106, und entlang der x-Achse ist die Entfernung vom Mittelpunkt des skalierten Pixels, also vom Mittelpunkt des betrachteten Ausgangspixels 1024 aufgetragen.
Fig. 1 zeigt die mathematische Beziehung zwischen den Eingangspixeldaten (Pixel lOOx bis 1006) und den skalierten Ausgangspixeldaten, die durch herkömmliche Geräte oder Schaltungen erzeugt werden. Die Luminanz eines Ausgangspixels, beispielsweise des Pixels 102 , wird als gewichtete Summe der Luminanzen der Eingangspixel 100ι bis 100e, die um die Position des Ausgangspixels 102 in dem Bild angeordnet sind, abgeleitet. Die genaue Gewichtung, die jedem der Eingangspixel zugeordnet wird, wird abhängig von der Position des jeweiligen Eingangspixels relativ zum Mittel- punkt des Ausgangspixels 102 festgelegt, wie dies durch den Verlauf der Gewichtungsfunktion 104 in Fig. 1 zu erkennen ist.
Eine optimale Auswahl der Gewichtungsfunktion 104 (Filter- kern, Filterkernel) und eine optimale Auswahl der Vorrichtung zum effizienten Realisieren der Berechnungen der ge- wichteten Summe in einer oder mehreren Dimensionen sind Fachleuten bekannt.
Vorrichtungsmäßig wird die in Fig. 1 dargestellte Umwandlung zur Neuabtastung (Skalieren) der Farbbilder dadurch realisiert, dass die getrennten Farbkomponenten in den Eingangsbilddaten individuell gefiltert werden. Bei dem in Fig. 1 beschriebenen Ansatz werden, wie herkömmlicherweise üblich, alle Farbkomponenten unter Verwendung identischer Abtastpositionen (oder Abtastphasen) gefiltert, wobei die identischen Abtastpositionen jeweils auf den Mittelpunkt des zu skalierenden Ausgangspixels (siehe Pixel 1024 in Fig. 1) bezogen sind. Dieser Ansatz ist optimal, wenn die Bilder auf Anzeigeelementen angezeigt werden, bei denen die Farbkomponenten für jedes Pixel physikalisch zusammen angeordnet sind. Dies ist jedoch nur in wenigen Ausnahmefällen gegeben, so dass herkömmlicherweise keine optimale Neuabtastung der Farbbilder erreicht werden kann, insbesondere dann nicht, wenn das Abtastgitter, mit dem die Eingangsdaten oder ur- sprünglichen Farbdaten erzeugt wurden, von dem physikalisch festgelegten Gitter des Anzeigeelements abweichen. In solchen Situationen leidet die Schärfe des angezeigten Bildes nach der Umwandlung, was auf eine erhöhte Durchlassbanddämpfung sowie auf eine Erhöhung des Aliasingeffekt zurück- geht.
Ausgehend von diesem Stand der Technik liegt der vorliegenden Erfindung die Aufgabe zugrunde, ein verbessertes Verfahren und eine verbesserte Vorrichtung zu schaffen, welche die Skalierung von Farbbildern mit erhöhter Schärfe ermöglicht.
Diese Aufgabe wird durch ein Verfahren gemäß Anspruch 1 und durch eine Vorrichtung gemäß Anspruch 12 gelöst.
Die vorliegende Erfindung schafft ein Verfahren zum Umwandeln von Eingangsdaten, die durch eine Abtastung eines Farbbildes mit in einem ersten Gitter angeordneten Pixeln erzeugt sind, in Ausgangsdaten, die eine Wiedergabe des Farbbildes mit in einem zweiten Gitter angeordneten Pixeln bewirken, wobei jedes Pixel der Eingangsdaten und der Ausgangsdaten eine Mehrzahl von Unterpixeln aufweist, wobei jedes Unterpixel eines Pixels einer Farbkomponente des Farbbildes zugeordnet ist, mit folgendem Schritt:
Erzeugen eines Unterpixels einer Farbkomponente der Ausgangsdaten durch Filtern der Unterpixel der entsprechenden Farbkomponente der Eingangsdaten unter Verwendung einer auf dieses Unterpixel der Ausgangsdaten örtlich bezogenen Fil- terfunktion.
Die vorliegende Erfindung schafft ferner eine Vorrichtung zum Umwandeln von Eingangsdaten, die durch eine Abtastung eines Farbbildes mit in einem ersten Gitter angeordneten Pixeln erzeugt sind, in Ausgangsdaten, die eine Wiedergabe des Farbbildes mit in einem zweiten Gitter angeordneten Pixeln bewirken, wobei jedes Pixel der Eingangsdaten und der Ausgangsdaten eine Mehrzahl von Unterpixeln aufweist, wobei jedes Unterpixel eines Pixels einer Farbkomponente des Farbbildes zugeordnet ist, wobei die Vorrichtung eine Verarbeitungseinheit umfasst, die die Eingangsdaten empfängt und ein Unterpixel einer Farbkomponente der Ausgangsdaten durch Filtern der Unterpixel der entsprechenden Farbkomponente der Eingangsdaten unter Verwendung einer auf dieses Unterpixel der Ausgangsdaten örtlich bezogene Filterfunktion erzeugt.
Im Gegensatz zu dem oben beschriebenen, herkömmlichen Ansatz zur Skalierung von Farbbildern lehrt die vorliegende Erfindung einen neuartigen Ansatz, gemäß dem jede Farbkom- ponente, beispielsweise durch geeignete Filterelemente, verarbeitet wird, und zwar unter Verwendung von Abtastposi- tionen oder Abtastphasen, die dem aktuellen physikalischen Ort des Unterpixels einer Farbkomponente entsprechen. Der Vorteil der vorliegenden Erfindung besteht darin, dass der erfindungsgemäße Ansatz skalierte Bilder schafft, welche deutlich schärfer sind, wenn dieselben angezeigt werden, als Bilder die durch herkömmliche Ansätze, wie sie oben beschrieben wurden, erzeugt wurden. Im skalierten Bild findet sich eine geringere Durchlassbanddämpfung, die durch die Filter hervorgerufen wird, sowie ein geringerer Aliasing- Effekt.
Durch die vorliegende Erfindung wird somit ein verbessertes Verfahren und eine verbesserte Vorrichtung zum erneuten Abtasten bzw. Skalieren von Farbbildern, beispielsweise für eine optimale Anzeige auf Farbanzeigeelementen geschaffen, wobei jedes Bildelement (Pixel) in getrennte Unterpixel geteilt ist, die jeweils einer bestimmten Farbkomponente zugeordnet sind. Gemäß einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung werden die skalierten Ausgangsdaten ungeschnitten bereitgestellt, es wurde also keine „Clipping"- Funktion auf die Ausgangsdaten angewendet. In diesem Fall wird gemäß dem bevorzugten Ausführungsbeispiel nachfolgend zur Umwandlung der Eingangsdaten in skalierte Ausgangsdaten eine Clipping-Fehlerreduzierung durchgeführt, wobei hier vorzugsweise für jedes erzeugte Unterpixel zunächst eine Störung bzw. ein Fehler in dem Unterpixel festgestellt wird, wobei die Störung durch ein Unterschreiten bzw. Überschreiten der maximal zulässigen Intensität für das Ausgangspixel festgelegt sein kann. Anschließend werden diese Fehler im erzeugten Unterpixel durch Beaufschlagen von benachbarten Unterpixeln mit einer entgegengesetzten Störung bzw. einem entgegengesetzten Fehler kompensiert.
Bevorzugte Weiterbildung der vorliegenden Erfindung sind in den Unteransprüchen definiert.
Nachfolgend werden anhand der beiliegenden Zeichnungen bevorzugte Ausführungsbeispiele der vorliegenden Erfindung näher erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung der Umwandlung von Eingangspixeln in Ausgangspixel gemäß einem herkömmlichen Ansatz;
Fig. 2 ein Blockdiagramm, das den erfindungsgemäßen Ansatz zur Umwandlung von Eingangspixeln in Aus- gangspixel gemäß einem bevorzugten Ausführungsbeispiel zeigt;
Fig. 3 eine schematische Darstellung der Umwandlung von Eingangspixeln in Ausgangspixel gemäß der vorlie- genden Erfindung; Fig. 4 ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung zur Umwandlung von Eingangspixeln in Ausgangspixel;
Fig. 5 ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung zur Reduzierung von Störungen/Fehlern in den erfindungsgemäß erzeugten Ausgangspixeln;
Fig. 6 ein erstes Ausführungsbeispiel für das Korrektur- modul der Vorrichtung aus Fig. 5; und
Fig. 7 ein zweites Ausführungsbeispiel für das Korrekturmodul der Vorrichtung aus Fig. 5.
Fig. 2 zeigt ein Blockdiagramm, welches den erfindungsgemäßen Ansatz zur Umwandlung von Eingangspixeln in Ausgangspixel gemäß einem bevorzugten Ausführungsbeispiel zeigt, wobei hier erfindungsgemäß in einem ersten Block 108 die Filterung der Unterpixel durchgeführt wird und in einem an- schließenden' Block 110 eine Fehler-Reduzierung erfolgt. Bei dem in Fig. 2 dargestellten Ausführungsbeispiel werden in dem Block 108 die ursprünglichen Bilddaten eingegeben und am Ausgang des Blocks 108 und somit am Eingang des Blocks 110 liegen nicht geschnittene, also keiner Clipping- Funktion unterworfene, gefilterte Bilddaten bereit, auf deren Basis die Clipping-Fehlerreduzierung durchgeführt wird. Am Ausgang des Blocks 110 liegen dann die geschnittenen und gefilterten Bilddaten in skalierter Form vor, die gemäß einem bevorzugten Ausführungsbeispiel unter Verwendung einer eindimensionalen Fehlerdiffusion korrigiert wurden, um Clipping-Störungen zu korrigieren.
Bei der in Block 108 schematisch dargestellten Filterung werden vorzugsweise Polyphasen-Skalierungsfilter für die jeweiligen Unterpixel eingesetzt.
Hinsichtlich der in Fig. 2 dargestellten Struktur der erfindungsgemäßen Vorrichtung zur Farbskalierung wird darauf hingewiesen, dass hier ein bevorzugtes Ausführungsbeispiel dargestellt ist, die vorliegende Erfindung jedoch in ihrem breitesten Aspekt lediglich die Erzeugung der vom Block 108 ausgegebenen, skalierten Unterpixel betrifft, und die zusätzliche, im Block 110 wiedergegebene Fehlerreduzierung optional durchgeführt werden kann, sofern solche Fehler auftreten. Nachfolgend wird daher zunächst die Erfindung in ihrem breitesten Aspekt bezüglich der Erzeugung der Unterpixel näher erläutert.
In Fig. 3 ist eine schematische Darstellung zur Umwandlung von Eingangspixeln in Ausgangspixel gemäß der vorliegenden Erfindung gezeigt. In Fig. 3 sind gleiche oder ähnliche E- lemente, die bereits in der Fig. 1 gezeigt sind, mit glei- chen oder ähnlichen Bezugszeichen versehen.
Wie aus Fig. 3 zu entnehmen ist, sind auch hier beispielhaft sechs Eingangspixel 100ι bis 1006 dargestellt, die von den ursprünglichen Bilddaten stammen. Bei diesen ursprüng- liehen Bilddaten sind die Farbkomponenten gleichmäßig über jedes Pixel verteilt.
Ferner sind beispielhaft die skalierten Ausgangspixel 102χ und 1026 dargestellt, wobei hier zusätzlich die den jewei- ligen Farbpixeln zugeordneten Unterpixel für die jeweilige Farbkomponente dargestellt sind, wobei jedem der Pixel 102χ bis 1026 drei Unterpixel zugeordnet sind, wobei hier beispielhaft angenommen sei, dass ein erstes Unterpixel für die rote Farbkomponente, ein zweites Unterpixel für die grüne Farbkomponente und ein drittes Unterpixel für die blaue Farbkomponente zugeordnet ist, wie dies beim Pixel 1026 beispielhaft durch die Bezugszeichen R, G, B gezeigt ist. Zur Umwandlung der Eingangspixel 100ι bis 1006 in die Ausgangspixel sei beispielhaft, ähnlich wie in Fig. 1, auch hier das skalierte Ausgangspixel 1024 betrachtet.
Wie aus einem Vergleich mit Fig. 1 ohne weiteres ersichtlich ist, basiert der erfindungsgemäße Ansatz nicht mehr darauf, dass jedem skalierten Ausgangspixel eine Gewichtungsfunktion und damit auch jeder Färbkomponente die örtlich feststehende Gewichtungsf nktion zugeordnet wird, sondern erfindungsgemäß wird jedem der Unterpixel des Aus- gangspixels 102 eine Gewichtungsfunktion und eine eigene Skalierungsachse zugeordnet, um hier für jedes Unterpixel die Anteile der Eingangspixel zu bestimmen, die in dieses Unterpixel einfließen. Wie zu erkennen ist, ist bei dem beispielhaft betrachteten Ausgangspixel 1024 der Rotfarb- komponente die Skalierungsachse 106a zugeordnet, um die herum symmetrisch die diesem Unterpixel zugeordnete Gewichtungsfunktion 108a angeordnet ist. Dem Unterpixel für die Gelb-Komponente des Pixels 1024 ist die Abtastachse 106b und die Gewichtungsfunktion 108b zugeordnet, und dem Unter- pixel für die Blaukomponente des Pixel 1024 ist die Abtastachse 106c sowie die Gewichtungsfunktion 108c zugeordnet.
Entlang der x-Achse, die in Fig. 3 gezeigt ist, ist der Abstand von dem jeweiligen skalierten Unterpixelmittelpunkt aufgetragen. Die jeweiligen Gewichtungsfunktionen 108a bis 108c bewirken eine entsprechende Gewichtung der jeweiligen Eingangsfärbkomponenten in Eingangspixeln.
Anders als im Stand der Technik, bei dem, wie anhand der Fig. 1 erläutert wurde, davon ausgegangen wurde, dass nicht nur die Eingangsdaten eine gleichmäßige Verteilung der Farbkomponenten aufweisen sondern auch die skalierten Ausgangsdaten, wird bei der erfindungsgemäßen Umwandlung der Tatsache Rechnung getragen, dass dies im Regelfall, wie dies oben beschrieben wurde, nicht der Fall ist. Die skalierten Bilddaten reflektieren nun aufgrund der erfindungsgemäßen Umwandlungsform die Positionen der Unterpixel in den skalierten Ausgangspixeln.
Fig. 3 zeigt somit die mathematische Beziehung zwischen den Eingangspixeln 100χ bis lOOβ und den Ausgangspixeln 102χ bis 1026, die durch die erfindungsgemäße Skalierung erzeugt wurden. Die Skalierung erfolgt ähnlich wie in Fig. 1 jedoch wird die Gewichtung der Luminanzwerte der Eingangspixel zur Erzeugung eines Ausgangspixels für jede Farbkomponente vorzugsweise auf eine Mitte des Unterpixels in dem zu erzeugenden Ausgangspixel 1024 bezogen. Bei dem in Fig. 3 ge- zeigten Ausführungsbeispiel bezieht sich die tatsächliche Beziehung auf ein Anzeigegerät, bei dem die Pixel in rote, grüne und blaue Unterpixel unterteilt sind, die entlang der Skalierungsachse getrennt sind.
In Fig. 4 ist ein Ausführungsbeispiel der erfindungsgemäßen Vorrichtung zur Umwandlung von Eingangspixeln in Ausgangspixel, welches das anhand der Fig. 3 näher erläuterte Verfahren implementiert, dargestellt. Fig. 4 zeigt ein Blockdiagramm für eine eindimensionale Unterpixelskalierungsvor- richtung, wobei für das dargestellte Ausführungsbeispiel angenommen sei, dass jedes Pixel drei Farbkomponenten umfasst. Dementsprechend umfasst die erfindungsgemäße Vorrichtung drei Filtereinheiten 110a, 110b und 110c, die die jeweiligen Farbkomponenten der Eingangspixeldaten empfan- gen. Bei den Filtereinheiten 110a bis 110c handelt es sich vorzugsweise um Polyphasen-Filter, welche als Eingangsdaten die jeweiligen Intensitäten der Farbkomponenten im ursprünglichen Bild empfangen. Eine Abtastphaseninterpolati- onsvorrichtung 112 ist wirksam mit jedem der Filter 110a bis 110b verbunden, um für jede der Farbkomponente geeignete Abtastpositionen bereitzustellen, um also die jeweiligen Gewichtungsfunktionen entsprechend der erwünschten örtlichen Position bezüglich eines Unterpixels zu verschieben. Vorzugsweise sind die Filterfunktionen auf den Mittelpunkt eines Unterpixels bezogen, wie dies in Fig. 3 dargestellt ist.
Am Ausgang der Filter 110a bis 110b liegt jeweils ein skaliertes Unterpixel an, aus dem die Ausgangspixeldaten be- stehen. Die Filter geben für das jeweilige Unterpixel, also für die jeweilige Bildfarbkomponente im skalierten Ausgangsbild eine Intensität an, die ungeschnitten (keiner Clipping-Funktion unterworfen) ist. Bei dem in Fig. 4 dargestellten Ausführungsbeispiel der erfindungsgemäßen Vorrichtung handelt es sich um eine eindimensionale Unterpixel-Skalierungseinrichtung, wobei der ge- naue Entwurf und die genaue Implementierung von geeigneten Polyphasenfiltern und Phaseninterpolationselementen Fachleuten bekannt ist.
Der Hauptunterschied zwischen dem erfindungsgemäßen Verfah- ren und der erfindungsgemäßen Vorrichtung zu herkömmlichen Bildskalierungsansätzen besteht darin, dass zum einen getrennte Phasen bzw. Abtastpositionen für jede der Farbkomponenten, also für jedes Polyphasenfilter 110a bis 110c erzeugt werden, wodurch sichergestellt ist, dass die Abtast- position bzw. die Phase den Mittelpunkten der Unterpixel für die jeweilige Farbkomponente entspricht, und nicht, wie im Stand der Technik üblich, dem Mittelpunkt des Gesamtausgangspixels. Zum anderen sind die Polyphasenfilterarithme- tikeinheiten gemäß einem bevorzugten Ausführungsbeispiel derart implementiert, dass keine Clipping-Funktion des Endwertes bzw. des Zwischenwertes durchgeführt wird, so dass die arithmetischen Elemente der Filterstrukturen derart ausgestaltet sind, dass dieselben einen großen numerischen Bereich aufweisen, dessen Größe ausreichend ist, um auch arithmetische Ergebnisse handzuhaben, die weit außerhalb des zulässigen Bereichs liegen.
An dieser Stelle sei darauf hingewiesen, dass für den Fall, dass die Unterpixel Mittelpunkte mit der Skalierungsachse zusammenfallen die erfindungsgemäße Vorrichtung identische Ergebnisse liefert, wie sie durch ein herkömmliches Skalierungsfilter bereitgestellt werden.
Hinsichtlich der durch die Einrichtung 112 bereitgestellten Abtastphasen ist darauf hinzuweisen, dass die Beziehung der Abtastphasen, die an die Polyphasenfilter 110a bis 110c bereitgestellt werden von dem tatsächlichen Skalierungsfaktor abhängen. Unter der Annahme dass die Unterpixelelemente für die Farbkomponente c Mittelpunkte aufweisen, die oc Pixelbreiten von dem Mittelpunkt des Pixels entfernt sind, dann würde sich die Verschiebung φc für das Polyphasenfilter für die Farbkomponente c wie folgt ergeben:
φ+^ s
mit:
s = Filterskalierungsfaktor (das Verhältnis der Beabstan- dung der Eingangsabtastwerte zu der Beabstandung der Ausgangsabtastwerte) , und
φ = herkömmliche Filterabtastphase für ein vollständiges Pixel
Nachfolgend wird anhand der Fig. 5 bis 7 .ein bevorzugtes Ausführungsbeispiel der erfindungsgemäßen Vorrichtung und des erfindungsgemäßen Verfahrens näher erläutert, bei dem die nicht geschnittenen Unterpixel einer zusätzlichen Fehlerreduzierung unterzogen werden.
Obwohl durch das erfindungsgemäße Verfahren, wie oben erläutert, schärfere skalierte Bilder erzeugt werden, kann das Ausgangssignal des Skalierungsfilterelements oder jegliche Skalierungsfilteroperation, die ein ähnliches Prinzip verwendet (siehe Filter 110a bis 110c in Fig. 4) dazu tendieren, sichtbare Farbartefakte in der Anzeige wiederzugeben, welche durch das sogenannte Clipping (Schneiden) hervorgerufen werden. Diesbezüglich ist festzuhalten, dass die Form von gut entworfenen Skalierungsfilterkernen derart gewählt ist, dass die Gewichtung von Eingangspixeln in der Nähe des Filter-Mittelpunkts (Kernelcenter) EINS überschreiten kann, und die Gewichtung von Pixeln weit vom Fil- ter-Mittelpunkt (Kernelcenter) entfernt kann negativ sein. Wenn Eingangsbilder scharfe Kanten oder Linien mit Farbkom- ponentenintensitäten aufweisen, die nahe der maximalen oder minimalen Intensität sind, die physikalisch noch angezeigt werden kann, werden solche Kerne gefilterte Ausgangssignale erzeugen, mit Intensitäten, die größer als die maximal zulässige Intensität oder kleiner als die minimal zulässige Intensität sind. Solche außerhalb des zulässigen Bereichs liegende Intensitäten werden dann abgeschnitten, also einer „Clipping"-Operation unterworfen. Gemäß dieser Clipping- Operation werden Intensitäten oberhalb des maximal zulässigen Wertes als maximale Intensität behandelt, wohingegen Intensitäten unterhalb der minimal zulässigen Intensität als minimale Intensität behandelt werden. Diese Clipping- Operation kann ein Teil der Funktionsweise des Anzeigegeräts sein. Bei digitalen Geräten jedoch, bei denen ungeschnittene Daten typischerweise zu extremen Störungen auf- grund des numerischen Überflusses bzw. Unterflusses (Over- flow bzw. Underflow) führen würden, wird herkömmlicherweise die Clipping-Operation explizit als letzter Schritt der Filterberechnung durchgeführt.
Für herkömmliche Skalierungsvorrichtungen, welche auf das Gesamtpixel wirken, sind die durch die Clipping-Operation in das dargestellte Bild eingebrachten Störungen im allgemeinen nicht sichtbar. Die Störungen fügen lediglich eine zusätzliche Verschmierung (blurring) hinzu, die durch die (stärkere) Verschmierung, die durch die Skalierung selbst eingebracht wird, maskiert ist. Bei stark farbigen Kanten kann die Clipping-Operation Farbstörungen hervorrufen, wobei diese jedoch selten wahrnehmbar sind, nachdem diese lediglich an Kantenpixeln auftreten, und nachdem die mensch- liehe Sehschärfe bei eng beabstandeten Änderungen bei intensiven Farben schlecht ist.
Bei Unterpixel-Skalierungselementen führt die Tatsache, dass jede Farbkomponente mit einer unterschiedlichen Phase gefiltert wurde, jedoch dazu, dass die Clipping-Operation Störungen einfügt, die sowohl betragsmäßig größer als auch sichtbarer sind. Der Betrag der Störung ist größer, da die durch die Clipping-Operation eingefügte Störung in unter- schiedlichen Farbkomponenten unterschiedliche Vorzeichen haben kann. Die maximale Farbstörung, die eingefügt wird, kann daher fast das Doppelte derjenigen betragen, die durch eine Gesamtpixelskalierung eingefügt wird. Störungen auf- grund der Clipping-Operation sind ferner besser sichtbar, da die Farbstörung an schwarzen und weißen Kanten auftritt, so dass die sich ergebenden farbigen Ränder an den Kanten von nicht-farbigen Bereichen wesentlich schneller wahrgenommen werden als Störungen der Farbe an Kanten von farbi- gen Bereichen.
Dieses gerade beschriebene Problem der Farbstörung, welches aufgrund der Clipping-Operation hervorgerufen wird, wird bei der vorliegenden Erfindung gemäß dem nun beschriebenen Ausführungsbeispiel durch eine Nachverarbeitung der durch die Filter 110a bis 110c (siehe Fig. 4) ausgegebenen skalierten Ausgangssignale gelöst. Gemäß dem bevorzugten Ausführungsbeispiel wird eine eindimensionale Fehlerdiffusionseinheit verwendet, um Clipping-Fehler zu korrigieren, wodurch Farbstörungen auf einen Pegel reduziert werden, so dass diese nicht länger wahrnehmbar sind.
In Fig. 5 ist ein Ausführungsbeispiel einer erfindungsgemäßen Vorrichtung zur Reduzierung von Clipping-Störungen für einen Farbkanal gemäß einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung dargestellt. Die Vorrichtung zur Reduzierung der Clipping-Störung umfasst ein erstes Modul A, das sogenannte Clipping-Modul, welche an einem Eingang die nicht-geschnittene, gefilterte, also skalierte, Inten- sität Pi für ein Pixel i empfängt. Das Modul A bestimmt einen Clipping-Fehler Ei und eine geschnittene Intensität Ci, die an den jeweiligen Ausgängen des Moduls A, die in Fig. 5 zu erkennen sind. Die Vorrichtung umfasst ferner einen ersten Zwischenspeicher 112, der das Signal Ei zwischenspei- chert. Ferner ist ein Modul B vorgesehen, welches eine Zielkorrektur bestimmt. An einem ersten Eingang empfängt das Modul B den im ersten Zwischenspeicher 112 zwischengespeicherten Clipping-Fehler Ej._ι für ein Pixel, welches dem Pixel, dessen Intensität beim Modul A empfangen wird, unmittelbar vorhergeht. Ferner empfängt das Modul B einen un- korrigierten Clipping-Fehler Uj_2 für ein Pixel, das dem Pixel, dessen Intensität am Eingang des Moduls A empfangen wird, um zwei Pixel vorhergeht. Basierend auf diesen Eingangssignalen bestimmt das Modul B den Gesamt-Clipping- Fehler P_ι für das Pixel, welches dem Pixel vorhergeht, dessen Intensität beim Modul A empfangen wird. Der so bestimmte Gesamt-Clipping-Fehler wird in das Korrekturmodul C eingegeben, welches für ein Pixel, welches dem Pixel, dessen Intensität beim Modul A empfangen wird, um zwei Pixel vorausgeht, die Ausgangsintensität 0_2 erzeugt, welche die abschließend korrigierte, geschnittene Ausgangsintensität dieses Pixels wiedergibt. Ferner erzeugt das Modul C den unkorrigierten Clipping-Fehler Ui_ι für das Pixel, welches dem Pixel unmittelbar vorhergeht, dessen Intensität am Modul A empfangen wird. Dieser Wert wird in einem zweiten Zwischenspeicher 114 zwischengespeichert. Ferner erzeugt das Modul C die teilweise korrigierte geschnittene Intensi- tat C'i, welche in einem dritten und einem vierten Zwischenspeicher 116, 118 zwischengespeichert werden, so dass die teilweise korrigierte geschnittene Intensität C'i-2 für ein Pixel, welches dem aktuellen Pixel um zwei Pixel vorhergeht, dem Modul C wieder bereitgestellt werden kann.
Die Funktionsweise der in Fig. 5 dargestellten Anordnung sei nachfolgend im Detail erläutert. Bei der erfindungsgemäßen Vorrichtung zur Reduzierung von Farbstörungen, welche aufgrund der Clipping-Operation hervorgerufen wird, handelt es sich um ein wesentliches Merkmal dieses Ausführungsbeispiels der vorliegenden Erfindung. Der Entwurf dieser Vorrichtung nutzt die relativ geringe räumliche Schärfe des menschlichen Auges gegenüber Farbänderungen aus. Störungen der Farbe eines bestimmten Pixels können hinsichtlich der Sichtbarkeit für das menschliche Auge durch einen Prozess der Fehlerdiffusion kompensiert werden, bei dem für ein bestimmtes Pixel in den zu diesem Pixel benachbarten Pixel eine entgegengesetzte und somit kompensierende Störung ein- gebracht wird. Fig. 5 zeigt das oben beschriebene Blockdiagramm der Vorrichtung zur Reduzierung der Clipping-Störung für eine einzelne Farbkomponente eines Farbbildes. Eine vollständige Vorrichtung würde die in Fig. 5 gezeigte Anordnung für jede Farbkomponente umfassen. Für RGB- Farbdaten, die verarbeitet werden, wäre es daher z. B. erforderlich, eine Fehlerreduzierungsvorrichtung für die rote Komponente, die blaue Komponente und die grüne Komponente zu haben.
Die in Fig. 5 gezeigte Vorrichtung wird getrennt jeder Ausgangsleitung der in Fig. 4 gezeigten Filter zugeordnet, so dass die entsprechenden Daten betreffend ungeschnittene Farbkomponenten, die durch die in Fig. 4 gezeigten eindi- mensionalen Skalierungsfilter ausgegeben werden, der entsprechenden Clipping-Störungs-Reduzierung unterworfen werden. Die gefilterten Farbkomponentenintensitätsdaten werden nacheinander ein Pixel pro Zeiteinheit an dem Eingang (Modul A) bereitgestellt. Geschnittene und korrigierte gefil- terte Farbkomponentenintensitätsdaten werden dann mit einer Zwei-Pixel-Verzögerung ausgegeben. Zu Beginn jeder Reihe von Pixeln werden die Zwischenspeicher 112 und 114 auf Null zurückgesetzt, und das Ausgangssignal der Vorrichtung wird unterdrückt, bis das dritte Pixel verarbeitet wurde. Am En- de jeder Zeile müssen die letzten zwei Ausgangspixelwerte aus den Zwischenspeichern 116 und 118 ausgelesen werden. Für ein horizontales eindimensionales Skalierungsfilter entspricht jede Zeile einer Reihe von Pixeln, und für ein vertikales eindimensionales Skalierungsfilter entspricht jede Zeile einer Spalte von Pixeln. Das geschnittene und korrigierte Ausgangssignal Oι_2 wird auf die nachfolgend dargelegte Art und Weise mittels der in Fig. 5 gezeigten Anordnung erhalten.
In jedem Betriebszyklus empfängt das Modul A die Intensität Pi für das nächste zu verarbeitende Pixel (Pixel i) . Aus der empfangenen Intensität bestimmt das Modul A die geschnittene Intensität Ci und den Clipping-Fehler Ei für das zu verarbeitende Pixel i unter Verwendung der nachfolgenden Berechnungsvorschrift :
E.- = p. -c
MIN wenn P; < MIN
C.- = MAX wenn P; > MAX
P sonst
mit:
MIN minimal darstellbare Intensität
MAX = maximal darstellbare Intensität
Der Clipping-Fehler Ei-i für das dem aktuellen Pixel i vorhergehende Pixel i-1 wird aus dem Zwischenspeicher 112 an die arithmetische Einheit B weitergegeben, zusammen mit dem unkorrigierten Clipping-Fehler Ui-2 für das dem jetzigen Pixel i zwei Pixel vorhergehende Pixel i-2. Die arithmetische Einheit B berechnet den Gesamtfehler ι_ι, der um das Pixel i-1 herum korrigiert werden muss. Die Berechnung erfolgt aufgrund der folgenden Berechnungsvorschrift:
Tw=Ew+δ(UM)
wobei δ typischerweise gewählt ist zu δ(x) = x - 2, was einfach implementiert werden kann und sehr gute Ergebnisse mit typischen Skalierungskernen (Kernels) ergibt.
Unterschiedliche Werte oder Vorschriften für δ sind möglich, vorausgesetzt dass diese das Vorzeichen beibehalten und den Betrag reduzieren. Das Auswählen des unterschiedlichen δ ermöglicht einen Kompromiss zwischen den unkorrigierten Fehlern und der Tendenz sichtbare Fehlerdiffusionsartefakte zu zeigen. Eine Funktion, die den Betrag um einen geringeren Umfang reduziert würde die unkorrigierten Fehler reduzieren, aber würde dazu tendieren sichtbare Fehlerdiffusionsartefakte zu zeigen,' wenn diese innerhalb eines bestimmten Fehlermusters auftreten.
Eine Wahl von δ, die den Betrag um signifikant mehr als die Hälfte reduziert ist möglich, jedoch von wenig praktischem Interesse. Ähnliche Ergebnisse, die im sichtbaren Bereich nicht unterscheidbar sind können effizienter erreicht werden, indem die Berechnung von Ui_ι und U_2 weggelassen wird und statt dessen die Beziehung Ti-i = Ei_ι verwendet wird.
Das Modul C korrigiert den gesamten Clipping-Fehler Ti_ι, der sich für das Pixel i-1 angesammelt hat, so umfassend wie möglich. Die Korrektur erfolgt durch Einstellen der In- tensitäten der Nachbarpixel, nämlich des Pixels i und des Pixels i-2. Für das Pixel i wird die geschnittene Intensität Ci eingestellt, um eine teilweise korrigierte geschnittene Intensität C'i zu erzeugen. Für das Pixel i-2 wird die im vorhergehenden Berechnungsschritt bestimmte teilweise korrigierte geschnittene Intensität C'i_2 eingestellt, um die abschließend korrigierte geschnittene Ausgangsintensität Oi-2 für dieses Pixel zu erhalten.
Die gesamte verwendete Einstellung ist derart gewählt, dass diese nahezu gleich -Ti_ι ist, sofern dies möglich ist, ohne zu bewirken, dass die eingestellten Intensitäten die physikalisch darstellbaren Intensitätsbereiche überschreiten. Wenn eine Gesamteinstellung gleich -Ti_ι möglich ist, dann werden die Einstellungen für die zwei benachbarten Pixel so gewählt, dass diese so gleich wie möglich sind.
Nachfolgend werden anhand der Fig. 6 und 7 zwei Ausführungsbeispiele zur Implementierung des Moduls C in Fig. 5 näher beschrieben. Ignoriert man verschiedene Variationen der Implementierung, welche lediglich in der genauen Formulierung der individuellen arithmetischen Operationen, die im Modul C durchgeführt werden, existieren, so existieren zwei grundsätzliche Implementierungen für dieses Modul C. Ein erster Ansatz, der nachfolgend anhand der Fig. 6 näher erläutert wird, besteht darin zunächst die gesamte Einstellung zu berechnen, welche korrigiert werden kann, und dann diese gesamte Korrektur so gleichmäßig wie möglich zwischen den teilweise korrigierten Intensitäten Ci und Ci_2 zu verteilen.
Fig. 6 zeigt ein Blockdiagramm für die Implementierung des Moduls C, welches diesen Ansatz verwendet.
Das Modul C umfasst gemäß dem in Fig. 6 gezeigten Ausführungsbeispiel ein erstes MaxC-Untermodul 120 und ein zweites MaxC-Untermodul 122. Mittels der Module 120 und 122 werden die maximale möglichen positiven und negativen Kor- rekturen berechnet. Das Untermodul 120 bestimmt die maximal mögliche positive Korrektur C+ und die maximal mögliche negative Korrektur C- für den Eingangswert C'i_2, die durchgeführt werden können, ohne dass Intensitäten außerhalb des anzeigbaren Bereichs erzeugt werden. Ebenso erzeugt das Mo- dul 122 den entsprechenden maximal möglichen positiven und negativen Korrekturwert für Ci. In den Untermodulen 120 und 122 wird die gerade beschriebene Berechnung unter Verwendung der folgenden Berechnungsvorschrift durchgeführt:
C+ = MAX-x C~ = MIN-x
mit:
x = Eingangssignal C bzw. C'ι_2.
Die durch die Untermodule 120 und 122 bestimmten maximal möglichen Korrekturen C+ werden durch den Summierer 124 summiert, um die maximal mögliche positive Korrektur T+ zu erhalten. Ebenso wird mittels des Summierers 126 der durch die Untermodule 120 bzw. 122 jeweils bestimmte maximale negative Korrekturwert addiert, um die maximal mögliche negative Korrektur T- zu bestimmen. Die so berechneten maximal möglichen positiven und negativen Gesamtkorrekturwerte T+ und T- werden einem Auswahlmodul 128 zusammen mit dem Gesamtfehler Ti_ι eingegeben. Das Auswahl-Modul 128 berechnet die tatsächliche Korrektur Δ, die durchgeführt werden kann, basierend auf den Eingangssignalen Ti-i, T+ und T- . Das Ergebnis der Auswahl ist entweder i-x sofern dessen Betrag klein genug ist, ansonsten ist das Ergebnis der Auswahl entweder T- oder T+, abhängig davon welcher der Werte das gleiche Vorzeichen wie Ti_χ hat. Das Auswahl-Untermodul 128 befolgt die nachfolgend wiedergegebene Berechnungsvorschrift zur Festlegung der tatsächlichen Korrektur Δ:
Das Ergebnis der Auswahl durch das Auswahl-Untermodul 128 wird dem Trenn-Untermodul 130 zugeführt, welche eine nahezu gleiche Partitionierung des ausgewählten tatsächlichen Kor- rekturwertes Δ in die Korrekturwert ΔL und ΔR für die Eingangssignale C, C'i_2 gemäß der folgenden Berechnungsvorschrift festlegt:
ΔL= Δ/2 ΔΛ=(Δ+ l)/2
Die Aufteilung in ΔL und ΔR kann auch auf umgekehrte Art und Weise, wie sie oben in der Berechnungsvorschrift gezeigt wurde, erfolgen.
Durch den Subtrahierer 132 wird der Korrekturwert ΔL von C'1_2 subtrahiert, und das Ergebnis wird dem Clipping-Modul 134 zugeführt, um das Ergebnis der Differenzbildung auf einen Bereich zwischen der minimal zulässigen und der maximal zulässigen Intensität zu beschränken bzw. zu beschneiden. Das Clipping-Untermodul 134 arbeitet gemäß der folgenden Berechnungsvorschrift :
[x]= max(min(x,MAX),MIN) E= x-[x]
wobei x die Eingangsvariable des Clipping-Untermoduls 134 darstellt, die durch den Subtrahierer 132 bereitgestellt wird, [x] stellt den abgeschnittenen Bereich der Eingangsvariable auf den darstellbaren Intensitätsbereich dar, und E gibt die Differenz zwischen dem geschnittenen Eingangswert und dem ungeschnittenen Eingangswert wieder.
Der Korrekturwert ΔR wird, ähnlich dem Korrekturwert ΔL im Subtrahierer 136 von dem Wert C abgezogen, und die Diffe- renz wird dem Clipping-Untermodul 138 bereitgestellt, das ebenso arbeitet wie das Clipping-Modul 134, welches oben beschrieben wurde.
Der Wert E der Clipping-Untermodule 134 und 138 gibt den Umfang wieder, um den Δ ungleich verteilt werden muss, um die maximal mögliche Korrektur zu erreichen. Der Wert E jeder der Einheiten 134 und 138 wird daher zu dem geschnittenen Ausgangswert [x] des anderen Moduls 138 und 134 ad¬ diert, um sicherzustellen, dass die korrekte Verteilung der Korrektur Δ erreicht wird.
Ein Summierer 140 empfängt den auf den sichtbaren Intensitätsbereich von C'i-2 und addiert zu diesem Wert den durch das Untermodul 138 bereitgestellten Wert E, um so die end- gültig korrigierte, geschnittene Intensität Oi_2 für das Pixel i-2 zu erhalten.
Ein weiterer Summierer 142 empfängt das auf den maximal darstellbaren Intensitätsbereich geschnittene Signal Ci, zu dem das von der Clipping-Untereinheit 134 erzeugte Signal E, wodurch für das Pixel i die teilweise korrigierte geschnittene Intensität C' erhalten wird. Ferner ist bei dem in Fig. 6 dargestellten Ausführungsbeispiel des Moduls C ein Subtrahierer 144 vorgesehen, welcher die tatsächliche Korrektur Δ sowie das Eingangssignal Ti-i empfängt und voneinander abzieht, wodurch die unkorrigierte Clipping- Störung Uι_ für das Pixel i-1 erzeugt wird, welche erforderlich ist, um bei der Korrektur des Pixel i herangezogen zu werden.
Nachfolgend wird anhand der Fig. 7 ein zweites Ausführungs- beispiel für das Modul C aus Fig. 5 näher erläutert. Bei diesem alternativen Ansatz zur Implementierung des Moduls C wird der bestimmte Gesamtfehler Ti-χ so gleichmäßig wie möglich verteilt, und anschließend werden die Ergebnisse geschnitten und korrigiert, um eine maximal mögliche Korrek- tur zu erhalten, ohne dass Intensitäten außerhalb des anzeigbaren Bereichs erzeugt werden. Bei der in Fig. 7 dargestellten Implementierung des Moduls C ist ein Trenn- Untermodul 146 vorgesehen, welches den berechneten Gesamtfehler i_χ empfängt und eine nahezu gleichmäßige Partitio- nierung des Gesamtfehlers Ti_ für das Pixel i-1 berechnet, um die Korrekturwert TLi_χ und TRi_χ gemäß der folgenden Berechnungsvorschrift zu erzeugen:
τi I:1i_1/2
T£=(TH+l)/2
Die Aufteilung kann auch andersherum erfolgen.
Der Korrekturwert TLi-χ wird zu dem teilweise korrigierten Wert C'i-2 hinzuaddiert, und der durch den Summierer 148 ausgegebene Wert wird einem Clipping-Untermodul 150 bereitgestellt. Das Clipping-Untermodul 150 arbeitet genauso wie die oben anhand der Fig. 6 beschriebenen Clipping- Untermodule und erzeugt ein geschnittenes Ergebnis, nämlich zum einen den weiter korrigierten Pixelwert Fi_2 sowie den verbleibenden, nicht korrigierten Fehler Li_χ. Beim Wert C'i_2 handelt es sich um den zwischenkorrigierten Wert für das Pixel i-2, welcher zwei Betriebszyklen früher berechnet wurde.
Der Korrekturwert TRi-χ wird dem teilweise korrigierten Wert Ci hinzugefügt, und der Ausgang des Summierers 152 wird dem Eingang eines Clipping-Untermoduls 154 bereitgestellt. Das Clipping-Untermodul 154 erzeugt ein geschnittenes Ergebnis, welches den teilweise korrigierten Wert P'i für das Pixel i sowie einen verbleibenden unkorrigierten Fehlerwert Ri-χ.
Im Summierer 156 werden der verbleibende Fehler Ri- sowie der korrigierte Pixelwert Fi_2 addiert, und die durch den Summierer 156 erzeugte Summe wird einem weiteren Clipping- Untermodul 158 bereitgestellt, welches auf Grundlage der oben anhand der Fig. 6 beschriebenen Berechnungsvorschrift arbeitet. Das Modul 158 erzeugt ein geschnittenes Ergebnis, und gibt den abschließend korrigierten Wert Oi_2 für das Pixel i-2 aus. Ferner gibt das Modul 158 den unkorrigierten Teil von TL_ι als ULi-ι aus.
Im Summierer 160 werden der verbleibende Fehler Li_χ und der teilweise korrigierte Wert P'i addiert, und das Ergebnis wird dem Clipping-Untermodul 162 zugeführt, welches ein geschnittenes Ergebnis erzeugt und den korrigierten Zwischen- wert C'i für das Pixel i ausgibt und den unkorrigierbaren Teil von TRi_χ als URi-χ ausgibt.
Die unkorrigierbaren Teile des Gesamtfehlers T_ι werden im Summierer 164 addiert, um die unkorrigierte Clipping- Störung Ui_χ für das Pixel i-1 zu erhalten, welche für die Korrektur des Pixel i herangezogen wird.
Bei der obigen Beschreibung der bevorzugten Ausführungsbeispiele der vorliegenden Erfindung wurden lediglich einzelne Unterpixel eines Ausgangspixels betrachtet. Zur Erzeugung eines Farbbilds zur Anzeige auf einem Anzeigegerät aus ursprünglichen Bilddaten ist es zum einen erforderlich, für jedes Pixel die jeweils zugeordneten Unterpixel basierend auf den erfindungsgemäßen Ansätzen umzuwandeln. Ferner werden dann entsprechend den erfindungsgemäßen Vorschriften alle Ausgangspixel erzeugt, um das skalierte Farbbild zu erhalten.
Obwohl oben anhand der bevorzugten Ausführungsbeispiele Bezug genommen wurde auf Farbsysteme welche RGB-Komponenten aufweisen, ist die vorliegende Erfindung natürlich nicht hierauf beschränkt, sondern kann ebenso eingesetzt werden für Systeme, welche andere Farbkomponenten oder Farbparameter verwenden, z.B. CMY, HSV.
Die vorliegende Erfindung wurde anhand eines Beispiels für eine Dimension beschrieben. Für die Verarbeitung eines vollständigen Bildes kann die Erfindung entweder zweidimen- sional implementiert werden oder, wie oben beschrieben, für Zeilen und Spalten jeweils eindimensional implementiert werden.

Claims

Patentansprüche
1. Verfahren zum Umwandeln von Eingangsdaten, die durch eine Abtastung eines Farbbildes mit in einem ersten Gitter angeordneten Pixeln (100χ bis 1002) erzeugt sind, in Ausgangsdaten, die eine Wiedergabe des Farbbildes mit in einem zweiten Gitter angeordneten Pixeln (102χ bis 1026) bewirken, wobei jedes Pixel der Eingangsdaten und der Ausgangsdaten eine Mehrzahl von Un- terpixeln aufweist, wobei jedes Unterpixel eines Pixels einer Farbkomponente (R, G, B) des Farbbildes zugeordnet ist, mit folgendem Schritt:
(a) Erzeugen eines Unterpixels einer Farbkomponente (R, G, B) der Ausgangsdaten durch Filtern der Unterpixel der entsprechenden Farbkomponente der Eingangsdaten unter Verwendung einer auf dieses Unterpixel der Ausgangsdaten örtlich bezogenen Filterfunktion (108a, 108b, 108c) .
2. Verfahren nach Anspruch 1, bei dem die Filterfunktion
(108a, 108b, 108c) auf einem Mittel des zu erzeugenden Unterpixels bezogen ist.
3. Verfahren nach Anspruch 1 oder 2, bei dem die Filterfunktion (108a, 108b, 108c) die Unterpixel der Eingangsdaten bezogen auf deren örtliche Position bezüglich des zu erzeugenden Unterpixels gewichtet.
4. Verfahren nach einem der Ansprüche 1 bis 3, mit folgenden Schritten:
(b) Bestimmen einer Störung in dem erzeugten Unterpixel; und
(c) Kompensieren der im Schritt (b) bestimmten Störung durch Beaufschlagen von Unterpixeln in Pixeln der Ausgangsdaten, die zu dem Pixel mit dem erzeugten Unterpixel benachbart sind, mit einer entgegengesetzten Störung.
5. Verfahren nach Anspruch 4, bei dem im Schritt (b) eine dem erzeugten Unterpixel zugeordneten Intensität (Pi) bestimmt wird, eine auf eine minimale oder maximale Intensität (MIN, MAX) des erzeugten Unterpixels begrenzte Intensität (Ti) bestimmt wird, und ein die Störung wiedergebender Fehler (Ei) basierend auf der Differenz zwischen der Intensität des erzeugten Unterpixels (Pi) und der begrenzten Intensität (Ti) bestimmt wird.
6. Verfahren nach Anspruch 5, bei dem in einem Schritt
(cl) ein Gesamtfehler (Ti_χ) des erzeugten Unterpixels basierend auf dem im Schritt I (b) erzeugten Fehler (Ei_χ) und auf einem nicht korrigierten Fehler (Ui_2) eines vorhergehenden erzeugten Unterpixels bestimmt wird, und bei dem in einem Schritt (c2) der bestimmte Gesamtfehler (Ti_χ) durch Einstellen der Intensitäten des vor- hergehenden erzeugten Unterpixels und des nachfolgenden erzeugten Unterpixels korrigiert wird.
7. Verfahren nach Anspruch 7, bei dem im Schritt (c2) das Einstellen der Intensitäten derart durchgeführt wird, dass der Gesamtfehler (Ti_χ) im wesentlichen vollständig korrigiert wird, wobei die maximale oder minimale zulässige Intensität für die Unterpixel nicht über- oder unterschritten wird.
8. Verfahren nach Anspruch 6 oder 7, bei dem im Schritt
(c2) zunächst die maximal mögliche Korrektur (T+, T-) berechnet wird und anschließend die berechnete maximale
Korrektur (T+, T-) im wesentlichen gleichmäßig (ΔL, ΔR) auf die Unterpixel benachbarter Pixel verteilt wird.
Verfahren nach Anspruch 6 oder 7, bei dem im Schritt (c2) der Gesamtfehler (Ti_χ) im wesentlichen gleichmäßig (TRi_χ, TLi_χ) auf die Unterpixel benachbarter Pixel ver- teilt wird und anschließend die Intensitäten dieser Unterpixel zur Korrektur des verteilten Gesamtfehlers eingestellt werden.
10. Verfahren nach einem der Ansprüche 1 bis 9, bei dem die Schritte (a) bis (c) für alle Unterpixel eines Pixels (1024) der Ausgangsdaten wiederholt werden.
11. Verfahren nach Anspruch 10, bei dem die vorhergehenden Verfahrensschritte für alle Pixel (102χ bis 1026) der
Ausgangsdaten wiederholt werden.
12. Vorrichtung zum Umwandeln von Eingangsdaten, die durch eine Abtastung eines Farbbildes mit in einem ersten Gitter angeordneten Pixeln (100χ bis 1006) erzeugt sind, in Ausgangsdaten, die eine Wiedergabe des Farbbildes mit in einem zweiten Gitter angeordneten Pixeln (102χ bis 102δ) bewirken, wobei jedes Pixel der Eingangsdaten und der Ausgangsdaten eine Mehrzahl von Un- terpixeln aufweist, wobei jedes Unterpixel eines Pixels einer Farbkomponente (R, G, B) des Farbbildes zugeordnet ist, mit
einer Verarbeitungseinheit (110a, 110b, 110c, 112), die die Eingangsdaten "empfängt und ein Unterpixel einer Farbkomponente der Ausgangsdaten durch Filtern der Unterpixel der entsprechenden Farbkomponente (R, G, B) der Eingangsdaten unter Verwendung einer auf dieses Unterpixel der Ausgangsdaten örtlich bezogenen Filter- funktion (108a, 108b, 108c) erzeugt.
13. Vorrichtung nach Anspruch 12, bei der die Verarbeitungseinheit folgende Merkmale aufweist:
eine Mehrzahl von Filteranordnungen (110a, 110b, 110c) , wobei jede der Filteranordnungen einer der Farbkomponenten (R, G, B) in dem Farbbild zugeordnet ist und an- gepasst ist, um aus den Eingangsdaten Unterpixel einer entsprechenden Farbkomponente zu empfangen, und
einer Einrichtung (112) , die mit jeder der Mehrzahl der Filteranordnungen (110a, 110b, 110c) wirksam verbunden ist, um jeder der Mehrzahl von Filteranordnungen eine entsprechende Filterfunktion (110a, 110b, 110c) zuzuordnen.
14. Vorrichtung nach Anspruch 12 oder 13, bei der die Filterfunktion (108a, 108b, 108c) auf eine Mitte des zu erzeugenden Unterpixels bezogen ist.
15. Vorrichtung nach einem der Ansprüche 12 bis 14, bei der die Filterfunktion (108a, 108b, 108c) die Unterpixel der Eingangsdaten bezogen auf deren örtliche Position bezüglich des zu erzeugenden Unterpixels gewichtet.
16. Vorrichtung nach einem der Ansprüche 12 bis 15, mit
einer Einrichtung (A) zum Bestimmen einer Störung in dem erzeugten Unterpixel; und
einer Einrichtung (B, C) zum Kompensieren der Störung durch Beaufschlagen von Unterpixeln in Pixeln der Ausgangsdaten, die zu dem Pixel mit dem erzeugten Unterpixel benachbart sind, mit einer entgegengesetzten Störung.
17. Vorrichtung nach Anspruch 16, bei dem die Einrichtung (A) eine dem erzeugten Unterpixel zugeordnete Intensität (Pi) bestimmt, eine auf eine minimale oder eine maximale Intensität (MIN, MAX) des erzeugten Unterpixels begrenzte Intensität (Ci) bestimmt, und einen die Stö- rung wiedergebenden Fehler (Ei) basierend auf der Differenz zwischen der Intensität des erzeugten Unterpixels (Pi) und begrenzten Intensität (Ci) bestimmt.
18. Vorrichtung nach Anspruch 17, bei der die Einrichtung
(B, C) eine Einrichtung (B) zum Bestimmen eines Gesamtfehlers (Ti-x) zu erzeugten Unterpixels basierend auf dem erzeugten Fehler (Ei-i) und auf einem nicht- kompensierten Fehler (Ui_2) eines vorhergehenden erzeugten Unterpixels, und eine Einrichtung (C) zum Korrigieren des bestimmten Gesamtfehlers (Ti_χ) durch Einstellen der Intensitäten des vorhergehenden erzeugten Unterpixels und des nachfolgenden erzeugten Unterpixels um- fasst.
19. Vorrichtung nach Anspruch 18, bei der die Einrichtung
(C) die Intensitäten derart einstellt, dass der Gesamtfehler (T-x) im wesentlichen vollständig kompensiert ist, wobei die maximale oder minimale zulässige Intensität für die Unterpixel nicht über- oder unterschritten wird.
20. Vorrichtung nach Anspruch 18 oder 19, bei der die Ein- richtung (C) zunächst die maximal mögliche Korrektur
(T+, T-) berechnet und anschließend die berechnete maximale Korrektur (T+, T-) im wesentlichen gleichmäßig
L, ΔR) auf die Unterpixel benachbarter Pixel verteilt.
21. Vorrichtung nach Anspruch 18 oder 19, bei der die Einrichtung (C) den Gesamtfehler (Ti_χ) im wesentlichen gleichmäßig (TRi_χ, TLi_) auf die Unterpixel benachbarter Pixel verteilt und anschließend die Intensitäten dieser Unterpixel zur Korrektur des verteilten Gesamtfehlers einstellt.
EP03793773A 2002-09-06 2003-08-29 Verfahren und vorrichtung zum umwandeln eines farbbildes Withdrawn EP1535474A2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10241353A DE10241353B4 (de) 2002-09-06 2002-09-06 Verfahren und Vorrichtung zum Umwandeln eines Farbbildes
DE10241353 2002-09-06
PCT/EP2003/009631 WO2004023822A2 (de) 2002-09-06 2003-08-29 Verfahren und vorrichtung zum umwandeln eines farbbildes

Publications (1)

Publication Number Publication Date
EP1535474A2 true EP1535474A2 (de) 2005-06-01

Family

ID=31969045

Family Applications (1)

Application Number Title Priority Date Filing Date
EP03793773A Withdrawn EP1535474A2 (de) 2002-09-06 2003-08-29 Verfahren und vorrichtung zum umwandeln eines farbbildes

Country Status (9)

Country Link
US (1) US7643039B2 (de)
EP (1) EP1535474A2 (de)
JP (1) JP4518392B2 (de)
KR (1) KR100809199B1 (de)
CN (1) CN1679052B (de)
AU (1) AU2003264135A1 (de)
DE (1) DE10241353B4 (de)
TW (1) TWI228917B (de)
WO (1) WO2004023822A2 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4506092B2 (ja) * 2003-03-27 2010-07-21 セイコーエプソン株式会社 画像処理方法および画像処理装置ならびに表示デバイス
US7778493B2 (en) * 2003-10-09 2010-08-17 The Henry M. Jackson Foundation For The Advancement Of Military Medicine Inc. Pixelation reconstruction for image resolution and image data transmission
KR100772906B1 (ko) * 2005-08-12 2007-11-05 삼성전자주식회사 영상신호 표시 방법 및 장치
US8253752B2 (en) 2006-07-20 2012-08-28 Qualcomm Incorporated Method and apparatus for encoder assisted pre-processing
US8155454B2 (en) 2006-07-20 2012-04-10 Qualcomm Incorporated Method and apparatus for encoder assisted post-processing
KR20120017648A (ko) * 2010-08-19 2012-02-29 삼성전자주식회사 디스플레이장치와, 디스플레이 패널의 구동방법
CN102622736B (zh) * 2011-01-28 2017-08-04 鸿富锦精密工业(深圳)有限公司 影像处理系统及方法
JP2015007739A (ja) * 2012-10-01 2015-01-15 キヤノン株式会社 表示装置及びその制御方法
GB2516221A (en) * 2013-07-01 2015-01-21 Barco Nv Method and processor for streaming video processing
US9317903B1 (en) * 2013-08-27 2016-04-19 Pixelworks, Inc. Self-similarity based single frame super-resolution
DE102015100859A1 (de) * 2015-01-21 2016-07-21 Osram Oled Gmbh Verfahren zum Betreiben einer Anzeigevorrichtung und Anzeigevorrichtung
KR102303666B1 (ko) * 2015-06-24 2021-09-23 삼성디스플레이 주식회사 영상 처리 방법, 영상 처리 방법을 수행하는 영상 처리 장치, 및 영상 처리 장치를 포함하는 표시 장치
KR102597231B1 (ko) * 2016-09-30 2023-11-03 삼성디스플레이 주식회사 영상 처리 장치, 표시 장치 및 두부 장착 표시 장치
KR102349384B1 (ko) * 2017-03-15 2022-01-11 삼성전자주식회사 투명 디스플레이 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61252762A (ja) * 1985-04-30 1986-11-10 Toshiba Corp 画像形成装置
US4945351A (en) * 1988-05-23 1990-07-31 Hewlett-Packard Company Technique for optimizing grayscale character displays
US5341153A (en) * 1988-06-13 1994-08-23 International Business Machines Corporation Method of and apparatus for displaying a multicolor image
JPH05504433A (ja) * 1990-12-31 1993-07-08 イー・アイ・デュポン・ドゥ・ヌムール・アンド・カンパニー 画像のサイズを変換する方法、フィルタを設計する方法および出力画像空間のピクセルをサイズ変換された入力画像空間に写像する方法
JPH0677182A (ja) 1992-08-25 1994-03-18 Sanyo Electric Co Ltd 凹凸のある絶縁膜の平坦化方法
US5455600A (en) * 1992-12-23 1995-10-03 Microsoft Corporation Method and apparatus for mapping colors in an image through dithering and diffusion
DE69422871T2 (de) * 1993-09-17 2000-08-17 Eastman Kodak Co Digitaler integrierter Abtastratenumwandlungsschaltkreis und Anwendung bei einer schnellen Grössenänderung eines Bildes
US5604856A (en) * 1994-10-13 1997-02-18 Microsoft Corporation Motion compensated noise reduction method and system for computer generated images
JP2726631B2 (ja) * 1994-12-14 1998-03-11 インターナショナル・ビジネス・マシーンズ・コーポレイション 液晶表示方法
US5959693A (en) * 1997-05-07 1999-09-28 General Instrument Corporation Pixel adaptive noise reduction filter for digital video
US6175355B1 (en) * 1997-07-11 2001-01-16 National Semiconductor Corporation Dispersion-based technique for modulating pixels of a digital display panel
US6281873B1 (en) * 1997-10-09 2001-08-28 Fairchild Semiconductor Corporation Video line rate vertical scaler
WO2001017631A1 (en) * 1999-09-09 2001-03-15 Dsle System S.A. Device for moving the limbs of a doll and simulating a walking action
JP4158304B2 (ja) * 2000-01-27 2008-10-01 富士フイルム株式会社 画像再生方法及び装置並びに電子カメラ
JP3815188B2 (ja) * 2000-07-21 2006-08-30 三菱電機株式会社 画像表示装置および画像表示方法
JP2002041000A (ja) * 2000-07-26 2002-02-08 Sharp Corp 液晶表示装置およびその色補正方法
JP2002215126A (ja) * 2001-01-15 2002-07-31 Sharp Corp 文字表示装置、文字表示方法および記録媒体
JP2002326395A (ja) 2001-03-02 2002-11-12 Fuji Photo Film Co Ltd 露光記録装置
US20040116448A1 (en) * 2001-04-07 2004-06-17 Hans-Gunther Schmalz Substances for the therapy of diseases caused by highly proliferating cells
US7184066B2 (en) * 2001-05-09 2007-02-27 Clairvoyante, Inc Methods and systems for sub-pixel rendering with adaptive filtering
JP3839332B2 (ja) * 2002-03-01 2006-11-01 三菱電機株式会社 表示装置
JP3855881B2 (ja) * 2002-08-09 2006-12-13 セイコーエプソン株式会社 色補正回路及びそれを備えた画像表示装置
KR100537506B1 (ko) 2003-03-14 2005-12-19 삼성전자주식회사 패터닝된 에미터를 이용한 노광장치 및 그 제조방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2004023822A2 *

Also Published As

Publication number Publication date
JP2005538396A (ja) 2005-12-15
US20050243109A1 (en) 2005-11-03
US7643039B2 (en) 2010-01-05
WO2004023822A2 (de) 2004-03-18
DE10241353B4 (de) 2004-07-15
CN1679052A (zh) 2005-10-05
TWI228917B (en) 2005-03-01
AU2003264135A8 (en) 2004-03-29
CN1679052B (zh) 2010-05-26
WO2004023822A3 (de) 2004-06-17
KR100809199B1 (ko) 2008-03-03
TW200415913A (en) 2004-08-16
DE10241353A1 (de) 2004-04-15
KR20050032625A (ko) 2005-04-07
AU2003264135A1 (en) 2004-03-29
JP4518392B2 (ja) 2010-08-04

Similar Documents

Publication Publication Date Title
DE69633586T2 (de) Einrichtung zur Abtastumsetzung mit verbesserter vertikaler Auflösung und Vorrichtung zur Flimmerreduzierung
DE69938227T2 (de) Verfahren und Gerät zur Bewegungsartefakten- und Geräuschverringerung in Videobildverarbeitung
DE68926317T2 (de) Bilderzeugungsgerät
DE69535693T2 (de) Einzelrasterpufferbildverarbeitungssystem
DE68915912T2 (de) Videosignalerzeugung als Zeitlupenaufnahme.
DE69009838T2 (de) Vorrichtung und Verfahren zur automatischen Zentrierung einer Videowiedergabe mit Zoom und Nachführung.
DE69729916T2 (de) Dynamische bildgrössenänderung
DE10241353B4 (de) Verfahren und Vorrichtung zum Umwandeln eines Farbbildes
DE19920812A1 (de) Einrichtung zum Erzeugen einer interpolierten Videozeile
DE102016112968B4 (de) Bestimmung von Farbwerten für Pixel an Zwischenpositionen
DE3842977C2 (de) Mischeinrichtung für Videosignale
EP1263221A2 (de) Verfahren und Vorrichtung zur Darstellung von wenigstens zwei Bildern in einem Gesamtbild
DE19517356C1 (de) Videosystem
DE4143074A1 (de) Verfahren und einrichtung zum umformatieren verschachtelter videodaten zur darstellung auf einem computer-ausgabedisplay
DE69827540T2 (de) Signalverarbeitungssystem
DE10315442A1 (de) Verfahren und Schaltung zur Skalierung von Rasterbildern
DE4230008C2 (de) Rekursive Video-Farbtondrehungen zum Erhalt eines regenbogenartigen abklingenden Nachbildes
DE3782920T2 (de) System zur verarbeitung von fernsehbildsignalen.
DE69019696T2 (de) Verfahren und Apparat zur Verminderung von Rauschimpulsen in digitalen Fernsehempfängern.
DE102005036744B4 (de) Verfahren und Vorrichtung zur autostereoskopischen Wiedergabe von 3D-Darstellungen
DE19517357C1 (de) Verfahren und Vorrichtung zur Aufbereitung eines Videobildes
DE4434728C1 (de) Verfahren und Schaltungsanordnung zur Flimmerreduktion für ein Gerät zur Videosignalverarbeitung
DE69114254T2 (de) Verfahren und Vorrichtung zur graphischen Darstellung eines Symbols mit einstellbarer Grösse und Position.
DE102022133484A1 (de) Einzelbild-HDR-Fusion auf Basis der Multi-Binning-Methode
DE60318709T2 (de) Methode und apparat zur signalverarbeitung, computerprogrammprodukt, computersystem und kamera

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20050131

AK Designated contracting states

Kind code of ref document: A2

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LI LU MC NL PT RO SE SI SK TR

AX Request for extension of the european patent

Extension state: AL LT LV MK

DAX Request for extension of the european patent (deleted)
RBV Designated contracting states (corrected)

Designated state(s): DE FR GB

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: NXP B.V.

17Q First examination report despatched

Effective date: 20090424

RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: TRIDENT MICROSYSTEMS (FAR EAST) LTD.

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20110531