WO2005064584A1 - 表示システム - Google Patents

表示システム Download PDF

Info

Publication number
WO2005064584A1
WO2005064584A1 PCT/JP2004/019410 JP2004019410W WO2005064584A1 WO 2005064584 A1 WO2005064584 A1 WO 2005064584A1 JP 2004019410 W JP2004019410 W JP 2004019410W WO 2005064584 A1 WO2005064584 A1 WO 2005064584A1
Authority
WO
WIPO (PCT)
Prior art keywords
color image
image data
test
display
data
Prior art date
Application number
PCT/JP2004/019410
Other languages
English (en)
French (fr)
Inventor
Kenro Ohsawa
Original Assignee
National Institute Of Information And Communications Technology, Incorporated Administrative Agency
Olympus Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute Of Information And Communications Technology, Incorporated Administrative Agency, Olympus Corporation filed Critical National Institute Of Information And Communications Technology, Incorporated Administrative Agency
Priority to EP04807766A priority Critical patent/EP1699035A4/en
Publication of WO2005064584A1 publication Critical patent/WO2005064584A1/ja
Priority to US11/472,758 priority patent/US20060238832A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0666Adjustment of display parameters for control of colour parameters, e.g. colour temperature
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/145Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light originating from the display screen

Definitions

  • the present invention relates to a display system for displaying an image by correcting the effect of optical flare.
  • color characteristics are defined as information that does not depend on the spatial coordinates of an image for a color image device or image data, and this color is defined. Color reproduction is performed based on the characteristic information.
  • the present invention has been made in view of the above circumstances, and has as its object to provide a display system capable of reducing the influence of optical flare and performing intended color reproduction and obtaining! /, Ru. .
  • the display system of the present invention includes a color image display device for displaying a color image and a supplementary image for outputting to the color image display device by correcting color image data.
  • An image correction device that generates normal color image data.
  • the image correction device includes a plurality of test color image data to be output to the color image display device, and a plurality of test color image data corresponding to the plurality of test color image data. Based on the relationship between the test color displayed on the color image display device and the spatial distribution of display colors of one image, corrected color image data for correcting the optical flare of the color image display device is obtained from the color image data. It is calculated.
  • FIG. 1 is a diagram showing an outline of a configuration of a display system according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of an image correction device according to the embodiment.
  • FIG. 3 is a block diagram showing a configuration of a flare calculation device in the embodiment.
  • FIG. 4 is a diagram showing geometric correction pattern image data output by the test image output device in the embodiment.
  • FIG. 5 is a view showing text data in which coordinate information of a center position of a cross pattern is recorded in the embodiment.
  • FIG. 6 is a diagram showing a state of a divided region in test color image data output by a test image output device in the embodiment.
  • FIG. 7 is a diagram showing text data in which coordinate information of a divided area is recorded in the embodiment.
  • FIG. 8 is a block diagram showing a configuration of a captured image input device in the embodiment.
  • FIG. 9 is a diagram showing a state of a sample area set for a captured image related to a test color image in the embodiment.
  • FIG. 10 is a diagram showing a state of a light emitting region and a sample region other than the light emitting region in the embodiment.
  • This principle is based on what kind of corrected input image is obtained when the input image data becomes different display image data under the influence of the optical flare of the display device (hereinafter, simply referred to as flare). If you enter data, the original input image data This is to determine whether the same display image data as the data is obtained.
  • the input image data of the number N of pixels input to the display device is (p, p,..., P.
  • the suffix t on the right shoulder indicates transposition.
  • the display image data which represents the light distribution of the image actually displayed as image data having N pixels, is represented by (g, g,
  • the display image data can be acquired, for example, by photographing an image displayed on a display device with a digital camera. Since this display image data is affected by flare or the like of the display device, the display image data generally does not match the input image data, and a part of light displayed by a signal at another pixel position is superimposed. Further, even when the input image signal to the display device is 0, the display image data generally does not become 0. The display image data at this time is biased (o, o,
  • Equation 1 is obtained by modeling the relationship between the input image data and the display image data in consideration of these effects.
  • Expression 2 is a simplified expression of Expression 1 using capital letters corresponding to the characters of each element in the determinant of Expression 1.
  • the display image data G coincides with the input image data P.
  • the display image is affected by flare and the like.
  • the data and the display image data are different.
  • the input image data is corrected so that the display image data acquired using the corrected input image data matches or approximates the original input image data. Is calculated. Assuming that the corrected input image data is P ', corrected display image data G', which is display image data corresponding to the corrected input image data P ', is expressed by the following equation (3).
  • Equation 3 In order to satisfy Equation 4, it is sufficient to use Equation 3 above to use corrected input image data P ′ as shown in Equation 5 below.
  • the display characteristic M as shown in Expression 5 is an N x N matrix as described above.
  • the data size can generally be said to be very large.
  • the display characteristic M has a special characteristic
  • the calculation may be able to be performed more easily. For example, consider a case in which the spread of light due to flare or the like in a display device can be approximated by the same distribution almost without depending on the pixel position. At this time Let M, (m,, m,, ⁇ , m,) denote the display characteristics of
  • G M '* P + 0
  • the symbol "*" represents a convolution operation
  • Equation 7 By using the input image data P in Equation 6 as corrected input image data P 'and further using the conditions shown in Equation 4, the following Equation 7 is obtained.
  • the display characteristic M ′ is known, it is possible to calculate the corrected input image data P ′ from the equation (7). That is, a technique related to deconvolution in which, when one image (here, ') is known from the convolution image of two images (here, PO), the other image (here,') is calculated. Is known. For example, it is possible to use a method as described in Chapter 7 of Reference 1 (Rosenfeld and A. Shi, KaK, Digital Picture Processing, Academic Press 197D ( ⁇ : True Translation Digital Image Processing Modern Science Co., Ltd. 1978)). it can.
  • the correction method as shown in Expression 5 above includes an operation of an inverse matrix of the matrix M having a large number of elements, and the correction method as described in Expression 7 and Reference 1 is a convolution method. Since the calculation includes the inverse calculation of the calculation, the calculation is complicated, and the load on the processing system may be increased or the processing time may be required.
  • the display image data G is modeled as being represented by the sum of the input image data P, the bias O, and the flare component F which is flare distribution data caused by the influence of flare and the like as shown in Expression 8.
  • E represents an N ⁇ N unit matrix.
  • the corrected display image data G ′ is obtained from Expression 3 as shown in Expression 12 below.
  • (M ⁇ E) 3 P in the second term of the equation (12) is a flare correction error, and has a third order, which indicates that the influence of the flare is further reduced.
  • the corrected input image data P ′ for correcting the flare F as shown in Expression 13 is as shown in Expression 14 below.
  • F of Expression 9 represents the convolution. And can be replaced as shown in Equation 15 below.
  • E ' is a column vector in which the component corresponding to the center position of the image is 1 and the other components are 0.
  • O is the deconvolution of ⁇ with ⁇
  • the image data is handled as one-channel data.
  • the image data is generally handled as three-channel data. Therefore, in this case, the display characteristic ⁇ or the display characteristic M ′ described above is calculated for each of the RGB channels, and flare correction is performed based on the calculated display characteristics.
  • the signal value of a color image device such as a display device or a digital camera has a nonlinear relationship with the corresponding luminance.
  • a correction of the gradation characteristics is a known technique, the description thereof is omitted here. I have. That is, the above description explains the principle in a linear space after correcting the nonlinearity of the signal.
  • FIG. 1 to 10 show an embodiment of the present invention
  • FIG. 1 is a diagram showing an outline of a configuration of a display system.
  • the display system includes a projector 1 as a color image display device for projecting an image, an image correction device 2 for generating a corrected image projected by the projector 1, and an image projected from the projector 1.
  • a test color image measuring means comprising a screen 3 as a color image display device and a digital camera or the like arranged so as to capture the entire area of the image displayed on the screen 3 and a test image as a color camera. Shooting And a camera 4.
  • the test image photographing camera 4 is included in an image correction device in a broad sense, and is used to reduce in-plane unevenness of an image or in-plane sensitivity unevenness of an image sensor caused by optical characteristics of a photographing lens. It is assumed that a circuit or the like capable of correcting the in-plane unevenness of the resulting image is provided, and the output digital image data of, for example, RGB has been corrected. Further, the test image capturing camera 4 outputs a signal in a linear response to the input light intensity.
  • the image correction device 2 outputs to the projector 1 predetermined test color image data stored internally in advance.
  • the projector 1 projects the test color image data supplied from the image correction device 2 on a screen 3.
  • the image correction device 2 controls the test image capturing camera 4 to capture, transfer, and capture the image of the display color distribution corresponding to the test color image data displayed on the screen 3. .
  • the image correction device 2 corrects the color image data using the color image data obtained from the test image capturing camera 4 and the original test color image data supplied to the projector 1. Display characteristic data used for the calculation is calculated.
  • the operation of projecting a normal image by the display system after acquiring the display characteristic data is as follows. Note that when projecting this normal image, the test image photographing camera 4 is unnecessary, and thus is removed, for example.
  • the image correction device 2 corrects the color image data stored therein in advance using the display characteristic data calculated as described above, and then corrects the internal color image data as corrected color image data. After that, when the color image data to be displayed is selected by the operator, the corrected color image data corresponding to the selection is output to the projector 1.
  • the projector 1 projects and displays an image on the screen 3 based on the corrected color image data supplied from the image correction device 2.
  • the image data input to the projector 1, the image data output from the test image capturing camera 4, and the image data processed by the image correction device 2 are all horizontal 1280 It is assumed that the image data is three-channel image data that is 1024 pixels by X pixels and each pixel is composed of three colors of RGB.
  • FIG. 2 is a block diagram showing a configuration of the image correction device 2.
  • the image correction device 2 outputs predetermined test color image data stored in advance to the projector 1, and outputs the photographed color image data related to the test color image data from the test image photographing camera 4 to the projector 1.
  • a flare calculator 13 that acquires (photographed image data) and calculates display characteristic data based on the acquired photographed image data and original test color image data, and stores color image data for display.
  • An image data storage device 11 that also stores corrected color image data obtained by correcting the color image data by a flare correction device 12 described later, and acquires color image data from the image data storage device 11. Then, the image data is corrected using the display characteristic data calculated by the flare calculating device 13, and the corrected color image data (corrected color image data) is used as the image data.
  • the operation is performed as follows.
  • the flare calculation device 13 outputs the test color image data to the projector 1 and displays the test color image on the screen 3.
  • the flare calculating device 13 controls the test image capturing camera 4 to capture a display image on the screen 3.
  • the flare calculating device 13 obtains the captured color image data by transferring it, and based on the obtained color image data and the original test color image data.
  • display characteristic data is calculated and stored.
  • the process in which the flare calculating device 13 calculates the display characteristic data M, M will be described later in more detail with reference to FIG.
  • the flare correction device 12 reads out the color image data stored in the image data storage device 11, and outputs the two types of display characteristic data M or M from the flare calculation device 13 according to the flare correction method. ', And perform flare correction based on the read display characteristic data to calculate corrected color image data.
  • the color image data corresponds to the input image data P in the description of the principle
  • the corrected color image data corresponds to the corrected input image data P ′ in the description of the principle.
  • the color image data and the corrected color image data each represent pixel RGB3 channel image data, so "P" and “P '” represent RGB3 channel data, respectively.
  • the flare correction device 12 includes first to fourth correction modules as described below, and displays the display characteristic data M or M, input from the flare calculation device 13, The first to fourth correction modules are used to calculate corrected color image data.
  • the first correction module inputs the display characteristic data M, and calculates the correction force color image data P ′ using Expression 5.
  • the bias O is calculated by projecting a test color image from the projector 1 onto the screen 3 so that all components become 0, and shooting the image on the screen 3 using the test image shooting camera 4 described above. It is measured in advance and stored in the flare correction device 12.
  • the second correction module receives the display characteristic data M, and performs an operation such as deconvolution based on Expression 7 to calculate corrected color image data P ′.
  • the third correction module is a flare calculating means, which inputs the display characteristic data M and calculates the corrected color image data P 'using Expression 14. It should be noted that the constant K can be arbitrarily set by the operator of the image correction device 2.
  • the fourth correction module is a flare calculating means, which inputs the display characteristic data M, and calculates the corrected color image data P ′ by using Expression 17. Also in this case, the number of terms in Equation 16 in Equation 17 (the number of terms corresponds to the above constant K) is set so that the operator of the image correction apparatus 2 can arbitrarily set the number of terms. Has become.
  • the corrected color image data calculated by the flare correction device 12 is output from the flare correction device 12 to the image data storage device 11 and stored by the image data storage device 11.
  • the operator operates the image correction device 2 to select desired corrected color image data stored in the image correction device 2. Then, the corrected color image data corresponding to the selection is read from the image data storage device 11 and output to the projector 1.
  • the projector 1 projects an image based on the input corrected color image data onto the screen 3 so that the color image displayed on the screen 3 can be observed in a state where the influence of optical flare is reduced. It becomes possible.
  • FIG. 3 is a block diagram showing a configuration of the flare calculating device 13.
  • the flare calculating device 13 stores test color image data and geometric correction pattern image data as described later, and the projector 1 and a photographed image input device 22 and a correction device to be described later as necessary.
  • the test image output device 21 for outputting to the data calculating device 23 and the color image data photographed by controlling the test image photographing camera 4 are inputted from the test image photographing camera 4, and the geometric correction pattern image is inputted.
  • the test image output device 21 outputs test color image data for measuring display characteristics to the projector 1 and transmits a signal to the effect that the test color image data has been output to the photographed image input device 22.
  • the test image output device 21 also outputs information on the test color image data output to the projector 1 to the correction data calculation device 23.
  • the photographed image input device 22 When the photographed image input device 22 receives the above signal from the test image output device 21, the photographed image input device 22 controls the test image photographing camera 4 to project the test color image projected on the screen 3 from the projector 1. To shoot. The color image captured by the test image capturing camera 4 is transferred to the captured image input device 22 as captured image data. The captured image input device 22 outputs the acquired captured image data to the correction data calculation device 23.
  • the correction data calculation device 23 calculates display characteristic data based on the information on the original test color image data input from the test image output device 21 and the captured image data input from the captured image input device 22. Is performed.
  • the correction data calculation device 23 is configured to include two types of display characteristic data calculation modules corresponding to the two types of display characteristic data M, M, and the first display characteristic data
  • the calculation module calculates the display characteristic data M
  • the second display characteristic data calculation module calculates the display characteristic data M. At this time, it is configured that the operator of the image correction device 2 can select which display characteristic data calculation module to use.
  • FIG. 4 is a diagram showing geometric correction pattern image data output by the test image output device 21, and
  • FIG. 5 is a diagram showing text data in which coordinate information of the center position of the cross pattern is recorded. .
  • the test image output device 21 first outputs, for example, geometric correction pattern image data as shown in FIG. 4 to the projector 1 before outputting the test color image data.
  • the geometric correction pattern image data output by the test image output device 21 has, as shown in FIG. 4, black cross patterns arranged at equal intervals in a vertical direction 4 ⁇ a horizontal direction 5 on a white background. Image data.
  • the coordinate information (geometric correction pattern data) of the center position of each cross pattern is output from the test image output device 21 to the photographed image input device 22 as text data in a format as shown in FIG. Become.
  • the center position of the cross pattern located at the upper left is coordinate 1
  • the center position of the cross pattern located on the right is coordinate 2
  • the pixel position up to the center position of the cross pattern at the coordinate 20 is described.
  • the coordinate system at this time is, for example, a coordinate system that represents the coordinates of each pixel, with the pixel at the upper left corner being coordinates (0, 0) and the pixel at the lower right corner being coordinates (1279, 1023). ing.
  • the captured image input device 22 performs the test color image data generation based on the coordinate information and the captured image data of the geometric correction pattern image acquired from the test image power camera 4.
  • a coordinate conversion table that gives a correspondence between the spatial coordinates of the image and the spatial coordinates of the image captured by the test image capturing camera 4 is created.
  • test image output device 21 When the creation of the coordinate conversion table for the geometric correction is completed, the test image output device 21 next outputs the test color image data to the projector 1.
  • FIG. 6 is a diagram showing a state of a divided region in the test color image data output by the test image output device 21, and
  • FIG. 7 is a diagram showing text data in which coordinate information of the divided region is recorded. It is.
  • this test color image data is obtained by dividing the entire area of 1280 pixels x 1024 pixels equally into 4 x 5 pixels (area of 256 pixels x 256 pixels). However, the image data is such that only one of the RGB colors is displayed at a maximum luminance in only one area. Then, for each of the divided areas, 60 types of test color image data are prepared and sequentially displayed in order to display three colors of RGB, respectively.
  • the reason for dividing into a total of 20 areas in this way is that, when processing is performed for each pixel, three colors of R, G, and B are sequentially emitted in time series in pixel units. Data This is because the time required to acquire the image becomes too long, and if the light is emitted in units of one pixel, the amount of light is insufficient even if the effect of the flare is detected at other pixel positions, and the maximum of each pixel This is because there may be a lack of data stability such as uneven brightness. In this manner, by performing processing in units of blocks, it becomes possible to perform processing in a short time based on stable data having a sufficient light quantity.
  • the coordinate information (pattern data) of the test color image data area is output from the test image output device 21 to the correction data calculation device 23 as text data in a format as shown in FIG. Te ru.
  • the same coordinate system as that used in FIG. 5 is used, and the area located at the upper left corner is pattern 1, and the area located on the right is pattern 2
  • the pixel positions up to the area of the pattern 20 located at the lower right corner are described.
  • the correction data calculation device 23 uses the coordinate information and the captured image data of the test color image acquired from the test image capturing camera 4 to display the display characteristic data M, Or display characteristic data ⁇ 'is calculated!
  • FIG. 8 is a block diagram showing the configuration of the captured image input device 22.
  • the photographed image input device 22 includes a camera control device 31 that controls the test image photographing camera 4 to perform photographing based on a signal from the test image output device 21; Image storage device 32 for inputting and storing image data captured by the camera, a captured image relating to the geometric correction pattern image stored in the captured image storage device 32, and the geometric correction pattern from the test image output device 21.
  • a geometric correction data calculating device 33 that calculates a geometric correction table based on coordinate information corresponding to an image, and is stored in the photographed image storage device 32 based on the geometric correction table calculated by the geometric correction data calculating device 33.
  • Geometric correction of the image data related to the And a geometric correction device 34 for outputting to the correction data calculation device 23.
  • the camera control device 31 issues a command for controlling the test image photographing camera 4 to perform photographing. Output to image capture camera 4.
  • the captured image storage device 32 inputs and stores the image data transmitted from the test image capturing camera 4.
  • the photographed image storage device 32 transmits the photographed image data to the geometric correction data calculation device 33 when the photographed image data is related to the geometric correction pattern image, and the test image data when the photographed image data is related to the test color image data. Then, the photographed image data is output to the geometric correction device 34 respectively.
  • the geometric correction data calculation device 33 inputs a captured image relating to the geometric correction pattern image from the captured image storage device 32, and inputs coordinate information corresponding to the geometric correction pattern image from the test image output device 21. A process for calculating a geometric correction table is performed.
  • the geometric correction table is table data for converting the coordinates of the image data input from the test image capturing camera 4 into the coordinates of the image data output from the test image output device 21, Specifically, it is calculated as follows.
  • a cross pattern is detected from a photographed image related to a geometric correction pattern image input from the photographed image storage device 32, and the center coordinates thereof are obtained.
  • a geometric correction table is calculated based on the correspondence between the center coordinates of the obtained 20 sets of cross-shaped patterns and the coordinates corresponding to the geometric correction pattern image input from the test image output device 21.
  • the geometric correction table calculated by the geometric correction data calculation device 33 in this way is output to the geometric correction device.
  • the geometric correction device 34 receives the geometric correction table calculated in advance from the geometric correction data calculation device 33 as described above, and outputs the test color from the captured image storage device 32 to the test color storage device 32.
  • the captured image related to the image data is input, the coordinate conversion of the captured image related to the test color image data is performed with reference to the geometric correction table, and the converted image data is output to the correction data calculating device 23.
  • the correction data calculation device 23 calculates the coordinate information of the test image input from the test image output device 21 and the captured image of the test color image after geometric correction input from the captured image input device 22, At least one of the display characteristic data M and the display characteristic data M 'is calculated and output to the correction data storage device 24.
  • FIG. 9 is a diagram illustrating a state of a sample region set for a captured image related to a test color image
  • FIG. 10 is a diagram illustrating a state of a light emitting region and a sample region other than the light emitting region.
  • the correction data calculation device 23 acquires a signal value in a predetermined sample area from a captured image of a test color image after geometric correction in order to obtain display characteristic data.
  • This sample area is set, for example, as shown in FIG. That is, the sample area is set as an area of 9 pixels ⁇ 9 pixels, and this sample area is positioned at each central coordinate portion in the light emission area of the 20 test images shown in FIG.
  • the sample areas are arranged at equal intervals of 4 ⁇ 5 horizontally to form sample areas S1—S20.
  • the sample area other than the light emitting area of the test color image (in the example shown in FIG. 10, since the upper left corner is the light emitting area, the sample areas S2—S20) Calculate the signal value, calculate the sum of the signal values of each pixel in each sample area (or the sum of the signal values of 81 pixels if the sample area is 9 pixels x 9 pixels), and calculate the average value And these are used as flare signals for the center coordinates of each sample area. In this way, the flare signal distribution for only the center coordinates of the 19 sample regions other than the light-emitting region is first obtained.
  • the reason why the average value is obtained by adding data of a plurality of pixels in this way is that the amount of light due to the influence of flare is not so large, and that the data is averaged to improve reliability. Such processing is possible because it can be assumed that the flare has no high-frequency components. Then, by performing the processing based on the signal value of only the sample area, the processing time can be reduced. [0113] Thereafter, by performing interpolation processing based on these 19 flare signals, flare signals at all other pixel positions are obtained. At this time, as in the example shown in FIG. 10, when the light-emitting area is at the four corners of the image, the flare signal power of the neighboring pixel position is also calculated to obtain the flare signal.
  • the flare signals of all pixels are obtained for one test color image, and such processing is performed for all of the 20 test color images as shown in FIG. Note that, here, since a 3-channel RGB color image is taken as an example, the above-described processing is performed on a total of 60 test color images.
  • the flare signal distribution obtained for 20 channels per channel is obtained when only the center pixel of the 20 light emitting regions emits light as shown in FIG. ) Is considered as the flare signal distribution. Since the actual light emission is performed by the light emission of the entire light emitting area consisting of 256 pixels ⁇ 256 pixels, the light is divided by 65536 to be converted into a flare signal distribution per one light emitting pixel.
  • the flare signal distributions corresponding to other light emitting pixel positions are calculated by performing an interpolation process using the flare signal distributions corresponding to neighboring light emitting pixel positions.
  • 1310720 flare signal distributions including the flare signals of 1310720 pixels are created so as to correspond one-to-one to the light emission positions of the 1310720 pixels, and a matrix of 1310720 rows and 1310720 columns is generated. It becomes the display characteristic data M represented by the equation. Such display characteristic data is generated for each of the three channels as described above.
  • j in each element m of the determinant corresponds to the coordinates of the light emitting pixel
  • i corresponds to the coordinates of the pixel for obtaining the flare signal.
  • the display characteristic data M calculated by the second display characteristic data calculation module of the correction data calculation device 23 and used in the second correction module or the fourth correction module of the flare correction device 12, is And 20 flare distributions corresponding to the 20 light-emitting areas were respectively moved so that the center coordinates of the light-emitting area become the center coordinates of the image. Later, it is calculated by calculating the average value of these 20.
  • the flare correction device 12 corrects the color image data as described above using the display characteristic data M or M, calculated in this way, and sends the corrected color image data to the image data storage device 11. Output.
  • gradation correction is performed on the obtained corrected color image data in consideration of the gradation characteristics of the projector. Since this is a related known technique, its description is omitted here.
  • a projector is described as an example of a color display device.
  • the present invention is not limited to this, and may be applied to any image display device such as a CRT and a liquid crystal panel. Can be applied.
  • test image capturing camera composed of an RGB digital camera was used in the above description. It is also possible to use a camera or a multi-band camera with four or more bands. Alternatively, when the number of measurement samples is relatively small, as in the example shown in FIG. 9, instead of a camera, a spectroradiometer, luminance meter, and color A measuring device such as a meter for performing spot measurement can also be used. In this case, it can be expected that the accuracy of the measurement can be improved.
  • the image data projected by the projector and the image data acquired by the test image photographing camera are all 1280 horizontal pixels by 1024 vertical pixels.
  • the number of pixels to be displayed and the number of pixels to be imaged may be different.
  • any combination of the number of pixels to be displayed and the number of pixels to be imaged can be used.
  • the display characteristic data is calculated according to the size of the corrected color image data.
  • the number of cross patterns in the geometric correction pattern, the number of light-emitting areas in the test color image, and the number of sample areas for flare signal measurement were all 20 in the above example, but are not limited thereto. Can be independently set to any number. In addition, the configuration may be such that the operator of the image correction apparatus can set as desired in consideration of measurement accuracy, measurement time, and the like. [0125] In the above description, the image data is stored after being subjected to the flare correction in advance, and when projecting the image data on the screen, a sufficient processing speed that uses the already corrected image data is secured. If possible, the image data input from the video source card may be displayed with flare correction in real time!
  • a display system that performs processing in hardware has been described as an example.
  • the present invention is not limited to this, and a display device such as a monitor or a computer to which a measuring device such as a digital camera is connected may be used for display.
  • An equivalent function may be realized by executing a program, or a display method applied to a system having such a configuration may be used.
  • the display chromaticity at an arbitrary pixel position and the other pixel positions can be satisfactorily reduced by the influence of light, and a color image having high color reproducibility can be obtained. Can be realized.
  • test color image measuring means for measuring the spatial distribution of the display colors corresponding to the test color image data makes it possible to accurately and simply measure the display characteristics of the color image display device. Thus, it is possible to cope with a temporal change of the color image display device.
  • test color image measuring means by using a color camera such as a digital camera as the test color image measuring means, it is possible to more easily acquire the spatial distribution of display colors.
  • test color image measuring means when a luminance meter, a colorimeter, a spectral radiation luminance meter, or the like is used as the test color image measuring means, it is possible to more accurately measure the display characteristics.
  • a monochrome camera as the test color image measuring means, a low-cost device configuration can be achieved.
  • a multi-band camera as the test color image measuring means, display characteristics can be obtained with high accuracy, and spatial measurement can also be performed with high accuracy.
  • the display characteristic data of the color image display device is calculated and used, whereby the model of the flare is obtained. It is possible to perform accurate flare correction based on
  • the flare distribution data is calculated by the flare calculation means, and the calculated flare distribution data is calculated. Since the corrected color image data is calculated based on the data, it is possible to easily calculate the corrected image data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Of Color Television Signals (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 本発明の表示システムは、カラー画像を表示するためのカラー画像表示装置と、カラー画像データを補正することにより、上記カラー画像表示装置へ出力するための補正カラー画像データを生成する画像補正装置と、を具備し、上記画像補正装置は、上記カラー画像表示装置へ出力する複数のテストカラー画像データと、これら複数のテストカラー画像データに各対応して該カラー画像表示装置に表示されるテストカラー画像の表示色の空間分布と、の関係に基づいて、上記カラー画像データから、上記カラー画像表示装置の光学的フレアを補正する補正カラー画像データを算出するものである。

Description

明 細 書
表示システム
技術分野
[0001] 本発明は、光学的フレアの影響を補正して画像の表示を行う表示システムに関す る。
背景技術
[0002] 近年、電子商取引や電子美術館'博物館などの実現を目的として、被写体の画像 をディスプレイ上に正確な色で再現する技術の研究が活発に行われている。
[0003] これらの研究は、画像入力装置や画像表示装置の色特性を測定して、これらの装 置の色特性情報に基づ 、て色信号の補正を行うものとなって 、る。ここで用いられる 装置の色特性情報のフォーマットを標準化することは、色再現システムを普及させる 上で重要であり、 International Color Consortium (ICC)では装置の色特性情報をデ ノイスプロファイルとして規定して 、る(http:〃 www.color.org)。
[0004] 上述したような ICCのデバイスプロファイルや現行のカラー画像システムでは、カラ 一画像機器または画像データに対して、画像の空間座標には依存しな 、情報として 色特性を規定し、この色特性情報に基づ 、て色再現を行って 、る。
[0005] 上述したような ICCのデバイスプロファイルや現行のカラー画像システムでは、表示 装置における光学的なフレアのような、画像内のある位置の色が他の位置の色に及 ぼす影響にっ 、てまでを考慮することができるものとはなって ヽな 、。そのために、 光学的なフレアの影響が生じるような表示装置では、十分に正確な色再現を行うこと ができない場合があった。
発明の開示
課題を解決するための手段
[0006] 本発明は上記事情に鑑みてなされたものであり、光学的フレアの影響を低減して意 図した通りの色再現を行 、得る表示システムを提供することを目的として!/、る。
[0007] 本発明の表示システムは、カラー画像を表示するためのカラー画像表示装置と、力 ラー画像データを補正することにより、上記カラー画像表示装置へ出力するための補 正カラー画像データを生成する画像補正装置と、を具備し、上記画像補正装置は、 上記カラー画像表示装置へ出力する複数のテストカラー画像データと、これら複数の テストカラー画像データに各対応して該カラー画像表示装置に表示されるテストカラ 一画像の表示色の空間分布と、の関係に基づいて、上記カラー画像データから、上 記カラー画像表示装置の光学的フレアを補正する補正カラー画像データを算出する ものである。
図面の簡単な説明
[0008] [図 1]本発明の一実施形態である表示システムの構成の概要を示す図。
[図 2]上記実施形態における画像補正装置の構成を示すブロック図。
[図 3]上記実施形態におけるフレア算出装置の構成を示すブロック図。
[図 4]上記実施形態において、テスト画像出力装置が出力する幾何補正パターン画 像データを示す図。
[図 5]上記実施形態において、十字パターンの中心位置の座標情報が記録されたテ キストデータを示す図。
[図 6]上記実施形態において、テスト画像出力装置が出力するテストカラー画像デー タにおける分割される領域の様子を示す図。
[図 7]上記実施形態にお ヽて、分割された領域の座標情報が記録されたテキストデ ータを示す図。
[図 8]上記実施形態における撮影画像入力装置の構成を示すブロック図。
[図 9]上記実施形態において、テストカラー画像に係る撮影画像に対して設定される サンプル領域の様子を示す図。
[図 10]上記実施形態において、発光領域と発光領域以外のサンプル領域との様子 を示す図。
発明を実施するための最良の形態
[0009] まず、本発明の実施形態を具体的に説明する前に、本発明に用いられる原理につ いて詳細に説明する。この原理は、入力画像データが、表示装置の光学的フレア( 以下では適宜、単にフレアと述べる。)などの影響を受けて異なる表示画像データと なる場合にぉ ヽて、どのような補正入力画像データを入力すれば本来の入力画像デ ータと同一の表示画像データが得られるかを求めるものである。
[0010] [原理]
表示装置へ入力される画素数 Nの入力画像データを (p , p , · ··, p とする。ここ
1 2 N
に、右肩の添え字 tは転置を表している。また、この入力画像データに対して、実際に 表示される画像の光分布を画素数 Nの画像データとして離散化して表した表示画像 データを (g , g , · ··, g この
1 2 N とする。なお、 表示画像データは、例えば、デジタル力 メラにより表示装置に表示されている画像を撮影することにより、取得することができ る。この表示画像データは、表示装置のフレア等の影響を受けるために、一般には 入力画像データと一致せず、他の画素位置の信号により表示される光の一部が重畳 されたものとなる。さらに、表示装置への入力画像信号が 0である場合にも、表示画 像データは一般には 0にはならない。このときの表示画像データをバイアス(o , o ,
1 2
· · · , o
N とする。これらの影響を考慮して、入力画像データと表示画像データとの関 係をモデルィ匕したものが数式 1である。
[0011] [数 1]
Figure imgf000005_0001
この数式 1の行列式における各要素の文字に対応する大文字を用いて、該数式 1 を簡単に表記したものが次の数式 2である。
[0012] [数 2]
G =MP+0
なお、この数式 2を含む以下の数式等においては、行列やベクトルを肉太文字で表 しているが、表記上の点から、文章中では通常の太さの文字で代用することにする。
[0013] 上記数式 1あるいは数式 2は、ある画素位置 n (n= l— N)の表示光力 該画素位 置 nの周囲の他の画素位置に広がって、該他の画素位置の表示光に加算される現 象を、全ての画素位置 nについてモデル化したものである。ここで、数式 2に示したよ うな行列 M (数式 1においては、要素 1^(1= 1一 N, = 1— でなる行列)を、表示 装置の表示特性と呼ぶ。
[0014] 上記表示画像データ Gは、本来は、上記入力画像データ Pと一致することが望まし いが、上述したように、表示画像はフレア等の影響を受けるために、一般には、入力 画像データと表示画像データとは異なる。
[0015] そこで、入力画像データを補正し、補正した入力画像データを用いて取得した表示 画像データが、本来の入力画像データと一致するか、もしくは近似するように、該補 正した入力画像データを算出することを考える。この補正入力画像データを P'とする と、該補正入力画像データ P'に対応する表示画像データである補正表示画像デー タ G'は、次の数式 3に示すようになる。
[0016] [数 3]
G =MP +0
この数式 3に示した補正表示画像データ G'が、本来の入力画像データ Pと一致す る条件式は、次の数式 4に示すようになる。
[0017] [数 4]
G* = P
この数式 4を満たすためには、上記数式 3を用いることにより、次の数式 5に示すよう な補正入力画像データ P'を用いれば良 、。
[0018] [数 5]
P' = M ^[P-O]
ここに、表示特性 Mは既知であるとする。
[0019] この数式 5に示すような表示特性 Mは、上述したように N X Nの行列であり、例えば
1280 X 1024の画素でなる表示装置の場合には、 N= 1280 X 1024= 1310720と なるために、一般にデータサイズは非常に大きくなるといえる。
[0020] これに対して、表示特性 Mが特別な特性をもつ場合には、演算をより簡単に行うこ とができる可能性がある。例えば、表示装置におけるフレア等による光の広がり方が、 画素位置にほぼ依存せず、同じ分布で近似することができる場合を考える。このとき の表示特性を M,(m, , m, , · · ·, m, )とすると、上記数式 1または数式 2は、この表
1 2 N
示特性 M'と入力画像データ Pとのコンボリューシヨンを用いて、次の数式 6に示すよう に表される。
[0021] [数 6]
G =M'*P +0 ここに、記号「 *」はコンボリューシヨン演算を表して 、る。
[0022] この数式 6における入力画像データ Pを補正入力画像データ P'とし、さらに上記数 式 4に示した条件を用いることにより、次の数式 7が得られる。
[0023] [数 7]
P = M *P +0
表示特性 M'が既知である場合には、この数式 7から補正入力画像データ P'を算 出することが可能である。すなわち、 2つの画像のコンボリューシヨン画像 (ここでは P O)から、一方の画像 (ここでは Μ' )が既知である場合に、他方の画像 (ここでは Ρ' ) を算出するデコンボリューシヨンに関する技術は公知である。例えば、文献 1 ( Rosenfeld and A.し. KaK, Digital Picture Processing, Academic Press 197D (^: 真 監訳 ディジタル画像処理 近代科学社 1978) )の第 7章に記載されているよう な手法を用いることができる。
[0024] 上記数式 5に示したような補正方法は、要素数の多い行列 Mの逆行列の演算が含 まれ、また、上記数式 7や文献 1に記載されたような補正方法は、コンボリューシヨンの 逆演算などが含まれるために、演算が複雑であり、処理系の負荷が大きくなつたり処 理時間を要したりすることが考えられる。
[0025] これに対して、より簡便な補正方法として、フレア量を入力画像データ力も差し引く ことで補正入力画像データを算出することを考える。今、表示画像データ Gが、数式 8に示すような入力画像データ Pとバイアス Oとフレア等の影響により生じるフレア分 布データであるフレア成分 Fとの和により表されるものとしてモデルィ匕する。
[0026] [数 8]
G =P+0+F この数式 8におけるフレア成分 Fは、さらに数式 2を用いることにより、次の数式 9に 示すように表される。
[0027] [数 9]
F = G -P-0 = MP-P = (M-E)P
ここに、 Eは N X Nの単位行列を表している。
[0028] この数式 9で与えられる Fを用いて、 P— F— M— i〇を補正入力画像データ P'として入 力した場合に、補正表示画像データ G'は、数式 3から、
[数 10]
G =MP +0 = M(P-F-M I0)+0 = M{P-(M-E)Pl
= 2MP -M2P = P - (M - E)2P
となる。
[0029] ここで、 Mの非対角成分が 1よりも小さい場合、補正表示画像データ G,のフレア補 正誤差である数式 10の第 2項の (M— E) 2Pは、補正前の表示画像データ Gのフレ ァによる影響である数式 9の(M— E) Pよりも小さい値となり、フレアの影響が改善され ることが分力ゝる。
[0030] さらにこの結果を考慮して、次の数式 11により与えられる F
[数 11]
F = (M -E)P-(M-E)2P
を用いて P— F— M— i〇を補正入力画像データ P,として入力した場合、補正表示画像 データ G'は、数式 3から、次の数式 12に示すようになる。
[0031] [数 12]
G ' = P + {M-E)3P
この数式 12の第 2項の(M— E) 3Pは、フレア補正誤差であり、次数が 3次となってい て、より一層フレアの影響が小さくなつていることが分かる。
[0032] これを、同様にして K次の項まで行った場合のフレア Fは、次の数式 13に示すよう に与えられる。 [0033] [数 13]
Figure imgf000009_0001
従って、この数式 13に示すようなフレア Fを補正するための補正入力画像データ P' は、次の数式 14に示すようになる。
[0034] [数 14]
P' = P - M-'O - (- l)*+1(M-E)fcP
k=l この数式 14における Kを大きな値にするほど、フレアの影響をより小さく抑制する補 正を行うことができる。あるいは、計算量や計算時間などを考慮して Κを適宜の値とす ることにより、処理系の負荷を抑制しながらフレアを良好に取り除く補正を行うことがで きる。
[0035] このような方法によるフレア補正に対しても、フレア等による光の広がり方が画素位 置に依存することなく同じ分布であると近似できる場合には、数式 9の Fはコンボリュ ーシヨンを用いて、次の数式 15に示すように置き換えることができる。
[0036] [数 15]
F = M'*P-P 同様に数式 13は、
[数 16]
F = (M'— Ε')*Ρ— (Μ'— Ε')*(Μ'— Ε')*Ρ + (Μ'—Ε')*(Μ'— Ε')*(Μ'— E')*P— '·■ と置き換えることができる。ここに、 E'は、画像の中心位置に対応する成分が 1、それ 以外の成分が 0となる列ベクトルである。
[0037] 従って、数式 14に対応する補正入力画像データ P'は、次の数式 17に示すように なる。
[0038] [数 17] P' = P— 0— (Μ'-Ε')*Ρ + (Μ'— Ε')*(Μ '— E')*P
-(Μ,-Ε')*(Μ'-Ε,)*(Μ*-Ε,)*Ρ+· ··
に、
O は、 Οを Μ,でデコンボリューシヨンしたものである。
[0039] ここまでの説明は、画像データを 1チャンネルのデータとして扱ったものであつたが 、画像がカラー画像である場合は、画像データは一般に 3チャンネルのデータとして 扱われる。従って、この場合には、 RGB各チャンネル毎に上述したような表示特性 Μ または表示特性 M'を算出して、算出された表示特性に基づきフレア補正を行うこと になる。
[0040] さらに、カラー画像が 4原色以上の原色数の画像データとして表される場合にも、 同様に、各チャンネルの画像に対して上述したようなフレア補正処理を行うことにより 、カラー画像として本来意図した表示を達成することが可能となる。
[0041] また、表示装置やデジタルカメラ等のカラー画像機器の信号値は、対応する輝度と 非線形な関係にある場合がある。このような場合には、各信号の非線形性を補正して 力 上述したような処理を行う必要がある力 こうした階調特性の補正は公知の技術 であるために、ここでは説明を省略している。すなわち、上述した説明は、信号の非 線形性を補正した後の、リニアな空間における原理を説明したものとなっている。
[0042] 以下、図面を参照して本発明の実施形態を説明する。
[0043] <実施形態 >
図 1から図 10は本発明の実施形態を示したものであり、図 1は表示システムの構成 の概要を示す図である。
[0044] この表示システムは、画像を投影するためのカラー画像表示装置たるプロジェクタ 1 と、このプロジェクタ 1により投影される補正画像を生成するための画像補正装置 2と 、上記プロジェクタ 1から画像が投影されるカラー画像表示装置たるスクリーン 3と、こ のスクリーン 3に表示される画像の全領域を撮影し得るように配置された例えばデジ タルカメラ等でなるテストカラー画像測定手段でありカラーカメラたるテスト画像撮影 カメラ 4と、を有して構成されている。
[0045] 上記テスト画像撮影カメラ 4は、広い意味での画像補正装置に含まれるものであり、 撮影レンズの光学的特性に起因する画像の面内ムラや、あるいは撮像素子の面内 感度ムラに起因する画像の面内ムラなどを補正することができる回路等を備えていて 、出力する例えば RGBのデジタル画像データは、これらの補正が行われたものであ るとする。さらに、このテスト画像撮影カメラ 4は、入力光強度に対して線形な応答で 信号を出力するものとする。
[0046] 次に、このような表示システムの動作について説明する。
[0047] まず、表示システムにお 、て、光学的フレアを補正するのに必要な表示特性データ を取得するときの動作は、以下のようになつている。
[0048] 画像補正装置 2は、予め内部に記憶している所定のテストカラー画像データをプロ ジェクタ 1へ出力する。
[0049] プロジェクタ 1は、該画像補正装置 2から供給されたテストカラー画像データを、スク リーン 3に投影する。
[0050] 画像補正装置 2は、このスクリーン 3に表示されている上記テストカラー画像データ に対応した表示色分布の画像を、テスト画像撮影カメラ 4を制御することにより撮影さ せて転送させ、取り込む。
[0051] そして、該画像補正装置 2は、テスト画像撮影カメラ 4から取得したカラー画像デー タと、上記プロジェクタ 1へ供給した元のテストカラー画像データと、を用いて、カラー 画像データを補正するために用いる表示特性データを算出する。
[0052] 次に、表示特性データ取得後の表示システムにより、通常の画像を投影するときの 動作は、以下のようになつている。なお、この通常の画像を投影するときには、上記テ スト画像撮影カメラ 4は不要であるために、例えば取り外されている。
[0053] また、画像補正装置 2の内部には、輝度に対して線形となるように変換されたカラー 画像データが、予め記憶されているものとする。
[0054] 画像補正装置 2は、予め内部に記憶しているカラー画像データを、上述したように 算出した表示特性データを用いて補正してから、補正カラー画像データとして内部
Figure imgf000011_0001
[0055] その後に、操作者により表示するカラー画像データが選択されたときに、該選択に 対応する補正カラー画像データをプロジェクタ 1へ出力する。
[0056] プロジェクタ 1は、画像補正装置 2から供給された補正カラー画像データに基づい て、スクリーン 3へ画像を投影して表示する。
[0057] これにより、スクリーン 3には、フレア等の影響を補正し得るような画像が表示され、 観察者は、画像の表示者が本来意図した画像を観察することが可能となる。
[0058] なお、本実施形態では、プロジェクタ 1へ入力される画像データと、テスト画像撮影 カメラ 4から出力される画像データと、画像補正装置 2で処理される画像データとは、 全て、横 1280画素 X縦 1024画素で、かつ各画素が RGBの 3色でなる、 3チャンネ ルの画像データであるとする。
[0059] 次に、図 2は、画像補正装置 2の構成を示すブロック図である。
[0060] この画像補正装置 2は、予め記憶している所定のテストカラー画像データを上記プ ロジェクタ 1へ出力して上記テスト画像撮影カメラ 4から該テストカラー画像データに 係る撮影されたカラー画像データ (撮影画像データ)を取得し、取得した撮影画像デ ータと元のテストカラー画像データとに基づいて表示特性データを算出するフレア算 出装置 13と、表示用のカラー画像データを記憶するものであってこのカラー画像デ ータを後述するフレア補正装置 12により補正して得られる補正カラー画像データも 記憶する画像データ記憶装置 11と、この画像データ記憶装置 11からカラー画像デ ータを取得して上記フレア算出装置 13により算出された表示特性データを用いて補 正し、補正後のカラー画像データ (補正カラー画像データ)を該画像データ記憶装置 11へ再び出力して記憶させるフレア補正装置 12と、を有して構成されて 、る。
[0061] 次に、このような画像補正装置 2の動作について説明する。
[0062] まず、表示特性データを取得するときには、以下のように動作する。
[0063] 上記フレア算出装置 13は、上記テストカラー画像データを上記プロジェクタ 1へ出 力して、テストカラー画像をスクリーン 3上に表示させる。フレア算出装置 13は、これと 同期して、テスト画像撮影カメラ 4を制御することにより、スクリーン 3の表示画像を撮 影させる。そして、フレア算出装置 13は、撮影したカラー画像データを転送させること により取得して、取得したカラー画像データと、元のテストカラー画像データと、に基 づいて、表示特性データを算出し記憶する。ここに、フレア算出装置 13が算出する 表示特性データは、 2種類あり、 1つが上述した数式 1または数式 2で定義される N X Nの行列 M、他の 1つが数式 6に用いられている M,である。ただし、画像データが R GB3チャンネルであることに対応して、各表記は RGB3チャンネル分のデータである ものとする。なお、画像データの画素数は 1280 X 1024= 1310720であるために、 この例では Nは 1310720となる。フレア算出装置 13が表示特性データ M, M,を算 出する処理については、後で図 3を参照してさらに詳細に説明する。
[0064] 続いて、カラー画像データを補正するときには、以下のように動作する。
[0065] フレア補正装置 12は、画像データ記憶装置 11に記憶されているカラー画像データ を読み出すとともに、フレア補正方法に応じて、フレア算出装置 13から上述した 2種 類の表示特性データ Mまたは M'の何れかを入力して、読み出した表示特性データ に基づきフレア補正を行い、補正カラー画像データを算出する。
[0066] なお、本実施形態の説明では、カラー画像データが上記原理の説明における入力 画像データ Pに対応し、補正カラー画像データが該原理の説明における補正入力画 像データ P'に対応している。上述したように、カラー画像データおよび補正カラー画 像データは、各画素が RGB3チャンネルの画像データであるために、「P」と「P'」は、 ぞれぞれ RGB3チャンネルのデータを表すものとする。
[0067] 該フレア補正装置 12は、次に説明するような第 1一第 4の補正モジュールを有して 構成されており、上記フレア算出装置 13から入力した表示特性データ Mまたは M, を、これらの第 1一第 4の補正モジュールにおいて用いて、補正カラー画像データを 算出するようになっている。
[0068] まず、第 1の補正モジュールは、表示特性データ Mを入力して、数式 5により補正力 ラー画像データ P'を算出する。なお、バイアス Oは、全ての成分が 0となるようなテス トカラ一画像をプロジェクタ 1からスクリーン 3に投影して、このスクリーン 3の画像を上 記テスト画像撮影カメラ 4を用いて撮影する等により予め測定されて、フレア補正装置 12内に記憶されて 、るものとする。
[0069] 次に、第 2の補正モジュールは、表示特性データ M,を入力して、数式 7に基づくデ コンボリューシヨン等の演算を行うことにより、補正カラー画像データ P'を算出する。 [0070] さらに、第 3の補正モジュールは、フレア算出手段であって、表示特性データ Mを 入力して、数式 14により補正カラー画像データ P'を算出する。なお、定数 Kは、画像 補正装置 2の操作者が任意に設定することができるようになっている。
[0071] そして、第 4の補正モジュールは、フレア算出手段であって、表示特性データ M,を 入力して、数式 17により補正カラー画像データ P'を算出する。なお、ここでも、数式 1 7における数式 16部分の項数 (この項数は、上記定数 Kに対応している。)は、画像 補正装置 2の操作者が任意に設定することができるようになっている。
[0072] このようにして、フレア補正装置 12により算出された補正カラー画像データは、該フ レア補正装置 12から画像データ記憶装置 11へ出力されて、該画像データ記憶装置 11により記憶される。
[0073] そして、補正カラー画像データを投影して観察するときには、以下のように行う。
[0074] 操作者が、画像補正装置 2を操作することにより、該画像補正装置 2に記憶されて いる所望の補正カラー画像データを選択する。すると、選択に対応した補正カラー画 像データが画像データ記憶装置 11から読み出されてプロジェクタ 1へ出力される。プ ロジェクタ 1が、入力した補正カラー画像データに基づく画像をスクリーン 3へ投影す ることにより、該スクリーン 3上に表示されるカラー画像を光学的フレアの影響が低減 された状態で観察することが可能となる。
[0075] 図 3は、フレア算出装置 13の構成を示すブロック図である。
[0076] このフレア算出装置 13は、テストカラー画像データや後述するような幾何補正パタ ーン画像データを記憶しており必要に応じて上記プロジェクタ 1と後述する撮影画像 入力装置 22と後述する補正データ算出装置 23とへ出力するテスト画像出力装置 21 と、上記テスト画像撮影カメラ 4を制御することにより撮影されたカラー画像データを 該テスト画像撮影カメラ 4から入力するものであり上記幾何補正パターン画像データ に基づいて後述するように幾何補正に必要な座標変換テーブルを算出して該テスト 画像撮影カメラ 4から入力したカラー画像データを幾何補正してから出力する撮影画 像入力装置 22と、上記テスト画像出力装置 21から取得した元のテストカラー画像デ ータと上記撮影画像入力装置 22を介して取得した撮影され幾何補正されたカラー 画像データとに基づき上記表示特性 Mと表示特性 M'とを算出する表示特性算出手 段たる補正データ算出装置 23と、この補正データ算出装置 23により算出された表示 特性 M, M'を記憶し必要に応じて上記フレア補正装置 12へ出力する補正データ記 憶装置 24と、を有して構成されている。
[0077] 次に、このようなフレア算出装置 13の動作について説明する。
[0078] テスト画像出力装置 21は、表示特性測定用のテストカラー画像データをプロジェク タ 1へ出力するとともに、テストカラー画像データを出力した旨の信号を撮影画像入 力装置 22へ送信する。
[0079] また、テスト画像出力装置 21は、プロジェクタ 1へ出力したテストカラー画像データ に関する情報を、補正データ算出装置 23へも出力する。
[0080] 撮影画像入力装置 22は、テスト画像出力装置 21からの上記信号を受けると、テス ト画像撮影カメラ 4を制御することにより、プロジェクタ 1からスクリーン 3に投影されて V、るテストカラー画像を撮影させる。こうしてテスト画像撮影カメラ 4により撮影された力 ラー画像は、撮影画像データとして撮影画像入力装置 22へ転送される。撮影画像 入力装置 22は、取得した撮影画像データを、補正データ算出装置 23へ出力する。
[0081] 補正データ算出装置 23は、テスト画像出力装置 21から入力した元のテストカラー 画像データに関する情報と、撮影画像入力装置 22から入力した撮影画像データと、 に基づいて、表示特性データを算出する処理を行う。
[0082] すなわち、この補正データ算出装置 23は、 2種類の表示特性データ M, M,に応じ た 2種類の表示特性データ算出モジュールを有して構成されていて、第 1の表示特 性データ算出モジュールは表示特性データ Mを算出し、第 2の表示特性データ算出 モジュールは表示特性データ M,を算出するものである。このとき、何れの表示特性 データ算出モジュールを用いるかは、画像補正装置 2の操作者が選択できるように 構成されている。
[0083] 次に、図 4はテスト画像出力装置 21が出力する幾何補正パターン画像データを示 す図、図 5は十字パターンの中心位置の座標情報が記録されたテキストデータを示 す図である。
[0084] テスト画像出力装置 21は、テストカラー画像データを出力するに先立って、まず、 例えば図 4に示すような幾何補正パターン画像データをプロジェクタ 1へ出力する。 [0085] このときにテスト画像出力装置 21が出力する幾何補正パターン画像データは、図 4 に示すように、白色の背景に、黒色の十字パターンが、等間隔で縦 4 X横 5に配列さ れた画像データとなって 、る。
[0086] 各十字パターンの中心位置の座標情報(幾何補正パターンデータ)は、図 5に示す ような形式により、テキストデータとしてテスト画像出力装置 21から撮影画像入力装 置 22へ出力されるようになって 、る。
[0087] この図 5に示す例では、最も左上に位置する十字パターンの中心位置を座標 1、そ の右隣りに位置する十字パターンの中心位置を座標 2、などとして、最も右下に位置 する座標 20の十字パターンの中心位置までの画素位置が記載されている。このとき の座標系は、例えば、最も左上角の画素を座標(0, 0)、最も右下角の画素を座標(1 279, 1023)として、各画素の座標を表すような座標系が採用されている。
[0088] 撮影画像入力装置 22は、後述するように、このような座標情報と、テスト画像撮影力 メラ 4から取得した幾何補正パターン画像の撮影画像データと、に基づいて、テスト力 ラー画像データの空間座標と、テスト画像撮影カメラ 4により撮影される画像の空間 座標と、の対応関係を与える座標変換テーブルを作成する。
[0089] 幾何補正に係る座標変換テーブルの作成が終了すると、テスト画像出力装置 21は 、次に、テストカラー画像データをプロジェクタ 1へ出力する。
[0090] 図 6はテスト画像出力装置 21が出力するテストカラー画像データにおける分割され る領域の様子を示す図、図 7は分割された領域の座標情報が記録されたテキストデ ータを示す図である。
[0091] このテストカラー画像データは、図 6に示すように、 1280画素 X 1024画素でなる全 領域を縦 4 X横 5に均等に分割した領域(256画素 X 256画素の領域)の内の、 1つ の領域のみで RGBの内の何れ力 1色を例えば最大輝度で表示するような画像デー タとなっている。そして、分割された領域の全てに関して、 RGBでなる 3色の表示をそ れぞれ行うために、 60種類のテストカラー画像データが用意されて順次表示されるよ うになつている。
[0092] このように合計 20個の領域に分割した理由は、各画素毎に処理を行う場合には、 R GBの各 3色について 1画素単位で時系列的に順次発光させることになり、データを 取得するのに要する時間が長くなり過ぎてしまうためであり、また、 1画素単位で発光 させると、そのフレアの影響を他の画素位置で検出しょうとしても光量が足りず、また 各画素の最大輝度にムラがあるなどのデータの安定性に欠ける可能性があるからで ある。こうして、ブロック単位で処理を行うことにより、十分な光量の安定したデータに 基づいて、短時間に処理を行うことが可能となる。
[0093] このテストカラー画像データの領域の座標情報 (パターンデータ)は、図 7に示すよ うな形式により、テキストデータとしてテスト画像出力装置 21から補正データ算出装 置 23へ出力されるようになって 、る。
[0094] この図 7に示す例では、上記図 5において用いたのと同様の座標系が用いられてお り、左上角に位置する領域をパターン 1、その右隣りに位置する領域をパターン 2、な どとして、右下角に位置するパターン 20の領域までの画素位置が記載されている。
[0095] より具体的には、 (0, 0, 256, 256)と記載されたパターン 1は、領域内の左上角の 画素位置が(0, 0)で、この画素位置から(256, 256)だけの大きさを有する領域で あることを示して ヽる。従って、 ί列えば、(1024, 768, 256, 256)と記載されたノター ン 20は、領域内の左上角の画素位置が(1024, 768)で、この画素位置から(256, 256)だけの大きさを有する領域となって 、ることが分かる。
[0096] 補正データ算出装置 23は、後述するように、このような座標情報と、テスト画像撮影 カメラ 4から取得したテストカラー画像の撮影画像データと、に基づいて、表示特性デ 一タM、または表示特性データ Μ 'を算出するようになって!/、る。
[0097] 次に、図 8は、撮影画像入力装置 22の構成を示すブロック図である。
[0098] この撮影画像入力装置 22は、テスト画像出力装置 21からの信号に基づいて上記 テスト画像撮影カメラ 4に撮影を行わせるように制御するカメラ制御装置 31と、上記テ スト画像撮影カメラ 4により撮影された画像データを入力して記憶する撮影画像記憶 装置 32と、この撮影画像記憶装置 32に記憶された幾何補正パターン画像に係る撮 影画像と上記テスト画像出力装置 21からの幾何補正パターン画像に対応する座標 情報とに基づいて幾何補正テーブルを算出する幾何補正データ算出装置 33と、こ の幾何補正データ算出装置 33により算出された幾何補正テーブルに基づいて上記 撮影画像記憶装置 32に記憶されたテストカラー画像に係る画像データを幾何補正し 上記補正データ算出装置 23へ出力する幾何補正装置 34と、を有して構成されてい る。
[0099] 続いて、このような撮影画像入力装置 22の動作について説明する。
[0100] カメラ制御装置 31は、上記テスト画像出力装置 21から画像データをプロジェクタ 1 へ出力した旨の信号を入力すると、テスト画像撮影カメラ 4を制御し撮影を行わせる ためのコマンドを、該テスト画像撮影カメラ 4へ出力する。
[0101] 撮影画像記憶装置 32は、テスト画像撮影カメラ 4から伝送された画像データを入力 して記憶する。該撮影画像記憶装置 32は、撮影画像データが幾何補正パターン画 像に係るものである場合には該撮影画像データを幾何補正データ算出装置 33へ、 また、テストカラー画像データに係るものである場合には該撮影画像データを幾何補 正装置 34へ、それぞれ出力する。
[0102] 幾何補正データ算出装置 33は、撮影画像記憶装置 32から幾何補正パターン画像 に係る撮影画像を入力するとともに、テスト画像出力装置 21から幾何補正パターン 画像に対応する座標情報を入力して、幾何補正テーブルを算出する処理を行う。
[0103] この幾何補正テーブルは、テスト画像撮影カメラ 4から入力された画像データの座 標を、テスト画像出力装置 21から出力される画像データの座標へ変換するためのテ 一ブルデータであり、具体的には次のように算出される。
[0104] まず、撮影画像記憶装置 32から入力された幾何補正パターン画像に係る撮影画 像から、十字パターンを検出してその中心座標を求める。次に、得られた 20組の十 字パターンの中心座標と、上記テスト画像出力装置 21から入力した幾何補正パター ン画像に対応する座標と、の対応関係に基づき、幾何補正テーブルを算出する。
[0105] 十字パターンを検出する技術や、 20組のサンプル座標の対応関係カゝら幾何補正 テーブルを算出する技術は、多くの公知のものがあり、これらを適宜利用することが できるが、ここではその詳細については説明を省略する。
[0106] このようにして幾何補正データ算出装置 33により算出された幾何補正テーブルは、 幾何補正装置 34へ出力される。
[0107] 幾何補正装置 34は、幾何補正データ算出装置 33から上述したように予め算出さ れた幾何補正テーブルを入力するとともに、撮影画像記憶装置 32からテストカラー 画像データに係る撮影画像を入力し、該幾何補正テーブルを参照してテストカラー 画像データに係る撮影画像の座標変換を行い、変換後の画像データを補正データ 算出装置 23へ出力する。
[0108] 補正データ算出装置 23は、テスト画像出力装置 21から入力したテスト画像の座標 情報と、撮影画像入力装置 22から入力した幾何補正後のテストカラー画像の撮影画 像と、に基づいて、表示特性データ Mと表示特性データ M'との少なくとも一方を算 出し、補正データ記憶装置 24へ出力する。
[0109] このような補正データ算出装置 23の処理について、図 9および図 10を参照して説 明する。図 9はテストカラー画像に係る撮影画像に対して設定されるサンプル領域の 様子を示す図、図 10は発光領域と発光領域以外のサンプル領域との様子を示す図 である。
[0110] 補正データ算出装置 23は、表示特性データを求めるために、幾何補正後のテスト カラー画像の撮影画像カゝら所定のサンプル領域における信号値の取得を行う。
[0111] このサンプル領域は、例えば図 9に示すように設定されるようになっている。すなわ ち、サンプル領域を 9画素 X 9画素の領域として設定して、このサンプル領域を、上 記図 5に示した 20個のテスト画像の発光領域における各中心座標部分に位置するよ うに、等間隔に縦 4 X横 5で配列して、サンプル領域 S1— S20とする。
[0112] そして、図 10に示すように、テストカラー画像の発光領域以外のサンプル領域(図 1 0に示す例では、左上角が発光領域となっているために、サンプル領域 S2— S20) について信号値を求めて、各サンプル領域内における各画素の信号値の和(サンプ ル領域が 9画素 X 9画素である場合には、 81画素分の信号値の和)をそれぞれ算出 して平均値をとり、これらを各サンプル領域の中心座標に対するフレア信号とする。こ うして、発光領域以外の 19個のサンプル領域の各中心座標のみについてのフレア 信号分布をまず求める。なお、このように複数画素分のデータを加算して平均値をと つているのは、フレアの影響による光量がそれほど大きくないためと、データを平均化 して信頼性を向上するためである。フレアには高周波成分はないと想定することがで きるために、このような処理が可能となっている。そして、サンプル領域のみの信号値 に基づき処理を行うことにより、処理時間を短縮することが可能となる。 [0113] その後、これら 19個のフレア信号に基づいて、補間処理を行うことにより、他の全て の画素位置におけるフレア信号を求める。このとき、図 10に示す例のように、発光領 域が画像の四隅である場合には、近隣画素位置のフレア信号力も外揷を行うことに より、フレア信号を求めることになる。
[0114] こうして、 1つのテストカラー画像に対して全画素のフレア信号を求め、このような処 理を、図 5に示したような 20個のテストカラー画像の全てについて行う。なお、ここで は 3チャンネルの RGBカラー画像を例に挙げているために、合計で 60個のテストカラ 一画像について上述した処理を行うことになる。
[0115] 1つのチャンネル毎に 20個ずつ得られたフレア信号分布は、上記図 6に示したよう な 20個の発光領域の中心画素のみが発光したとき (すなわち、中心画素のみが発光 画素となったとき)のフレア信号分布と見なされる。実際の発光は、 256画素 X 256 画素でなる発光領域全体の発光により行われるために、 65536で除算して 1つの発 光画素当たりのフレア信号分布に変換される。その他の発光画素位置に対応するフ レア信号分布については、近隣の発光画素位置に対応するフレア信号分布を用い て、補間処理を行うことにより算出する。
[0116] こうして、全ての画素が発光位置となったときのフレア信号分布が算出される力 全 領域が上述したように 1280画素 X 1024画素で構成される場合には、全部で 1310 720個のフレア信号分布が算出されることになる。
[0117] こうして、 1310720画素各々のフレア信号を含んで構成されるフレア信号分布が、 1310720画素の発光位置に一対一に対応するように 1310720個作成されて、これ 力 S 1310720行 1310720列の行列式でなる表示特性データ Mとなる。このような表 示特性データは、上述したように、 3つのチャンネルのそれぞれについて生成される 。ここに、表示特性データ Mは、行列式の各要素 mにおける jが発光画素の座標に 対応し、 iがフレア信号を取得する画素の座標に対応して!/、る。
[0118] また、補正データ算出装置 23の第 2の表示特性データ算出モジュールにより算出 され、フレア補正装置 12の第 2の補正モジュールまたは第 4の補正モジュールにお いて用いられる表示特性データ M,は、 20個の発光領域に各対応する 20個のフレア 分布を、発光領域の中心座標が画像の中心座標となるようにそれぞれ座標移動した 後に、これら 20個の平均値を求めることにより算出する。
[0119] フレア補正装置 12は、このようにして算出した表示特性データ Mまたは M,を用い て、上述したようにカラー画像データの補正を行い、補正カラー画像データとして画 像データ記憶装置 11へ出力する。
[0120] なお、通常の画像表示装置と同様に、得られた補正カラー画像データに対して、プ ロジェクタの階調特性を考慮した階調補正を行うが、この階調補正は色再現処理に 関連する公知の技術であるために、ここではその説明を省略する。
[0121] また、本実施形態では、カラー表示装置としてプロジェクタを例に挙げて説明したが 、本発明はこれに限定されるものではなぐ例えば、 CRT,液晶パネル等の任意の画 像表示装置に適用することができる。
[0122] さらに、テストカラー画像データに対応する表示色の空間分布を取得する手段とし て、上述では RGB方式のデジタルカメラで構成されるテスト画像撮影カメラ (カラー力 メラ)を用いたが、モノクロカメラや 4バンド以上のバンド数を有するマルチバンドカメラ を用いることも可能である。あるいは、図 9に示した例のような、測定サンプル数が比 較的少ない場合には、表示色の空間分布を取得する手段として、カメラに代えて、分 光放射輝度計、輝度計、色彩計等のスポット測定を行う測定器を用いることもできる。 この場合には、測定の精度を上げ得ると期待することができる。
[0123] そして、上述では、プロジェクタが投影する画像データやテスト画像撮影カメラによ り取得する画像データ力 全て横 1280画素 X縦 1024画素である場合を例に示した 力 異なる画素数の構成であっても良いのは勿論、表示する画素数と撮像する画素 数とが異なっていても構わない。一般に、表示する画素数と撮像する画素数とは、任 意の組み合わせを用いることが可能である。この場合には、補正カラー画像データの サイズに対応して表示特性データの算出を行うことになる。
[0124] 力!]えて、幾何補正パターンにおける十字パターンの数、テストカラー画像における 発光領域の数、フレア信号測定のためのサンプル領域の数は、上述の例では全て 2 0としたが、これに限らず、夫々を独立に任意の数に設定することができる。また、測 定精度や測定時間等を考慮して、画像補正装置の操作者が所望に設定することが できるように構成しても構わな 、。 [0125] なお、上述では、画像データを予めフレア補正した後に記憶しておき、スクリーンに 投影する際には、すでに補正されている画像データを用いるようにしている力 十分 な処理速度を確保することができる場合には、映像ソースカゝら入力される画像データ をリアルタイムでフレア補正して表示させるようにしても構わな!/、。
[0126] そして、上述では、ハードウェア的に処理を行う表示システムを例に挙げて説明した 力 これに限らず、モニタ等の表示装置やデジタルカメラ等の測定装置が接続された コンピュータにおいて、表示プログラムを実行することにより同等の機能を実現するよ うにしても良いし、こうした構成のシステム等に適用される表示方法であっても構わな い。
[0127] このような実施形態によれば、任意の画素位置の表示色力 それ以外の画素位置 力もの光により受ける影響を良好に低減することができ、高い色再現性をもったカラ 一画像を表示し得る表示システムを実現することが可能となる。
[0128] また、テストカラー画像データに対応する表示色の空間分布を測定するテストカラ 一画像測定手段を備えたために、カラー画像表示装置の表示特性を正確かつ簡便 に測定することが可能となる。そして、これにより、カラー画像表示装置の経時的変化 にも対応することができる。
[0129] 特に、このテストカラー画像測定手段として、デジタルカメラ等のカラーカメラを用い ることにより、より簡便に表示色の空間分布を取得することが可能となる。
[0130] 一方、テストカラー画像測定手段として、輝度計、色彩計、分光放射輝度計などを 用いる場合には、より正確に表示特性を測定することが可能になる。あるいは、テスト カラー画像測定手段としてモノクロカメラを用いることにより、低コストな装置構成とす ることができる。さらには、テストカラー画像測定手段としてマルチバンドカメラを用い ることにより、高精度に表示特性を取得することができるとともに、空間的な測定も高 精度に行うことができる。
[0131] そして、テストカラー画像データと、このテストカラー画像データに対応する表示色 の空間分布と、に基づいて、カラー画像表示装置の表示特性データを算出して用い ることにより、フレアのモデルに基づいた正確なフレア補正を行うことが可能となる。
[0132] さらに、フレア算出手段によりフレア分布データを算出し、算出されたフレア分布デ ータに基づ 、て補正カラー画像データを算出するようにしたために、補正画像データ の算出を簡便に行うことが可能となる。
[0133] また、フレア分布データを表すベクトル Fとして数式 13の表現を用いたために、この 数式 13における定数 Kを適切な値に設定することにより、フレア分布データの計算 負荷と精度とを考慮した最適なフレア補正を行うことが可能となる。同様に、フレア分 布データを表すベクトル Fとして数式 16の表現を用いる場合にも、右辺の項数を適 切な値に設定することにより、計算負荷と精度とを考慮した最適なフレア補正を行うこ とが可能となる。
[0134] こうして、光学的フレアの影響を低減して意図した通りの色再現を行い得る表示シ ステムとなる。
[0135] なお、本発明は上述した実施形態に限定されるものではなぐ発明の主旨を逸脱し な 、範囲内にお 、て種々の変形や応用が可能であることは勿論である。
[0136] 本出願は、 2003年 12月 25日に日本国に出願された特願 2003—431384号を優 先権主張の基礎として出願するものであり、上記の開示内容は、本願明細書、請求 の範囲、図面に引用されたものとする。
産業上の利用可能性
[0137] 以上説明したように本発明によれば、光学的フレアの影響を低減して意図した通り の色再現を行うことが可能となる。

Claims

請求の範囲
[1] カラー画像を表示するためのカラー画像表示装置と、
カラー画像データを補正することにより、上記カラー画像表示装置へ出力するため の補正カラー画像データを生成する画像補正装置と、
を具備し、
上記画像補正装置は、上記カラー画像表示装置へ出力する複数のテストカラー画 像データと、これら複数のテストカラー画像データに各対応して該カラー画像表示装 置に表示されるテストカラー画像の表示色の空間分布と、の関係に基づいて、上記 カラー画像データから、上記カラー画像表示装置の光学的フレアを補正する補正力 ラー画像データを算出するものであることを特徴とする表示システム。
[2] 上記画像補正装置は、上記テストカラー画像データに対応して上記カラー画像表 示装置に表示されるテストカラー画像の表示色の空間分布を測定するためのテスト カラー画像測定手段を有して構成されたものであることを特徴とする請求項 1に記載 の表示システム。
[3] 上記テストカラー画像測定手段は、輝度計、色彩計、分光放射輝度計、モノクロ力 メラ、カラーカメラ、マルチバンドカメラ、の内の少なくとも 1つを含むものであることを 特徴とする請求項 2に記載の表示システム。
[4] 上記画像補正装置は、上記テストカラー画像データと、該テストカラー画像データ に対応して上記カラー画像表示装置に表示されるテストカラー画像の表示色の空間 分布と、に基づいて該カラー画像表示装置の表示特性データを算出する表示特性 算出手段を有して構成され、上記表示特性算出手段により算出した表示特性データ に基づいて、上記補正カラー画像データを算出するものであることを特徴とする請求 項 1から請求項 3の何れか一に記載の表示システム。
[5] 上記画像補正装置は、上記表示特性データに基づいて上記カラー画像データに 係るフレア分布データを算出し、該カラー画像データ力もこのフレア分布データを減 算することにより、上記補正カラー画像データを算出するフレア算出手段をさらに有 して構成されたものであることを特徴とする請求項 4に記載の表示システム。
[6] 複数画素でなるカラー画像データの各画素データを成分とするベクトルを P、この ベクトル Pの成分数を N (Nは自然数)、 N X Nの単位行列を E、上記カラー画像表示 装置の表示特性の N X Nの行列による表現を M、任意の定数を K、とすると、上記フ レア分布データを表すベクトル Fは、次の数式、
F = Y(-Y)k+l (M ~E†P により与えられることを特徴とする請求項 5に記載の表示システム。
[7] コンピュータに、
カラー画像表示装置へ複数のテストカラー画像データを出力して複数のテストカラ 一画像を表示させる第 1の手順、
上記第 1の手順により上記カラー画像表示装置に表示された複数のテストカラー画 像の表示色の空間分布をそれぞれ取得する第 2の手順、
上記複数のテストカラー画像データと、これら複数のテストカラー画像データに各対 応して上記第 2の手順により取得したテストカラー画像の表示色の空間分布と、に基 づいて、カラー画像データから、上記カラー画像表示装置の光学的フレアを補正す る補正カラー画像データを算出する第 3の手順、
上記第 3の手順により算出された補正カラー画像データを上記カラー画像表示装 置へ出力して表示させる第 4の手順、
を実行させるための表示プログラム。
[8] カラー画像表示装置へ複数のテストカラー画像データを出力して複数のテストカラ 一画像を表示させる第 1の手順と、
上記第 1の手順により上記カラー画像表示装置に表示された複数のテストカラー画 像の表示色の空間分布をそれぞれ取得する第 2の手順と、
上記複数のテストカラー画像データと、これら複数のテストカラー画像データに各対 応して上記第 2の手順により取得したテストカラー画像の表示色の空間分布と、に基 づいて、カラー画像データから、上記カラー画像表示装置の光学的フレアを補正す る補正カラー画像データを算出する第 3の手順と、
上記第 3の手順により算出された補正カラー画像データを上記カラー画像表示装 置へ出力して表示させる第 4の手順と、 を含むことを特徴とする表示方法。
PCT/JP2004/019410 2003-12-25 2004-12-24 表示システム WO2005064584A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04807766A EP1699035A4 (en) 2003-12-25 2004-12-24 DISPLAY SYSTEM
US11/472,758 US20060238832A1 (en) 2003-12-25 2006-06-21 Display system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-431384 2003-12-25
JP2003431384A JP2005189542A (ja) 2003-12-25 2003-12-25 表示システム、表示プログラム、表示方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/472,758 Continuation-In-Part US20060238832A1 (en) 2003-12-25 2006-06-21 Display system

Publications (1)

Publication Number Publication Date
WO2005064584A1 true WO2005064584A1 (ja) 2005-07-14

Family

ID=34736429

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/019410 WO2005064584A1 (ja) 2003-12-25 2004-12-24 表示システム

Country Status (4)

Country Link
US (1) US20060238832A1 (ja)
EP (1) EP1699035A4 (ja)
JP (1) JP2005189542A (ja)
WO (1) WO2005064584A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005352437A (ja) * 2004-05-12 2005-12-22 Sharp Corp 液晶表示装置、カラーマネージメント回路、及び表示制御方法
US7362336B2 (en) * 2005-01-12 2008-04-22 Eastman Kodak Company Four color digital cinema system with extended color gamut and copy protection
US20060197775A1 (en) * 2005-03-07 2006-09-07 Michael Neal Virtual monitor system having lab-quality color accuracy
JP4901246B2 (ja) * 2006-03-15 2012-03-21 財団法人21あおもり産業総合支援センター 分光輝度分布推定システムおよび方法
DE102006057190A1 (de) * 2006-12-05 2008-06-12 Carl Zeiss Meditec Ag Verfahren zur Erzeugung hochqualitativer Aufnahmen der vorderen und/oder hinteren Augenabschnitte
JP5173954B2 (ja) * 2009-07-13 2013-04-03 キヤノン株式会社 画像処理装置及び画像処理方法
US8989436B2 (en) * 2010-03-30 2015-03-24 Nikon Corporation Image processing method, computer-readable storage medium, image processing apparatus, and imaging apparatus
US8531474B2 (en) 2011-11-11 2013-09-10 Sharp Laboratories Of America, Inc. Methods, systems and apparatus for jointly calibrating multiple displays in a display ensemble
JP6260428B2 (ja) * 2014-04-18 2018-01-17 富士通株式会社 画像処理装置、画像処理方法、及びプログラム
TWI571844B (zh) * 2014-08-06 2017-02-21 財團法人資訊工業策進會 顯示系統、影像補償方法與其電腦可讀取記錄媒體
WO2019045010A1 (ja) * 2017-08-30 2019-03-07 株式会社オクテック 情報処理装置、情報処理システムおよび情報処理方法
WO2020065792A1 (ja) * 2018-09-26 2020-04-02 Necディスプレイソリューションズ株式会社 映像再生システム、映像再生機器、及び映像再生システムのキャリブレーション方法
CN111416968B (zh) 2019-01-08 2022-01-11 精工爱普生株式会社 投影仪、显示系统、图像校正方法
JP7270025B2 (ja) * 2019-02-19 2023-05-09 富士フイルム株式会社 投影装置とその制御方法及び制御プログラム
TWI720813B (zh) * 2020-02-10 2021-03-01 商之器科技股份有限公司 醫療影像用行動裝置顯示器亮度校正系統與方法
KR20230012909A (ko) * 2021-07-16 2023-01-26 삼성전자주식회사 전자 장치 및 이의 제어 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241791A (ja) * 1999-02-19 2000-09-08 Victor Co Of Japan Ltd プロジェクタ装置
JP2003046810A (ja) * 2001-07-30 2003-02-14 Nec Viewtechnology Ltd 画質改善装置および画質改善方法
JP2003098599A (ja) * 2001-09-25 2003-04-03 Nec Corp フォーカス調整装置およびフォーカス調整方法
WO2003071794A1 (fr) * 2002-02-19 2003-08-28 Olympus Corporation Procede et dispositif de calcul de donnees de correction d'image et systeme de projection
JP2005020314A (ja) * 2003-06-25 2005-01-20 Olympus Corp 表示特性補正データの算出方法、表示特性補正データの算出プログラム、表示特性補正データの算出装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6456339B1 (en) * 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
JP2001054131A (ja) * 1999-05-31 2001-02-23 Olympus Optical Co Ltd カラー画像表示システム
US6522313B1 (en) * 2000-09-13 2003-02-18 Eastman Kodak Company Calibration of softcopy displays for imaging workstations
JP2003283964A (ja) * 2002-03-26 2003-10-03 Olympus Optical Co Ltd 映像表示装置
WO2005124299A1 (ja) * 2004-06-15 2005-12-29 Olympus Corporation 照明ユニット及び撮像装置
US7639849B2 (en) * 2005-05-17 2009-12-29 Barco N.V. Methods, apparatus, and devices for noise reduction
US7404645B2 (en) * 2005-06-20 2008-07-29 Digital Display Innovations, Llc Image and light source modulation for a digital display system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000241791A (ja) * 1999-02-19 2000-09-08 Victor Co Of Japan Ltd プロジェクタ装置
JP2003046810A (ja) * 2001-07-30 2003-02-14 Nec Viewtechnology Ltd 画質改善装置および画質改善方法
JP2003098599A (ja) * 2001-09-25 2003-04-03 Nec Corp フォーカス調整装置およびフォーカス調整方法
WO2003071794A1 (fr) * 2002-02-19 2003-08-28 Olympus Corporation Procede et dispositif de calcul de donnees de correction d'image et systeme de projection
JP2005020314A (ja) * 2003-06-25 2005-01-20 Olympus Corp 表示特性補正データの算出方法、表示特性補正データの算出プログラム、表示特性補正データの算出装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1699035A4 *

Also Published As

Publication number Publication date
EP1699035A4 (en) 2008-12-10
JP2005189542A (ja) 2005-07-14
EP1699035A1 (en) 2006-09-06
US20060238832A1 (en) 2006-10-26

Similar Documents

Publication Publication Date Title
US20060238832A1 (en) Display system
JP4681033B2 (ja) 画像補正データ生成システム、画像データ生成方法及び画像補正回路
JP3766672B2 (ja) 画像補正データ算出方法
KR100648592B1 (ko) 화상 처리 시스템, 프로젝터 및 화상 처리 방법
JP4974586B2 (ja) 顕微鏡用撮像装置
JP2009171008A (ja) 色再現装置および色再現プログラム
JP2016050982A (ja) 輝度補正装置及びこれを備えるシステム並びに輝度補正方法
KR20180061792A (ko) 표시 패널의 보상 데이터 생성 방법 및 장치
CN105185302A (zh) 单色图像间灯点位置偏差修正方法及其应用
KR20170047449A (ko) 표시 장치 및 이의 휘도 보정방법
JP2019149764A (ja) 表示装置用校正装置、表示装置用校正システム、表示装置の校正方法、及び、表示装置
US7477294B2 (en) Method for evaluating and correcting the image data of a camera system
KR20180062571A (ko) 표시 패널의 보상 데이터 생성 방법 및 장치
JP2005189542A5 (ja)
JP2002267574A (ja) カラー表示装置の測色装置、測色方法、画質調整・検査装置、画質調整・検査方法
JP2010139324A (ja) 色ムラ測定方法、および色ムラ測定装置
JP2022066278A (ja) カメラテストシステムおよびカメラテスト方法
JP2021167814A (ja) ディスプレイ装置分析システムおよびそれの色分析方法{analysis system for display device and color analysis method thereof}
KR20080056624A (ko) 디스플레이의 그레이 레벨 대 휘도 곡선을 신속히 생성하는방법 및 장치
JP5362753B2 (ja) 画質調整装置及び画像補正データ生成プログラム
JP2010066352A (ja) 測定装置、補正データ生成装置、測定方法、補正データ生成方法、および補正データ生成プログラム
JP2008139709A (ja) 色処理装置およびその方法
CN110300291B (zh) 确定色彩值的装置和方法、数字相机、应用和计算机设备
JP2015070348A (ja) 色むら補正方法及び色むら補正処理部を有した撮像装置
JP4547208B2 (ja) ディスプレイの較正方法,較正装置,較正テーブル及びプログラム

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004807766

Country of ref document: EP

Ref document number: 11472758

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2004807766

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 11472758

Country of ref document: US