WO2012108003A1 - プロジェクタシステムおよび映像補正方法 - Google Patents

プロジェクタシステムおよび映像補正方法 Download PDF

Info

Publication number
WO2012108003A1
WO2012108003A1 PCT/JP2011/052648 JP2011052648W WO2012108003A1 WO 2012108003 A1 WO2012108003 A1 WO 2012108003A1 JP 2011052648 W JP2011052648 W JP 2011052648W WO 2012108003 A1 WO2012108003 A1 WO 2012108003A1
Authority
WO
WIPO (PCT)
Prior art keywords
correction
projector
area
image
projection
Prior art date
Application number
PCT/JP2011/052648
Other languages
English (en)
French (fr)
Inventor
道夫 富澤
孝一 荒
Original Assignee
Necディスプレイソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necディスプレイソリューションズ株式会社 filed Critical Necディスプレイソリューションズ株式会社
Priority to PCT/JP2011/052648 priority Critical patent/WO2012108003A1/ja
Publication of WO2012108003A1 publication Critical patent/WO2012108003A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/006Electronic inspection or testing of displays and display drivers, e.g. of LED or LCD displays
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0686Adjustment of display parameters with two or more screen areas displaying information with different brightness or colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0693Calibration of display systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/14Solving problems related to the presentation of information to be displayed

Definitions

  • the present invention relates to a projector system that displays an image by partially superimposing projection images projected from a plurality of projectors on a projection surface, and a method for correcting an image in the projector system.
  • an image (original image) output from a video signal generator for example, a personal computer or a video player
  • a video signal generator for example, a personal computer or a video player
  • a projector system has been developed that projects onto a screen, for example, a screen, combines a plurality of projected images on the projection surface, and displays the original image before being divided.
  • These systems divide the original video with electronic devices other than the projector and input the divided video to each projector, or input the original video to multiple projectors and display the video part that each projector displays.
  • Various forms have been developed, such as a system for dividing an image by extraction. The divided images can be combined by dividing them so that they partially overlap and overlapping them partially on the projection plane.
  • FIG. 1 shows a projector system configured by using two projectors, and shows an example of a projector system that displays an image by partially overlapping projected images.
  • the projected images projected from the projectors 102 and 103 onto the projection plane 109 are a region 120 and a region 130, respectively.
  • the display image of the projector is distorted and displayed in a trapezoidal shape like the region 120 or the region 130 on the projection surface 109 depending on the angle between the projection direction of the projector and the projection surface 109. For this reason, trapezoidal distortion correction is performed so that the images projected from the projector 102 and the projector 103 each have a substantially rectangular shape.
  • An area 110 connecting substantially rectangular areas projected from the respective projectors is referred to as a main image, and other areas are referred to as adjacent areas.
  • the adjacent area is generally displayed in black.
  • Patent Document 1 describes a high-realistic video display device (projector system) that displays a main video corresponding to an input video signal by partially overlapping projected images from a plurality of projectors on a screen. ing.
  • Japanese Patent Application Laid-Open No. 2005-228688 discloses a technique for reducing the amount of light of a portion of a projected image that overlaps with another projected image so that the portion where the projected image overlaps is not noticeable (hereinafter, “brightness unevenness reduction”). Technology "). By using the luminance unevenness reduction technique described in Patent Document 1, it is possible to reduce the luminance unevenness in the main video area.
  • the projector cannot reduce the amount of black video light further. For this reason, in the technology for reducing luminance unevenness described in Patent Document 1, specifically, in the technology for reducing the amount of light in the portion of the projected image that overlaps with other projected images, the luminance unevenness in the black image portion is reduced. I can't. Further, in Patent Document 1, it is not possible to correct a region outside the main video (that is, a black adjacent region).
  • Patent Document 2 describes a multi-projection display that can reduce uneven brightness in a black video portion.
  • the multi-projection display described in Patent Document 2 is a projector that projects a correction image for reducing a difference in luminance in a black video portion over the entire area in addition to a plurality of projectors that form a main video (hereinafter referred to as a projector). (Referred to as “correction projector”).
  • the luminance of the black video portion on which the most projection lights from the plurality of projectors are superimposed becomes the luminance of the black video portion of the main video.
  • the correction image is projected on the entire main video area. That is, the black luminance unevenness can be reduced by increasing the black luminance of the other region so that the luminance is the same as the luminance of the black image portion on which the most projection light is superimposed.
  • An object of the present invention is to provide a projector system capable of solving the above-described problems and a video correction method in the projector system.
  • the projector system of the present invention is a projector system that displays images by partially superimposing images projected from a plurality of projectors on a projection plane, and the projector includes a plurality of display projectors, One or more correction projectors, the display projector for projecting an image including an image signal, and an image that does not include a main image corresponding to the image signal among the images projected from the display projector.
  • the difference in luminance or color between the auxiliary projector that projects an image on the displayed projection area and the area that includes the image projected from the display projector within the projection area of the display projector is reduced.
  • Video signal processing means for controlling an image projected on the projection area by the correction projector; To.
  • An image correction method of the present invention is a method for correcting an image in a projector system that displays an image by partially superimposing images projected from a plurality of projectors on a projection plane.
  • the image is projected onto a projection area where an image not including the main image corresponding to the image signal is displayed, and the luminance of the area including the image projected from the display projector within the projection area of the display projector or
  • the image projected by the correction projector onto the projection area is controlled so that the color difference becomes small.
  • the present invention it is possible to reduce uneven brightness in an area with uneven brightness while suppressing the brightness of the main video from becoming higher than necessary.
  • FIG. 1 is a block diagram showing a projector system 1 according to a first embodiment of the present invention.
  • FIG. 4 is a diagram showing projected images projected on the projection plane 9 from the display projectors 2 and 3.
  • FIG. 4 is a diagram showing division of images by projectors 2 and 3 and a synthesized image on a projection plane 9.
  • FIG. 6 is a diagram illustrating an example of correcting output luminance for each input gradation and video position input to display projectors 2 and 3; It is the figure which showed the example of a division
  • FIG. 6 is a diagram illustrating a corrected image that the correction projector 4 projects and displays on the area 40 of the projection surface 9. It is the figure which showed the luminance distribution in the area
  • FIG. 6 is a diagram showing a corrected image that the correction projector 5 projects and displays on an area 50 of the projection surface 9.
  • FIG. 5 is a diagram showing images displayed when projection images of display projectors 2 and 3 and correction projectors 4 and 5 are projected on projection surface 9. It is the figure which showed the relationship between the division area of a correction area
  • region It is the figure which showed the example of the projection area
  • FIG. 2 is a block diagram showing the projector system 1 according to the first embodiment of the present invention.
  • a projector system 1 includes a display projector 2 and a display projector 3, a correction projector 4 and a correction projector 5, an imaging unit 6, a control unit 7a, a storage unit 7b, and a video signal processing unit. 7c and the projection surface 9.
  • the projector system 1 inputs video (original video) output from a video signal generator, for example, a personal computer, to display projectors 2 and 3, and the display projectors 2 and 3 respectively
  • the video is divided by designating the part of the video to be displayed, for example, the coordinates on the inputted video and extracting the video.
  • a video signal generator for example, a personal computer
  • the divided images are divided so as to partially overlap, and are combined by partially overlapping on the projection plane.
  • the display projector 2 is a liquid crystal projector, for example, and projects a projected image on a projection surface 9 such as a screen.
  • the display projector 3 is, for example, a liquid crystal projector, and projects a projected image on the projection surface 9.
  • FIG. 3 shows a projected image projected on the projection plane 9 from the display projectors 2 and 3.
  • the projection area of the display projector 2 is an area 20 including an area 12 and an area 14, an area 11 a 1, an area 11 a 2, an area 11 a 4, an area 11 b 1, an area 11 b 2, and an area 11 b 4.
  • the projection area of the display projector 3 is an area 30 including an area 13 and an area 14, an area 11a1, an area 11a3, an area 11a5, an area 11b1, an area 11b3, and an area 11b5.
  • the display image of the projector is distorted and displayed in a trapezoidal shape like the region 20 or the region 30 on the projection surface 9 depending on the angle between the projection direction of the projector and the projection surface 9. If the input video is displayed as it is, the display video corresponding to the input video is also displayed in a trapezoidal shape. Therefore, the image projected from the display projector 2 is corrected to trapezoidal distortion so that the area of the display image corresponding to the input image has a substantially rectangular shape composed of the area 12 and the area 14 on the projection surface 9. Is done. At this time, the region 11a1, the region 11a2, the region 11a4, the region 11b1, the region 11b2, and the region 11b4 are generally displayed in black.
  • the image projected from the display projector 3 is corrected to trapezoidal distortion so that the area of the display image corresponding to the input image has a substantially rectangular shape composed of the area 13 and the area 14 on the projection surface 9. Is done.
  • the region 11a1, the region 11a3, the region 11a5, the region 11b1, the region 11b3, and the region 11b5 are generally displayed in black.
  • the trapezoidal distortion correction may be performed on a signal input to the projector without being performed by the projector, and the trapezoidal distortion corrected signal may be input to the projector. Since the trapezoidal distortion correction is used as a prior art, the details are omitted here.
  • the display image of the projector cannot display perfect black (black where no light is projected) due to the influence of light leakage. That is, even if a black image is displayed, an image having a luminance of about several lumens is displayed.
  • the original video input to the display projector 2 is divided by the display projector 2 as shown in FIG. 4, and after correcting the trapezoidal distortion, one of the main video images is displayed in an area composed of the areas 12 and 14. Projected as a part.
  • the original image input to the display projector 3 is divided by the display projector 3 as shown in FIG. 4, and after the keystone correction is performed, the original image is displayed in an area composed of the areas 13 and 14. Is projected as a part of the main image corresponding to. Therefore, the images projected from the display projectors 2 and 3 are projected and displayed as a main image corresponding to the original image in the region 10 including the regions 12, 13, and 14.
  • the region 11a composed of the region 11a1, the region 11a2, the region 11a3, the region 11a4, and the region 11a5, and the region 11b composed of the region 11b1, the region 11b2, the region 11b3, the region 11b4, and the region 11b5 are black. Projected with.
  • the luminance output from the two projectors varies, and even if the gradation of the video signal input to the projector is the same, a luminance difference may occur in the displayed video.
  • the luminance of the area 14, the area 11a1, and the area 11b1 is an addition value of the luminance of the two display projectors and becomes brighter. End up. For this reason, the output luminance for each input gradation and video position input to the display projectors 2 and 3 is set to, for example, FIG. It is corrected as shown in (b).
  • FIG. 5A shows correction when displaying a white image.
  • the luminance is substantially the same at the same input gradation.
  • the brightness of the bright area is adjusted to the brightness of the dark area, and the overlapping area 14 is an area that does not overlap at the same input gradation by gradually decreasing the brightness toward the edge of the display image of each projector. 12 and the region 13 are corrected so as to have substantially the same luminance.
  • FIG. 5B shows correction when displaying black, and correction is performed so that the luminance of the non-overlapping region 12 and the region 13 is substantially the same as the luminance of the region 14.
  • the luminance is adjusted to the luminance of the low luminance region
  • the luminance is adjusted to the luminance of the high luminance region. Therefore, the contrast is lowered as compared with the case where the image is projected by one projector. Further, since it is desirable to correct the halftone in consideration of the image quality such as a gamma curve, the halftone is appropriately adjusted to have an optimum luminance.
  • the shape of the region 11a and the region 11b is not so noticeable when the overlapping region of the black image is close to a rectangle, but becomes conspicuous as it becomes trapezoidal.
  • the black video overlap area looks like a pattern such as a triangle or polygon, the viewer is likely to be concerned.
  • the overlapping area has a complicated shape, a geometric pattern having the same or different luminance is generated in addition to the main image, and the viewer may feel uncomfortable or uncomfortable.
  • these luminance corrections can also be handled by correcting the divided video signal by the electronic device that is dividing the original video. .
  • a geometric pattern is generated in the same manner as when the original image is divided by the display projector.
  • the correction projector 4 is, for example, a liquid crystal projector, and projects a projection image generated by red light, green light, and blue light onto a projection surface 9 such as a screen.
  • the correction projector 5 is, for example, a liquid crystal projector, and projects a projection image generated by red light, green light, and blue light onto the projection surface 9.
  • the projection area of the correction projector 4 is an area 40 including the area 11 a, and the projection image of the correction projector 4 corrects the luminance unevenness generated in the area 40. Further, the projection area of the correction projector 5 is an area 50 including the area 11 b, and the projection image of the correction projector 5 corrects the luminance unevenness generated in the area 50.
  • the correction projector 4 it is desirable to arrange the correction projector 4 so that the area 40 that is the projection area of the correction projector 4 is in contact with the area 10 that is the projection area of the main image.
  • the area 40 and the area 10 overlap, there is a possibility that luminance unevenness occurs on the main video screen. Further, when the region 40 and the region 10 are separated from each other, the separated portion becomes a region where the generated luminance unevenness cannot be corrected.
  • the correction projector 5 so that the area 50 that is the projection area of the correction projector 5 is in contact with the area 10 that is the projection area of the main image.
  • the imaging unit 6 is, for example, a camera.
  • the imaging unit 6 can generally be called imaging means.
  • the imaging unit 6 images the projection plane 9 including the areas projected and displayed from the display projectors 2 and 3 and the correction projectors 4 and 5, and from the projection image displayed on the projection plane 9, the correction projector 4 and Image data used for calculating a correction area and a correction amount to be corrected by 5 is generated.
  • the imaging unit 6 includes red, green, and blue color filters and generates red light imaging data, green light imaging data, and blue light imaging data, respectively.
  • the imaging unit 6 outputs the imaging data to the video signal processing unit 7c.
  • the imaging unit 6 does not necessarily include a color filter, and may be configured to generate red light imaging data, green light imaging data, and blue light imaging data corresponding to the projection light of the projector.
  • the imaging unit 6 may be configured to detect a projected image on the projection surface 9 with monochromatic light.
  • the imaging unit 6 may be configured to detect the leakage light of the projector.
  • the light of red, green, and blue is synthesized inside the projector.
  • Control unit 7a can generally be referred to as control means.
  • the control unit 7a controls the storage unit 7b, the video signal processing unit 7c, the imaging unit 6, the display projectors 2 and 3, and the correction projectors 4 and 5.
  • the control unit 7a may be included in the video signal processing unit 7c.
  • the video signal processing unit 7c can be generally called video signal processing means.
  • the video signal processing unit 7c When the video signal processing unit 7c receives the imaging data from the imaging unit 6, the video signal processing unit 7c extracts the area 40 and the correction area which are the projection areas of the correction projector 4 based on the imaging data, and calculates the correction amount of the correction projector 4. For this purpose, an LUT (Look Up Table) indicating a luminance value with respect to the input gradation is generated. Further, the video signal processing unit 7c detects the luminance distribution of the correction area based on the received imaging data, and the correction amount based on the detected luminance distribution, the extracted correction area, and the generated LUT. Is calculated. The generated LUT and the correction amount are generated for each of red, green, and blue. Further, the video signal processing unit 7c generates a corrected video of the correction projector 4 for correcting the luminance unevenness of the area 40 that is the projection area, based on the projection area, the correction area, and the correction amount.
  • an LUT Look Up Table
  • the video signal processing unit 7c extracts the region 50 and the correction region, which are the projection regions of the correction projector 5, generates an LUT indicating a luminance value with respect to the input gradation, and calculates the correction amount. Further, the video signal processing unit 7c generates a corrected video of the correction projector 5 for correcting the luminance unevenness of the area 50 based on the projection area, the correction area, and the correction amount. In the present embodiment, since the correction areas of the correction projectors 4 and 5 are the same as the respective projection areas of the correction projectors 4 and 5, it is only necessary to extract the projection areas.
  • the storage unit 7b stores an LUT indicating a luminance value for the input gradation of the correction projectors 4 and 5.
  • the storage unit 7b stores the correction areas and correction amounts of the correction projectors 4 and 5.
  • the storage unit 7b may store a correction image that the correction projectors 4 and 5 project onto the projection plane 9.
  • the storage unit 7b may store at least one of the correction areas and correction amounts of the correction projectors 4 and 5, and the correction screen.
  • the display projector 2 projects the projection image onto the area 20 on the projection plane 9 and the display projector 3 projects the projection image onto the area 30 on the projection plane 9, the projection images of the display projectors 2 and 3 are projected. It is partially overlapped on the surface 9. As a result, a video composed of the main video displayed in the area 10 and the black adjacent video displayed in the areas 11 a and 11 b is displayed on the projection plane 9.
  • the input gradations in the display projectors 2 and 3 are set so that the output luminances for the input gradations input to the display projectors 2 and 3 are substantially the same.
  • the output brightness for is adjusted. For example, when images of the same gradation are input to the display projectors 2 and 3, at least the region 10 has substantially the same luminance.
  • the correction projector 4 projects the projection image onto the area 40 on the projection surface 9 and the correction projector 5 projects the projection image onto the area 50 on the projection surface 9
  • the display projectors 2 and 3 and the correction projector are displayed. 4 projection images of the display projectors 2 and 3 and the correction projector 5 are partially overlapped in the region 50 on the projection plane 9. Superimposed.
  • the projector system 1 generates an LUT indicating a luminance value with respect to the input gradation of the correction projector.
  • the LUT indicating the luminance value with respect to the input gradation of the correction projector is an LUT used for calculating the correction amount of the correction projector.
  • the projector system 1 detects the luminance with respect to the gradation of the video signal input to the correction projector 4. For example, in a state where the display projectors 2 and 3 and the correction projector 5 do not project an image, and the correction projector 4 is projecting an image, the imaging unit 6 images the projection surface 9 and the first imaging data Is generated.
  • the light source inside the projector for projecting images is turned off, or a light shielding plate or the like is disposed in front of the projection lens of the projector. In other words, the projection light does not affect the area 40 on the projection surface 9.
  • the state in which the correction projector 4 is projecting an image is a state in which an image having a predetermined gradation is input to the correction projector 4 and the input image is projected onto the projection plane 9.
  • the predetermined input gradation is For example, if the input gradation range to the correction projectors 4 and 5 is a minimum value 0 to a maximum value 255, and the input gradation at the time of imaging is five gradations, the predetermined input gradation is For example, the gradation may be 0, 64, 128, 192, 255.
  • the predetermined input gradations may be set at equal intervals, but may be set densely around the gradation where the luminance changes sharply. Further, the number of predetermined input gradations may be increased. As the number of gradations to be detected increases, the luminance can be corrected more accurately. However, this causes factors such as an increase in storage capacity and an increase in detection time.
  • the imaging unit 6 captures images on the projection surface 9 when the input gradation to the correction projector 4 is changed to 0, 64, 128, 192, and 255, respectively. Imaging data is generated.
  • the generated first imaging data is output to the video signal processing unit 7c. Note that the first imaging data may be output to the video signal processing unit 7c one by one.
  • the projector system 1 detects the luminance with respect to the gradation of the video signal input to the correction projector 5.
  • the imaging unit 6 captures the projection surface 9 and generates second image data. To do.
  • This state is a state in which the states of the correction projector 4 and the correction projector 5 are switched from the state in which the correction projector 4 projects an image and the correction projector 5 does not project an image.
  • the operation for generating the second imaging data is the same as the operation for generating the first imaging data, and thus detailed description thereof is omitted.
  • the generated second imaging data is output to the video signal processing unit 7c.
  • the video signal processing unit 7c generates an LUT indicating the luminance value for the input gradation of the correction projector 4 in the region 40 for each of red, green, and blue based on the received first imaging data. Save in the storage unit 7b.
  • the LUT to be generated can be corrected more accurately if the area 40 is divided and created for each divided area. However, the number of LUTs increases as the number of divisions increases.
  • the area 40 is divided into 32 areas of 4 vertical divisions and 8 horizontal divisions, and the average value of the luminance in each divided area is used.
  • the area may be divided into one LUT.
  • the variation in luminance in the region 40 is a variation in luminance difference in each part in the region 40 when the same gradation image is input to all the regions 40.
  • the video signal processing unit 7c extracts the area 40 based on the received first imaging data. For example, the region 40 can be extracted based on the difference between the imaging data when the input gradation is 0 and the imaging data when the input gradation is 255.
  • the extracted area 40 is stored in the storage unit 7b as position information corresponding to the imaging data.
  • the video signal processing unit 7 c divides the extracted area 40 into 32 areas (area 4011, area 4012,..., Area 4018) that are divided into 4 parts vertically and 8 parts horizontally.
  • the video signal processing unit 7c calculates the average values of the red, green, and blue luminances for each of the 32 divided areas based on the imaging data corresponding to the five input gradations.
  • the video signal processing unit 7 c Based on the calculated luminance value, the video signal processing unit 7 c generates an LUT indicating the luminance value for the input gradation of the correction projector 4 for each of the divided 32 regions.
  • the generated LUT is stored in the storage unit 7b. Since the area 40 coincides with a display element of the correction projector 4, for example, a display area of a display image on the liquid crystal panel, the generated LUT has a vertical 4 display area of the liquid crystal panel of the correction projector 4. This is a value corresponding to each area divided into 32 areas of 8 divisions and 8 divisions.
  • the video signal processing unit 7c generates and stores an LUT indicating the luminance value for the input gradation of the correction projector 5 in the region 50 for each of red, green, and blue based on the received second imaging data.
  • the operation of generating and storing the LUT indicating the luminance value with respect to the input gradation of the correction projector 5 in the area 50 based on the second image data is the correction in the area 40 based on the first image data. This is the same as the operation of generating and storing the LUT indicating the luminance value with respect to the input gradation of the projector 4 for projector 4, and will not be described in detail.
  • the extracted area 50 is divided into 32 areas (area 5011, area 5012,..., Area 5018) of 4 vertical divisions and 8 horizontal divisions as shown in FIG.
  • the input gradation to be detected does not need to be detected from 0 to 255.
  • the input gradation may be suitably detected within the optimum range such as 32 to 128.
  • the luminance value is obtained by using a luminance meter or the like temporarily disposed in the vicinity of the projection surface 9. It may be detected.
  • a luminance meter or the like it is desirable to accurately set the position of the luminance meter or the like with respect to the region 40 or the region 50.
  • the LUT is generated by dividing the correction region, it is necessary to accurately set the position of the luminance meter or the like in order to reduce the error in the correction amount.
  • the position to be detected is the area 40. It may be one place in the narrow area. In this case, the number of LUTs can be reduced.
  • the correction area is divided and detected, if the amount of change in luminance can be grasped for each part of the area 40 or 50, the luminance unevenness can be accurately corrected in each part. This increases the time and processing time.
  • the amount of data to be processed can be reduced, but the error of the correction amount becomes large, and there is a possibility that uneven brightness remains in each part of the region. .
  • the generation of the LUT indicating the luminance value with respect to the input gradation of the correction projector may be performed once if there is no change in the state of the correction projector, for example, the state of the lamp or the light source of the projector, There is no need to do it every time.
  • the projector system 1 calculates the correction amount of the correction projectors 4 and 5, and generates a corrected image.
  • the imaging unit 6 captures the projection plane 9 and 3 imaging data is generated.
  • the state in which the display projectors 2 and 3 and the correction projector 4 are projecting images is a state in which a black image corresponding to an input gradation of 0 is projected to each projector.
  • the black luminance level corresponding to the input gradation output by the correction projector 4 corresponding to 0 may not be the same as the black luminance level corresponding to the input gradation output from the display projector of 0.
  • the state in which the correction projector 5 is not projecting an image means that the light source for projecting the image is turned off or a light-shielding plate or the like is disposed in front of the projection lens so that the projection light is projected onto the projection surface 9. In this state, the upper region 40 is not affected.
  • the generated third imaging data is output to the video signal processing unit 7c.
  • the fourth imaging data is generated.
  • This state is a state in which the states of the correction projector 4 and the correction projector 5 are switched from the state in which the correction projector 4 projects an image and the correction projector 5 does not project an image.
  • the operation for generating the fourth imaging data is the same as the operation for generating the third imaging data, and thus detailed description thereof is omitted.
  • the black luminance level corresponding to 0 input gradation output from the correction projector 5 is the black luminance level corresponding to 0 input gradation output from the display projector or the input output from the correction projector 4.
  • the gray level may not be the same as the black luminance level corresponding to 0.
  • the generated fourth imaging data is output to the video signal processing unit 7c.
  • the video signal processing unit 7c calculates the correction amount of the correction projector 4 for each of red, green, and blue based on the third imaging data.
  • the video signal processing unit 7c extracts the third image data area 40 corresponding to the area 40 extracted from the first image data based on the third image data.
  • FIG. 7 is a diagram showing the luminance distribution in the area 40 of the third imaging data.
  • the luminance values of the region 11a2, the region 11a3, the region 11a4, and the region 11a5 are substantially the same, and the luminance value of the region 11a1 is higher than the luminance value of the region 11a2.
  • the luminance value of the region 40 other than the region 11a is lower than the luminance value of the region 11a2.
  • the video signal processing unit 7c extracts the luminance of each pixel in the extracted area 40 of the third imaging data.
  • the video signal processing unit 7c compares the extracted luminance values of the pixels and extracts the maximum luminance value.
  • the video signal processing unit 7c stores in the storage unit 7b so that the luminance value of each pixel of the region 40 extracted from the third imaging data is substantially the same as the extracted maximum luminance value.
  • the correction amount is calculated based on the stored LUT indicating the luminance value for the input gradation of the correction projector 4. That is, the video signal processing unit 7c uses the extracted maximum luminance as the target luminance, and calculates the input gradation that becomes the target luminance based on the LUT.
  • FIG. 8 is a diagram showing a corrected image that the correction projector 4 projects and displays on the area 40 of the projection surface 9.
  • the luminance value of the region 11a1 is the lowest, and the luminance values of the region 11a2, the region 11a3, the region 11a4, and the region 11a5 are substantially the same and higher than the luminance value of the region 11a1.
  • the luminance value of the region 40 other than the region 11a is higher than the luminance value of the region 11a2.
  • the resolution of the area 40 extracted from the imaging data captured by the imaging unit 6 and the display resolution of the liquid crystal panel of the correction projector 4 are basically different, so that the resolution of the area 40 is appropriately corrected. It is necessary to convert the resolution of the area 40 so that the display resolution of the projector 4 is the same. The resolution conversion may be performed on the correction amount calculated corresponding to each pixel in the region 40 or may be performed on the corrected video.
  • the data stored in the storage unit 7b is the position information of the areas 40 and 50 corresponding to the imaging data and the correction amount corresponding to each pixel of the areas 40 and 50. Instead, the correction projectors 4 and 5 A corrected image projected and displayed on the projection surface 9 may be used.
  • the data stored in the storage unit 7b may be a value before or after resolution conversion.
  • FIG. 9 is a diagram showing a luminance distribution in the region 50 of the fourth image data.
  • the luminance values of the region 11b2, the region 11b3, the region 11b4, and the region 11b5 are substantially the same, and the luminance value of the region 11b1 is higher than the luminance value of the region 11b2. Also, the luminance value of the region 50 other than the region 11b is lower than the luminance value of the region 11b2.
  • the luminance value of the region 11b1 is the lowest, and the luminance values of the region 11b2, the region 11b3, the region 11b4, and the region 11b5 are substantially the same and higher than the luminance value of the region 11b1. Further, the luminance value of the region 50 other than the region 11b is higher than the luminance value of the region 11b2.
  • the correction amount of the correction projector 5 is calculated based on the fourth imaging data, stored in the storage unit 7b, and the correction projector 5 projects and displays the projection surface 9 based on the calculated correction amount.
  • the correction amount of the correction projector 4 is calculated based on the third imaging data, stored in the storage unit 7b, and the correction projector 4 projects based on the calculated correction amount. Since the operation is the same as that for generating a corrected image to be projected and displayed on the surface 9, detailed description thereof is omitted.
  • the video signal processing unit 7 c outputs the corrected video corresponding to the generated area 40 to the correction projector 4, and outputs the corrected video corresponding to the generated area 50 to the correction projector 5.
  • FIG. 11 is a diagram showing images displayed when the projection images of the display projectors 2 and 3 and the correction projectors 4 and 5 are projected onto the projection plane 9.
  • the LUT indicating the luminance value with respect to the input gradation of the correction projector is generated based on the imaging data captured by the imaging unit 6, but the second embodiment uses a value detected in advance.
  • the LUT generated in this manner is stored in advance as an LUT indicating the luminance value for the input gradation of the correction projector.
  • the video signal processing unit 7c corrects and uses the value of the LUT based on the state when detected in advance, for example, the correlation between the installation state and the actual state. That is, since the luminance on the projection surface 9 changes depending on the size of the projected image to be projected, the video signal processing unit 7c corrects the value detected in advance and calculates the luminance in the actual installation state. For example, in a state where the correction projectors 4 and 5 are installed, the video signal processing unit 7 c detects a luminance by displaying a specific gradation, for example, gradation 255 on the display screen of the correction projector 4 or 5.
  • the video signal processing unit 7c calculates a correction coefficient based on the luminance of the gradation 255 corresponding to the specific gradation detected in advance stored in the LUT and the luminance of the detected gradation 255, and the actual installation state The luminance value for each input gradation is calculated. Further, the video signal processing unit 7c may obtain the correlation based on the size of the projected video when detected in advance and the size of the projected video in the actual installation state.
  • the LUT stored in advance is generated, for example, when it is produced in a factory.
  • each projector When produced at the factory, each projector is installed so as to have a preset projection image size, brightness is detected in advance based on the image projected by the projector, and generated based on the detected value, An LUT indicating the luminance value for the input gradation is stored in the storage unit. Further, when the variation in luminance of the projector used as the correction projector is small, the luminance is detected for a plurality of reference projectors when produced at the factory, and based on the average value of the detected values. The generated LUT indicating the luminance value for the input gradation may be stored in the storage unit.
  • the video signal processing unit 7c extracts the area 40 and the area 50 when calculating the correction amounts of the correction projectors 4 and 5.
  • the area 40 and the area 50 are extracted based on the difference between the third imaging data and the fourth imaging data captured in the same manner as in the first embodiment. For example, when the fourth imaging data is subtracted from the third imaging data, the images projected by the display projectors 2 and 3 are canceled out. Further, the image projected by the correction projector 4 has a positive value. Further, the image projected by the correction projector 5 has a negative value. That is, a region having a positive value is extracted as the region 40, and a region having a negative value is extracted as the region 50.
  • each pixel in the region 40 or the region 50 is corrected.
  • a region having substantially the same luminance in the region 40 or the region 50 is extracted. Then, the extracted area is corrected.
  • the video signal processing unit 7c detects an edge where the amount of change in the luminance value is large based on the luminance value in the region 40 extracted from the third imaging data, for example, the regions 11a1, 11a2, and 11a3. , 11a4, 11a5 and the area 40 other than the area 11a are set as correction blocks.
  • the video signal processing unit 7c calculates an average value of luminance values in each correction block.
  • the video signal processing unit 7c compares the calculated luminance values of the respective correction blocks and extracts the maximum luminance value.
  • the video signal processing unit 7 c stores the storage unit 7 b so that the luminance value of each correction block in the region 40 extracted from the third imaging data is substantially the same as the extracted maximum luminance value.
  • the correction amount is calculated based on the LUT indicating the luminance value with respect to the input gradation of the correction projector 4 stored in (1).
  • the video signal processing unit 7c uses the input gradation of the correction projector 4 used to calculate the correction amount of each correction block. Data equivalent to the LUT indicating the luminance value for is calculated. The video signal processing unit 7 c calculates the correction amount based on data equivalent to the LUT indicating the luminance value with respect to the calculated input gradation of the correction projector 4.
  • the video signal processing unit 7c calculates an average value of luminance obtained from the LUT divided region including the correction block by a predetermined ratio or more out of the LUT divided regions including the correction block. To do.
  • the LUT divided areas including the correction block area 11a2 are an area 4032, an area 4033, an area 4034, an area 4041, an area 4042, an area 4043, and an area 4044.
  • the LUT areas to be referred to are the areas 4033, 4042, and 4043, and the video signal processing unit 7c determines from the LUTs of the areas 4033, 4042, and 4043, The average value of the obtained luminance is calculated.
  • the region 4032, the region 4034, the region 4041, and the region 4044 are excluded because they are narrow regions of less than 50%.
  • the maximum area of the correction block among the LUT divided regions including the correction block is determined.
  • a divided region LUT including LUTs may be used.
  • the correction block is the area 11a4
  • the divided areas of the LUT including the correction block area 11a4 are an area 4015 and an area 4025.
  • the correction block area 11a4 does not include 50% or more of the divided area 4015 or 4025 of the LUT. Therefore, the LUT region to be referred to is a region 4025 including the maximum area of the correction block region 11a4, and the video signal processing unit 7c uses the LUT of the region 4025. At this time, the region 4015 is excluded.
  • the video signal processing unit 7c handles the correction area, the correction amount, and the like in units of correction blocks, the storage capacity is reduced and the processing time is shortened.
  • a region having substantially the same luminance in the region 40 or the region 50 is extracted, a correction amount is calculated for the extracted region, and correction is performed. Manually sets a region of substantially the same brightness in the region 40 or region 50, and corrects the set region.
  • the fourth embodiment is different from the third embodiment in that an arrow key, a mouse, or the like is used for the user of the projector system to specify a correction block and adjust a correction amount instead of the imaging unit 6.
  • the input part 8 which receives the signal of is provided.
  • the video signal processing unit 7 c displays a marker such as a cross whose position can be specified on the display screen of the correction projector 4 or 5.
  • the user of the projector system 1 moves the displayed marker using an arrow key or a mouse or the like, and sets a correction block area by clicking the enter key or the mouse.
  • the user of the projector system 1 designates the set correction block, and uses the adjustment bar displayed on the display screen of the correction projector 4 or 5 or the arrow key to adjust the brightness or each color. Change to correct.
  • the luminance in the area 40 is such that the luminance caused by the light leakage of the projector 2, the luminance caused by the light leakage of the projector 3, The luminance resulting from the light leakage is unified to the added luminance.
  • the luminance in the region 50 includes the luminance caused by the light leakage of the projector 2, the luminance caused by the light leakage of the projector 3, and the projector. The luminance resulting from the light leakage of 5 is unified to the added luminance.
  • the luminance of the main video region 10 since neither the corrected image corresponding to the region 40 nor the corrected image corresponding to the region 50 is projected in the main video region 10, the luminance of the main video region 10, particularly the luminance of black, does not become higher than necessary. It is possible to prevent the deterioration of the contrast in the main video area 10.
  • correction of the correction area is performed so as to correct the darkest black as much as possible, but the correction may be made so that the black luminances of the area 40 and the area 50 are substantially the same.
  • the video signal processing unit 7c extracts the maximum luminance in both the region 40 and the region 50, and corrects the luminance of the region 40 and the region 50 to be the same as the maximum luminance. By making the luminance of black in the region 40 and the region 50 the same luminance, the viewer's uncomfortable feeling is alleviated.
  • correction of the correction area is performed so as to correct black as much as possible, but display of white, blue, or the like is also possible.
  • black is displayed as the image projected by each projector.
  • the brightness or color of the image projected by each projector is changed as appropriate. Is possible. In this case, it is possible to appropriately determine the region where the projection regions overlap with each other based on the synthesized color, the added luminance level, or the like.
  • the image data of the area 40 and the area 50 are captured separately, but the influence of the projected image of the correction projector 4 in the area 50 on the luminance and color is small, and the correction projector in the area 40 When the influence of the projected image 5 on the luminance and color is small, the correction projectors 4 and 5 can be simultaneously projected and imaged.
  • the imaging unit 6 first captures an image for detecting the region 40 and the region 50, and generates fifth imaging data. Next, with respect to the state when the first imaging data is captured, the imaging unit 6 captures the image in the same manner as when the first imaging data is captured, assuming that the correction projector 5 is projecting an image. The sixth imaging data is generated. Next, the video signal processing unit 7c extracts the projection area and the correction area based on the fifth imaging data, and inputs the correction projectors 4 and 5 in the area 40 and the area 50 based on the sixth imaging data. An LUT indicating a luminance value with respect to gradation is generated.
  • the imaging unit 6 captures the image in the same manner as when the third imaging data is captured, with the correction projector 5 projecting an image.
  • the seventh imaging data is generated.
  • the video signal processing unit 7c calculates the correction amounts of the correction projectors 4 and 5 in the area 40 and the area 50 based on the seventh imaging data, and generates a corrected image.
  • the area to be imaged is an area including the areas 40 and 50 on the projection plane 9, but can be appropriately changed, such as imaging for each area of the correction projector.
  • the video signal processing unit 7c may extract the main video area 10.
  • the video signal processing unit 7c does not affect the main video area 10 as much as possible. It is possible to correct the error or to display an error.
  • the main video region 10 it is possible to extract the main video region 10 by displaying the main video region 10 in a luminance that is clearly different from the generated luminance unevenness, for example, white.
  • the luminance of the main video area 10 is as low as possible.
  • the image data is used to extract luminance unevenness in the correction area. Therefore, the main video area 10 is an image having little influence on the luminance, for example, a low luminance blue image or the like. But it can be detected.
  • the correction areas of the correction projectors 4 and 5 do not have to be the same as the respective projection areas of the correction projectors 4 and 5.
  • the correction area may be close to the area 10 and may have a shape such as the area 41 or the area 51 in which the vertical direction and the horizontal direction are narrowed so as to include the entire area 11 a or the area 11 b.
  • the adjacent images generated at the top, bottom, left, and right of the main image area 10 have a shape that makes the viewer feel as uncomfortable as possible.
  • the projection area 40 other than the correction area 41 or the projection area 50 other than the correction area 51 may display black of the correction projector.
  • the imaging unit 6 uses a monochromatic light to project the projection surface. 9 can be detected, and various processes can be controlled as the same input gradation without separately controlling red, green, and blue.
  • the corrected video output from the correction projector may be generated by a video signal processing unit included in the correction projector.
  • control unit 7a, the storage unit 7b, the video signal processing unit 7c, and the imaging unit 6 may be incorporated in the correction projector.
  • the correction projector only needs to capture its own projection area and generate a correction image projected by itself.
  • the video signal processing unit 7 c generates a corrected video corresponding to the region 40 so that the luminance difference in the region 40 is small, and the luminance difference in the region 50 is A corrected image corresponding to the region 50 is generated so as to be smaller.
  • the corrected image corresponding to the region 40 By projecting the corrected image corresponding to the region 40 to the region 40, the luminance unevenness in the region 40 is reduced, and by projecting the corrected image corresponding to the region 50 to the region 50, Luminance unevenness at is reduced. Further, since neither the corrected image corresponding to the region 40 nor the corrected image corresponding to the region 50 is projected on the main image 10, it is possible to suppress the luminance of the main image 10 from becoming higher than necessary.
  • the imaging unit 6 captures an area including the areas 40 and 50 on the projection surface 9 and generates imaging data.
  • the storage unit 7b stores data indicating the relationship between the input gradation of the correction projector and the luminance value, and the video signal processing unit 7c analyzes the imaging data and detects the luminance distribution in the regions 40 and 50.
  • the video signal processing unit 7 c uses the data in the storage unit 7 b to generate a corrected video corresponding to the region 40 so that the difference in luminance in the region 40 becomes small, and in the region 50.
  • the corrected video corresponding to the region 50 is generated so that the luminance difference between the two becomes smaller.
  • a plurality of projected images are joined only in the horizontal direction, but a plurality of projected images may be joined only in the vertical direction or in the vertical direction together with the horizontal direction.
  • the adjacent video may be generated not only on the upper and lower sides of the main video but also on the left and right sides, or both.
  • four correction projectors corresponding to each of the top, bottom, left, and right adjacent images are provided, and each of the four correction projectors does not include the main image and does not include the main image.
  • the area including the adjacent image corresponding to is a projection area, and the video signal processing unit 7c generates correction data for each projection area.
  • the four correction projectors project a corrected image on the projection area based on the correction data generated for the projection area.
  • a plurality of projected images are joined only in the horizontal direction, and adjacent images are generated on the upper and lower sides.
  • the adjacent images are located on the upper side due to the relationship between the projection direction of the display projector and the projection surface. Or it may occur only on the lower side.
  • one correction projector may be used, and the one correction projector may be arranged for one adjacent video that is generated.
  • the correction projector may be arranged for the adjacent video to be corrected.
  • a plurality of correction projectors may be provided for one of the adjacent videos, for example, the upper adjacent video. At this time, there is a possibility that the projected images of the plurality of projectors for correction overlap each other. Therefore, it is desirable to consider the luminance of the overlapping portion when correcting the images.
  • a projector having a lower maximum output luminance than the display projector may be used as the correction projector.
  • the luminance gradation that can be displayed by the correction projector is the luminance that can be displayed by the display projector. Since this corresponds to a part of the black level side of the gradation, the luminance gradation on the black side can be adjusted more finely. It is desirable to select a correction projector as appropriate depending on the luminance of leakage light from the display projector and the correction projector, the maximum output luminance of the correction projector, and the number of gradations of the video signal of the correction projector.
  • the maximum luminance (white) on the projection plane 9 of the image projected by the correction projector is black on the projection plane 9 of the projection image of the display projector 2 and on the projection plane 9 of the projection image of the display projector 3.
  • the display projectors 2 and 3 are in a state where the luminance correction of FIG. 5 is not performed.
  • the correction projector may be a projector having a display resolution lower than that of the display projector.
  • the display resolution is lowered, one pixel of the correction projector on the projection plane 9 becomes larger than one pixel of the display projector, and the size or position of the correction area near the boundary where the luminance changes is shifted. Therefore, it is desirable to select the display resolution of the correction projector within an allowable range.
  • the correction projector may be a projector having a display resolution higher than that of the display projector.
  • the horizontal length of the projection area 40 of the correction projector 4 is longer than the horizontal length of the projection area 20 of the display projector 2.
  • the display resolution of the correction projector 4 and the display resolution of the display projector 2 are the same, one pixel of the correction projector on the projection surface 9 is larger than one pixel of the display projector. That is, since the effect of the correction is deteriorated due to the size or position shift of the correction area near the boundary where the luminance changes, it is desirable to select the display resolution of the correction projector within an allowable range.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

 複数のプロジェクタから投写された映像を、投写面上で部分的に重ね合わせることによって、映像を表示するプロジェクタシステムは、プロジェクタとして、映像信号を含む映像を投写する複数の表示用プロジェクタと、表示用プロジェクタから投写された映像のうち、映像信号に対応する主映像を含まない映像が表示される投写領域に映像を投写する1以上の補正用プロジェクタと、を含み、さらに、表示用プロジェクタの前記投写領域内での表示用プロジェクタから投写された映像を含む領域の輝度または色の差が小さくなるように、補正用プロジェクタが前記投写領域に投写する映像を制御する映像信号処理手段と、を有する。

Description

プロジェクタシステムおよび映像補正方法
 本発明は、複数のプロジェクタから投写された投写映像を投写面上で部分的に重ね合わせることによって、映像を表示するプロジェクタシステム、および、該プロジェクタシステムにおける映像の補正方法に関する。
 従来、映像信号発生器、例えばパーソナルコンピュータやビデオ再生機から出力された映像(原映像)を、部分的に複数の映像に分割し、分割された複数の映像をそれぞれ複数のプロジェクタを用いて投写面、例えばスクリーンに投写し、投写された複数の映像を投写面上で合成し、分割される前の原映像を表示するプロジェクタシステムが開発されている。これらのシステムは、原映像の分割をプロジェクタ以外の電子機器で行い、分割した映像を各プロジェクタに入力するシステムや、原映像を複数のプロジェクタに入力し、各プロジェクタが表示を行う映像の部分を抽出することにより、映像の分割を行うシステムなど、様々な形態が開発されている。分割される映像は、部分的に重なるように分割し、投写面上で部分的に重ね合わせることによって、合成することも可能である。図1は、2台のプロジェクタを用いて構成したプロジェクタシステムであり、投写映像を部分的に重ね合わせて映像を表示するプロジェクタシステムの一例を示した図である。
 図1において、プロジェクタ102および103から投写面109上に投写された投写映像は、それぞれ領域120および領域130である。プロジェクタの表示映像は、プロジェクタの投写方向と投写面109との角度により、投写面109上で、例えば領域120や領域130のように台形状に歪んで表示される。そのため、プロジェクタ102およびプロジェクタ103から投写される映像は、それぞれ略矩形形状となるように台形歪補正が行われる。それぞれのプロジェクタから投写された略矩形形状領域を連結した領域110を、主映像と記し、それ以外の領域を隣接領域と記す。隣接領域は、黒で表示することが一般的である。
 特許文献1には、複数のプロジェクタからの投写映像をスクリーン上で部分的に重ね合わせることによって、入力された映像信号に対応する主映像を表示する高臨場映像表示装置(プロジェクタシステム)が記載されている。
 特許文献1には、投写映像のうち他の投写映像と重なる部分については、その部分の光量を少なくすることによって、投写映像が重なっている部分を目立たないようにする技術(以下「輝度むら低減技術」と称する)が記載されている。特許文献1に記載の輝度むら低減技術を用いることによって、主映像の領域内での輝度のむらを低減することが可能になる。
 プロジェクタは、黒色の映像の光量をさらに落とすことができない。このため、特許文献1に記載の輝度むら低減技術、具体的には、投写映像のうち他の投写映像と重なる部分の光量を少なくする技術では、黒色の映像部分での輝度のむらを低減することはできない。また特許文献1では、主映像の外側の領域(すなわち黒色の隣接領域)に対して補正することはできない。
 特許文献2には、黒色の映像部分での輝度のむらを低減可能なマルチプロジェクションディスプレイが記載されている。
 特許文献2に記載のマルチプロジェクションディスプレイは、主映像を形成する複数のプロジェクタに加えて、黒色の映像部分での輝度の差を少なくするための補正用画像を、領域全体に投写するプロジェクタ(以下「補正用プロジェクタ」と称する)を有する。
 特許文献2に記載のマルチプロジェクションディスプレイでは、複数のプロジェクタからの投写光が最も多数重ね合わされた黒色の映像部分の輝度が、主映像の黒色の映像部分の輝度となるように、補正用プロジェクタから補正用の画像を主映像領域全体に投写している。すなわち、投写光が最も多数重畳された黒色の映像部分の輝度と同じ輝度となるように、他の領域の黒色の輝度を持ち上げることによって、黒色の輝度むらを低減することができる。
特開平6-178327号公報 特開2005-286772号公報
 特許文献1および特許文献2に記載の技術では、白色輝度むらまたは黒色輝度むらを低減することはできるが、それは主映像の領域内についてのみ可能である。図1のようなマルチプロジェクションシステムでは、台形歪補正を伴うため主映像の外部に黒色の隣接領域が生じ、鋸歯状の模様となるため目障りである。
 特許文献2に記載のマルチプロジェクションディスプレイを用いて、黒色の隣接領域での輝度のむらを解消しようとする場合、補正用映像は、黒色の隣接領域だけでなく主映像にも投写される。よって、主映像の黒色の映像部分の輝度が必要以上に高くなってコントラストが低下してしまうという課題が生じる。
 本発明の目的は、上述した課題を解決可能なプロジェクタシステムおよび該プロジェクタシステムにおける映像補正方法を提供することにある。
 本発明のプロジェクタシステムは、複数のプロジェクタから投写された映像を、投写面上で部分的に重ね合わせることによって、映像を表示するプロジェクタシステムであって、前記プロジェクタは、複数の表示用プロジェクタと、1以上の補正用プロジェクタと、を含み、映像信号を含む映像を投写する前記表示用プロジェクタと、前記表示用プロジェクタから投写された映像のうち、前記映像信号に対応する主映像を含まない映像が表示される投写領域に映像を投写する前記補助用プロジェクタと、前記表示用プロジェクタの前記投写領域内での前記表示用プロジェクタから投写された映像を含む領域の輝度または色の差が小さくなるように、前記補正用プロジェクタが前記投写領域に投写する映像を制御する映像信号処理手段と、を有する。
 本発明の映像補正方法は、複数のプロジェクタから投写された映像を、投写面上で部分的に重ね合わせることによって、映像を表示するプロジェクタシステムでの映像補正方法であって、前記プロジェクタは、複数の表示用プロジェクタと、1以上の補正用プロジェクタと、を含み、前記表示用プロジェクタが、映像信号を含む映像を投写し、前記補助用プロジェクタが、前記表示用プロジェクタから投写された映像のうち、前記映像信号に対応する主映像を含まない映像が表示される投写領域に映像を投写し、前記表示用プロジェクタの前記投写領域内での前記表示用プロジェクタから投写された映像を含む領域の輝度または色の差が小さくなるように、前記補正用プロジェクタが前記投写領域に投写する映像を制御する。
 本発明によれば、主映像の輝度が必要以上に高くなることを抑制しながら、輝度むらのある領域での輝度のむらを低減することが可能になる。
投写映像を部分的に重ね合わせて主映像を表示するプロジェクタシステムの一例を示した図である。 本発明の第1の実施形態のプロジェクタシステム1を示したブロック図である。 表示用プロジェクタ2および3から投写面9上に投写された投写映像を示した図である。 プロジェクタ2および3での映像の分割と投写面9上での合成映像を示した図である。 表示用プロジェクタ2および3に入力される各入力階調や映像位置に対する出力輝度の補正例を示した図である。 各補正領域の分割例を示した図である。 第3の撮像データの領域40内の輝度分布を示した図である。 補正用プロジェクタ4が投写面9の領域40に投写表示する補正映像を示した図である。 第4の撮像データの領域50内の輝度分布を示した図である。 補正用プロジェクタ5が投写面9の領域50に投写表示する補正映像を示した図である。 表示用プロジェクタ2および3と補正用プロジェクタ4および5のそれぞれの投写映像が投写面9に投写された際に表示される映像を示した図である。 補正領域の分割領域と補正ブロックとの関係を示した図である。 補正用プロジェクタの投写領域と補正領域の例を示した図である。
 第1の実施形態
 以下、本発明の第1の実施形態のプロジェクタシステムについて図面を参照して説明する。
 図2は、本発明の第1の実施形態のプロジェクタシステム1を示したブロック図である。
 図2において、プロジェクタシステム1は、表示用プロジェクタ2および表示用プロジェクタ3と、補正用プロジェクタ4および補正用プロジェクタ5と、撮像部6と、制御部7aと、記憶部7bと、映像信号処理部7cと、投写面9を含む。
 本発明の第1の実施形態のプロジェクタシステム1は、映像信号発生器、例えばパーソナルコンピュータから出力された映像(原映像)を表示用プロジェクタ2および3に入力し、表示用プロジェクタ2および3がそれぞれ表示を行う映像の部分、例えば入力された映像上の座標を指定して映像を抽出することにより、映像の分割を行う。ただし、原映像の分割を表示用プロジェクタ以外の電子機器で行い、分割した映像を各表示用プロジェクタに入力するシステムなど、他の形態のプロジェクタシステムとしても良い。また、分割する映像は、図2のように、部分的に重なるように分割し、投写面上で部分的に重ね合わせることによって、合成している。
 表示用プロジェクタ2は、例えば、液晶プロジェクタであり、投写映像をスクリーン等の投写面9に投写する。表示用プロジェクタ3は、例えば、液晶プロジェクタであり、投写映像を投写面9に投写する。
 図3は、表示用プロジェクタ2および3から投写面9上に投写された投写映像を示している。表示用プロジェクタ2の投写領域は、領域12および領域14、領域11a1、領域11a2、領域11a4、領域11b1、領域11b2、領域11b4とから構成される領域20である。また、表示用プロジェクタ3の投写領域は、領域13および領域14、領域11a1、領域11a3、領域11a5、領域11b1、領域11b3、領域11b5とから構成される領域30である。
 プロジェクタの表示映像は、プロジェクタの投写方向と投写面9との角度により、投写面9上で、例えば領域20や領域30のように台形状に歪んで表示される。入力された映像をそのまま表示すると、入力された映像に対応する表示映像も台形状に歪んで表示される。従って、表示用プロジェクタ2から投写される映像は、入力された映像に対応する表示映像の領域が、投写面9上の領域12および領域14で構成される略矩形形状となるように台形歪補正が行われる。このとき、領域11a1、領域11a2、領域11a4、領域11b1、領域11b2、領域11b4は、黒で表示することが一般的である。
 また、表示用プロジェクタ3から投写される映像は、入力された映像に対応する表示映像の領域が、投写面9上の領域13および領域14で構成される略矩形形状となるように台形歪補正が行われる。このとき、領域11a1、領域11a3、領域11a5、領域11b1、領域11b3、領域11b5は、黒で表示することが一般的である。また、台形歪補正は、プロジェクタで行わず、プロジェクタに入力する信号に対して行い、台形歪補正された信号をプロジェクタに入力しても良い。台形歪補正に関しては、従来技術として用いられているため、ここでは詳細を省略する。
 プロジェクタの表示映像は、一般的に、光漏れの影響により完全な黒(全く光が投写されない黒)を表示することができない。つまり、黒の映像を表示しても数ルーメン程度の輝度の映像が表示される。
 表示用プロジェクタ2に入力された原映像は、表示用プロジェクタ2により、図4のように分割され、台形歪補正を行った後、領域12および領域14とから構成される領域に主映像の一部として投写される。また、表示用プロジェクタ3に入力された原映像は、表示用プロジェクタ3により、図4のように分割され、台形歪補正を行った後、領域13および領域14とから構成される領域に原映像に対応する主映像の一部として投写される。従って、表示用プロジェクタ2および3から投写された映像は、領域12および領域13、領域14とから構成される領域10に原映像に対応する主映像として投写表示される。
 また、領域11a1および領域11a2、領域11a3、領域11a4、領域11a5とから構成される領域11a、および、領域11b1および領域11b2、領域11b3、領域11b4、領域11b5とから構成される領域11bは、黒で投写されている。
 ところで、表示用プロジェクタからの投写映像が投写面上で部分的に重ね合わせて合成されるとき、投写面上の投写領域の輝度や色に注意が必要となる。つまり、2台のプロジェクタから出力される輝度は、ばらつきがあり、プロジェクタに入力される映像信号の階調が同じでも、表示される映像に輝度差が発生する場合がある。また、領域14および領域11a1、領域11b1は、2台のプロジェクタから投写されるため、領域14および領域11a1、領域11b1の輝度は、2台の表示用プロジェクタの輝度の加算値となり、明るくなってしまう。このため、原映像が表示される領域10が略同じ輝度になるように、表示用プロジェクタ2および3に入力される各入力階調や映像位置に対する出力輝度が、例えば、図5(a)や(b)のように、補正されている。
 図5(a)は、白の映像を表示するときの補正であり、主映像の領域10の重なっていない領域12および領域13では、同じ入力階調のときに略同じ輝度になるように、明るい領域の輝度を暗い領域の輝度に合わせ、さらに、重なっている領域14では、各プロジェクタの表示映像の端に向かって徐々に輝度を下げることにより、同じ入力階調のときに重なっていない領域12および領域13と略同じ輝度になるように補正している。また、図5(b)は、黒を表示するときの補正であり、重なっていない領域12および領域13の輝度が重なっている領域14と略同じ輝度になるように補正している。つまり、白を表示しているときは、輝度が低い領域の輝度に合わせ、黒を表示しているときは、輝度が高い領域の輝度に合わせている。従って、プロジェクタ1台で投写しているときに対し、コントラストの低下が発生する。また、中間調は、ガンマカーブ等の画質を考慮して補正することが望ましいので、適宜、最適の輝度になるように合わせている。
 なお、領域11aおよび領域11bの形は、黒色の映像の重なり領域が矩形に近ければあまり目立たないが、台形状になるにつれ目立つようになる。特に、黒色の映像の重なり領域が、三角形や多角形など、なにかの模様状に見えるときは、視聴者は気になりやすくなる。重なり領域が複雑な形状となるとき、主映像以外に輝度の同じまたは異なる幾何学模様が発生するため、視聴者は違和感または不快感を覚える可能性がある。
 原映像の分割を表示用プロジェクタ以外の電子機器で行っているとき、これらの輝度補正は、原映像の分割を行っている電子機器で、分割した映像信号に補正をすることでも対応可能である。ただし、原映像の分割を表示用プロジェクタで行っているときと同様に、幾何学模様は発生する。
 補正用プロジェクタ4は、例えば、液晶プロジェクタであり、赤光、緑光、青光により生成された投写映像を、スクリーン等の投写面9に投写する。補正用プロジェクタ5は、例えば、液晶プロジェクタであり、赤光、緑光、青光により生成された投写映像を投写面9に投写する。
 補正用プロジェクタ4の投写領域は、領域11aを含む領域40であり、補正用プロジェクタ4の投写映像が、領域40に発生する輝度むらを補正する。また、補正用プロジェクタ5の投写領域は、領域11bを含む領域50であり、補正用プロジェクタ5の投写映像が、領域50に発生する輝度むらを補正する。
 補正用プロジェクタ4の投写領域である領域40が主映像の投写領域である領域10に接するように補正用プロジェクタ4を配置することが望ましい。領域40と領域10とが重なると、主映像の画面に輝度むらが発生する可能性がある。また、領域40と領域10とが離れると、離れた部分は、発生する輝度むらの補正ができない領域となる。同様に、補正用プロジェクタ5の投写領域である領域50が主映像の投写領域である領域10に接するように補正用プロジェクタ5を配置することが望ましい。ただし、発生する輝度むらの状態により、問題とならない場合があるので、発生する輝度むらの状態により、適宜、補正用プロジェクタ4および5を配置することが望ましい。
 撮像部6は、例えば、カメラである。
 撮像部6は、一般的に撮像手段と呼ぶことができる。
 撮像部6は、表示用プロジェクタ2および3および補正用プロジェクタ4および5から投写表示される領域を含む投写面9を撮像して、投写面9に表示された投写映像から、補正用プロジェクタ4および5が補正をする補正領域および補正量を算出するために用いられる撮像データを生成する。なお、撮像部6は、赤、緑、青のカラーフィルタを備え、赤光の撮像データ、緑光の撮像データ、青光の撮像データをそれぞれ生成する。撮像部6は、撮像データを映像信号処理部7cに出力する。
 なお、撮像部6は、必ずしもカラーフィルタを備える必要は無く、プロジェクタの投写光に対応した赤光の撮像データ、緑光の撮像データ、青光の撮像データを、それぞれ生成する構成としてもよい。
 また、撮像部6は、単色光で投写面9上の投写映像を検出する構成としてもよい。ただし、補正映像の制御を、赤、緑、青の各色を独立して制御する場合、プロジェクタの漏れ光も検出することが望ましいため、例えば、プロジェクタ内部で赤、緑、青の光を合成する前に遮蔽板等を用いて光を遮光したり、プロジェクタの投射レンズに赤、緑、青のカラーフィルタを一時的に配置したり、プロジェクタで赤光、緑光、青光を個別に表示してプロジェクタの投写光に対応した赤光の撮像データ、緑光の撮像データ、青光の撮像データを生成することが望ましい。
 制御部7aは、一般的に制御手段と呼ぶことができる。
 制御部7aは、記憶部7b、映像信号処理部7c、撮像部6、表示用プロジェクタ2および3、補正用プロジェクタ4および5を制御する。なお、制御部7aは、映像信号処理部7cに含まれても良い。
 映像信号処理部7cは、一般的に映像信号処理手段と呼ぶことができる。
 映像信号処理部7cは、撮像部6から撮像データを受け付けると、撮像データに基づき、補正用プロジェクタ4の投写領域である領域40および補正領域を抽出し、補正用プロジェクタ4の補正量を算出するための、入力階調に対する輝度値を示すLUT(Look Up Table)を生成する。さらに、映像信号処理部7cは、受け付けた撮像データに基づき、補正領域の輝度分布を検出し、検出された輝度分布と、抽出された補正領域と、生成されたLUTとに基づいて、補正量を算出する。なお、生成されるLUTおよび補正量は、赤、緑、青のそれぞれについて生成される。また、映像信号処理部7cは、投写領域および補正領域および補正量に基づき、投写領域である領域40の輝度むらを補正するための補正用プロジェクタ4の補正映像を生成する。
 また、同様に、映像信号処理部7cは、補正用プロジェクタ5の投写領域である領域50および補正領域を抽出し、入力階調に対する輝度値を示すLUTを生成し、補正量を算出する。また、映像信号処理部7cは、投写領域および補正領域および補正量に基づき、領域50の輝度むらを補正するための補正用プロジェクタ5の補正映像を生成する。なお、本実施形態では、補正用プロジェクタ4および5の補正領域を、補正用プロジェクタ4および5のそれぞれの投写領域と同じとしているため、投写領域のみを抽出すればよい。
 記憶部7bは、補正用プロジェクタ4および5の入力階調に対する輝度値を示すLUTを保存する。また、記憶部7bは、補正用プロジェクタ4および5の補正領域および補正量を保存する。また、記憶部7bは、補正用プロジェクタ4および5が投写面9に投写する補正映像を保存しても良い。記憶部7bは、補正用プロジェクタ4および5の補正領域および補正量、または、補正用の画面の少なくともいずれか一方を保存すれば良い。
 次に、動作を説明する。
 表示用プロジェクタ2が投写映像を投写面9上の領域20に投写し、表示用プロジェクタ3が投写映像を投写面9上の領域30に投写すると、表示用プロジェクタ2および3の投写映像が、投写面9上で部分的に重ね合わせられる。これにより、領域10に表示される主映像と領域11aおよび領域11bに表示される黒の隣接映像とからなる映像が、投写面9上に表示される。
 表示用プロジェクタ2および3が投写する領域10において、表示用プロジェクタ2および3に入力される各入力階調に対する出力輝度が、略同一となるように、表示用プロジェクタ2および3において各入力階調に対する出力輝度が調整されている。例えば、表示用プロジェクタ2および3に同一階調の映像が入力されると、少なくとも領域10において、略同一の輝度となる。
 また、補正用プロジェクタ4が投写映像を投写面9上の領域40に投写し、補正用プロジェクタ5が投写映像を投写面9上の領域50に投写すると、表示用プロジェクタ2および3および補正用プロジェクタ4の投写映像が、投写面9上の領域40で部分的に重ね合わせられ、また、表示用プロジェクタ2および3および補正用プロジェクタ5の投写映像が、投写面9上の領域50で部分的に重ね合わせられる。
 最初に、プロジェクタシステム1は、補正用プロジェクタの入力階調に対する輝度値を示すLUTを生成する。補正用プロジェクタの入力階調に対する輝度値を示すLUTは、補正用プロジェクタの補正量を算出するために用いられるLUTである。
 まず、プロジェクタシステム1は、補正用プロジェクタ4に入力される映像信号の階調に対する輝度を検出する。例えば、表示用プロジェクタ2および3および補正用プロジェクタ5が映像を投写せず、補正用プロジェクタ4が映像を投写している状態で、撮像部6は投写面9を撮像し、第1の撮像データを生成する。表示用プロジェクタ2および3および補正用プロジェクタ5が映像を投写していない状態とは、映像を投写するためのプロジェクタ内部の光源を消灯したり、プロジェクタの投写レンズの前に遮光板等を配置したりして、投写光が投写面9上の領域40に影響を与えないようにした状態である。補正用プロジェクタ4が映像を投写している状態とは、補正用プロジェクタ4に予め定められた階調の映像を入力し、入力された映像が投写面9に投写された状態である。
 例えば、補正用プロジェクタ4および5への入力階調の範囲が最小値0から最大値255とし、撮像するときの入力階調を5個の階調とすると、予め定められた入力階調は、例えば、0、64、128、192、255の階調とすれば良い。予め定められた入力階調は、等間隔に設定しても良いが、輝度が急峻に変化する階調付近を密にして設定しても良い。また、予め定められた入力階調の数を増やしても良い。検出する階調が多くなるほど精確に輝度の補正が可能となるが、記憶容量の増加や検出時間の増加、等の要因となる。撮像部6は、補正用プロジェクタ4への入力階調を0、64、128、192、255にそれぞれ変更したときの投写面9上の映像をそれぞれ撮像し、5個の撮像データとして第1の撮像データを生成する。生成された第1の撮像データは、映像信号処理部7cに出力される。なお、第1の撮像データは1個毎に映像信号処理部7cに出力しても良い。
 次に、プロジェクタシステム1は、補正用プロジェクタ5に入力される映像信号の階調に対する輝度を検出する。表示用プロジェクタ2および3および補正用プロジェクタ4が映像を投写せず、補正用プロジェクタ5が映像を投写している状態で、撮像部6は投写面9を撮像し、第2の撮像データを生成する。この状態は、前述の補正用プロジェクタ4が映像を投写し、補正用プロジェクタ5が映像を投写していない状態から、補正用プロジェクタ4と補正用プロジェクタ5の状態を入れ替えた状態である。なお、第2の撮像データを生成する動作は、第1の撮像データを生成する動作と同様なので、詳細な説明は割愛する。生成された第2の撮像データは、映像信号処理部7cに出力される。
 次に、映像信号処理部7cは、受け付けた第1の撮像データに基づいて、領域40における補正用プロジェクタ4の、入力階調に対する輝度値を示すLUTを赤、緑、青毎に生成し、記憶部7bに保存する。生成するLUTは、領域40を分割し、分割した領域毎に作成すれば、より精確に補正することが可能となるが、分割する数を増加するほどLUTの数が増加するため、本実施形態では、図6のように、領域40を縦4分割、横8分割の32の領域に分割することとし、分割された各領域内の輝度の平均値を用いる。ただし、領域40における領域内の補正用プロジェクタ4の、入力階調に対する輝度値のばらつきが小さいときは、領域を分割せず、1つのLUTとしても良い。領域40における領域内の輝度のばらつきとは、領域40におけるそれぞれの領域全部に同一階調の映像を入力したときの、領域40における領域内の、各部分の輝度差のばらつきである。
 さらに具体的に説明する。映像信号処理部7cは、受け付けた第1の撮像データを基に、領域40を抽出する。例えば、入力階調が0のときの撮像データと、入力階調が255のときの撮像データとの差分により、領域40を抽出することができる。抽出された領域40は、撮像データに対応する位置情報として記憶部7bに保存される。次に、映像信号処理部7cは、抽出された領域40を縦4分割、横8分割の32の領域(領域4011、領域4012、・・・、領域4018)に分割する。次に、映像信号処理部7cは、5個の入力階調に対応する撮像データに基づき、分割された32の領域毎に、赤、緑、青の輝度の平均値をそれぞれ算出する。映像信号処理部7cは、算出された輝度値に基づき、分割された32の領域毎に、補正用プロジェクタ4の入力階調に対する輝度値を示すLUTを生成する。生成されたLUTは、記憶部7bに保存される。なお、領域40は、補正用プロジェクタ4の表示素子、例えば液晶パネル上の表示映像の表示領域と一致しているので、生成されたLUTは、補正用プロジェクタ4の液晶パネルの表示領域を縦4分割、横8分割の32の領域に分割した、それぞれの領域に対応した値となる。
 また、映像信号処理部7cは、受け付けた第2の撮像データに基づいて、領域50における補正用プロジェクタ5の、入力階調に対する輝度値を示すLUTを赤、緑、青毎に生成し、記憶部7bに保存する。なお、第2の撮像データに基づいて、領域50における補正用プロジェクタ5の、入力階調に対する輝度値を示すLUTを生成、保存する動作は、第1の撮像データを基に、領域40における補正用プロジェクタ4の、入力階調に対する輝度値を示すLUTを生成、保存する動作と同様なので、詳細な説明は割愛する。なお、抽出された領域50は、図6のように、縦4分割、横8分割の32の領域(領域5011、領域5012、・・・、領域5018)に分割される。
 ところで、補正用プロジェクタの入力階調に対する輝度値を示すLUTを生成するときの入力階調に対する輝度値の検出において、領域40または領域50に発生する輝度むらが補正できる範囲で検出すればよいので、検出する入力階調は0から255まで検出する必要はなく、例えば、入力階調の32から128まで等、適宜、最適の範囲で検出すればよい。
 また、補正用プロジェクタの入力階調に対する輝度値を示すLUTを生成するときの入力階調に対する輝度値の検出において、輝度値は投写面9の近傍に一時的に配置した輝度計等を用いて検出しても良い。ただし、輝度計等を用いるとき、領域40または領域50に対する輝度計等の位置を精確に設定することが望ましい。特に、補正領域を分割してLUTを生成する場合は、補正量の誤差を小さくするために、輝度計等の位置を分割した領域に対して精確に設定する必要がある。
 また、補正用プロジェクタの入力階調に対する輝度値を示すLUTを生成するときの入力階調に対する輝度値の検出において、領域40における領域内の輝度のばらつきが小さい場合、検出する位置は、領域40内の狭領域の1箇所でも良い。この場合、LUTの数を削減できる。補正領域を分割して検出する場合、領域40または領域50の各部分に対して輝度の変化量を把握できれば、各部分において精確に輝度むらの補正が可能となるが、記憶容量の増加や検出時間、処理時間の増加、等の要因となる。一方、例えば、領域中央部付近1箇所のみの検出の場合、処理するデータ量が削減できるが、補正量の誤差が大きくなり、領域の各部分に対して輝度むらが残ってしまう可能性がある。領域50についても、同様である。
 補正用プロジェクタの入力階調に対する輝度値を示すLUTの生成は、補正用プロジェクタの状態、例えば、設置状態やプロジェクタの光源であるランプ等の状態に変更がなければ、1度行えれば良く、毎回行う必要はない。
 次に、プロジェクタシステム1は、補正用プロジェクタ4および5の補正量を算出し、補正映像を生成する。
 例えば、表示用プロジェクタ2および3が映像を投写し、補正用プロジェクタ4が映像を投写し、補正用プロジェクタ5が映像を投写していない状態で、撮像部6は投写面9を撮像し、第3の撮像データを生成する。表示用プロジェクタ2および3および補正用プロジェクタ4が映像を投写している状態とは、それぞれのプロジェクタに入力階調が0に対応する黒の映像を投写している状態である。ただし、補正用プロジェクタ4が出力する入力階調が0に対応する黒の輝度レベルは、表示用プロジェクタが出力する入力階調が0に対応する黒の輝度レベルと同じでなくても良い。また、補正用プロジェクタ5が映像を投写していない状態とは、映像を投写するための光源を消灯したり、投写レンズの前に遮光板等を配置したりして、投写光が投写面9上の領域40に影響を与えないようにした状態である。生成された第3の撮像データは、映像信号処理部7cに出力される。
 次に、表示用プロジェクタ2および3が映像を投写し、補正用プロジェクタ4が映像を投写せず、補正用プロジェクタ5が映像を投写している状態で、撮像部6は投写面9を撮像し、第4の撮像データを生成する。この状態は、前述の補正用プロジェクタ4が映像を投写し、補正用プロジェクタ5が映像を投写していない状態から、補正用プロジェクタ4と補正用プロジェクタ5の状態を入れ替えた状態である。なお、第4の撮像データを生成する動作は、第3の撮像データを生成する動作と同様なので、詳細な説明は割愛する。また、補正用プロジェクタ5が出力する入力階調が0に対応する黒の輝度レベルは、表示用プロジェクタが出力する入力階調が0に対応する黒の輝度レベルまたは補正用プロジェクタ4が出力する入力階調が0に対応する黒の輝度レベルと同じでなくても良い。生成された第4の撮像データは、映像信号処理部7cに出力される。
 次に、映像信号処理部7cは、第3の撮像データに基づいて、補正用プロジェクタ4の補正量を赤、緑、青毎に算出する。映像信号処理部7cは、第3の撮像データに基づいて、第1の撮像データから抽出された領域40に対応する第3の撮像データの領域40を抽出する。図7は、第3の撮像データの領域40内の輝度分布を示した図である。図7では、領域11a2と領域11a3と領域11a4と領域11a5のそれぞれの輝度値は略同一であり、領域11a1の輝度値は領域11a2の輝度値よりも高い。また、領域40のうち領域11a以外の領域の輝度値は領域11a2の輝度値よりも低い。次に、映像信号処理部7cは、抽出された第3の撮像データの領域40内の各画素の輝度を抽出する。次に、映像信号処理部7cは、抽出された各画素の輝度値を比較し、最大輝度値を抽出する。次に、第3の撮像データから抽出された領域40の各画素の輝度値が、抽出された最大輝度値と略同一の輝度値となるように、映像信号処理部7cは、記憶部7bに保存された補正用プロジェクタ4の入力階調に対する輝度値を示すLUTに基づき、補正量を算出する。つまり、映像信号処理部7cは、抽出された最大輝度を目標輝度とし、目標輝度になる入力階調をLUTに基づいて、算出する。算出された入力階調が、その画素の補正値となる。補正量は、補正値と第3の撮像データを取得するときの入力階調との差分で表されるため、本実施形態では、入力階調が0であり、補正値=補正量となる。なお、映像信号処理部7cは、LUTに保存されていない階調の輝度値を、直線補間や近似式等を用いて補間する。算出された補正量は、領域40の各画素に対応して記憶部7bに保存される。
 次に、映像信号処理部7cは、算出された補正量に基づいて、補正用プロジェクタ4が投写面9の領域40に投写表示する補正映像を生成する。図8は、補正用プロジェクタ4が投写面9の領域40に投写表示する補正映像を示した図である。図8では、領域11a1の輝度値が最も低く、領域11a2と領域11a3と領域11a4と領域11a5のそれぞれの輝度値は略同一であって領域11a1の輝度値よりも高い。また、領域40のうち領域11a以外の領域の輝度値は領域11a2の輝度値よりも高い。なお、撮像部6で撮像された撮像データから抽出された領域40の解像度と、補正用プロジェクタ4の液晶パネルの表示解像度は、基本的には異なっているため、適宜、領域40の解像度が補正用プロジェクタ4の表示解像度と同じになるように、領域40の解像度を解像度変換する必要がある。解像度変換は、領域40の各画素に対応して算出された補正量に対して行っても良いし、補正映像に対して行っても良い。
 記憶部7bに保存されるデータは、撮像データに対応する領域40および50の位置情報と領域40および50の各画素に対応する補正量としたが、その代わりに、補正用プロジェクタ4および5が投写面9に投写表示する補正映像としても良い。また、記憶部7bに保存されるデータは、解像度変換する前または後の値でも良い。
 また、映像信号処理部7cは、第4の撮像データに基づいて、補正用プロジェクタ5の補正量を算出し、記憶部7bに保存し、算出された補正量に基づき、補正用プロジェクタ5が投写面9の領域50に投写表示する補正映像を生成する。
図9は、第4の撮像データの領域50内の輝度分布を示した図である。図9では、領域11b2と領域11b3と領域11b4と領域11b5のそれぞれの輝度値は略同一であり、領域11b1の輝度値は領域11b2の輝度値よりも高い。また、領域50のうち領域11b以外の領域の輝度値は領域11b2の輝度値よりも低い。図10は、補正用プロジェクタ5が投写面9の領域50に投写表示する補正映像を示した図である。図10では、領域11b1の輝度値が最も低く、領域11b2と領域11b3と領域11b4と領域11b5のそれぞれの輝度値は略同一であって領域11b1の輝度値よりも高い。また、領域50のうち領域11b以外の領域の輝度値は領域11b2の輝度値よりも高い。なお、第4の撮像データに基づいて、補正用プロジェクタ5の補正量を算出し、記憶部7bに保存し、算出された補正量に基づいて、補正用プロジェクタ5が投写面9に投写表示する補正映像を生成する動作は、第3の撮像データに基づいて、補正用プロジェクタ4の補正量を算出し、記憶部7bに保存し、算出された補正量に基づいて、補正用プロジェクタ4が投写面9に投写表示する補正映像を生成する動作と同様なので、詳細な説明は割愛する。
 映像信号処理部7cは、生成された領域40に対応する補正映像を補正用プロジェクタ4に出力し、生成された領域50に対応する補正映像を補正用プロジェクタ5に出力する。
 補正用プロジェクタ4は、入力された領域40に対応する補正映像を投写面9の領域40に投写する。また、補正用プロジェクタ5は、入力された領域50に対応する補正映像を投写面9の領域50に投写する。図11は、表示用プロジェクタ2および3と補正用プロジェクタ4および5のそれぞれの投写映像が投写面9に投写された際に表示される映像を示した図である。
 第2の実施形態
 以下、本発明の第2の実施形態のプロジェクタシステムについて説明する。
 第1の実施形態は、撮像部6で撮像した撮像データに基づいて、補正用プロジェクタの入力階調に対する輝度値を示すLUTを生成したが、第2の実施形態は、予め検出した値を用いて生成されたLUTを、補正用プロジェクタの入力階調に対する輝度値を示すLUTとして、予め保存しておく。
 ただし、LUTを予め保存しておく場合は、映像信号処理部7cは、予め検出したときの状態、例えば設置状態と実際の状態との相関関係に基づき、LUTの値を補正して使用する。つまり、投写される投写映像の大きさにより、投写面9における輝度が変化するため、映像信号処理部7cは、予め検出した値を補正して、実際の設置状態の輝度を算出する。例えば、補正用プロジェクタ4と5が設置された状態で、映像信号処理部7cは、補正用プロジェクタ4または5の表示画面に特定の階調、例えば階調255を表示して輝度を検出する。映像信号処理部7cは、LUTに保存されている予め検出した特定階調に対応する階調255の輝度と、検出された階調255の輝度とに基づき補正係数を算出し、実際の設置状態における各入力階調に対する輝度値を算出する。また、映像信号処理部7cは、予め検出したときの投写映像の大きさと、実際の設置状態の投写映像との大きさで相関関係を求めても良い。
 また、予め保存されるLUTは、例えば、工場で生産されるときに生成される。工場で生産されるときに、予め設定した投写映像の大きさとなるように各プロジェクタが設置され、該プロジェクタで投写された映像に基づいて予め輝度が検出され、検出した値に基づき生成された、入力階調に対する輝度値を示すLUTが記憶部に保存される。また、補正用プロジェクタとして用いられるプロジェクタの輝度のばらつきが小さい場合は、工場で生産されるときに、基準となる複数台の該プロジェクタに対して輝度が検出され、検出した値の平均値に基づき生成された、入力階調に対する輝度値を示すLUTが記憶部に保存されてもよい。
 また、LUTを予め保存しておく場合は、映像信号処理部7cは、補正用プロジェクタ4および5の補正量を算出するときに、領域40および領域50を抽出する。
 領域40および領域50は、第1の実施形態と同様にして撮像された第3の撮像データと第4の撮像データとの差分により抽出される。例えば、第3の撮像データから第4の撮像データを引くと、表示用プロジェクタ2および3が投射している映像は相殺される。また、補正用プロジェクタ4が投射している映像は、正の値となる。また、補正用プロジェクタ5が投射している映像は、負の値となる。つまり、正の値となった領域が領域40として抽出され、負の値となった領域が領域50として抽出される。
 他の動作は、第1の実施形態と同様なので、詳細な説明は割愛する。
 第3の実施形態
 以下、本発明の第3の実施形態のプロジェクタシステムについて説明する。
 第1および第2の実施形態では、領域40または領域50の各画素に対して補正を行ったが、第3の実施形態は、領域40または領域50内の略同一となる輝度の領域を抽出して、抽出された領域に対して補正を行う。
 例えば、映像信号処理部7cは、第3の撮像データから抽出された領域40内の輝度値に基づき、輝度値の変化量が大きくなっているエッジを検出し、例えば、領域11a1、11a2、11a3、11a4、11a5および領域11a以外の領域40を、それぞれ補正ブロックとして設定する。次に、映像信号処理部7cは、それぞれの補正ブロック内の輝度値の平均値を算出する。次に、映像信号処理部7cは、算出された各補正ブロックの輝度値を比較し、最大輝度値を抽出する。次に、映像信号処理部7cは、第3の撮像データから抽出された領域40の各補正ブロックの輝度値が、抽出された最大輝度値と略同一の輝度値となるように、記憶部7bに保存された補正用プロジェクタ4の入力階調に対する輝度値を示すLUTに基づき補正量を算出する。
 ただし、通常、補正用プロジェクタ4の入力階調に対する輝度値を示すLUTに規定された分割領域(領域4011、領域4012、・・・、領域4018)と、補正ブロックの領域(領域11a1、領域11a2、領域11a3、領域11a4、領域11a5および領域11a以外の領域40)は一致していない。このため、LUTに規定された分割領域と補正ブロックの領域との関係から、映像信号処理部7cは、各補正ブロックの補正量を算出するために使用される、補正用プロジェクタ4の入力階調に対する輝度値を示すLUTと同等のデータを算出する。映像信号処理部7cは、算出された補正用プロジェクタ4の入力階調に対する輝度値を示すLUTと同等のデータに基づき、補正量を算出する。
 例えば、図12のように、映像信号処理部7cは、補正ブロックを含むLUTの分割領域のうち、予め定められた割合以上、補正ブロックを含むLUTの分割領域から求められる輝度の平均値を算出する。例えば、補正ブロックを領域11a2とすると、補正ブロックの領域11a2を含むLUTの分割領域は、領域4032、領域4033、領域4034、領域4041、領域4042、領域4043、領域4044となる。予め定められた割合を、例えば50%とすると、参照されるLUTの領域は、領域4033、領域4042、領域4043となり、映像信号処理部7cは、領域4033、領域4042、領域4043のLUTから、それぞれ求められる輝度の平均値を算出する。このとき、領域4032、領域4034、領域4041、領域4044は、50%未満の狭い領域であるため、除外される。
 ただし、補正ブロックを含むLUTの分割領域のうち、予め定められた割合以上、補正ブロックを含むLUTの分割領域が無い場合、該補正ブロックを含むLUTの分割領域のうち、該補正ブロックの最大面積を含むLUTの分割領域LUTが用いられればよい。例えば、補正ブロックを領域11a4とすると、補正ブロックの領域11a4を含むLUTの分割領域は、領域4015、領域4025となる。補正ブロックの領域11a4は、LUTの分割領域4015または4025の50%以上を含んでいない。したがって、参照されるLUTの領域は、補正ブロックの領域11a4の最大面積を含む領域4025となり、映像信号処理部7cは、領域4025のLUTを用いる。このとき、領域4015は、除外される。
 また、同様の処理を、領域50にも適用できる。
 他の動作は、第1の実施形態と同様なので、詳細な説明は割愛する。ただし、映像信号処理部7cが、補正領域や、補正量等の取扱いを、補正ブロック単位で行えば、記憶容量の削減や処理時間の短縮となる。
 第4の実施形態
 以下、本発明の第4の実施形態のプロジェクタシステムについて説明する。
 第3の実施形態では、領域40または領域50内の略同一となる輝度の領域を抽出して、抽出された領域に対して補正量を算出し、補正を行ったが、第4の実施形態は、領域40または領域50内の略同一となる輝度の領域を手動で設定して、設定された領域に対して補正を行う。
 第4の実施形態は、第3の実施形態に対し、撮像部6の代わりに、プロジェクタシステムの使用者が補正ブロックの指定や補正量の調整等の設定を行うための、矢印キーやマウス等の信号を受け付ける入力部8を備える。
 補正領域を、補正ブロックとして設定する場合、簡単に、手動で補正を行うことが可能となる。例えば、映像信号処理部7cは、補正用プロジェクタ4または5の表示画面に位置指定ができる十字などのマーカーを表示させる。プロジェクタシステム1の使用者は、表示されたマーカーを矢印キー、または、マウス等を用いて移動させ、エンターキー、または、マウスのクリック等により補正ブロックの領域を設定する。次に、プロジェクタシステム1の使用者は、設定された補正ブロックを指定して、補正用プロジェクタ4または5の表示画面に表示された調整バー、または、矢印キー等を用いて、輝度または各色を変化させて補正を行う。
 なお、第3の実施形態において、第4の実施形態の入力部8を備えることにより、抽出された補正ブロック毎に、第4の実施形態と同様に、手動で補正量を調整することも可能である。
 領域40に、領域40に対応する補正映像が投写されることによって、領域40内の輝度は、プロジェクタ2の光漏れに起因する輝度と、プロジェクタ3の光漏れに起因する輝度と、プロジェクタ4の光漏れに起因する輝度と、が加算された輝度に統一される。また、領域50に、領域50に対応する補正映像が投写されることによって、領域50内の輝度は、プロジェクタ2の光漏れに起因する輝度と、プロジェクタ3の光漏れに起因する輝度と、プロジェクタ5の光漏れに起因する輝度と、が加算された輝度に統一される。
 また、主映像の領域10には、領域40に対応する補正映像も領域50に対応する補正映像も投写されないため、主映像の領域10の輝度、特に黒の輝度が必要以上に高くならないため、主映像の領域10におけるコントラストの悪化を防止することができる。
 なお、本実施形態において、補正領域の補正は、できるだけ暗い黒に補正するように行ったが、領域40と領域50の黒の輝度が略同じになるように補正してもよい。この場合、映像信号処理部7cは、領域40と領域50の両方の領域の中で最大輝度を抽出し、領域40と領域50の輝度が最大輝度と同じ輝度になるように補正する。領域40と領域50の黒の輝度を略同じ輝度にそろえることにより、視聴者の違和感が緩和される。
 また、本実施形態において、補正領域の補正は、できるだけ暗い黒に補正するように行ったが、白や青等の表示としてもよい。
 また、本実施形態において、各プロジェクタの投写領域を抽出するため、各プロジェクタが投写する映像として黒の表示を行ったが、各プロジェクタが投写する映像の輝度や色を変更する等、適宜、変更が可能である。この場合、投写領域が重なった領域に対しては、合成された色や加算された輝度レベル等により、適宜、判断することが可能である。
 また、本実施形態において、領域40と領域50の撮像データは、別々に撮像したが、領域50における補正用プロジェクタ4の投写映像が与える輝度や色への影響が小さく、領域40における補正用プロジェクタ5の投写映像が与える輝度や色への影響が小さい場合は、補正用プロジェクタ4および5を同時に投射して撮像することも可能である。
 この場合、撮像部6は、まず、領域40および領域50を検出するための映像を撮像し、第5の撮像データを生成する。次に、第1の撮像データを撮像するときの状態に対し、補正用プロジェクタ5が映像を投写している状態として、第1の撮像データを撮像するときと同様にして撮像部6が撮像し、第6の撮像データを生成する。次に、映像信号処理部7cは、第5の撮像データに基づき、投写領域と補正領域を抽出し、第6の撮像データに基づき、領域40および領域50における補正用プロジェクタ4および5の、入力階調に対する輝度値を示すLUTを生成する。
 次に、第3の撮像データを撮像するときの状態に対し、補正用プロジェクタ5が映像を投写している状態として、第3の撮像データを撮像するときと同様にして撮像部6が撮像し、第7の撮像データを生成する。次に、映像信号処理部7cは、第7の撮像データに基づき、領域40および領域50における補正用プロジェクタ4および5の補正量を算出し、補正画像を生成する。
 また、本実施形態において、撮像する領域は、投写面9上の領域40および50を含む領域としたが、補正用プロジェクタの領域毎に撮像する等、適宜、変更が可能である。
 また、本実施形態において、映像信号処理部7cは、主映像の領域10を抽出してもよい。主映像の領域10を抽出することにより、投写領域40または50と投写領域10とが離れるとき、または、重なるときに、映像信号処理部7cは、主映像の領域10になるべく影響が出ないように補正したり、エラー表示をしたりすること等ができる。
 例えば、主映像の領域10を、発生している輝度むら等と明らかに異なる輝度、例えば白で表示することにより、主映像の領域10を抽出することも可能となる。このとき、主映像の領域10の輝度はできるだけ低いほうが望ましい。これは、カメラ5の性能にもよるが、全領域をできるだけ暗く表示するほうが、カメラ5のダイナミックレンジを十分に活用することができるため、後述の補正領域の補正量を算出するときに、補正量の精度が向上する場合がある。また、撮像するデータによっては、補正領域の輝度むらを抽出するための撮像データとなるため、主映像の領域10を、輝度に影響が少ない映像、例えば、低輝度の青等の映像とすることでも検出できる。
 また、補正用プロジェクタ4および5の補正領域は、補正用プロジェクタ4および5のそれぞれの投写領域と同じでなくともよい。つまり、輝度むらの補正は補正用プロジェクタ4の投写領域である領域40の全部に行う必要はなく、使用者が違和感または不快感を覚えないような形状となるようにすれば良い。例えば、図13のように、補正領域を領域10と近接し、領域11aまたは領域11bを全部含むように縦方向や横方向を狭くした領域41または領域51のような形状としてもよい。主映像の領域10の上下左右に発生する隣接映像が、視聴者に対し、なるべく違和感を覚えない形状にすることが望ましい。この場合、補正領域41以外の投写領域40、または、補正領域51以外の投写領域50は補正用プロジェクタの黒を表示させればよい。
 また、補正映像の制御を、赤、緑、青の各色を独立して制御せずに、赤、緑、青の各色を連動して制御する場合は、撮像部6は、単色光で投写面9上の投写映像を検出すればよく、各種処理も、赤、緑、青を個別に制御せず、同じ入力階調として制御することができる。
 また、補正用プロジェクタが出力する補正映像は、補正用プロジェクタに含まれる映像信号処理部で生成しても良い。
 また、制御部7a、記憶部7b、映像信号処理部7c、撮像部6は、補正用プロジェクタにそれぞれ内蔵されても良い。この場合、補正用プロジェクタは、自身の投写領域を撮像し、自身が投写する補正映像を生成すればよい。
 本実施形態によれば、映像信号処理部7cは、領域40内での輝度の差が小さくなるように、領域40に対応する補正映像を生成し、かつ、領域50内での輝度の差が小さくなるように、領域50に対応する補正映像を生成する。
 領域40に対応する補正映像が領域40に投写されることによって、領域40内での輝度むらが低減し、また、領域50に対応する補正映像が領域50に投写されることによって、領域50内での輝度むらが低減する。さらに、主映像10には、領域40に対応する補正映像も領域50に対応する補正映像も投写されないため、主映像10の輝度が必要以上に高くなることを抑制可能となる。
 また、本実施形態では、撮像部6は、投写面9上の領域40および50を含む領域を撮像して撮像データを生成する。記憶部7bは、補正用プロジェクタの入力階調と輝度値の関係を示すデータを保存し、映像信号処理部7cは、撮像データを解析して領域40および50内の輝度分布を検出する。
 そして、映像信号処理部7cは、記憶部7b内のデータを用いて、領域40内での輝度の差が小さくなるように、領域40に対応する補正映像を生成し、かつ、領域50内での輝度の差が小さくなるように、領域50に対応する補正映像を生成する。
 また、本実施形態では、複数の投写映像が、横方向のみでつなぎ合わせられていたが、複数の投写映像が、縦方向のみ、または、横方向と共に縦方向にもつなぎ合わせられてもよい。
 この場合、つなぎ合わせる状態により、隣接映像は、主映像の上下側だけでなく左右側、またはその両方に生じる場合がある。例えば、隣接映像が上下左右に発生する場合には、上下左右の隣接映像のそれぞれに対応する4台の補正用プロジェクタが設けられ、4台の補正用プロジェクタは、それぞれ、主映像を含まず自己に対応する隣接映像を含む領域を投写領域とし、映像信号処理部7cが、投写領域ごとに、補正用データを生成することが望ましい。4台の補正用プロジェクタは、自己の投写領域について生成された補正用データに基づき補正映像を、自己の投写領域に投写する。
 また、本実施形態では、複数の投写映像が、横方向のみでつなぎ合わせられ、隣接映像が上下側に発生していたが、表示用プロジェクタの投写方向と投写面の関係により、隣接映像が上側または下側の一方にのみ発生する場合がある。この場合、補正用のプロジェクタは1台とし、この1台の補正用のプロジェクタが、発生している1つの隣接映像に対して配置されてもよい。複数の投写映像が、縦方向のみ、または、横方向と共に縦方向にもつなぎ合わせられる場合も、同様である。つまり補正用のプロジェクタは、補正したい隣接映像に対して配置してもよい。
 また、主映像を構成する表示用プロジェクタの数が増えると、隣接映像の領域も広がるため、隣接映像の1つ、例えば上側の隣接映像に対し、複数台の補正用プロジェクタを設けても良い。このとき、複数の補正用プロジェクタの投写映像が互いに重なる領域が発生する可能性があるので、映像の補正は、この重なる部分の輝度を考慮することが望ましい。
 また、本実施形態において、補正用プロジェクタとしては、表示用プロジェクタよりも最大出力輝度の低いプロジェクタが利用されてもよい。この場合、補正用プロジェクタが表示できる映像信号の階調が表示用プロジェクタが表示できる映像信号の階調と同じだとすると、補正用プロジェクタが表示できる輝度の階調は、表示用プロジェクタが表示できる輝度の階調の黒レベル側の一部に相当するので、黒側の輝度の階調をより細かく調整できるようになる。表示用プロジェクタおよび補正用プロジェクタの漏れ光の輝度と、補正用プロジェクタの最大出力輝度と、補正用プロジェクタの映像信号の階調数により、適宜、補正用プロジェクタを選択することが望ましい。
 ただし、補正用プロジェクタが投写した映像の投写面9上の最大輝度(白)が、表示用プロジェクタ2の投写映像の投写面9上の黒と、表示用プロジェクタ3の投写映像の投写面9上の黒と、該補正用プロジェクタが投写した映像の投写面9上の黒との加算値以上である必要がある。ただし、表示用プロジェクタ2および3は、図5の輝度補正が行われていない状態とする。
 また、補正用プロジェクタは、表示用プロジェクタよりも表示解像度が低いプロジェクタでもよい。ただし、表示解像度が低くなると、投写面9上における補正用プロジェクタの1つの画素が、表示用プロジェクタの1つの画素よりも大きくなり、輝度が変わる境界線付近での補正領域の大きさや位置のずれにより補正の効果が悪化するので、許容できる範囲で補正用プロジェクタの表示解像度を選択することが望ましい。
 また、補正用プロジェクタは、表示用プロジェクタよりも表示解像度が高いプロジェクタでもよい。例えば、投写面9の横方向に着目すると、補正用プロジェクタ4の投写領域40の横方向の長さは、表示用プロジェクタ2の投写領域20の横方向の長さに対して長いので、仮に、補正用プロジェクタ4の表示解像度と表示用プロジェクタ2の表示解像度が同じだとすると、投写面9上における補正用プロジェクタの1つの画素が、表示用プロジェクタの1つの画素よりも大きくなる。つまり、輝度が変わる境界線付近での補正領域の大きさや位置のずれにより補正の効果が悪化するので、許容できる範囲で補正用プロジェクタの表示解像度選択することが望ましい。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
   1   プロジェクタシステム
   2、3 表示用プロジェクタ
   4、5 補正用プロジェクタ
   6   撮像部
   7a  制御部
   7b  記憶部
   7c  映像信号処理部
   8   入力部
   9   投写面

Claims (6)

  1.  複数のプロジェクタから投写された映像を、投写面上で部分的に重ね合わせることによって、映像を表示するプロジェクタシステムであって、
     前記プロジェクタは、複数の表示用プロジェクタと、1以上の補正用プロジェクタと、
    を含み、
     映像信号を含む映像を投写する前記表示用プロジェクタと、
     前記表示用プロジェクタから投写された映像のうち、前記映像信号に対応する主映像を含まない映像が表示される投写領域に映像を投写する前記補助用プロジェクタと、
     前記表示用プロジェクタの前記投写領域内での前記表示用プロジェクタから投写された映像を含む領域の輝度または色の差が小さくなるように、前記補正用プロジェクタが前記投写領域に投写する映像を制御する映像信号処理手段と、
    を有する、プロジェクタシステム。
  2.  請求項1に記載のプロジェクタシステムにおいて、
     前記補正用プロジェクタの投写領域を含む領域を撮像して、撮像データを生成する撮像手段をさらに含み、
     前記映像信号処理手段は、前記撮像データに基づき、前記補正用プロジェクタの投写領域、または、投写領域および補正領域を抽出し、前記投写領域または補正領域内の輝度分布または色分布を検出し、前記投写領域または補正領域内での輝度または色の差が小さくなるように、前記補正用プロジェクタが前記投写領域に投写する映像を生成する、プロジェクタシステム。
  3.  請求項2に記載のプロジェクタシステムにおいて、
     前記表示用プロジェクタの前記投写領域は複数あり、
     前記補正用プロジェクタの数は、前記表示用プロジェクタの前記投写領域の数以上であり、
     前記表示用プロジェクタの前記投写領域は、それぞれ、少なくとも1台の前記補正用プロジェクタと対応づけられ、
     前記補正用プロジェクタのそれぞれは、自己に対応する前記表示用プロジェクタの前記投写領域に映像を投写し、
     前記撮像手段は、前記補正用プロジェクタのそれぞれの投写領域を含む領域を撮像して前記撮像データを生成し、
     前記映像信号処理手段は、前記撮像データに基づき、前記表示用プロジェクタの前記投写領域ごとに、前記表示用プロジェクタの前記投写領域に対応する前記補正用プロジェクタの投写領域、または、投写領域および補正領域を抽出し、該投写領域または補正領域内の輝度分布または色分布を検出し、該投写領域または補正領域内での輝度または色の差が小さくなるように、該補正用プロジェクタが自己に対応する投写領域に投写する映像を生成する、プロジェクタシステム。
  4.  複数のプロジェクタから投写された映像を、投写面上で部分的に重ね合わせることによって、映像を表示するプロジェクタシステムでの映像補正方法であって、
     前記プロジェクタは、複数の表示用プロジェクタと、1以上の補正用プロジェクタと、
    を含み、
     前記表示用プロジェクタが、映像信号を含む映像を投写し、
     前記補助用プロジェクタが、前記表示用プロジェクタから投写された映像のうち、前記映像信号に対応する主映像を含まない映像が表示される投写領域に映像を投写し、
     前記表示用プロジェクタの前記投写領域内での前記表示用プロジェクタから投写された映像を含む領域の輝度または色の差が小さくなるように、前記補正用プロジェクタが前記投写領域に投写する映像を制御する、映像補正方法。
  5.  請求項4に記載の映像補正方法において、
     前記補正用プロジェクタの投写領域を含む領域を撮像して、撮像データを生成し、
     前記撮像データに基づき、前記補正用プロジェクタの投写領域、または、投写領域および補正領域を抽出し、前記投写領域または補正領域内の輝度分布または色分布を検出し、前記投写領域または補正領域内での輝度または色の差が小さくなるように、前記補正用プロジェクタが前記投写領域に投写する映像を生成する、映像補正方法。
  6.  請求項5に記載の映像補正方法において、
     前記表示用プロジェクタの前記投写領域は複数あり、
     前記補正用プロジェクタの数は、前記表示用プロジェクタの前記投写領域の数以上であり、
     前記表示用プロジェクタの前記投写領域は、それぞれ、少なくとも1台の前記補正用プロジェクタと対応づけられ、
     前記補正用プロジェクタのそれぞれは、自己に対応する前記表示用プロジェクタの前記投写領域に映像を投写し、
     前記補正用プロジェクタのそれぞれの投写領域を含む領域を撮像して前記撮像データを生成し、
     前記撮像データに基づき、前記表示用プロジェクタの前記投写領域ごとに、前記表示用プロジェクタの前記投写領域に対応する前記補正用プロジェクタの投写領域、または、投写領域および補正領域を抽出し、該投写領域または補正領域内の輝度分布または色分布を検出し、該投写領域または補正領域内での輝度または色の差が小さくなるように、該補正用プロジェクタが自己に対応する投写領域に投写する映像を生成する、映像補正方法。
PCT/JP2011/052648 2011-02-08 2011-02-08 プロジェクタシステムおよび映像補正方法 WO2012108003A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/052648 WO2012108003A1 (ja) 2011-02-08 2011-02-08 プロジェクタシステムおよび映像補正方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2011/052648 WO2012108003A1 (ja) 2011-02-08 2011-02-08 プロジェクタシステムおよび映像補正方法

Publications (1)

Publication Number Publication Date
WO2012108003A1 true WO2012108003A1 (ja) 2012-08-16

Family

ID=46638246

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/052648 WO2012108003A1 (ja) 2011-02-08 2011-02-08 プロジェクタシステムおよび映像補正方法

Country Status (1)

Country Link
WO (1) WO2012108003A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017500801A (ja) * 2013-12-09 2017-01-05 シゼイ シジブイ カンパニー リミテッド 映像の重なり合い領域の補正方法、そのための記録媒体および装置
JP2017189438A (ja) * 2016-04-14 2017-10-19 株式会社ユニバーサルエンターテインメント 遊技機
CN113163181A (zh) * 2020-01-23 2021-07-23 明基智能科技(上海)有限公司 投影装置及应用其的投影显示系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184317A (ja) * 1998-12-21 2000-06-30 Nippon Hoso Kyokai <Nhk> 投射型マルチ画面ディスプレイ装置
JP2006109168A (ja) * 2004-10-06 2006-04-20 Nec Viewtechnology Ltd 画像表示システム
JP2010521705A (ja) * 2007-03-15 2010-06-24 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド ディスプレイの調整、及び光フィードバックを用いる画像処理により改善された表示画質を提供するシステム及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000184317A (ja) * 1998-12-21 2000-06-30 Nippon Hoso Kyokai <Nhk> 投射型マルチ画面ディスプレイ装置
JP2006109168A (ja) * 2004-10-06 2006-04-20 Nec Viewtechnology Ltd 画像表示システム
JP2010521705A (ja) * 2007-03-15 2010-06-24 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド ディスプレイの調整、及び光フィードバックを用いる画像処理により改善された表示画質を提供するシステム及び方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017500801A (ja) * 2013-12-09 2017-01-05 シゼイ シジブイ カンパニー リミテッド 映像の重なり合い領域の補正方法、そのための記録媒体および装置
JP2017189438A (ja) * 2016-04-14 2017-10-19 株式会社ユニバーサルエンターテインメント 遊技機
CN113163181A (zh) * 2020-01-23 2021-07-23 明基智能科技(上海)有限公司 投影装置及应用其的投影显示系统

Similar Documents

Publication Publication Date Title
US7949202B2 (en) Image processing system, projector, and image processing method
US7422331B2 (en) Image processing system, projector, and image processing method
JP4761471B2 (ja) タイル・ディスプレイの継ぎ目を平滑化するシステムおよび方法
JP4210863B2 (ja) 画像処理システム、表示装置、プログラムおよび情報記憶媒体
KR101929001B1 (ko) 표시 패널의 얼룩 보상 방법, 이를 포함하는 표시 패널의 구동 방법 및 이를 수행하기 위한 표시 장치
US7986356B2 (en) System and method for determining a gamma curve of a display device
JP4742898B2 (ja) 画像処理方法、画像処理プログラム、記録媒体、及びプロジェクタ
EP1061500A2 (en) Color correction in image display
WO2014128821A1 (ja) パターン位置検出方法、パターン位置検出システム及びこれらを用いた画質調整技術
JP2002116500A (ja) 画像投影表示装置
EP2161918B1 (en) Image processor, image display device, image processing method, and image display method
CN113766202A (zh) 用于多调制显示中的局部调光的系统和方法
JP2015037204A (ja) 投影装置及びその制御方法
US10134361B2 (en) Image processing device, projector, and image processing method
WO2012108003A1 (ja) プロジェクタシステムおよび映像補正方法
JP2010118890A (ja) 画像処理装置、画像表示装置及び画像処理方法
JP2011188404A (ja) マルチプロジェクションシステムにおける画像処理装置、マルチプロジェクションシステムにおける画像処理方法及びマルチプロジェクションシステム
CN113658559A (zh) 显示器驱动装置及驱动方法
JP5459087B2 (ja) 画像表示装置、画像供給装置、画像処理方法、及び、プログラム
JP4973563B2 (ja) クロストーク測定方法、画像処理装置及びクロストーク測定システム
CN113498535A (zh) 影像显示系统以及影像显示方法
JP2011172107A (ja) マルチディスプレイシステム、マルチディスプレイ調整方法およびプログラム
JP2014048527A (ja) 画像処理装置、画像表示装置、画像処理方法及びプログラム
JP2014194464A (ja) 画像投射装置、及びその制御方法
JP4379029B2 (ja) 画像処理装置、画像処理方法および画像投射装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11858102

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS (EPO FORM 1205A DATED 15-11-2013)

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 11858102

Country of ref document: EP

Kind code of ref document: A1