WO2012117845A1 - マルチプロジェクションディスプレイおよびその輝度調整方法 - Google Patents

マルチプロジェクションディスプレイおよびその輝度調整方法 Download PDF

Info

Publication number
WO2012117845A1
WO2012117845A1 PCT/JP2012/053361 JP2012053361W WO2012117845A1 WO 2012117845 A1 WO2012117845 A1 WO 2012117845A1 JP 2012053361 W JP2012053361 W JP 2012053361W WO 2012117845 A1 WO2012117845 A1 WO 2012117845A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
projector
brightness
image
projector unit
Prior art date
Application number
PCT/JP2012/053361
Other languages
English (en)
French (fr)
Inventor
石橋 修
藤男 奥村
柳田 美穂
太田 雅彦
想 西村
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2013502233A priority Critical patent/JP5949754B2/ja
Priority to US14/001,857 priority patent/US20130335390A1/en
Publication of WO2012117845A1 publication Critical patent/WO2012117845A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/10Intensity circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • G09F9/35Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements being liquid crystals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0233Improving the luminance or brightness uniformity across the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0242Compensation of deficiencies in the appearance of colours
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/06Adjustment of display parameters
    • G09G2320/0626Adjustment of display parameters for control of overall brightness

Definitions

  • the present invention relates to a multi-projection display that includes a plurality of projector units that project an image on a screen by scanning a light beam, and displays the images projected by the projector units as a single image.
  • a multi-projection display that includes a plurality of projectors and displays images projected by the projectors as a single image is known.
  • the brightness of a light source used in a projector varies due to individual differences in manufacturing.
  • the light output performance of the light source decreases with time of use (aging). For these reasons, the brightness of the images projected by the projectors may be different.
  • Patent Document 1 a multi-projection system that can match the brightness of the projection image of each projector has been proposed.
  • the multi-projection system described in Patent Document 1 includes a plurality of projectors, a single measurement camera, a test image generation unit, an image processing unit, a seamless processing unit, and a plurality of projectors provided for each projector.
  • a video reproduction unit, a synchronization control unit, and an image signal switching unit are included.
  • Each projector is arranged on the back side of the transmissive screen, and projects an image based on the input video signal toward the transmissive screen.
  • the measurement camera is arranged in front of the transmissive screen (observation side), and can photograph the entire transmissive screen at one time.
  • the output signal of the measurement camera is supplied to the image processing unit.
  • Each video playback unit generates a video signal to be supplied to the corresponding projector.
  • the video signal generated by each video playback unit is supplied to the seamless processing unit.
  • the synchronization control unit synchronizes the generation of video frames by the video playback units.
  • the seamless processing unit performs correction processing based on the correction data supplied from the image processing unit on the video signal supplied from each video reproduction unit.
  • Each corrected video signal is supplied to the corresponding projector via the image signal switching unit.
  • the test image generator generates a test image.
  • the test image output from the test image generation unit is supplied to each projector via the image signal switching unit.
  • the image signal switching unit connects each projector and the seamless processing unit during normal operation, and connects each projector and the test image generation unit during adjustment.
  • a projector located in an odd-numbered column and an odd-numbered row simultaneously projects the test image supplied from the test image generating unit onto the transmission screen, and the measurement camera projects each of the projected test images at once. Take a picture.
  • the image processing unit generates correction data for correcting color unevenness, luminance unevenness, and image distortion related to each test image based on the information of each test image supplied from the measurement camera.
  • the projectors located in the odd-numbered columns and even-numbered rows project the test images supplied from the test image generating unit onto the transmission screen, and the measurement camera captures the projected test images at a time.
  • the image processing unit generates correction data for correcting color unevenness, luminance unevenness, and image distortion related to each test image based on the information of each test image supplied from the measurement camera.
  • the image processing unit supplies correction data for each projector created during adjustment to the seamless processing unit.
  • the seamless processing unit corrects the video signal from the corresponding video reproduction unit based on the correction data of each projector from the image processing unit.
  • Each projector projects an image based on the corrected video signal.
  • an image with corrected color unevenness, brightness unevenness, and image distortion is projected by each projector. Since the brightness
  • some recent projection displays use a scanning projector that projects an image on a screen by scanning a light beam, for example, a raster scanning projector.
  • An object of the present invention is to provide a thin multi-projection system and a brightness adjustment method in which a joint between adjacent images is hardly visually recognized.
  • a multi-projection display includes a plurality of projector units that project images based on an input video signal on a screen by scanning a light beam, and the projections projected by the projector units.
  • a multi-projection display that combines images and displays them as a single image, A plurality of photosensors provided in each projector unit, each for detecting light from a plurality of specific pixels for displaying a projected image of each projector unit at an end of a respective display area;
  • a main control unit that displays an adjustment image for adjusting the brightness by each projector unit, lights up the plurality of specific pixels at a predetermined brightness, and performs vertical synchronization of the display of the adjustment image of each projector unit
  • Each of the projector units acquires the brightness values of the plurality of specific pixels when the adjusted image is displayed from the optical sensor, and is projected by the projector unit based on the difference between the acquired brightness values.
  • a brightness correction table for adjusting the brightness of the projected image to the brightness of the projected image projected by another projector unit is created, and then each pixel of the image based on the input video signal is used using the brightness correction table.
  • a video signal correction unit for correcting the luminance is provided.
  • the brightness adjustment method of the present invention includes a plurality of projector units that project an image based on an input video signal on a screen by scanning a light beam, and connect the projected images projected by the projector units.
  • a brightness adjustment method performed in a multi-projection display that displays as a single image Each of the projector units is provided with an optical sensor that detects light from a plurality of specific pixels that displays the projected image of each projector unit at the end of each display area,
  • the main control unit displays an adjustment image for adjusting the luminance by each projector unit, lights the plurality of specific pixels at a predetermined luminance, and vertically synchronizes the display of the adjustment image of each projector unit.
  • Each projector unit acquires the brightness values of the plurality of specific pixels when the adjusted image is displayed from the optical sensor, and the projection projected by the projector unit based on the difference between the acquired brightness values
  • a brightness correction table for adjusting the brightness of the image to the brightness of the projected image projected by another projector unit is created, and thereafter the brightness of each pixel of the image based on the input video signal is set using the brightness correction table. Including correction.
  • FIG. 1 It is a schematic diagram which shows the principal part of the multi-projection display which is the 1st Embodiment of this invention. It is a schematic diagram which shows the detection range of the optical sensor used with each projector unit of the multi-projection display shown in FIG. It is a schematic diagram which shows the structure of the one part pixel of the fluorescent screen used with the multi-projection display shown in FIG. It is a block diagram which shows the structure of each part of the multi-projection display shown in FIG. It is a schematic diagram which shows an example of the video projection part shown in FIG. It is a schematic diagram which shows an example of the adjustment image used with the multi-projection display shown in FIG.
  • FIG. 1 is a schematic diagram showing a main part of a multi-projection display which is a first embodiment of the present invention.
  • the multi-projection display includes a main control unit 82, an operation unit 83, a plurality of projector units 1 to 16, a plurality of optical sensors 21 to 36, and a screen 78.
  • the operation unit 83 has a plurality of buttons (or operation keys) and supplies an instruction signal corresponding to an input operation using these buttons to the main control unit 82.
  • buttons or operation keys
  • a specific instruction signal corresponding to the operation of the operation unit 83 is supplied to the main control unit 82.
  • the main control unit 82 starts a process for adjusting the brightness based on the specific instruction signal.
  • the main control unit 82 may perform a process for adjusting the brightness at regular intervals after the power is turned on.
  • the screen 78 is, for example, a fluorescent screen.
  • the fluorescent screen has, for example, a red phosphor region including a phosphor having a red fluorescent color, a green phosphor region including a phosphor having a green fluorescent color, and a blue phosphor region including a phosphor having a blue fluorescent color.
  • the black stripes or the black matrix are formed between the phosphor regions of the respective colors.
  • the screen 78 may be a screen other than the fluorescent screen.
  • the screen 78 is divided into a plurality of screens.
  • the screen 78 is divided into 16 screens 61 to 76 having the same size.
  • the screen 78 may be composed of a single screen, or may be a combination of 16 screens corresponding to the screens 61 to 76.
  • the screens 61 to 76 are arranged in 4 rows and 4 columns, and correspond to the projector units 1 to 16 on a one-to-one basis.
  • the projector units 1 to 16 are scanning projectors (more specifically, raster scanning projectors), and project an image on a screen 78 by scanning a light beam.
  • the screen 78 is a fluorescent screen, the projector units 1 to 16 project an image on the screen 78 by scanning the excitation light.
  • the projector units 1 to 16 are arranged on one surface (the surface opposite to the observation side) of the screen 78, and the respective projected images are displayed on the screens 61 to 76 in a one-to-one correspondence. For example, on the screen 61, the projection image of the projector unit 1 is displayed.
  • the size of the projection image of the projector unit 1 matches the size of the screen 61.
  • the sizes of the projection images of the other projector units 2 to 16 also match the sizes of the screens 62 to 76, respectively. Thereby, on the screen 78, the projection images of the projector units 1 to 16 are joined together without any gaps, and one image is presented.
  • the optical sensors 21 to 36 are also arranged on one surface (the surface opposite to the observation side) of the screen 78.
  • Each of the optical sensors 21 to 36 includes an image pickup device represented by a CCD camera, a photodiode (PD), and the like, and corresponds to the projector units 1 to 16 on a one-to-one basis.
  • the output of the optical sensor 21 is supplied to the projector unit 1.
  • Outputs of the optical sensors 22 to 36 are supplied to the corresponding projector units among the projector units 2 to 16.
  • the optical sensor 21 is provided near the lower left corner of the screen 61.
  • the optical sensor 21 can detect the luminance of a specific pixel near the lower left corner of the screen 61 and can detect the luminance of the pixel adjacent to the specific pixel on the left and lower sides of the screen 61. . In the arrangement shown in FIG. 1, there are no other screens on the left and lower sides of the screen 61.
  • the optical sensors 22 to 36 have the same arrangement form as the optical sensor 21, and detect the luminance of a specific pixel near the lower left corner of the corresponding screen among the screens 62 to 76, and the corresponding screen. The luminance of the pixels adjacent to the specific pixel on the screen adjacent to the left side and the lower side of the screen can be detected.
  • FIG. 2A schematically shows the detection range of the optical sensor 26.
  • the detection range 26 a of the optical sensor 26 includes a region near the lower left corner formed by the left side portion and the lower side portion of the screen 66 and a region adjacent to the corner portion of the screens 61, 62, 65.
  • the optical sensors 21 to 25 and 27 to 36 also have a detection range similar to that of the optical sensor 26.
  • FIG. 2B schematically shows pixels in the detection range 26a of the optical sensor 26 shown in FIG. 2A.
  • long dotted lines indicate boundaries between the screens 61, 62, 65, and 66 of the screen 78.
  • a rectangular area surrounded by a short dotted line is a pixel.
  • the screen 66 has a structure in which red fluorescent stripes 79R, green fluorescent stripes 79G, and blue fluorescent stripes 79B are periodically arranged in this order, and between the fluorescent stripes 79R, 79G, and 79B of the respective colors. Are formed with black stripes BK.
  • the screen 66 has a plurality of pixels 80-1 arranged in a matrix.
  • Each of the pixels 80-1 includes a part of the red fluorescent stripe 79R, a part of the green fluorescent stripe 79G, and a part of the blue fluorescent stripe 79B.
  • the light beam (excitation light) from the projector unit 6 is scanned in a direction intersecting with each of the red fluorescent stripe 79R, the green fluorescent stripe 79G, and the blue fluorescent stripe 79B.
  • the excitation light is scanned from the left side to the right side.
  • red fluorescent stripe 79R red fluorescence is emitted from the pixel 80-1.
  • green fluorescent stripe 79G green fluorescence is emitted from the pixel 80-1.
  • blue fluorescent stripe 79B blue fluorescence is emitted from the pixel 80-1.
  • the screens 62 and 65 have the same configuration as the screen 66.
  • the screen 62 has a plurality of pixels 80-2 arranged in a matrix
  • the screen 65 has a plurality of pixels 80-3 arranged in a matrix.
  • the pixels 80-2 and 80-3 have the same configuration as the pixel 80-1.
  • the other screens 61, 63, 64, 67 to 76 have the same configuration as the screen 66.
  • the optical sensor 26 can individually detect the fluorescence of each color.
  • the photosensor 26 is connected to the pixels 80-2, 80-2 adjacent to the pixel 80-1.
  • the emitted fluorescence of each color can be detected individually.
  • the optical sensor 26 may be configured to output (detect) simultaneously signals that are sensitive to each color of red, green, and blue and individually respond to each color, like a color CCD camera.
  • the other optical sensors 21 to 25 and 27 to 36 are arranged in the same manner as the optical sensor 26 and are adjacent to each other between the corresponding screens of the screens 61 to 65 and 67 to 76 and the adjacent screens.
  • the fluorescence of each color of red, green, and blue emitted from the pixel can be detected.
  • the video signal output from the external video playback device is supplied to the main control unit 82 via the video signal input unit 81.
  • the main controller 82 During normal operation, the main controller 82 generates video signals to the projector units 1 to 16 based on video signals supplied from an external video playback device. Specifically, the main control unit 82 divides the image based on the video signal supplied from the external video reproduction device into 16 according to the screens 61 to 76, and generates a divided video signal corresponding to each divided image. . The main control unit 82 supplies the generated divided video signal to the corresponding projector units of the projector units 1 to 16.
  • the main control unit 82 transmits the adjustment control signal and the adjustment video signal to the projector units 1 to 16.
  • the adjustment video signals transmitted to the projector units 1 to 16 are the same.
  • the main control unit 82 transmits information and instruction signals necessary for creating the brightness correction table to the projector units 1 to 16. This necessary information and instruction signal may form part of the adjustment control signal.
  • FIG. 3 is a block diagram showing functions and connection relations of each part of the multi-projection display shown in FIG.
  • the main control unit 82 includes a video dividing unit 301, signal switching units 401 to 416, transmission units 311 to 326, an adjustment video signal generation unit 391, and an adjustment control signal generation unit 392.
  • the adjustment control signal generation unit 392 outputs an adjustment control signal that instructs the execution timing of brightness adjustment.
  • the adjustment control signal is supplied to the signal switching units 401 to 416 and is also supplied to the projector units 1 to 16 via the transmission units 311 to 326.
  • the adjustment control signal generation unit 392 causes the adjustment video signal generation unit 391 to generate the adjustment video signal after outputting the adjustment control signal.
  • the video dividing unit 301 generates first to sixteenth divided video signals to be supplied to the projector units 1 to 16 based on the video signal supplied from the external video reproduction device.
  • the first to sixteenth divided video signals correspond to the screens 61 to 76, respectively.
  • the first to sixteenth divided video signals are respectively supplied to one input terminal of the corresponding signal switching unit among the signal switching units 401 to 416.
  • the adjustment video signal generation unit 391 generates an adjustment video signal for adjusting the brightness of the images projected by the projector units 1 to 16 in accordance with an instruction from the adjustment control signal generation unit 392.
  • the adjustment video signal output from the adjustment video signal generation unit 391 is supplied to the other input terminals of the signal switching units 401 to 416.
  • the signal switching units 401 to 416 input switching is performed in accordance with the adjustment control signal from the adjustment control signal generation unit 392. Specifically, the signal switching units 401 to 416 output the adjustment video signal supplied from the adjustment video signal generation unit 391 in the luminance adjustment period instructed by the adjustment control signal, and in other periods The divided video signal supplied from the video dividing unit 301 is output.
  • the signal switching units 401 to 416 and the transmission units 311 to 326 have a one-to-one correspondence. Video signals output from the signal switching units 401 to 416 are respectively supplied to corresponding transmission units among the transmission units 311 to 326.
  • the transmission units 311 to 326 and the projector units 1 to 16 have a one-to-one correspondence.
  • Each of the transmission units 311 to 326 supplies the video signal supplied from the corresponding signal switching unit among the signal switching units 401 to 416 to the corresponding projector unit among the projector units 1 to 16. Further, the transmission units 311 to 326 supply the adjustment control signal supplied from the adjustment control signal generation unit 392 to the corresponding projector unit among the projector units 1 to 16.
  • Projector units 1 to 16 have the same configuration. Here, the configuration and operation of the projector unit 1 will be specifically described, and detailed descriptions of the other projector units 2 to 16 will be omitted.
  • the projector unit 1 includes a video signal correction unit 331 and a video projection unit 351.
  • the video projection unit 351 is of a scanning type and projects an image (normal image or adjustment image) based on the video signal supplied from the video signal correction unit 331 onto the screen 61 of the screen 78.
  • the first divided video signal transmitted from the transmission unit 311 is supplied to the video signal correction unit 331, and during adjustment of luminance, the adjustment video signal and the adjustment control signal transmitted from the transmission unit 311 are video signal corrected. To the unit 331.
  • the video signal correction unit 331 recognizes the brightness adjustment period based on the adjustment control signal. In the luminance adjustment period, the video signal correction unit 331 supplies the video projection unit 351 with a synchronization signal (a signal for vertical synchronization of the projection image) included in the adjustment video signal and the adjustment control signal.
  • a synchronization signal (a signal for vertical synchronization of the projection image) included in the adjustment video signal and the adjustment control signal.
  • the video projection unit 351 projects an image based on the adjustment video signal on the screen 61 according to the synchronization signal (vertical synchronization signal), and the video signal correction unit 331 creates a luminance correction table based on the output signal of the optical sensor 21. To do.
  • the brightness correction table is created for each color of red, green, and blue.
  • the synchronization signal is supplied to the projector units 1 to 16 at the same timing. Therefore, the projection start timing of the adjustment image based on the adjustment video signal by the video projection unit 351 of the projector unit 1 coincides with the projection start timing of the adjustment image based on the adjustment video signal by the other projector units 2-16. That is, the adjustment images projected by the projector units 1 to 16 are vertically synchronized.
  • the video signal correction unit 331 holds in advance characteristic data indicating the relationship between the input value and the output value for each color of red, green, and blue as an initial state. For each color, the video signal correction unit 331 is based on the output signal of the optical sensor 21 and the luminance of the fluorescence emitted from the specific pixel in the outermost peripheral portion of the adjustment image projected from the projector unit 1 and the adjacent projector unit. The difference between the specific pixel of the projected adjustment image and the luminance of the fluorescence emitted from the adjacent pixel is acquired, and based on the difference, the characteristic data of the corresponding color stored in advance is corrected, and the correction is performed. A brightness correction table is created based on the obtained characteristic data.
  • the relationship between the intensity of excitation light and the luminance of fluorescence is proportional.
  • the video signal correction unit 331 holds characteristic data indicating the relationship between each data in the gradation range (for example, 256 gradations) and the luminance value, and specifies the luminance value of the specific pixel of the own screen and the adjacent screen.
  • the modified characteristic data can be obtained by shifting the characteristic data based on the difference from the luminance value of the pixel.
  • the video signal correction unit 331 divides the gradation range into a plurality of points for each constant gradation range, holds characteristic data indicating the relationship with the luminance value for each point, and specifies the own screen. Based on the difference between the luminance value of the pixel and the luminance value of the specific pixel on the adjacent screen, the luminance value corresponding to each point is corrected, and the above correction is made by calculating the data between the corrected points. Characteristic data can be obtained.
  • FIG. 4 shows an example of the video projection unit shown in FIG.
  • the video projection unit 351 includes a laser light source driving unit 251, a scanning element driving unit 252, a laser light source 253, an optical system 254, a horizontal scanning element 255, and a vertical scanning element 256.
  • the laser light source 253 excites phosphors included in the fluorescent stripes of each color (the red fluorescent stripe 79R, the green fluorescent stripe 79G, and the blue fluorescent stripe 79B as shown in FIG. 2B) formed on the screen 61 of the screen 78. Laser light (excitation light) is output.
  • the optical system 254 is provided in the traveling direction of the laser light output from the laser light source 253 and reflects the incident laser light toward the horizontal scanning element 255.
  • the horizontal scanning element 255 includes a resonant scanning mirror represented by, for example, a MEMS (Micro Electro Mechanical Systems) mirror, and reciprocally scans the laser light from the optical system 254 in the horizontal direction.
  • MEMS Micro Electro Mechanical Systems
  • the vertical scanning element 256 is provided in the traveling direction of the laser light from the horizontal scanning element 255, and reciprocally scans the laser light from the horizontal scanning element 255 in the vertical direction.
  • the vertical scanning element 256 may be configured by scanning means such as a polygon mirror or a galvanometer mirror.
  • the laser light source driving unit 251 drives the laser light source 253 according to the luminance value of each pixel of the image based on the video signal supplied from the video signal correction unit 331.
  • the scanning element driving unit 252 drives the horizontal scanning element 255 and the vertical scanning element 256 according to the synchronization signal (horizontal synchronization signal or vertical synchronization signal) of the video signal supplied from the video signal correction unit 331.
  • the video signal correction unit 331 supplies the video signal for adjustment of each color from the main control unit 82 to the video projection unit 351 and the optical sensor 21 in the luminance adjustment period instructed by the adjustment control signal from the main control unit 82.
  • a brightness correction table for each color is created based on the detection result of each color from
  • the video signal correction unit 331 adds luminance correction based on the luminance correction table of each color to the first divided video signal of each color from the main control unit 82 during normal operation outside the luminance adjustment period, and the luminance correction is performed.
  • the first divided video signal of each color made is supplied to the video projection unit 351.
  • the first divided video signal includes a red divided video signal, a green divided video signal, and a blue divided video signal.
  • Each of the divided video signals of each color is composed of a plurality of pixel data arranged in time series.
  • the video signal correction unit 331 applies luminance correction based on the luminance correction table for each color to the divided video signal for each color.
  • the laser light source driving unit 251 and the scanning element driving unit 252 operate according to the divided video signal subjected to the luminance correction of each color, and the red image, the green image, and the blue image are projected on the screen 61 in a time division manner. Is done.
  • the projector units 2 to 16 also have a video signal correction unit and a video projection unit similar to the video signal correction unit 331 and the video projection unit 351 of the projector unit 1.
  • the brightness correction table for each color is created using the same procedure.
  • a procedure for creating a red luminance correction table will be described, and description of other colors will be omitted.
  • FIG. 5 shows an example of a projection image (red adjustment image) based on the adjustment video signal.
  • the projected image P is composed of a plurality of pixels arranged in a matrix, and the fluorescent light having a constant luminance is displayed on the pixel P1 located at the upper left, the pixel P2 located at the lower left, and the pixel P3 located at the lower right toward the screen. (Red) is emitted, and no fluorescence is emitted from pixels other than these pixels P1 to P3.
  • Pixels P1 to P3 are specific pixels used when obtaining a luminance difference from the adjacent screen.
  • the video signal for adjustment of the projection image P shown in FIG. 5 is supplied to the projector units 1-16.
  • Projector units 1-16 project projected images P based on the adjustment video signals onto screens 61-76.
  • FIGS. 6A to 6C schematically show a procedure for acquiring a luminance difference of a specific pixel between the own screen and the adjacent screen when creating a red luminance correction table.
  • the procedure shown in FIGS. 6A to 6C is executed by the projector unit 6 when the main control unit 82 supplies the projector unit 1, 2, 5, 6 with the adjustment video signal of the projection image P shown in FIG. Procedure.
  • the pixel P1 When scanning of excitation light is started, first, as shown in FIG. 6A, the pixel P1 is lit on the screens 61, 62, 65, and 66. In this case, only the pixel P1 on the screen 62 among the lit pixels P1 on the screens 61, 62, 65, and 66 is located within the detection range 26a of the optical sensor 26 corresponding to the projector unit 6. Therefore, the optical sensor 26 detects only red fluorescence from the pixel P1 of the screen 62 adjacent to the lower side of the screen 66, and supplies the result (first detection result) to the projector unit 6.
  • excitation light is not irradiated from the pixel next to the pixel P1 to the pixel immediately before the pixel P2.
  • the state in which the excitation light is irradiated on the pixel P2 is the state shown in FIG. 6B.
  • the pixel P ⁇ b> 2 is lit on the screens 61, 62, 65, and 66, and only the pixel P ⁇ b> 2 on the screen 66 is located within the detection range 26 a of the photosensor 26 among these lit pixels P ⁇ b> 2. Therefore, the optical sensor 26 detects only red fluorescence from the pixel P ⁇ b> 2 on the screen 66 and supplies the result (second detection result) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P2 to the pixel immediately before the pixel P3.
  • the state in which the excitation light is irradiated on the pixel P3 is the state shown in FIG. 6C.
  • the pixel P3 is lit on the screens 61, 62, 65, and 66, and only the pixel P3 on the screen 65 is located within the detection range 26a of the photosensor 26 among these lit pixels P3. Therefore, the optical sensor 26 detects only red fluorescence from the pixel P3 on the screen 65 and supplies the result (third detection result) to the projector unit 6.
  • the first to third detection results in the respective states shown in FIGS. 6A to 6C are supplied from the optical sensor 26 to the video signal correction unit 336.
  • the video signal correction unit 336 selects one of the first and third detection results in a predetermined procedure, and creates a red luminance correction table based on the difference between the selected detection result and the second detection result. .
  • the lighting timings (fluorescence emission timings) of the pixels P1 to P3 of the projection image P are different. That is, in the projection image P, the pixels P1 to P3 are turned on one by one in order at different timings along the scanning direction.
  • the projection image P is displayed according to the synchronization signal (vertical synchronization signal) from the main control unit 82. Accordingly, in each of the projection images P projected by the projector units 1 to 16, the vertical synchronization with each other is established, so that the lighting timing of the pixel P1 is the same.
  • each projection image P is not horizontally synchronized with each other, the pixels other than the pixel P1 are gradually shifted as scanning progresses. For this reason, a deviation occurs in the lighting timing of the pixels P2 and P3 between the projection images P, but the deviation is slight.
  • the video signal correction unit 336 determines the brightness value of the pixel P1 on the screen 62 based on the adjustment video signal of the projection image P supplied from the main control unit 82 and the output signal of the optical sensor.
  • the luminance value of the pixel P2 on the screen 66 and the luminance value of the pixel P3 on the screen 65 can be respectively acquired.
  • the green and blue brightness correction tables are created in the same procedure as above.
  • the brightness correction table for each color of red, green and blue can be created in the same procedure as the projector unit 6.
  • the method for creating the brightness correction table has been described by taking the projector unit 6 as an example.
  • the arrangement shown in FIG. 1 there is no other screen on the lower side of each of the screens 61 to 64, and another screen on the left side of each of the screens 61, 65, 69, and 73. Does not exist. Therefore, it is necessary to create the brightness correction tables in the projector units 1 to 16 in an appropriate order according to the presence or absence of the adjacent projector unit.
  • the main control unit 82 holds information indicating the arrangement shown in FIG. 1 (unit connection information indicating the connection relationship of the projector units 1 to 16), and for each of the projector units 1 to 16 at the time of brightness adjustment. Then, an instruction signal (luminance correction table creation instruction signal) for instructing creation of a brightness correction table and unit connection information are transmitted in an appropriate order. These luminance correction table creation instruction signal and unit connection information may constitute a part of the adjustment control signal.
  • the unit connection information is, for example, table information in which the identification information of the projector unit adjacent on the left side and the identification information of the projector unit adjacent on the lower side are stored for each identification information of the projector units 1 to 16.
  • Each of the projector units 1 to 16 holds its own identification information, and by referring to its own identification information column in the table information, it is determined whether there is a projector unit adjacent to the left side and the lower side. Based on the result, the first and third detection results described above are selected.
  • the brightness correction table is created with priority given to one of the adjacent projector units.
  • priority is given to the left adjacent projector unit.
  • Fig. 7 shows an example of the creation procedure. Since the creation procedures of the video signal correction units 331 to 346 are the same, the operation will be described below simply as the operation of the video signal correction unit.
  • the video signal correction unit determines whether there is an adjacent projector unit adjacent to the left side of the projector unit based on the unit connection information. Is determined (step S10).
  • step S10 If it is determined in step S10 that there is an adjacent projector unit, the video signal correction unit subsequently proceeds to the luminance value of the pixel P2 of the projection image P (see FIG. 5) of the projector unit (the second sensor supplied from the optical sensor). And a brightness correction table based on the difference between the brightness value of the pixel P3 of the projection image P of the adjacent projector unit (the third detection result supplied from the optical sensor) (step S11). Thereafter, the video signal correction unit transmits a completion notification to the main control unit 82.
  • step S10 If it is determined in step S10 that there is no adjacent adjacent projector unit, then the video signal correction unit determines whether there is an adjacent projector unit adjacent to the lower side of the projector unit based on the unit connection information. It is determined whether or not (step S12).
  • the video signal correction unit determines the luminance value of the pixel P2 of the projection image P of the own projector unit and the luminance value of the pixel P3 of the projection image P of the adjacent projector unit (light sensor).
  • a brightness correction table is created based on the difference from the third detection result supplied from (step S13). Thereafter, the video signal correction unit transmits a completion notification to the main control unit 82.
  • step S12 If it is determined in step S12 that there is no adjacent projector unit, the video signal correction unit creates a luminance correction table that outputs the input video signal as it is without correction (step S14). Thereafter, the video signal correction unit transmits a completion notification to the main control unit 82.
  • the projector unit 1 creates a brightness correction table for each of the red, green, and blue colors that is output as it is without correcting the input video signal.
  • the brightness correction table is based on the difference between the brightness value of the pixel P2 of the projection image P of the projector unit and the brightness value of the pixel P1 of the projection image P of the lower adjacent projector unit. Is created for each of the red, green, and blue colors.
  • the luminance value of the pixel P2 of the projection image P of the projector unit and the luminance value of the pixel P3 of the projection image P of the adjacent projector unit are A luminance correction table is created for each of red, green, and blue colors based on the difference.
  • Projector units 1 to 16 simultaneously perform the process of creating a brightness correction table and adjusting the brightness according to the procedure shown in FIG. If this adjustment process is repeated several times, the brightness of the projection images of the respective colors of the projector units 2 to 16 is adjusted on the basis of the projection images of the respective colors of the projector unit 1, and the projection image of uniform brightness is obtained on the entire screen 78. Can be obtained.
  • the main control unit 82 causes the projector units 1 to 16 to perform the adjustment process a predetermined number of times.
  • the projector units 1 to 16 project an adjusted image as shown in FIG. 5 a plurality of times.
  • the plurality of adjustment image projecting steps may be performed continuously in one luminance adjustment period, and first to seventh luminance adjustment periods are set, and in each luminance adjustment period, 1 You may perform the projection process of times.
  • a normal operation step of projecting an image based on the divided video signal may be performed during each luminance adjustment period.
  • the projection process may be performed a plurality of times in the procedure of performing the adjustment image projection process once each time an image based on the divided video signal of one frame or a plurality of frames is projected.
  • the main control unit 82 switches the operation mode to the normal operation mode.
  • the video signal correction units 331 to 346 perform luminance correction based on the luminance correction data of each color on the input divided video signal of each color. Then, the video projection units 351 to 366 project images based on the divided video signals of the respective colors after the luminance correction onto the screens 61 to 76.
  • the detection range of the optical sensor is a range in the vicinity of the lower left of the projection image (screen), which is compared with the case where the entire screen is detected by one optical sensor.
  • the distance between the optical sensor and the screen can be sufficiently shortened.
  • the multi-projection system can be miniaturized.
  • the luminance difference between pixels located at distant positions is difficult to be visually recognized due to human visual characteristics, but the luminance difference between adjacent pixels is easily visually recognized.
  • the luminance difference between the pixels adjacent to the screen boundary portion is reduced between the self-screen and the adjacent screen. There is an effect that it is hard to be visually recognized.
  • the configuration and operation can be changed as appropriate.
  • the optical sensors 21 to 36 are arranged in the vicinity of the lower left corner of the corresponding four corners of the screens 61 to 76, but are arranged in any of the upper left corner, the lower right corner, and the upper right corner. Also good.
  • the projector unit acquires the luminance difference of the specific pixel between the left and upper adjacent projector units, and the luminance correction table for each color based on the acquired luminance difference Create
  • the pixels P1 to P3 shown in FIG. 5 are pixels located at the lower left, upper left, and upper right corners of the screen, respectively.
  • the projector unit acquires the luminance difference of the specific pixel between the right and lower adjacent projector units, and corrects the luminance of each color based on the acquired luminance difference. Create a table.
  • the pixels P1 to P3 shown in FIG. 5 are pixels located at the lower left, lower right and upper right corners of the screen, respectively.
  • the projector unit acquires the luminance difference of the specific pixel between the right and upper adjacent projector units, and the luminance correction table for each color based on the acquired luminance difference Create
  • the pixels P1 to P3 shown in FIG. 5 are pixels located at the upper left, upper right, and lower right corners of the screen, respectively.
  • adjustment image is not limited to the image shown in FIG. Any adjustment image may be used as long as the luminance difference between the adjacent pixels across the screen boundary portion can be acquired between the projector unit and the adjacent projector unit.
  • the number of specific pixels may be three or more. More specifically, in the adjusted image shown in FIG. 5, a plurality of first sets of pixels P2 and P1 and a plurality of second sets of pixels P2 and P3 are provided. In this case, when the adjacent projector unit is below the projector unit, the luminance difference between the pixels P1 and P2 is obtained for each first set, and a luminance correction table is created based on the average value of the luminance differences. . When the adjacent projector unit is on the left side of the projector unit, the luminance difference between the pixels P2 and P3 is obtained for each second group, and the luminance correction table is created based on the average value of the luminance differences. Thereby, since the brightness
  • FIG. 8 is a schematic diagram showing a main part of a multi-projection display which is the second embodiment of the present invention.
  • the multi-projection display of this embodiment is different from the multi-projection display of the first embodiment in that two light sensors are provided for one projector unit.
  • the first optical sensors 21-1 to 36-1 have a one-to-one correspondence with the projector units 1 to 16, and the second optical sensors 21-2 to 36-2 have a one-to-one correspondence with the projector units 1 to 16. To do.
  • the projector unit 1 creates a luminance correction table for each color based on the output signals of the first optical sensor 21-1 and the second optical sensor 21-2. Similarly, each of the projector units 2 to 16 corresponds to the corresponding one of the first optical sensors 22-1 to 36-1 and the corresponding one of the second optical sensors 21-2 to 36-2. A brightness correction table for each color is created based on each output signal of the second photosensor.
  • the procedure for creating the brightness correction table in the projector units 1 to 16 is basically the same as that in the first embodiment.
  • the first and second photosensors are used for the left and lower sides. A luminance difference of a specific pixel from an adjacent projector unit is detected. For this reason, the detection ranges of the first and second photosensors and the adjustment video signal used at the time of luminance adjustment are different from those of the first embodiment.
  • FIG. 9 schematically shows the detection ranges of the first optical sensor 26-1 and the second optical sensor 26-2 with respect to the projection screen by the projector unit 6.
  • the first optical sensor 26-1 is disposed in the vicinity of the center of the left side portion of the screen 66, and its detection range 26-1a is in the region near the left side portion of the screen 66 and the left side portion of the screen 66 of the screen 65. And adjacent areas.
  • the second optical sensor 26-2 is disposed in the vicinity of the center of the lower side portion of the screen 66, and the detection range 26-2a includes an area in the vicinity of the lower side portion of the screen 66 and the left side of the screen 66 of the screen 62. And a region adjacent to the part.
  • FIG. 10 shows an example of a projected image (red) based on the adjustment video signal.
  • the projected image P is composed of a plurality of pixels arranged in a matrix, and toward the screen, the pixel P1 is located at the approximate center of the uppermost outermost periphery, the pixel P2 is located at the approximate center of the leftmost outermost periphery, and the rightmost It has pixel P3 located in the approximate center of an outer peripheral part, and pixel P4 located in the approximate center of a lower outermost peripheral part.
  • fluorescence (red) having a constant luminance is emitted, and no fluorescence is emitted from pixels other than the pixels P1 to P4.
  • Pixels P1 to P4 correspond to specific pixels when acquiring a luminance difference from the adjacent screen.
  • the video signal for adjustment of the projection image P shown in FIG. 10 is supplied to the projector units 1-16.
  • Projector units 1-16 project projected images P based on the adjustment video signals onto screens 61-76.
  • FIGS. 11A to 11D schematically show a procedure for acquiring a luminance difference of a specific pixel between the own screen and an adjacent screen when creating a red luminance correction table.
  • the procedure shown in FIGS. 11A to 11D is executed by the projector unit 6 when the circumference control unit 82 supplies the projector unit 1, 2, 5, 6 with the adjustment video signal of the projection image P shown in FIG. It is a procedure.
  • the pixel P1 is lit on the screens 61, 62, 65, and 66.
  • the pixel P1 on the screen 62 among the lit pixels P1 on the screens 61, 62, 65, 66 is within the detection range 26-2a of the second photosensor 26-2 corresponding to the projector unit 6.
  • the second photosensor 26-2 detects only red fluorescence from the pixel P1 of the screen 62 adjacent to the lower side of the screen 66, and supplies the result (first detection result) to the projector unit 6. To do.
  • excitation light is not irradiated from the pixel next to the pixel P1 to the pixel immediately before the pixel P2.
  • the state in which the excitation light is irradiated on the pixel P2 is the state shown in FIG. 11B.
  • the pixel P2 is lit on the screens 61, 62, 65, and 66, and only the pixel P2 on the screen 66 among these lit pixels P2 is the detection range 26-1a of the first photosensor 26-1.
  • the first photosensor 26-1 detects only red fluorescence from the pixel P2 on the screen 66, and supplies the result (second detection result) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P2 to the pixel immediately before the pixel P3.
  • the state where the excitation light is irradiated to the pixel P3 is the state shown in FIG. 11C.
  • the pixel P3 is lit on the screens 61, 62, 65, and 66, and among these lit pixels P3, only the pixel P3 on the screen 65 is the detection range 26-1a of the first photosensor 26-1.
  • the first photosensor 26-1 detects only red fluorescence from the pixel P3 of the screen 65, and supplies the result (third detection result) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P3 to the pixel immediately before the pixel P4.
  • the state in which the excitation light is irradiated on the pixel P4 is the state shown in FIG. 11D.
  • the pixel P4 is lit on the screens 61, 62, 65, and 66, and only the pixel P4 on the screen 66 among these lit pixels P4 is the detection range 26-2a of the second photosensor 26-2.
  • the second photosensor 26-2 detects only red fluorescence from the pixel P4 on the screen 66, and supplies the result (fourth detection result) to the projector unit 6.
  • the second and third detection results are supplied from the first optical sensor 26-1 to the video signal correction unit 336 in order to detect the luminance of the specific pixel between the screen 65 and the screen 66.
  • the first and fourth detection results are supplied from the second optical sensor 26-2 to the video signal correction unit 336.
  • the video signal correction unit 336 follows the predetermined procedure to detect the first optical sensor 26-1 (second and third detection results) and the second optical sensor 26-2 (first and second detection results). 4th detection result) is selected, and a red luminance correction table is created based on the selected detection result.
  • the procedure for creating a brightness correction table according to a predetermined procedure is basically the same as the procedure shown in FIG. 7, but a part of the processing in steps S11 and S13 is different from that in the first embodiment.
  • step S11 the video signal correction unit 336 determines the luminance value of the pixel P2 of the projection image P of the projector unit 6 (second detection result supplied from the first photosensor 26-1) and A brightness correction table is created based on the difference between the brightness value of the pixel P3 of the projection image P of the adjacent projector unit 5 (the third detection result supplied from the first light sensor 26-1).
  • step S 13 the video signal correction unit 336 determines the brightness value of the pixel P 4 of the projection image P of the projector unit 6 (the fourth detection result supplied from the second photosensor 26-2) and the adjacent projector unit 2.
  • a brightness correction table is created based on the difference between the brightness value of the pixel P1 of the projection image P (the first detection result supplied from the second photosensor 26-2).
  • the green and blue brightness correction tables can also be created in the same procedure as above.
  • the brightness correction table for each color of red, green and blue can be created in the same procedure as the projector unit 6.
  • the main control unit 82 causes the projector units 1 to 16 to perform the adjustment process a predetermined number of times.
  • the multi-projection display of this embodiment also has the same effect as that of the first embodiment.
  • the configuration and operation can be changed as appropriate.
  • the first and second optical sensors may be provided for two adjacent sides of the outermost peripheral portion of the screen.
  • the positions of the first and second photosensors on the screen need to be the same among the projector units 1-16.
  • adjustment image is not limited to the image shown in FIG. Any adjustment image may be used as long as the luminance difference between adjacent pixels across the screen boundary between the projector unit and the adjacent projector unit can be acquired, and the number of specific pixels is four. It may be the above.
  • a plurality of first sets of pixels P1 and P4 and a plurality of second sets of pixels P2 and P3 are provided.
  • the luminance difference between the pixels P1 and P4 is obtained for each first set, and the luminance correction table is created based on the average value of the luminance differences.
  • the luminance difference between the pixels P2 and P3 is obtained for each second group, and the luminance correction table is created based on the average value of the luminance differences.
  • FIG. 12 is a schematic diagram showing a main part of a multi-projection display which is the third embodiment of the present invention.
  • the multi-projection display of the present embodiment is different from the multi-projection displays of the first and second embodiments in that four light sensors are provided for one projector unit.
  • First optical sensors 41-1 to 56-1, second optical sensors 41-2 to 56-2, third optical sensors 41-3 to 56-3, and fourth optical sensors 41-4 to 56- 4 respectively correspond to the projector units 1 to 16 on a one-to-one basis.
  • the projector unit 1 has the luminance of each color based on the output signals of the first optical sensor 41-1, the second optical sensor 41-2, the third optical sensor 41-3, and the fourth optical sensor 41-4. Create a correction table.
  • the projector units 2 to 16 respectively correspond to the corresponding first photosensors, second photosensors 41-2 to 56-2, and third photosensors among the first photosensors 42-1 to 56-1. Output signals of the corresponding first to fourth photosensors among the corresponding third photosensors among the photosensors 42-3 to 56-3 and the fourth photosensors 41-4 to 56-4. Based on the above, a brightness correction table for each color is created.
  • the procedure for creating the brightness correction table in the projector units 1 to 16 is basically the same as that in the first embodiment, but in this embodiment, the first to fourth photosensors are used to make each of the upper, lower, left and right sides. The luminance difference of a specific pixel from the adjacent projector unit is detected. For this reason, the detection range of the first to fourth optical sensors and the adjustment video signal used at the time of luminance adjustment are different from those of the first embodiment.
  • FIG. 13 shows each detection of the first optical sensor 46-1, the second optical sensor 46-2, the third optical sensor 46-3, and the third optical sensor 46-4 with respect to the projection screen by the projector unit 6.
  • the range is shown schematically.
  • the screen 66 is partitioned into first to fourth rectangular areas.
  • the first optical sensor 46-1 is arranged to face the first rectangular area located on the lower left side of the screen 66.
  • the detection range 46-1a includes the first rectangular area, the screens 61, 62, It includes a region adjacent to the first rectangular region at the outermost peripheral portion of 65.
  • the second optical sensor 46-2 is disposed to face the second rectangular area located on the lower right side of the screen 66.
  • the detection range 46-2a includes the second rectangular area and the screens 62 and 63. , 67 includes a region adjacent to the second rectangular region at the outermost peripheral portion.
  • the third optical sensor 46-3 is arranged to face the third rectangular area located on the upper left side of the screen 66, and its detection range 46-3a includes the third rectangular area, the screens 65, 69, It includes a region adjacent to the third rectangular region at the outermost peripheral portion of 70.
  • the fourth optical sensor 46-4 is disposed to face the fourth rectangular area located on the upper right side of the screen 66.
  • the detection range 46-4a includes the fourth rectangular area, the screens 67, 70, 71 includes a region adjacent to the fourth rectangular region at the outermost peripheral portion of 71.
  • FIG. 14 shows an example of a projected image (red) based on the adjustment video signal.
  • the projection image P is composed of a plurality of pixels arranged in a matrix, and pixels P1 to P8 are set as specific pixels when acquiring a luminance difference from the adjacent screen.
  • fluorescence (red) having a constant luminance is emitted, and no fluorescence is emitted from pixels other than the pixels P1 to P8.
  • the pixel P1 is located in the approximate center of the uppermost outermost peripheral portion of the third rectangular area.
  • the pixel P2 is located approximately at the center of the uppermost outermost peripheral portion of the fourth rectangular area.
  • the pixel P3 is located substantially at the center of the left outermost periphery of the third rectangular area.
  • the pixel P4 is located substantially at the center of the right outermost periphery of the fourth rectangular area.
  • the pixel P5 is located substantially at the center of the left outermost periphery of the first rectangular area.
  • the pixel P6 is located approximately at the center of the right outermost periphery of the second rectangular area.
  • the pixel P7 is located approximately at the center of the lower outermost periphery of the first rectangular area.
  • the pixel P8 is located approximately at the center of the lower outermost periphery of the second rectangular area.
  • the video signal for adjustment of the projection image P shown in FIG. 14 is supplied to the projector units 1-16.
  • Projector units 1-16 project projected images P based on the adjustment video signals onto screens 61-76.
  • FIGS. 15A to 15H schematically show a procedure for acquiring a luminance difference of a specific pixel between the own screen and the adjacent screen when creating a red luminance correction table.
  • the procedure shown in FIGS. 15A to 15H is a procedure executed by the projector unit 6.
  • the pixel P1 is lit on the screens 61, 62, 65, and 66.
  • the pixel P1 on the screen 62 among the lit pixels P1 on the screens 61, 62, 65, and 66 is located within the detection range 46-1a of the first photosensor 46-1, and Only the pixel P1 is located within the detection range 46-3a of the third photosensor 46-3.
  • the first optical sensor 46-1 detects only red fluorescence from the pixel P1 on the screen 62 and supplies the result (detection result of the pixel P1 on the screen 62) to the projector unit 6.
  • the third optical sensor 46-3 detects only red fluorescence from the pixel P1 on the screen 66, and supplies the result (detection result of the pixel P1 on the screen 66) to the projector unit 6.
  • excitation light is not irradiated from the pixel next to the pixel P1 to the pixel immediately before the pixel P2.
  • the state in which the excitation light is irradiated on the pixel P2 is the state shown in FIG. 15B.
  • the pixel P2 is lit on the screens 61, 62, 65, and 66.
  • the pixel P2 on the screen 62 is located within the detection range 46-2a of the second photosensor 46-2, and only the pixel P2 on the screen 66 is the fourth photosensor 46. -4 is within the detection range 46-4a.
  • the second photosensor 46-2 detects only red fluorescence from the pixel P2 on the screen 62 and supplies the result (detection result of the pixel P2 on the screen 62) to the projector unit 6.
  • the fourth optical sensor 46-4 detects only red fluorescence from the pixel P2 on the screen 66, and supplies the result (detection result of the pixel P2 on the screen 66) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P2 to the pixel immediately before the pixel P3.
  • the state where the excitation light is irradiated to the pixel P3 is a state shown in FIG. 15C.
  • the pixel P3 is lit on the screens 61 to 63 and 65 to 67.
  • the pixel P3 on the screen 66 is located within the detection range 46-3a of the third photosensor 46-3, and only the pixel P3 on the screen 67 is the fourth photosensor 46. -4 is within the detection range 46-4a.
  • the third photosensor 46-2 detects only red fluorescence from the pixel P3 on the screen 66, and supplies the result (the detection result of the pixel P3 on the screen 66) to the projector unit 6.
  • the fourth optical sensor 46-4 detects only red fluorescence from the pixel P3 on the screen 67 and supplies the result (detection result of the pixel P3 on the screen 67) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P3 to the pixel immediately before the pixel P4.
  • the state in which the excitation light is irradiated on the pixel P4 is the state shown in FIG. 15D.
  • the pixel P4 is lit on the screens 61, 62, 65, and 66. Of these lit pixels P4, only the pixel P4 on the screen 65 is located within the detection range 46-3a of the third photosensor 46-3, and only the pixel P4 on the screen 66 is the fourth photosensor 46. -4 is within the detection range 46-4a.
  • the third photosensor 46-3 detects only red fluorescence from the pixel P4 on the screen 65 and supplies the result (detection result of the pixel P4 on the screen 65) to the projector unit 6.
  • the fourth optical sensor 46-4 detects only red fluorescence from the pixel P4 on the screen 66, and supplies the result (detection result of the pixel P4 on the screen 66) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P4 to the pixel immediately before the pixel P5.
  • the state in which the excitation light is applied to the pixel P5 is the state shown in FIG. 15E.
  • the pixel P5 is lit on the screens 61 to 63 and 65 to 67. Of these lit pixels P5, only the pixel P5 on the screen 66 is located within the detection range 46-1a of the first photosensor 46-1, and only the pixel P5 on the screen 67 is the second photosensor 46. -2 in the detection range 46-2a.
  • the first photosensor 46-3 detects only red fluorescence from the pixel P5 on the screen 66 and supplies the result (detection result of the pixel P5 on the screen 66) to the projector unit 6.
  • the second photosensor 46-2 detects only red fluorescence from the pixel P5 on the screen 67 and supplies the result (detection result of the pixel P5 on the screen 67) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P5 to the pixel immediately before the pixel P6.
  • the state in which the excitation light is irradiated to the pixel P6 is the state shown in FIG. 15F.
  • the pixel P6 is lit on the screens 61, 62, 65, and 66. Of these lit pixels P6, only the pixel P6 on the screen 65 is located within the detection range 46-1a of the first photosensor 46-1, and only the pixel P6 on the screen 66 is the second photosensor 46. -2 in the detection range 46-2a.
  • the first optical sensor 46-1 detects only the red fluorescence from the pixel P6 on the screen 65, and supplies the result (the detection result of the pixel P6 on the screen 65) to the projector unit 6.
  • the second photosensor 46-4 detects only red fluorescence from the pixel P6 on the screen 66, and supplies the result (detection result of the pixel P6 on the screen 66) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P6 to the pixel immediately before the pixel P7.
  • the state where the excitation light is irradiated to the pixel P7 is the state shown in FIG. 15G.
  • the pixel P7 is lit on the screens 61, 62, 65, 66, 69, and 70. Of these lit pixels P7, only the pixel P7 on the screen 66 is located within the detection range 46-1a of the first photosensor 46-1, and only the pixel P7 on the screen 70 is the third photosensor 46. -3 in the detection range 46-3a.
  • the first optical sensor 46-1 detects only red fluorescence from the pixel P7 on the screen 66, and supplies the result (detection result of the pixel P7 on the screen 66) to the projector unit 6.
  • the third optical sensor 46-3 detects only red fluorescence from the pixel P7 on the screen 70, and supplies the result (detection result of the pixel P7 on the screen 70) to the projector unit 6.
  • the excitation light is not irradiated from the pixel next to the pixel P7 to the pixel immediately before the pixel P8.
  • the state in which the excitation light is applied to the pixel P8 is the state shown in FIG. 15H.
  • the pixel P8 is lit on the screens 61, 62, 65, 66, 69, and 70.
  • the pixel P8 on the screen 66 is located within the detection range 46-2a of the second photosensor 46-2, and only the pixel P8 on the screen 70 is the fourth photosensor 46. -4 is within the detection range 46-4a.
  • the second photosensor 46-2 detects only red fluorescence from the pixel P8 on the screen 66, and supplies the result (detection result of the pixel P8 on the screen 66) to the projector unit 6.
  • the fourth optical sensor 46-4 detects only red fluorescence from the pixel P8 on the screen 70 and supplies the result (detection result of the pixel P8 on the screen 70) to the projector unit 6.
  • the projector unit 6 can adjust the brightness of the screen 66 and the adjacent screens 62, 65, 67, and 70 on the upper, lower, left, and right sides.
  • a first brightness correction table creation method used between the screen 66 and the upper adjacent screen 70, and a second brightness correction table creation method used between the screen 66 and the left adjacent screen 65 will be described.
  • the video signal correction unit 336 performs the luminance value of the pixel P1 of the screen 66 acquired from the third optical sensor 46-3 in the state illustrated in FIG. 15A and the third light in the state illustrated in FIG. 16G.
  • the difference (first luminance difference) from the luminance value of the pixel P7 on the screen 70 acquired from the sensor 46-3 is acquired.
  • the video signal correction unit 336 obtains the luminance value of the pixel P2 of the screen 66 acquired from the fourth optical sensor 46-4 in the state shown in FIG. 15B and the fourth optical sensor 46- in the state shown in FIG. 15H.
  • the difference (second luminance difference) from the luminance value of the pixel P8 of the screen 70 acquired from 4 is acquired.
  • the video signal correction unit 336 creates a red first luminance correction table based on the average value of the first and second luminance differences.
  • the video signal correction unit 336 obtains a difference between the average value of the luminance values of the pixels P1 and P2 on the screen 66 and the average value of the luminance values of the pixels P7 and P8 on the screen 70, and based on the difference.
  • a red brightness correction table may be created.
  • the video signal correction unit 336 performs the luminance value of the pixel P3 of the screen 66 acquired from the third optical sensor 46-3 in the state illustrated in FIG. 15C and the third light in the state illustrated in FIG. 15D.
  • the difference (first luminance difference) from the luminance value of the pixel P4 on the screen 65 acquired from the sensor 46-3 is acquired.
  • the video signal correction unit 336 obtains the luminance value of the pixel P5 of the screen 66 acquired from the first optical sensor 46-1 in the state shown in FIG. 15E and the first optical sensor 46- in the state shown in FIG. 15F.
  • the difference (second luminance difference) from the luminance value of the pixel P6 of the screen 65 acquired from 1 is acquired.
  • the video signal correction unit 336 creates a red second luminance correction table based on the average value of the first and second luminance differences.
  • the video signal correction unit 336 obtains a difference between the average value of the luminance values of the pixels P3 and P5 on the screen 66 and the average value of the luminance values of the pixels P4 and P6 on the screen 65, and based on the difference.
  • a red second luminance correction table may be created.
  • the video signal correction unit 336 performs the luminance value of the pixel P4 on the screen 66 acquired from the fourth optical sensor 46-4 in the state illustrated in FIG. 15D and the fourth light in the state illustrated in FIG. 15C.
  • the difference (first luminance difference) from the luminance value of the pixel P3 on the screen 67 acquired from the sensor 46-4 is acquired.
  • the video signal correction unit 336 obtains the luminance value of the pixel P6 of the screen 66 acquired from the third photosensor 46-3 in the state shown in FIG. 15F and the second photosensor 46- in the state shown in FIG. 15E.
  • the difference (second luminance difference) from the luminance value of the pixel P5 of the screen 67 acquired from 2 is acquired.
  • the video signal correction unit 336 creates a red third luminance correction table based on the average value of the first and second luminance differences.
  • the video signal correction unit 336 obtains a difference between the average value of the luminance values of the pixels P4 and P5 on the screen 66 and the average value of the luminance values of the pixels P3 and P5 on the screen 67, and based on the difference.
  • a red third luminance correction table may be created.
  • Method for creating fourth brightness correction table In the projector unit 6, in order to create a brightness correction table for adjusting the brightness of the screen 66 to the brightness of the lower adjacent screen 62, the pixels P7 and P8 of the screen 66 and the pixels P1 and P2 of the screen 62 adjacent thereto are provided. And the luminance difference is used.
  • the video signal correction unit 336 performs the luminance value of the pixel P7 on the screen 66 acquired from the first optical sensor 46-1 in the state illustrated in FIG. 15G and the first light in the state illustrated in FIG. 15A.
  • the difference (first luminance difference) with the luminance value of the pixel P1 on the screen 62 acquired from the sensor 46-1 is acquired.
  • the video signal correction unit 336 has the luminance value of the pixel P8 on the screen 66 acquired from the second photosensor 46-2 in the state shown in FIG. 15H and the second photosensor 46- in the state shown in FIG. 15B.
  • the difference (second luminance difference) from the luminance value of the pixel P2 of the screen 62 acquired from 2 is acquired.
  • the video signal correction unit 336 creates a red fourth luminance correction table based on the average value of the first and second luminance differences.
  • the video signal correction unit 336 obtains a difference between the average value of the luminance values of the pixels P7 and P8 on the screen 66 and the average value of the luminance values of the pixels P1 and P2 on the screen 62, and based on the difference.
  • a red fourth luminance correction table may be created.
  • the video signal correction unit 336 outputs the input video signal as it is without correction.
  • a red fifth brightness correction table is created.
  • the main control unit 82 supplies the projector unit 6 with a brightness correction table creation instruction signal that instructs which of the first to fifth brightness correction tables of red is to be created.
  • the video signal correction unit 336 creates any one of the first to fifth luminance correction tables for red according to the instruction signal from the main control unit 82.
  • the first to fourth luminance correction tables can be created for green and blue as well as the red first to fourth luminance correction tables.
  • the video signal correction unit 336 creates one of the first to fourth luminance correction tables for each of green and blue in accordance with an instruction from the main control unit 82.
  • the first to fifth luminances for the respective colors of red, green and blue are performed in accordance with the luminance correction table creation instruction signal from the main control unit 82 in the same procedure as the projector unit 6. Any of the correction tables can be created.
  • each of the projector units 1 to 16 can be adjusted in luminance with the adjacent projector units on the upper, lower, left, and right sides.
  • the main control unit 82 causes the reference projector unit to create a fifth luminance correction table for each color with one of the projector units 1 to 16 as a reference.
  • the main control unit 82 causes the remaining projector units to create one of the first to fourth luminance correction tables according to the respective arrangements.
  • the main control unit 82 causes the projector units 1 to 16 to perform the adjustment process a predetermined number of times.
  • the multi-projection display according to the present embodiment also provides the same operational effects as the first and second embodiments.
  • the brightness correction table can be created between the projector unit and the projector unit adjacent to either the top, bottom, left, or right, the number of times of brightness adjustment in the projector units 1 to 16 is the second. Less than in the embodiment.
  • the configuration and operation of the multi-projection display of this embodiment can be changed as appropriate.
  • the adjustment image shown in FIG. 10 may be used instead of the adjustment image shown in FIG. 14, the adjustment image shown in FIG. 10 may be used.
  • the detection range of the first photosensor is set in a region near the first side where the pixel P1 is located, and the detection range of the second photosensor is the second side where the pixel P2 is located.
  • the detection range of the third photosensor is set in the region near the third side where the pixel P3 is located, and the detection range of the fourth photosensor is located in the pixel P4. It is set in the area near the fourth side.
  • the difference between the luminance value of the pixel P1 on the own screen and the luminance value of the pixel P4 on the adjacent screen is obtained from the first optical sensor, and the luminance A brightness correction table is created based on the difference.
  • the difference between the luminance value of the pixel P2 on the own screen and the luminance value of the pixel P3 on the adjacent screen is obtained from the second light sensor, and based on the luminance difference Create a brightness correction table.
  • the difference between the luminance value of the pixel P3 on the own screen and the luminance value of the pixel P2 on the adjacent screen is obtained from the third light sensor, and based on the luminance difference Create a brightness correction table.
  • the difference between the luminance value of the pixel P4 on the own screen and the luminance value of the pixel P1 on the adjacent screen is obtained from the fourth optical sensor, and based on the luminance difference.
  • the fourth optical sensor To create a brightness correction table.
  • a plurality of first sets of pixels P1 and P4 and a plurality of second sets of pixels P2 and P3 may be provided.
  • the luminance difference between the pixels P1 and P4 is obtained for each first set, and the luminance correction table is calculated based on the average value of the luminance differences. create.
  • the luminance difference between the pixels P2 and P3 is obtained for each second group, and the luminance correction table is created based on the average value of the luminance differences.
  • the main control unit 82 may turn off pixels around specific pixels of the adjusted image.
  • the main control unit 82 opposes the pixel area of the adjusted image excluding specific pixels and peripheral pixels (non-illuminated pixels) to the pixel area of the image based on the input video signal (divided video signal).
  • the video signal rewritten with the pixel signal may be supplied to each of the projector units 1 to 16 as an adjustment video signal.
  • FIG. 16 schematically shows an example of an image in which the peripheral pixels of the specific pixel of the adjusted image shown in FIG. 14 are in a non-lighting state.
  • the regions A1 and A2 before and after the pixel P1 in the scanning direction are composed of pixels that are not lit.
  • the number of pixels in the area A1 is the same as the number of pixels in the area A2.
  • the number of pixels in the areas A1 and A2 is determined based on the horizontal synchronization deviation between the projector units 1-16.
  • the region A3 includes a scanning line including the pixels P2 and P3 and two scanning lines adjacent to both sides of the scanning line. Pixels other than the pixels P2 and P3 in the region A3 are turned off.
  • the areas A4 and A5 before and after the pixel P4 in the scanning direction are composed of pixels that are not lit.
  • the number of pixels in region A4 is the same as the number of pixels in region A5.
  • the number of pixels in the areas A4 and A5 is determined based on the horizontal synchronization shift between the projector units 1-16.
  • the main control unit 82 uses the signals of the pixels corresponding to the image based on the input video signal (divided video signal) as the pixels of the regions S1 and S2 except the pixels P1 to P4 and the non-lighted pixels of the regions A1 to A5.
  • the video signal rewritten in step 1 is generated as an adjustment video signal.
  • FIG. 17 shows an example of such an adjustment video signal.
  • FIG. 17 schematically shows an adjustment image based on the adjustment video signal projected by the projector units 1, 2, 5, and 6.
  • the projected images P shown in FIG. 16 are displayed on the screens 61, 62, 65, and 66, respectively.
  • On the screen 61 an image based on the first divided video signal is displayed in the areas S1 and S2.
  • On the screen 62 an image based on the second divided video signal is displayed in the areas S1 and S2.
  • an image based on the fifth divided video signal is displayed in the areas S1 and S2.
  • images based on the sixth divided video signal are displayed in the areas S1 and S2.
  • the projection image P shown in FIG. 16 is displayed, and images based on the corresponding divided video signals are displayed in the areas S1 and S2.
  • the brightness correction table for each color can be created while displaying images based on the first to sixteenth divided video signals in the projector units 1 to 16.
  • the screen 78 may be a screen having a diffusion layer that diffuses laser light of each color of red, green, and blue.
  • each of the projector units 1 to 16 includes a laser light source that emits laser light of each color, and includes a projection unit illustrated in FIG. 4 for each laser light source.
  • each of the projector units 1 to 16 may include an adjacent information acquisition unit that detects the presence or absence of the adjacent projector unit.
  • FIG. 18 shows an example of the adjacent information acquisition unit.
  • mechanical switches 211-1 to 211-4 are provided in a housing 231 that houses the projector unit 1.
  • the adjacent information acquisition unit includes mechanical switches 211-1 to 211-4.
  • the mechanical switch 211-1 is disposed on the inner side of the left side surface, and the protruding portion protrudes from the surface to the outside.
  • the first detection signal indicating that the projection is turned on is output.
  • the mechanical switch 211-2 is disposed on the inner side of the lower surface, and the protruding portion protrudes from the surface to the outside. When the projection is pressed and the upper end of the projection is pushed down to the lower surface, the projection is turned on and a second detection signal indicating that is output.
  • the mechanical switch 211-3 is disposed on the inner side of the right side surface, and the protrusion protrudes outward from the surface.
  • the third detection signal indicating that it is turned on is output.
  • the mechanical switch 211-4 is arranged on the inner side of the upper surface, and the protrusion protrudes from the surface to the outside.
  • the fourth detection signal indicating that it is turned on is output.
  • the first to fourth detection signals are supplied to the video signal correction unit 331.
  • the video signal correction unit 331 detects the presence / absence of an adjacent projector unit based on the first to fourth detection signals.
  • the same adjacent information acquisition unit as the configuration shown in FIG. 18 is also provided in the other projector units 2-16.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Chemical & Material Sciences (AREA)
  • Crystallography & Structural Chemistry (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Abstract

 マルチプロジェクションディスプレイは、複数のプロジェクタユニット1~16と、各プロジェクタユニット1~16に対応して設けられた複数の光センサ21~36と、調整画像を各プロジェクタユニット1~16にて投射させるとともに、各投射された調整画像の垂直同期をとる主制御部82を有する。各プロジェクタユニット1~16は、自プロジェクタユニットにより投射された調整画像と他のプロジェクタユニットにより投射された調整画像との隣接する特定画素の輝度値を光センサ21~36より取得し、該取得した輝度値の差に基づいて、投射画像の輝度を調整する。

Description

マルチプロジェクションディスプレイおよびその輝度調整方法
 本発明は、光ビームを走査することでスクリーン上に画像を投射する複数のプロジェクタユニットを備え、各プロジェクタユニットにより投射された画像をつなぎ合わせて1枚の画像として表示するマルチプロジェクションディスプレイに関する。
 複数のプロジェクタを備え、各プロジェクタにより投射された画像をつなぎ合わせて1枚の画像として表示するマルチプロジェクションディスプレイが知られている。
 一般に、プロジェクタに用いられる光源の明るさには、製造上の固体差によるばらつきがある。また、光源の光出力性能は、使用時間に応じて低下する(経年変化)。このような理由から、各プロジェクタにより投射された画像間で、互いの輝度が異なる場合がある。
 複数の画像を繋ぎ合わせて1枚の画像を形成する場合、隣接する画像間の輝度が異なると、それら画像間の繋ぎ目が視認され、その結果、表示品質が大幅に劣化してしまう。
 そこで、各プロジェクタの投射画像の輝度を一致させることが可能なマルチプロジェクションシステムが提案されている(特許文献1参照)。
 特許文献1に記載のマルチプロジェクションシステムは、複数のプロジェクタと、1台の計測カメラと、テスト画像発生部と、画像処理部と、シームレス処理部と、各プロジェクタに対応して設けられた複数の映像再生部と、同期制御部と、画像信号切替部とを有する。
 各プロジェクタは、透過型スクリーンの背面側に配置されており、入力された映像信号に基づく画像を透過型スクリーンに向けて投影する。計測カメラは、透過型スクリーンの前方(観察側)に配置されており、透過型スクリーン全体を一度に撮影することが可能である。計測カメラの出力信号は、画像処理部に供給されている。
 各映像再生部は、対応するプロジェクタに供給するための映像信号を生成する。各映像再生部で生成された映像信号は、シームレス処理部に供給される。同期制御部は、各映像再生部による映像フレームの生成の同期をとる。
 シームレス処理部は、各映像再生部から供給された映像信号に対して、画像処理部から供給される補正データに基づく補正処理を行う。補正された各映像信号はそれぞれ、画像信号切替部を介して対応するプロジェクタに供給される。
 テスト画像発生部は、テスト画像を発生する。テスト画像発生部から出力されたテスト画像は、画像信号切替部を介して各プロジェクタに供給される。
 画像信号切替部は、通常時は、各プロジェクタとシームレス処理部とを接続させ、調整時は、各プロジェクタとテスト画像発生部とを接続させる。
 調整時において、まず、奇数列かつ奇数行に位置するプロジェクタが、テスト画像発生部から供給されたテスト画像を同時に透過型スクリーンに投影し、計測カメラが、その投影された各テスト画像を一度に撮影する。そして、画像処理部が、計測カメラから供給される各テスト画像の情報に基づいて、各テスト画像に関する色ムラ、輝度ムラ、画像の歪みを補正するための補正データを生成する。
 次に、奇数列かつ偶数行に位置するプロジェクタが、テスト画像発生部から供給されたテスト画像を透過型スクリーンに投影し、計測カメラが、その投影された各テスト画像を一度に撮影する。そして、画像処理部が、計測カメラから供給される各テスト画像の情報に基づいて、各テスト画像に関する色ムラ、輝度ムラ、画像の歪みを補正するための補正データを生成する。
 偶数列かつ偶数行に位置するプロジェクタ、および偶数列かつ奇数行に位置するプロジェクタについても、同様の操作が行われ、画像処理部によって補正データが生成される。
 通常時において、画像処理部は、調整時に作成した各プロジェクタの補正データをシームレス処理部に供給する。シームレス処理部は、画像処理部からの各プロジェクタの補正データに基づいて、対応する映像再生部からの映像信号を補正する。各プロジェクタは、補正された映像信号に基づく画像を投影する。これにより、色ムラ、輝度ムラ、画像の歪みが補正された画像が各プロジェクタによって投影される。各画像間の輝度は概ね一致するので、各画像間の繋ぎ目が視認されることを抑制することができる。
 また、最近のプロジェクションディスプレイには、光ビームを走査することでスクリーン上に画像を投射する走査型プロジェクタ、例えばラスタ走査型プロジェクタを用いたものもある。
特許第3575473号公報
 特許文献1に記載のマルチプロジェクションシステムにおいては、1台の計測カメラで透過型スクリーン全体を一度に撮影する必要があるため、透過型スクリーンと計測カメラとの距離をある程度長くする必要がある。このため、マルチプロジェクションシステムが大型のものとなり、大きな設置スペースが要求される。
 透過型スクリーンのサイズが大きくなればなるほど、透過型スクリーンと計測カメラとの距離が長くなるため、上記の問題はより顕著なものとなる。
 また、一般に、人間の視覚特性上、離れた位置にある画素間の輝度差は視認され難いが、隣接する画素間の輝度差は視認され易い。このため、複数の画像を繋ぎ合わせて1枚の画像を形成する場合、隣接する画像間の境界部の輝度が一致するような輝度調整を行うことが望ましい。
 本発明の目的は、隣接画像間の繋ぎ目が視認され難い、薄型のマルチプロジェクションシステムおよび輝度調整方法を提供することにある。
 上記目的を達成するため、本発明のマルチプロジェクションディスプレイは、それぞれが光ビームを走査することでスクリーン上に入力映像信号に基づく画像を投射する複数のプロジェクタユニットを備え、各プロジェクタユニットが投射した投射画像をつなぎ合わせて1枚の画像として表示するマルチプロジェクションディスプレイであって、
 前記各プロジェクタユニットに設けられ、それぞれが、前記各プロジェクタユニットの投写画像をそれぞれの表示領域の端部にて表示する複数の特定画素からの光を検出する複数の光センサと、
 輝度を調整するための調整画像を前記各プロジェクタユニットにより表示させて、前記複数の特定画素を所定の輝度で点灯させるとともに、該各プロジェクタユニットの前記調整画像の表示の垂直同期をとる主制御部と、を有し、
 前記各プロジェクタユニットのそれぞれは、前記調整画像を表示したときの前記複数の特定画素の輝度値を前記光センサより取得し、該取得した輝度値の差に基づいて、自プロジェクタユニットにより投射される前記投射画像の輝度を他のプロジェクタユニットにより投射される前記投射画像の輝度に合わせるための輝度補正テーブルを作成し、その後、該輝度補正テーブルを用いて前記入力映像信号に基づく画像の各画素の輝度を補正する映像信号補正部を有する。
 本発明の輝度調整方法は、それぞれが光ビームを走査することでスクリーン上に入力映像信号に基づく画像を投射する複数のプロジェクタユニットを備え、各プロジェクタユニットにより投射された投射画像をつなぎ合わせて1枚の画像として表示するマルチプロジェクションディスプレイにおいて行われる輝度調整方法であって、
 前記各プロジェクタユニットに、前記各プロジェクタユニットの投写画像をそれぞれの表示領域の端部にて表示する複数の特定画素からの光を検出する光センサを設けておき、
 主制御部が、輝度を調整するための調整画像を前記各プロジェクタユニットにより表示させて、前記複数の特定画素を所定の輝度で点灯させるとともに、該各プロジェクタユニットの前記調整画像の表示の垂直同期をとり、
 前記各プロジェクタユニットが、前記調整画像を表示したときの前記複数の特定画素の輝度値を前記光センサより取得し、該取得した輝度値の差に基づいて、自プロジェクタユニットにより投射される前記投射画像の輝度を他のプロジェクタユニットにより投射される前記投射画像の輝度に合わせるための輝度補正テーブルを作成し、その後、該輝度補正テーブルを用いて前記入力映像信号に基づく画像の各画素の輝度を補正することを含む。
本発明の第1の実施形態であるマルチプロジェクションディスプレイの主要部を示す模式図である。 図1に示すマルチプロジェクションディスプレイの各プロジェクタユニットで用いられる光センサの検出範囲を示す模式図である。 図1に示すマルチプロジェクションディスプレイで用いられる蛍光スクリーンの一部の画素の構成を示す模式図である。 図1に示すマルチプロジェクションディスプレイの各部の構成を示すブロック図である。 図3に示す映像投射部の一例を示す模式図である。 図1に示すマルチプロジェクションディスプレイで用いられる調整画像の一例を示す模式図である。 自画面と隣接画面における特定画素の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素の別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 プロジェクタユニットにて行われる輝度補正テーブルの作成手順の一例を示すフローチャートである。 本発明の第2の実施形態であるマルチプロジェクションディスプレイの主要部を示す模式図である。 図8に示すマルチプロジェクションディスプレイの各プロジェクタユニットで用いられる各光センサの検出範囲を示す模式図である。 図8に示すマルチプロジェクションディスプレイで用いられる調整画像の一例を示す模式図である。 自画面と隣接画面における特定画素の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素の別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 本発明の第3の実施形態であるマルチプロジェクションディスプレイの主要部を示す模式図である。 図12に示すマルチプロジェクションディスプレイの各プロジェクタユニットで用いられる各光センサの検出範囲を示す模式図である。 図12に示すマルチプロジェクションディスプレイで用いられる調整画像の一例を示す模式図である。 自画面と隣接画面における特定画素の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素の別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 自画面と隣接画面における特定画素のさらに別の点灯状態と光センサの検出範囲を示す模式図である。 図8に示すマルチプロジェクションディスプレイで用いられる調整画像の別の例を示す模式図である。 図8に示すマルチプロジェクションディスプレイで用いられる調整画像のさらに別の例を示す模式図である。 隣接情報取得部の一例を示す模式図である。
78 スクリーン
61~76 画面
82 主制御部
83 操作部
1~16 プロジェクタユニット
21~36 光センサ
 次に、本発明の実施形態について図面を参照して説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態であるマルチプロジェクションディスプレイの主要部を示す模式図である。
 図1に示すように、マルチプロジェクションディスプレイは、主制御部82、操作部83、複数のプロジェクタユニット1~16、複数の光センサ21~36及びスクリーン78を有する。
 操作部83は、複数のボタン(または操作キー)を有し、これらボタンを用いた入力操作に応じた指示信号を主制御部82に供給する。使用者が輝度調整を行うための特定の入力操作を操作部83で行うと、操作部83の操作に応じた特定の指示信号を主制御部82に供給する。
 主制御部82は、特定の指示信号に基づいて輝度調整を行うための処理を開始する。この他、主制御部82は、電源投入後、一定時間毎に、輝度調整を行うための処理を行っても良い。
 スクリーン78は、例えば、蛍光スクリーンである。蛍光スクリーンは、例えば、蛍光色が赤色の蛍光体を含む赤色蛍光体領域、蛍光色が緑色の蛍光体を含む緑色蛍光体領域、および蛍光色が青色の蛍光体を含む青色蛍光体領域が所定の順番で周期的に形成されたものであり、各色の蛍光体領域の間にブラックストライプまたはブラックマトリクスが形成されている。スクリーン78は、蛍光スクリーン以外のスクリーンであってもよい。
 スクリーン78は、複数の画面に区画されている。図1に示した例では、スクリーン78は、同じ大きさの16個の画面61~76に区画されている。スクリーン78は、1枚のスクリーンより構成されてもよく、また、画面61~76に対応する16枚のスクリーンを繋ぎ合せたものであってもよい。画面61~76は、4行4列の配置形態とされており、プロジェクタユニット1~16と1対1で対応する。
 プロジェクタユニット1~16は、走査型プロジェクタ(より具体的には、ラスタ走査型プロジェクタ)であって、光ビームを走査することでスクリーン78上に画像を投射する。ここでは、スクリーン78が蛍光スクリーンよりなるため、プロジェクタユニット1~16は、励起光を走査することでスクリーン78上に画像を投射する。
 プロジェクタユニット1~16は、スクリーン78の一方の面(観察側とは反対の面)側に配置されており、それぞれの投射画像が画面61~76上に1対1対応で表示される。例えば、画面61においては、プロジェクタユニット1の投射画像が表示される。
 プロジェクタユニット1の投射画像の大きさは、画面61の大きさに一致する。これと同様に、他のプロジェクタユニット2~16の投射画像の大きさも、それぞれ画面62~76の大きさと一致する。これにより、スクリーン78上で、プロジェクタユニット1~16の投射画像が隙間なく繋ぎ合わされて1枚の画像が提示される。
 光センサ21~36も、スクリーン78の一方の面(観察側とは反対の面)側に配置されている。光センサ21~36は、CCDカメラに代表される撮像素子やフォトダイオード(PD)などよりなり、プロジェクタユニット1~16と1対1で対応する。光センサ21の出力は、プロジェクタユニット1に供給されている。光センサ22~36の出力は、プロジェクタユニット2~16のうちの対応するプロジェクタユニットに供給されている。
 光センサ21は、画面61の左下の角部近傍に設けられている。光センサ21は、画面61の左下の角部近傍の特定画素の輝度を検出するととともに、画面61の左側および下側に隣接する画面の上記特定画素と隣接する画素の輝度を検出することができる。なお、図1に示した配置では、画面61の左側および下側に他の画面は存在しない。
 光センサ22~36も、光センサ21と同様の配置形態になっており、画面62~76のうちの対応する画面の左下の角部近傍の特定画素の輝度を検出するととともに、その対応する画面の左側および下側に隣接する画面の上記特定画素と隣接する画素の輝度を検出することができる。
 図2Aに、光センサ26の検出範囲を模式的に示す。光センサ26の検出範囲26aは、画面66の左側辺部と下側辺部とにより形成された左下角部近傍の領域および画面61、62、65の上記角部近傍に隣接する領域を含む。光センサ21~25、27~36も、光センサ26と同様な検出範囲を有する。
 光センサ21~36は、赤、緑、青の色毎に画素の輝度を検出することができる。図2Bに、図2Aに示した光センサ26の検出範囲26aにおける画素を模式的に示す。図2Bにおいて、長い点線は、スクリーン78の画面61、62、65、66の境界を示す。短い点線により囲まれた矩形の領域が画素である。
 図2Bを参照すると、画面66は、赤色蛍光ストライプ79R、緑色蛍光ストライプ79G、青色蛍光ストライプ79Bがこの順番で周期的に配置された構造を有し、各色の蛍光ストライプ79R、79G、79Bの間には、ブラックストライプBKが形成されている。
 画面66は行列状に配置された複数の画素80-1を有する。画素80-1のそれぞれは、赤色蛍光ストライプ79Rの一部、緑色蛍光ストライプ79Gの一部、および青色蛍光ストライプ79Bの一部を含む。
 プロジェクタユニット6からの光ビーム(励起光)は、赤色蛍光ストライプ79R、緑色蛍光ストライプ79Gおよび青色蛍光ストライプ79Bのそれぞれと交差する方向に走査される。例えば、画面66の左下に位置する画素80-1では、左側から右側の方向へ励起光が走査される。
 励起光が赤色蛍光ストライプ79Rに照射されると、画素80-1から赤色の蛍光が放出される。励起光が緑色蛍光ストライプ79Gに照射されると、画素80-1から緑色の蛍光が放出される。励起光が青色蛍光ストライプ79Bに照射されると、画素80-1から青色の蛍光が放出される。
 画面62、65も画面66と同様の構成である。画面62は行列状に配置された複数の画素80-2を有し、画面65は行列状に配置された複数の画素80-3を有する。画素80-2、80-3は、画素80-1と同じ構成である。他の画面61、63、64、67~76も、画面66と同じ構成である。
 画素80-1において、赤、緑、青の各色の蛍光は互いに異なるタイミングで放出されるため、光センサ26は、それら各色の蛍光を個別に検出することができる。同様に、画素80-2、80-3においても、赤、緑、青の各色の蛍光は互いに異なるタイミングで放出されるため、光センサ26は、画素80-1に隣接する画素80-2、80-3のそれぞれについて、放出された各色の蛍光を個別に検出することができる。光センサ26はカラーCCDカメラのように、赤、緑、青の各色に感度を有し、各色に個別に応答する信号を同時に出力する(検出する)構成であっても良い。
 他の光センサ21~25、27~36は、光センサ26と同様の配置とされており、画面61~65、67~76のうちの対応する画面と隣接画面との間で互いに隣接する特定画素から放出された赤、緑、青の各色の蛍光を検出することができる。
 再び、図1を参照する。外部の映像再生装置から出力された映像信号が、映像信号入力部81を介して主制御部82に供給される。
 通常動作時に、主制御部82は、外部の映像再生装置から供給された映像信号に基づいてプロジェクタユニット1~16への映像信号を生成する。具体的には、主制御部82は、外部の映像再生装置から供給された映像信号に基づく画像を画面61~76に応じて16分割し、それぞれの分割画像に対応する分割映像信号を生成する。そして、主制御部82は、生成した分割映像信号をプロジェクタユニット1~16の対応するプロジェクタユニットに供給する。
 輝度調整時に、主制御部82は、調整制御信号および調整用映像信号をプロジェクタユニット1~16に送信する。プロジェクタユニット1~16に送信される調整用映像信号は、同じものである。調整制御信号の送信時に、主制御部82は、輝度補正テーブルの作成に必要な情報や指示信号をプロジェクタユニット1~16に送信する。この必要な情報および指示信号は、調整制御信号の一部を構成してもよい。
 次に、主制御部82およびプロジェクタユニット1~16の具体的な動作について説明する。
 図3は、図1に示したマルチプロジェクションディスプレイの各部の機能および接続関係を示すブロック図である。
 図3を参照すると、主制御部82は、映像分割部301、信号切替部401~416、送信部311~326、調整用映像信号生成部391、および調整制御信号生成部392を有する。
 調整制御信号生成部392は、輝度調整の実行タイミングを指示する調整制御信号を出力する。調整制御信号は、信号切替部401~416に供給されるとともに、送信部311~326を介してプロジェクタユニット1~16に供給される。調整制御信号生成部392は、調整制御信号の出力後に、調整用映像信号生成部391による調整用映像信号の生成を行わせる。
 映像分割部301は、外部の映像再生装置から供給された映像信号に基づいて、プロジェクタユニット1~16へ供給するための第1乃至第16の分割映像信号を生成する。第1乃至第16の分割映像信号はそれぞれ画面61~76に対応する。第1乃至第16の分割映像信号はそれぞれ、信号切替部401~416のうちの対応する信号切替部の一方の入力端子に供給される。
 調整用映像信号生成部391は、調整制御信号生成部392からの指示に従って、プロジェクタユニット1~16により投射される画像の輝度を調整するための調整用映像信号を生成する。調整用映像信号生成部391から出力された調整用映像信号は、信号切替部401~416の他方の入力端子に供給される。
 信号切替部401~416では、調整制御信号生成部392からの調整制御信号に従って入力の切り替えが行われる。具体的には、信号切替部401~416は、調整制御信号により指示された輝度調整期間において、調整用映像信号生成部391から供給される調整用映像信号を出力し、それ以外の期間において、映像分割部301から供給される分割映像信号を出力する。
 信号切替部401~416と送信部311~326は1対1で対応する。信号切替部401~416から出力された映像信号はそれぞれ、送信部311~326のうちの対応する送信部に供給される。
 送信部311~326とプロジェクタユニット1~16は1対1で対応する。送信部311~326のそれぞれは、信号切替部401~416のうちの対応する信号切替部から供給された映像信号をプロジェクタユニット1~16のうちの対応するプロジェクタユニットに供給する。また、送信部311~326は、調整制御信号生成部392から供給された調整制御信号をプロジェクタユニット1~16のうちの対応するプロジェクタユニットに供給する。
 プロジェクタユニット1~16は、同じ構成である。ここでは、プロジェクタユニット1の構成および動作について具体的に説明し、他のプロジェクタユニット2~16についての詳細な説明は省略する。
 プロジェクタユニット1は、映像信号補正部331および映像投射部351を有する。映像投射部351は、走査型のものであって、映像信号補正部331から供給される映像信号に基づく画像(通常画像または調整用画像)をスクリーン78の画面61上に投射する。
 通常動作時に、送信部311から送信された第1の分割映像信号が映像信号補正部331に供給され、輝度調整時に、送信部311から送信された調整用映像信号および調整制御信号が映像信号補正部331に供給される。
 映像信号補正部331は、調整制御信号に基づいて輝度調整期間を認識する。輝度調整期間において、映像信号補正部331は、調整用映像信号および調整制御信号に含まれている同期信号(投射画像の垂直同期をとるための信号)を映像投射部351に供給する。
 映像投射部351は、同期信号(垂直同期信号)に従って調整用映像信号に基づく画像を画面61上に投射し、映像信号補正部331が、光センサ21の出力信号に基づいて輝度補正テーブルを作成する。輝度補正テーブルは、赤、緑、青の各色について作成される。
 同期信号は、プロジェクタユニット1~16に同じタイミングで供給される。よって、プロジェクタユニット1の映像投射部351による調整用映像信号に基づく調整画像の投射開始タイミングは、他のプロジェクタユニット2~16による調整用映像信号に基づく調整画像の投射開始タイミングと一致する。すなわち、プロジェクタユニット1~16により投射される調整画像の垂直同期がとられている。
 映像信号補正部331は、初期状態として、赤、緑、青の各色について、入力値と出力値の関係を示す特性データを予め保持している。映像信号補正部331は、色毎に、光センサ21の出力信号に基づいて、プロジェクタユニット1から投射された調整画像の最外周部の特定画素から放出された蛍光の輝度と、隣接プロジェクタユニットから投射された調整画像の上記特定画素と隣接する画素から放出された蛍光の輝度との差を取得し、その差に基づいて、予め保持している対応する色の特性データを修正し、その修正した特性データに基づいて輝度補正テーブルを作成する。
 一般に、励起光の強度と蛍光の輝度との関係は比例関係にある。例えば、映像信号補正部331は、階調範囲の各データ(例えば256階調)と輝度値との関係を示す特性データを保持しており、自画面の特定画素の輝度値と隣接画面の特定画素の輝度値との差に基づいて特性データをシフトすることで上記の修正した特性データを得ることができる。
 また、映像信号補正部331は、階調範囲を一定の階調範囲毎に複数の点で区画し、各点について、輝度値との関係を示す特性データを保持しており、自画面の特定画素の輝度値と隣接画面の特定画素の輝度値との差に基づいて、各点に対応する輝度値を補正するとともに、補正後の各点間のデータを演算により求めることで上記の修正した特性データを得ることができる。
 次に、プロジェクタユニット1の映像信号補正部331および映像投射部351の動作について具体的に説明する。
 図4に、図3に示した映像投射部の一例を示す。図4を参照すると、映像投射部351は、レーザ光源駆動部251、走査素子駆動部252、レーザ光源253、光学系254、水平走査素子255および垂直走査素子256を有する。
 レーザ光源253は、スクリーン78の画面61に形成された各色の蛍光ストライプ(図2Bに示したような赤色蛍光ストライプ79R、緑色蛍光ストライプ79Gおよび青色蛍光ストライプ79B)に含まれる蛍光体を励起するためのレーザ光(励起光)を出力する。
 光学系254は、レーザ光源253から出力されたレーザ光の進行方向に設けられており、入射したレーザ光を水平走査素子255に向けて反射する。水平走査素子255は、例えばMEMS(Micro Electro Mechanical Systems)ミラーなどに代表される共振型走査ミラーよりなり、光学系254からのレーザ光を水平方向に往復走査する。
 垂直走査素子256は、水平走査素子255からのレーザ光の進行方向に設けられており、水平走査素子255からのレーザ光を垂直方向に往復走査する。垂直走査素子256は、ポリゴンミラーやガルバノミラーなどの走査手段により構成されてもよい。
 レーザ光源駆動部251は、映像信号補正部331から供給された映像信号に基づく画像の各画素の輝度値に従ってレーザ光源253を駆動する。走査素子駆動部252は、映像信号補正部331から供給された映像信号の同期信号(水平同期信号や垂直同期信号)に従って水平走査素子255および垂直走査素子256を駆動する。
 映像信号補正部331は、主制御部82からの調整制御信号によって指示された輝度調整期間において、主制御部82からの各色の調整用映像信号を映像投射部351に供給するとともに、光センサ21からの各色の検出結果に基づいて各色の輝度補正テーブルを作成する。
 また、映像信号補正部331は、輝度調整期間外の通常動作時において、主制御部82からの各色の第1の分割映像信号に各色の輝度補正テーブルに基づく輝度補正を加え、その輝度補正がなされた各色の第1の分割映像信号を映像投射部351に供給する。
 具体的には、第1の分割映像信号は、赤色用分割映像信号、緑色用分割映像信号および青色用分割映像信号を含む。各色の分割映像信号はそれぞれ、時系列に並べられた複数の画素データからなる。映像信号補正部331は、各色の分割映像信号について、各色の輝度補正テーブルに基づく輝度補正を加える。映像投射部351では、各色の輝度補正が施された分割映像信号に従ってレーザ光源駆動部251および走査素子駆動部252が動作し、赤色画像、緑色画像および青色画像が時分割で画面61上に投射される。
 プロジェクタユニット2~16も、プロジェクタユニット1の映像信号補正部331および映像投射部351と同様の映像信号補正部および映像投射部を有する。
 次に、各色の輝度補正テーブルの作成方法について具体的に説明する。
 各色の輝度補正テーブルはいずれも同じ手順で作成される。ここでは、赤色の輝度補正テーブルの作成手順について説明し、他の色につての説明は省略する。
 図5に、調整用映像信号に基づく投射画像(赤色の調整画像)の一例を示す。投射画像Pは、行列状に配置された複数の画素からなり、画面に向かって、左上に位置する画素P1、左下に位置する画素P2および右下に位置する画素P3において、一定の輝度の蛍光(赤色)が放出され、これら画素P1~P3以外の画素からは蛍光は放出されない。画素P1~P3は、隣接画面との輝度差を取得する際に用いられる特定画素である。
 図5に示した投射画像Pの調整用映像信号がプロジェクタユニット1~16に供給される。プロジェクタユニット1~16は、調整用映像信号に基づく投射画像Pを画面61~76に投射する。
 図6A~図6Cに、赤色の輝度補正テーブルを作成する際の自画面と隣接画面との間の特定画素の輝度差を取得する手順を模式的に示す。図6A~図6Cに示す手順は、主制御部82が図5に示した投射画像Pの調整用映像信号をプロジェクタユニット1、2、5、6に供給した場合の、プロジェクタユニット6により実行される手順である。
 励起光の走査が開始されると、まず、図6Aに示すように、画面61、62、65、66において画素P1が点灯する。この場合、画面61、62、65、66の点灯状態の画素P1のうち、画面62の画素P1のみが、プロジェクタユニット6に対応する光センサ26の検出範囲26a内に位置する。したがって、光センサ26は、画面66の下側に隣接する画面62の画素P1からの赤色の蛍光のみを検出し、その結果(第1の検出結果)をプロジェクタユニット6に供給する。
 画素P1の点灯後、画素P1の次の画素から画素P2の1つ前の画素までは励起光は照射されない。
 励起光が画素P2に照射された状態が図6Bに示す状態である。この状態では、画面61、62、65、66において画素P2が点灯し、これら点灯状態の画素P2のうち、画面66の画素P2のみが、光センサ26の検出範囲26a内に位置する。したがって、光センサ26は、画面66の画素P2からの赤色の蛍光のみを検出し、その結果(第2の検出結果)をプロジェクタユニット6に供給する。
 画素P2の点灯後、画素P2の次の画素から画素P3の1つ前の画素までは励起光は照射されない。
 励起光が画素P3に照射された状態が図6Cに示す状態である。この状態では、画面61、62、65、66において画素P3が点灯し、これら点灯状態の画素P3のうち、画面65の画素P3のみが、光センサ26の検出範囲26a内に位置する。したがって、光センサ26は、画面65の画素P3からの赤色の蛍光のみを検出し、その結果(第3の検出結果)をプロジェクタユニット6に供給する。
 プロジェクタユニット6では、図6A~図6Cに示した各状態における第1乃至第3の検出結果が光センサ26から映像信号補正部336に供給される。映像信号補正部336は、所定の手順で第1および第3の検出結果の一方を選択し、その選択した検出結果と第2の検出結果との差に基づいて赤色の輝度補正テーブルを作成する。
 プロジェクタユニット1~16は図4に示した走査型のものであるので、投射画像Pの画素P1~P3の点灯タイミング(蛍光放出タイミング)はそれぞれ異なる。すなわち、投射画像Pにおいて、画素P1~P3は走査方向に沿って異なるタイミングで順番に一つずつ点灯する。
 また、プロジェクタユニット1~16では、投射画像Pは主制御部82からの同期信号(垂直同期信号)に従って表示される。したがって、プロジェクタユニット1~16によって投射される各投射画像Pにおいて、互いの垂直同期がとられているので、画素P1の点灯タイミングは一致する。
 一方、各投射画像Pにおいて、互いの水平同期はとられていないので、画素P1以外の画素については、走査が進むにつれて、徐々にずれを生じる。このため、各投射画像P間での画素P2、P3の点灯タイミングにずれを生じるが、そのずれはわずかである。
 投射画像Pは画素P1~P3のみが点灯し、それら以外の画素は点灯しない。したがって、各投射画像Pにおいて、映像信号補正部336は、主制御部82から供給された投射画像Pの調整用映像信号と光センサの出力信号と基づいて、画面62の画素P1の輝度値、画面66の画素P2の輝度値、および画面65の画素P3の輝度値をそれぞれ取得することができる。
 緑色および青色の輝度補正テーブルについても、上記と同様の手順で作成する。
 プロジェクタユニット1~5、7~16においても、プロジェクタユニット6と同様の手順で赤色、緑色および青色の各色の輝度補正テーブルを作成することができる。
 以上、プロジェクタユニット6を例に輝度補正テーブルの作成方法を説明した。しかし、例えば、図1に示した配置では、画面61~64のそれぞれにおいて下側には他の画面は存在せず、また、画面61、65、69、73のそれぞれにおいて左側には他の画面は存在しない。このため、プロジェクタユニット1~16における輝度補正テーブルの作成を、隣接プロジェクタユニットの有無に応じた適切な順番で行う必要がある。
 以下、プロジェクタユニット1~16における輝度補正テーブルの作成方法をその順番を含めて具体的に説明する。
 主制御部82は、図1に示した配置を示す情報(プロジェクタユニット1~16の接続関係を示すユニット接続情報)を保持しており、輝度調整時に、プロジェクタユニット1~16のそれぞれに対して、適切な順番で、輝度補正テーブルを作成することを指示する指示信号(輝度補正テーブル作成指示信号)およびユニット接続情報を送信する。これら輝度補正テーブル作成指示信号およびユニット接続情報は、調整制御信号の一部を構成してもよい。
 ユニット接続情報は、例えば、プロジェクタユニット1~16の識別情報毎に、左側に隣接するプロジェクタユニットの識別情報および下側に隣接するプロジェクタユニットの識別情報が格納されたテーブル情報である。プロジェクタユニット1~16はそれぞれ、自身の識別情報を保持しており、テーブル情報中の自身の識別情報の欄を参照することで、左側および下側に隣接するプロジェクタユニットの有無を判断し、その結果に基づいて上述した第1および第3の検出結果の選択を行う。
 プロジェクタユニット1~16のそれぞれは、左側および下側の両方にプロジェクタユニットが隣接している場合は、それら隣接プロジェクタユニットの一方を優先して輝度補正テーブルを作成する。ここでは、左側の隣接プロジェクタユニットを優先するものと仮定する。
 次に、プロジェクタユニット1~16の映像信号補正部331~346にて行われる、輝度補正テーブル作成指示信号およびユニット接続情報に基づく輝度補正データの作成手順を説明する。
 図7に、その作成手順の一例を示す。映像信号補正部331~346の作成手順は同じであるので、以下では、単に映像信号補正部の動作として説明する。
 映像信号補正部は、主制御部82から輝度補正テーブル作成指示信号およびユニット接続情報を受信すると、そのユニット接続情報に基づいて、自プロジェクタユニットの左側に隣接する隣接プロジェクタユニットが存在するか否かを判定する(ステップS10)。
 ステップS10で隣接プロジェクタユニットが存在すると判断した場合は、続いて、映像信号補正部は、自プロジェクタユニットの投射画像P(図5参照)の画素P2の輝度値(光センサから供給された第2の検出結果)と隣接プロジェクタユニットの投射画像Pの画素P3の輝度値(光センサから供給された第3の検出結果)との差に基づいて輝度補正テーブルを作成する(ステップS11)。その後、映像信号補正部は、完了通知を主制御部82に送信する。
 ステップS10において、隣接する隣接プロジェクタユニットが存在しないと判断した場合は、続いて、映像信号補正部は、ユニット接続情報に基づいて、自プロジェクタユニットの下側に隣接する隣接プロジェクタユニットが存在するか否かを判定する(ステップS12)。
 ステップS12で隣接プロジェクタユニットが存在すると判断した場合は、映像信号補正部は、自プロジェクタユニットの投射画像Pの画素P2の輝度値と隣接プロジェクタユニットの投射画像Pの画素P3の輝度値(光センサから供給された第3の検出結果)との差に基づいて輝度補正テーブルを作成する(ステップS13)。その後、映像信号補正部は、完了通知を主制御部82に送信する。
 ステップS12で隣接プロジェクタユニットが存在しないと判断した場合は、映像信号補正部は、入力映像信号を補正しないでそのまま出力するような輝度補正テーブルを作成する(ステップS14)。その後、映像信号補正部は、完了通知を主制御部82に送信する。
 以上のステップS10~S14の処理によれば、プロジェクタユニット1では、入力映像信号を補正しないでそのまま出力するような輝度補正テーブルが赤、緑、青の色毎に作成される。プロジェクタユニット5、9、13のそれぞれでは、自プロジェクタユニットの投射画像Pの画素P2の輝度値と下側の隣接プロジェクタユニットの投射画像Pの画素P1の輝度値との差に基づいて輝度補正テーブルが赤、緑、青の色毎に作成される。プロジェクタユニット2~4、6~8、10~12、14~16のそれぞれでは、自プロジェクタユニットの投射画像Pの画素P2の輝度値と隣接プロジェクタユニットの投射画像Pの画素P3の輝度値との差に基づいて輝度補正テーブルが赤、緑、青の色毎に作成される。
 プロジェクタユニット1~16が、図7に示した手順で輝度補正テーブル作成を作成して輝度を調整する処理を同時に行う。この調整処理を数回繰り返せば、プロジェクタユニット1の各色の投射画像を基準にして、プロジェクタユニット2~16の各色の投射画像の輝度が調整され、スクリーン78全体で、一様な輝度の投射画像を得ることができる。主制御部82は、予め定められた回数だけ、調整処理をプロジェクタユニット1~16に行わせる。
 なお、輝度調整時において、プロジェクタユニット1~16は、図5に示したような調整画像を複数回投射する。この複数回の調整画像の投射工程は、1つの輝度調整期間において、連続して行われても良く、また、第1乃至第7の輝度調整期間を設定し、それぞれの輝度調整期間において、1回の投射工程を行ってもよい。後者の場合、各輝度調整期間の間に分割映像信号に基づく画像を投射する通常動作の工程を行ってもよい。例えば、1フレームまたは複数のフレームの分割映像信号に基づく画像が投射される毎に、1回の調整画像の投射工程を行うといった手順で、上記の複数回の投射工程を行ってもよい。
 以上のようにしてプロジェクタユニット1~16による輝度補正テーブルの作成が完了した後、主制御部82は、動作モードを通常動作モードに切り替える。
 通常動作時において、プロジェクタユニット1~16では、映像信号補正部331~346が、入力された各色の分割映像信号に対して各色の輝度補正データに基づく輝度補正を行う。そして、映像投射部351~366が、輝度補正後の各色の分割映像信号に基づく画像を画面61~76上に投射する。
 以上説明した本実施形態のマルチプロジェクションディスプレイによれば、光センサの検出範囲は、投射画像(画面)の左下近傍の範囲とされているので、スクリーン全体を1つの光センサで検出する場合に比較して、光センサと画面との距離を十分に短くすることができる。このように、光センサと画面との距離が短いので、マルチプロジェクションシステムの小型化を図ることができる。
 また、前述したように、人間の視覚特性上、離れた位置にある画素間の輝度差は視認され難いが、隣接する画素間の輝度差は視認され易い。本実施形態では、この視覚特性を考慮し、自画面と隣接画面との間で、画面境界部分に隣接する画素間の輝度差を小さくするようになっているので、各画面間の繋ぎ目が視認され難いという効果がある。
 なお、本実施形態のマルチプロジェクションディスプレイにおいて、構成および動作は適宜に変更可能である。例えば、光センサ21~36は、画面61~76の対応する画面の四隅のうち左下隅部の近傍に配置されているが、左上隅部、右下隅部、右上隅部のいずれに配置されてもよい。
 光センサを左上隅部に配置した場合は、プロジェクタユニットは、左側および上側の隣接プロジェクタユニットとの間で、特定画素の輝度差を取得して、取得した輝度差に基づいて各色の輝度補正テーブルを作成する。この場合、図5に示した画素P1~P3はそれぞれ、画面の左下、左上、右上の各隅部に位置する画素とされる。
 光センサを右下隅部に配置した場合は、プロジェクタユニットは、右側および下側の隣接プロジェクタユニットとの間で、特定画素の輝度差を取得して、取得した輝度差に基づいて各色の輝度補正テーブルを作成する。この場合、図5に示した画素P1~P3はそれぞれ、画面の左下、右下、右上の各隅部に位置する画素とされる。
 光センサを右上隅部に配置した場合は、プロジェクタユニットは、右側および上側の隣接プロジェクタユニットとの間で、特定画素の輝度差を取得して、取得した輝度差に基づいて各色の輝度補正テーブルを作成する。この場合、図5に示した画素P1~P3はそれぞれ、画面の左上、右上、右下の各隅部に位置する画素とされる。
 また、調整画像は図5に示した画像に限定されない。自プロジェクタユニットと隣接プロジェクタユニットとの間で画面境界部を挟んで隣接する画素の輝度差を取得できるのであれば、どのような調整画像を用いてもよい。
 例えば、特定画素の数は、3つ以上であってもよい。より具体的には、図5に示した調整画像において、画素P2と画素P1の第1の組と、画素P2と画素P3との第2の組をそれぞれ複数設ける。この場合、隣接プロジェクタユニットが自プロジェクタユニットの下側に有る場合は、第1の組毎に、画素P1、P2の輝度差を求め、その輝度差の平均値に基づいて輝度補正テーブルを作成する。隣接プロジェクタユニットが自プロジェクタユニットの左側に有る場合は、第2の組毎に、画素P2、P3の輝度差を求め、その輝度差の平均値に基づいて輝度補正テーブルを作成する。これにより、自画面と隣接画面との間で、画面境界部分に隣接する画素間の輝度差をより小さくすることができるので、繋ぎ目はより視認され難くなる。
 (第2の実施形態)
 図8は、本発明の第2の実施形態であるマルチプロジェクションディスプレイの主要部を示す模式図である。
 本実施形態のマルチプロジェクションディスプレイは、1つのプロジェクタユニットに対して2個の光センサが設けられている点で、第1の実施形態のマルチプロジェクションディスプレイと異なる。
 第1の光センサ21-1~36-1はプロジェクタユニット1~16と1対1で対応し、第2の光センサ21-2~36-2もプロジェクタユニット1~16と1対1で対応する。
 プロジェクタユニット1は、第1の光センサ21-1および第2の光センサ21-2の各出力信号に基づいて各色の輝度補正テーブルを作成する。同様に、プロジェクタユニット2~16はそれぞれ、第1の光センサ22-1~36-1のうちの対応する第1の光センサおよび第2の光センサ21-2~36-2のうちの対応する第2の光センサの各出力信号に基づいて各色の輝度補正テーブルを作成する。
 プロジェクタユニット1~16での輝度補正テーブルの作成手順は基本的に第1の実施形態と同じであるが、本実施形態では、第1および第2の光センサを用いて、左側および下側の隣接プロジェクタユニットとの特定画素の輝度差を検出する。このため、第1および第2の光センサの検出範囲や、輝度調整時に用いられる調整用映像信号が第1の実施形態と異なる。
 図9に、プロジェクタユニット6による投射画面に対する第1の光センサ26-1および第2の光センサ26-2の各検出範囲を模式的に示す。
 第1の光センサ26-1は画面66の左側辺部の中央近傍に配置され、その検出範囲26-1aは、画面66の左側辺部近傍の領域と画面65の画面66の左側辺部に隣接する領域とを含む。
 第2の光センサ26-2は画面66の下側辺部の中央近傍に配置され、その検出範囲26-2aは、画面66の下側辺部近傍の領域と画面62の画面66の左側辺部に隣接する領域とを含む。
 図10に、調整用映像信号に基づく投射画像(赤)の一例を示す。投射画像Pは、行列状に配置された複数の画素からなり、画面に向かって、上側最外周部の略中央に位置する画素P1、左側最外周部の略中央に位置する画素P2、右側最外周部の略中央に位置する画素P3、および下側最外周部の略中央に位置する画素P4を有する。画素P1~P4において、一定の輝度の蛍光(赤色)が放出され、これら画素P1~P4以外の画素からは蛍光は放出されない。画素P1~P4は、隣接画面との輝度差を取得する際の特定画素に対応する。
 図10に示した投射画像Pの調整用映像信号がプロジェクタユニット1~16に供給される。プロジェクタユニット1~16は、調整用映像信号に基づく投射画像Pを画面61~76に投射する。
 図11A~図11Dに、赤色の輝度補正テーブルを作成する際の自画面と隣接画面との間の特定画素の輝度差を取得する手順を模式的に示す。図11A~図11Dに示す手順は、周制御部82が図10に示した投射画像Pの調整用映像信号をプロジェクタユニット1、2、5、6に供給した場合の、プロジェクタユニット6により実行される手順である。
 励起光の走査が開始されると、まず、図11Aに示すように、画面61、62、65、66において画素P1が点灯する。この場合、画面61、62、65、66の点灯状態の画素P1のうち、画面62の画素P1のみが、プロジェクタユニット6に対応する第2の光センサ26-2の検出範囲26-2a内に位置する。したがって、第2の光センサ26-2は、画面66の下側に隣接する画面62の画素P1からの赤色の蛍光のみを検出し、その結果(第1の検出結果)をプロジェクタユニット6に供給する。
 画素P1の点灯後、画素P1の次の画素から画素P2の1つ前の画素までは励起光は照射されない。
 励起光が画素P2に照射された状態が図11Bに示す状態である。この状態では、画面61、62、65、66において画素P2が点灯し、これら点灯状態の画素P2のうち、画面66の画素P2のみが、第1の光センサ26-1の検出範囲26-1a内に位置する。したがって、第1の光センサ26-1は、画面66の画素P2からの赤色の蛍光のみを検出し、その結果(第2の検出結果)をプロジェクタユニット6に供給する。
 画素P2の点灯後、画素P2の次の画素から画素P3の1つ前の画素までは励起光は照射されない。
 励起光が画素P3に照射された状態が図11Cに示す状態である。この状態では、画面61、62、65、66において画素P3が点灯し、これら点灯状態の画素P3のうち、画面65の画素P3のみが、第1の光センサ26-1の検出範囲26-1a内に位置する。したがって、第1の光センサ26-1は、画面65の画素P3からの赤色の蛍光のみを検出し、その結果(第3の検出結果)をプロジェクタユニット6に供給する。
 画素P3の点灯後、画素P3の次の画素から画素P4の1つ前の画素までは励起光は照射されない。
 励起光が画素P4に照射された状態が図11Dに示す状態である。この状態では、画面61、62、65、66において画素P4が点灯し、これら点灯状態の画素P4のうち、画面66の画素P4のみが、第2の光センサ26-2の検出範囲26-2a内に位置する。したがって、第2の光センサ26-2は、画面66の画素P4からの赤色の蛍光のみを検出し、その結果(第4の検出結果)をプロジェクタユニット6に供給する。
 プロジェクタユニット6では、画面65と画面66の間の特定画素の輝度を検出するために、第2および第3の検出結果が第1の光センサ26-1から映像信号補正部336に供給され、画面62と画面66の間の特定画素の輝度を検出するために、第1および第4の検出結果が第2の光センサ26-2から映像信号補正部336に供給される。
 映像信号補正部336は、所定の手順に従って、第1の光センサ26-1の検出結果(第2および第3の検出結果)と、第2の光センサ26-2の検出結果(第1および第4の検出結果)とのいずれか一方を選択し、その選択した検出結果に基づいて赤色の輝度補正テーブルを作成する。
 所定の手順に従った輝度補正テーブルの作成手順は図7に示した手順と基本的に同じであるが、ステップS11およびS13の処理の一部が第1の実施形態の場合と異なる。
 本実施形態では、ステップS11において、映像信号補正部336は、自プロジェクタユニット6の投射画像Pの画素P2の輝度値(第1の光センサ26-1から供給された第2の検出結果)と隣接プロジェクタユニット5の投射画像Pの画素P3の輝度値(第1の光センサ26-1から供給された第3の検出結果)との差に基づいて輝度補正テーブルを作成する。
 ステップS13において、映像信号補正部336は、自プロジェクタユニット6の投射画像Pの画素P4の輝度値(第2の光センサ26-2から供給された第4の検出結果)と隣接プロジェクタユニット2の投射画像Pの画素P1の輝度値(第2の光センサ26-2から供給された第1の検出結果)との差に基づいて輝度補正テーブルを作成する。
 緑色および青色の輝度補正テーブルについても、上記と同様の手順で作成することができる。
 プロジェクタユニット1~5、7~16においても、プロジェクタユニット6と同様の手順で赤色、緑色および青色の各色の輝度補正テーブルを作成することができる。
 プロジェクタユニット1~16が、同時に調整処理を行い、この調整処理を数回繰り返せば、プロジェクタユニット1~16の各色の投射画像の輝度を略一致させることができ、スクリーン78全体で、一様な輝度の投射画像を得ることができる。主制御部82は、予め定められた回数だけ、調整処理をプロジェクタユニット1~16に行わせる。
 本実施形態のマルチプロジェクションディスプレイにおいても、第1の実施形態と同様の効果を奏する。
 なお、本実施形態のマルチプロジェクションディスプレイにおいて、構成および動作は適宜に変更可能である。例えば、第1および第2の光センサは、画面の最外周部の隣接する2辺に対して設ければよい。ただし、第1および第2の光センサの画面に対する位置は、プロジェクタユニット1~16の間で同じにする必要がある。
 また、調整画像は図10に示した画像に限定されない。自プロジェクタユニットと隣接プロジェクタユニットとの間での画面境界部を挟んで隣接する画素の輝度差を取得できるのであれば、どのような調整画像を用いてもよく、特定画素の数も、4つ以上であってもよい。
 例えば、図10に示した調整画像において、画素P1と画素P4の第1の組と、画素P2と画素P3との第2の組をそれぞれ複数設ける。この場合、隣接プロジェクタユニットが自プロジェクタユニットの下側に有る場合は、第1の組毎に、画素P1、P4の輝度差を求め、その輝度差の平均値に基づいて輝度補正テーブルを作成する。隣接プロジェクタユニットが自プロジェクタユニットの左側に有る場合は、第2の組毎に、画素P2、P3の輝度差を求め、その輝度差の平均値に基づいて輝度補正テーブルを作成する。これにより、自画面と隣接画面との間で、画面境界部分に隣接する画素間の輝度差をより小さくすることができるので、繋ぎ目はより視認され難くなる。
 (第3の実施形態)
 図12は、本発明の第3の実施形態であるマルチプロジェクションディスプレイの主要部を示す模式図である。
 本実施形態のマルチプロジェクションディスプレイは、1つのプロジェクタユニットに対して4個の光センサが設けられている点で、第1および第2の実施形態のマルチプロジェクションディスプレイと異なる。
 第1の光センサ41-1~56-1、第2の光センサ41-2~56-2、第3の光センサ41-3~56-3および第4の光センサ41-4~56-4はそれぞれ、プロジェクタユニット1~16と1対1で対応する。
 プロジェクタユニット1は、第1の光センサ41-1、第2の光センサ41-2、第3の光センサ41-3および第4の光センサ41-4の各出力信号に基づいて各色の輝度補正テーブルを作成する。同様に、プロジェクタユニット2~16はそれぞれ、第1の光センサ42-1~56-1のうちの対応する第1の光センサ、第2の光センサ41-2~56-2、第3の光センサ42-3~56-3のうちの対応する第3の光センサ、および第4の光センサ41-4~56-4のうち、対応する第1乃至第4の光センサの各出力信号に基づいて各色の輝度補正テーブルを作成する。
 プロジェクタユニット1~16での輝度補正テーブルの作成手順は基本的に第1の実施形態と同じであるが、本実施形態では、第1乃至第4の光センサを用いて、上下左右の各側の隣接プロジェクタユニットとの特定画素の輝度差を検出する。このため、第1乃至第4の光センサの検出範囲や、輝度調整時に用いられる調整用映像信号が第1の実施形態と異なる。
 図13に、プロジェクタユニット6による投射画面に対する第1の光センサ46-1、第2の光センサ46-2、第3の光センサ46-3、および第3の光センサ46-4の各検出範囲を模式的に示す。ここでは、画面66は第1乃至第4の矩形領域に区画されているものと仮定する。
 第1の光センサ46-1は、画面66の左下側に位置する第1の矩形領域に対向して配置され、その検出範囲46-1aは、第1の矩形領域と、画面61、62、65の最外周部の第1の矩形領域に隣接する領域を含む。
 第2の光センサ46-2は、画面66の右下側に位置する第2の矩形領域に対向して配置され、その検出範囲46-2aは、第2の矩形領域と、画面62、63、67の最外周部の第2の矩形領域に隣接する領域を含む。
 第3の光センサ46-3は、画面66の左上側に位置する第3の矩形領域に対向して配置され、その検出範囲46-3aは、第3の矩形領域と、画面65、69、70の最外周部の第3の矩形領域に隣接する領域を含む。
 第4の光センサ46-4は、画面66の右上側に位置する第4の矩形領域に対向して配置され、その検出範囲46-4aは、第4の矩形領域と、画面67、70、71の最外周部の第4の矩形領域に隣接する領域を含む。
 図14に、調整用映像信号に基づく投射画像(赤)の一例を示す。投射画像Pは、行列状に配置された複数の画素からなり、隣接画面との輝度差を取得する際の特定画素として、画素P1~P8が設定されている。画素P1~P8において、一定の輝度の蛍光(赤色)が放出され、これら画素P1~P8以外の画素からは蛍光は放出されない。
 画素P1は、第3の矩形領域の上側最外周部の略中央に位置する。画素P2は、第4の矩形領域の上側最外周部の略中央に位置する。画素P3は、第3の矩形領域の左側最外周部の略中央に位置する。画素P4は、第4の矩形領域の右側最外周部の略中央に位置する。
 画素P5は、第1の矩形領域の左側最外周部の略中央に位置する。画素P6は、第2の矩形領域の右側最外周部の略中央に位置する。画素P7は、第1の矩形領域の下側最外周部の略中央に位置する。画素P8は、第2の矩形領域の下側最外周部の略中央に位置する。
 図14に示した投射画像Pの調整用映像信号がプロジェクタユニット1~16に供給される。プロジェクタユニット1~16は、調整用映像信号に基づく投射画像Pを画面61~76に投射する。
 図15A~図15Hに、赤色の輝度補正テーブルを作成する際の自画面と隣接画面との間の特定画素の輝度差を取得する手順を模式的に示す。図15A~図15Hに示す手順は、プロジェクタユニット6により実行される手順である。
 励起光の走査が開始されると、まず、図15Aに示すように、画面61、62、65、66において画素P1が点灯する。この場合、画面61、62、65、66の点灯状態の画素P1のうち、画面62の画素P1のみが、第1の光センサ46-1の検出範囲46-1a内に位置し、画面66の画素P1のみが、第3の光センサ46-3の検出範囲46-3a内に位置する。
 上記の場合、第1の光センサ46-1は、画面62の画素P1からの赤色の蛍光のみを検出し、その結果(画面62の画素P1の検出結果)をプロジェクタユニット6に供給する。第3の光センサ46-3は、画面66の画素P1からの赤色の蛍光のみを検出し、その結果(画面66の画素P1の検出結果)をプロジェクタユニット6に供給する。
 画素P1の点灯後、画素P1の次の画素から画素P2の1つ前の画素までは励起光は照射されない。
 励起光が画素P2に照射された状態が図15Bに示す状態である。この状態では、画面61、62、65、66において画素P2が点灯する。これら点灯状態の画素P2のうち、画面62の画素P2のみが、第2の光センサ46-2の検出範囲46-2a内に位置し、画面66の画素P2のみが、第4の光センサ46-4の検出範囲46-4a内に位置する。
 上記の場合、第2の光センサ46-2は、画面62の画素P2からの赤色の蛍光のみを検出し、その結果(画面62の画素P2の検出結果)をプロジェクタユニット6に供給する。第4の光センサ46-4は、画面66の画素P2からの赤色の蛍光のみを検出し、その結果(画面66の画素P2の検出結果)をプロジェクタユニット6に供給する。
 画素P2の点灯後、画素P2の次の画素から画素P3の1つ前の画素までは励起光は照射されない。
 励起光が画素P3に照射された状態が図15Cに示す状態である。この状態では、画面61~63、65~67において画素P3が点灯する。これら点灯状態の画素P3のうち、画面66の画素P3のみが、第3の光センサ46-3の検出範囲46-3a内に位置し、画面67の画素P3のみが、第4の光センサ46-4の検出範囲46-4a内に位置する。
 上記の場合、第3の光センサ46-2は、画面66の画素P3からの赤色の蛍光のみを検出し、その結果(画面66の画素P3の検出結果)をプロジェクタユニット6に供給する。第4の光センサ46-4は、画面67の画素P3からの赤色の蛍光のみを検出し、その結果(画面67の画素P3の検出結果)をプロジェクタユニット6に供給する。
 画素P3の点灯後、画素P3の次の画素から画素P4の1つ前の画素までは励起光は照射されない。
 励起光が画素P4に照射された状態が図15Dに示す状態である。この状態では、画面61、62、65、66において画素P4が点灯する。これら点灯状態の画素P4のうち、画面65の画素P4のみが、第3の光センサ46-3の検出範囲46-3a内に位置し、画面66の画素P4のみが、第4の光センサ46-4の検出範囲46-4a内に位置する。
 上記の場合、第3の光センサ46-3は、画面65の画素P4からの赤色の蛍光のみを検出し、その結果(画面65の画素P4の検出結果)をプロジェクタユニット6に供給する。第4の光センサ46-4は、画面66の画素P4からの赤色の蛍光のみを検出し、その結果(画面66の画素P4の検出結果)をプロジェクタユニット6に供給する。
 画素P4の点灯後、画素P4の次の画素から画素P5の1つ前の画素までは励起光は照射されない。
 励起光が画素P5に照射された状態が図15Eに示す状態である。この状態では、画面61~63、65~67において画素P5が点灯する。これら点灯状態の画素P5のうち、画面66の画素P5のみが、第1の光センサ46-1の検出範囲46-1a内に位置し、画面67の画素P5のみが、第2の光センサ46-2の検出範囲46-2a内に位置する。
 上記の場合、第1の光センサ46-3は、画面66の画素P5からの赤色の蛍光のみを検出し、その結果(画面66の画素P5の検出結果)をプロジェクタユニット6に供給する。第2の光センサ46-2は、画面67の画素P5からの赤色の蛍光のみを検出し、その結果(画面67の画素P5の検出結果)をプロジェクタユニット6に供給する。
 画素P5の点灯後、画素P5の次の画素から画素P6の1つ前の画素までは励起光は照射されない。
 励起光が画素P6に照射された状態が図15Fに示す状態である。この状態では、画面61、62、65、66において画素P6が点灯する。これら点灯状態の画素P6のうち、画面65の画素P6のみが、第1の光センサ46-1の検出範囲46-1a内に位置し、画面66の画素P6のみが、第2の光センサ46-2の検出範囲46-2a内に位置する。
 上記の場合、第1の光センサ46-1は、画面65の画素P6からの赤色の蛍光のみを検出し、その結果(画面65の画素P6の検出結果)をプロジェクタユニット6に供給する。第2の光センサ46-4は、画面66の画素P6からの赤色の蛍光のみを検出し、その結果(画面66の画素P6の検出結果)をプロジェクタユニット6に供給する。
 画素P6の点灯後、画素P6の次の画素から画素P7の1つ前の画素までは励起光は照射されない。
 励起光が画素P7に照射された状態が図15Gに示す状態である。この状態では、画面61、62、65、66、69、70において画素P7が点灯する。これら点灯状態の画素P7のうち、画面66の画素P7のみが、第1の光センサ46-1の検出範囲46-1a内に位置し、画面70の画素P7のみが、第3の光センサ46-3の検出範囲46-3a内に位置する。
 上記の場合、第1の光センサ46-1は、画面66の画素P7からの赤色の蛍光のみを検出し、その結果(画面66の画素P7の検出結果)をプロジェクタユニット6に供給する。第3の光センサ46-3は、画面70の画素P7からの赤色の蛍光のみを検出し、その結果(画面70の画素P7の検出結果)をプロジェクタユニット6に供給する。
 画素P7の点灯後、画素P7の次の画素から画素P8の1つ前の画素までは励起光は照射されない。
 励起光が画素P8に照射された状態が図15Hに示す状態である。この状態では、画面61、62、65、66、69、70において画素P8が点灯する。これら点灯状態の画素P7のうち、画面66の画素P8のみが、第2の光センサ46-2の検出範囲46-2a内に位置し、画面70の画素P8のみが、第4の光センサ46-4の検出範囲46-4a内に位置する。
 上記の場合、第2の光センサ46-2は、画面66の画素P8からの赤色の蛍光のみを検出し、その結果(画面66の画素P8の検出結果)をプロジェクタユニット6に供給する。第4の光センサ46-4は、画面70の画素P8からの赤色の蛍光のみを検出し、その結果(画面70の画素P8の検出結果)をプロジェクタユニット6に供給する。
 プロジェクタユニット6では、画面66と上下左右側の隣接画面62、65、67、70のそれぞれとの輝度調整が可能である。
 以下に、画面66と上側の隣接画面70との間で用いられる第1の輝度補正テーブルの作成手法、画面66と左側の隣接画面65との間で用いられる第2の輝度補正テーブルの作成手法、画面66と右側の隣接画面67との間で用いられる第3の輝度補正テーブルの作成手法、および画面66と下側の隣接画面62との間で用いられる第4の輝度補正テーブルの作成手法をそれぞれ説明する。
 (第1の輝度補正テーブルの作成手法)
 プロジェクタユニット6では、画面66の輝度を上側の隣接画面70の輝度に合わせるための輝度補正テーブルを作成するために、画面66の画素P1、P2とこれらに隣接する画面70の画素P7、P8との輝度差が用いられる。
 具体的には、映像信号補正部336は、図15Aに示した状態で第3の光センサ46-3から取得した画面66の画素P1の輝度値と図16Gに示した状態で第3の光センサ46-3から取得した画面70の画素P7の輝度値との差(第1の輝度差)を取得する。さらに、映像信号補正部336は、図15Bに示した状態で第4の光センサ46-4から取得した画面66の画素P2の輝度値と図15Hに示した状態で第4の光センサ46-4から取得した画面70の画素P8の輝度値との差(第2の輝度差)を取得する。そして、映像信号補正部336は、第1および第2の輝度差の平均値に基づいて赤色の第1の輝度補正テーブルを作成する。
 上記の場合において、映像信号補正部336は、画面66の画素P1、P2の輝度値の平均値と、画面70の画素P7、P8の輝度値の平均値との差を求め、その差に基づいて赤色の輝度補正テーブルを作成してもよい。
 (第2の輝度補正テーブルの作成手法)
 プロジェクタユニット6では、画面66の輝度を左側の隣接画面65の輝度に合わせるための輝度補正テーブルを作成するために、画面66の画素P3、P5とこれらに隣接する画面65の画素P4、P6との輝度差が用いられる。
 具体的には、映像信号補正部336は、図15Cに示した状態で第3の光センサ46-3から取得した画面66の画素P3の輝度値と図15Dに示した状態で第3の光センサ46-3から取得した画面65の画素P4の輝度値との差(第1の輝度差)を取得する。さらに、映像信号補正部336は、図15Eに示した状態で第1の光センサ46-1から取得した画面66の画素P5の輝度値と図15Fに示した状態で第1の光センサ46-1から取得した画面65の画素P6の輝度値との差(第2の輝度差)を取得する。そして、映像信号補正部336は、第1および第2の輝度差の平均値に基づいて赤色の第2の輝度補正テーブルを作成する。
 上記の場合において、映像信号補正部336は、画面66の画素P3、P5の輝度値の平均値と、画面65の画素P4、P6の輝度値の平均値との差を求め、その差に基づいて赤色の第2の輝度補正テーブルを作成してもよい。
 (第3の輝度補正テーブルの作成手法)
 プロジェクタユニット6では、画面66の輝度を右側の隣接画面67の輝度に合わせるための輝度補正テーブルを作成するために、画面66の画素P4、P6とこれらに隣接する画面67の画素P3、P5との輝度差が用いられる。
 具体的には、映像信号補正部336は、図15Dに示した状態で第4の光センサ46-4から取得した画面66の画素P4の輝度値と図15Cに示した状態で第4の光センサ46-4から取得した画面67の画素P3の輝度値との差(第1の輝度差)を取得する。さらに、映像信号補正部336は、図15Fに示した状態で第3の光センサ46-3から取得した画面66の画素P6の輝度値と図15Eに示した状態で第2の光センサ46-2から取得した画面67の画素P5の輝度値との差(第2の輝度差)を取得する。そして、映像信号補正部336は、第1および第2の輝度差の平均値に基づいて赤色の第3の輝度補正テーブルを作成する。
 上記の場合において、映像信号補正部336は、画面66の画素P4、P5の輝度値の平均値と、画面67の画素P3、P5の輝度値の平均値との差を求め、その差に基づいて赤色の第3の輝度補正テーブルを作成してもよい。
 (第4の輝度補正テーブルの作成手法)
 プロジェクタユニット6では、画面66の輝度を下側の隣接画面62の輝度に合わせるための輝度補正テーブルを作成するために、画面66の画素P7、P8とこれらに隣接する画面62の画素P1、P2との輝度差が用いられる。
 具体的には、映像信号補正部336は、図15Gに示した状態で第1の光センサ46-1から取得した画面66の画素P7の輝度値と図15Aに示した状態で第1の光センサ46-1から取得した画面62の画素P1の輝度値との差(第1の輝度差)を取得する。さらに、映像信号補正部336は、図15Hに示した状態で第2の光センサ46-2から取得した画面66の画素P8の輝度値と図15Bに示した状態で第2の光センサ46-2から取得した画面62の画素P2の輝度値との差(第2の輝度差)を取得する。そして、映像信号補正部336は、第1および第2の輝度差の平均値に基づいて赤色の第4の輝度補正テーブルを作成する。
 上記の場合において、映像信号補正部336は、画面66の画素P7、P8の輝度値の平均値と、画面62の画素P1、P2の輝度値の平均値との差を求め、その差に基づいて赤色の第4の輝度補正テーブルを作成してもよい。
 また、プロジェクタユニット6では、画面66の上下左右のいずれの側にも隣接画面(隣接プロジェクタユニット)が存在しない場合は、映像信号補正部336は、入力した映像信号を補正しないでそのまま出力するような赤色の第5の輝度補正テーブルを作成する。
 主制御部82は、プロジェクタユニット6に対して、赤色の第1乃至第5の輝度補正テーブルのいずれかを作成するかを指示する輝度補正テーブル作成指示信号を供給する。映像信号補正部336は、主制御部82からの指示信号に従って、赤色の第1乃至第5の輝度補正テーブルのいずれかを作成する。
 上記の赤色の第1乃至第4の輝度補正テーブルの作成手法と同様に、緑色および青色についても、第1乃至第4の輝度補正テーブルを作成することができる。映像信号補正部336は、主制御部82からの指示に従って、緑色および青色のそれぞれについて、第1乃至第4の輝度補正テーブルのいずれかを作成する。
 プロジェクタユニット1~5、7~16においても、プロジェクタユニット6と同様の手順で赤色、緑色および青色の各色について、主制御部82からの輝度補正テーブル作成指示信号にしたがって第1乃至第5の輝度補正テーブルのいずれかを作成することができる。
 本実施形態のマルチプロジェクションディスプレイにおいては、プロジェクタユニット1~16のそれぞれは、上下左右側の各隣接プロジェクタユニットとの輝度調整が可能である。主制御部82は、プロジェクタユニット1~16のうちの1つを基準として、基準のプロジェクタユニットに、各色の第5の輝度補正テーブルを作成させる。また、主制御部82は、残りのプロジェクタユニットに対して、それぞれの配置に応じて第1乃至第4の輝度補正テーブルのうちのいずれかを作成させる。
 プロジェクタユニット1~16が、同時に調整処理を行い、この調整処理を数回繰り返せば、プロジェクタユニット1~16の各色の投射画像の輝度を略一致させることができ、スクリーン78全体で、一様な輝度の投射画像を得ることができる。主制御部82は、予め定められた回数だけ、調整処理をプロジェクタユニット1~16に行わせる。
 本実施形態のマルチプロジェクションディスプレイによっても、第1および第2の実施形態と同様の作用効果を奏する。特に、本実施形態では、自プロジェクタユニットと上下左右のいずれかに隣接するプロジェクタユニットとの間で輝度補正テーブルを作成することができるので、プロジェクタユニット1~16に輝度調整の回数は第2の実施形態の場合よりも少ない。
 本実施形態のマルチプロジェクションディスプレイの構成および動作は適宜に変更可能である。
 例えば、図14に示した調整画像に代えて図10に示した調整画像を用いてもよい。この場合は、第1の光センサの検出範囲が、画素P1が位置する第1の辺部近傍の領域に設定され、第2の光センサの検出範囲が、画素P2が位置する第2の辺部近傍の領域に設定され、第3の光センサの検出範囲が、画素P3が位置する第3の辺部近傍の領域に設定され、第4の光センサの検出範囲が、画素P4が位置する第4の辺部近傍の領域に設定される。
 上記の場合、隣接プロジェクタユニットが自プロジェクタユニットの上側に有る場合は、第1の光センサから自画面の画素P1の輝度値と隣接画面の画素P4の輝度値との差を取得し、その輝度差に基づいて輝度補正テーブルを作成する。
 隣接プロジェクタユニットが自プロジェクタユニットの左側に有る場合は、第2の光センサから自画面の画素P2の輝度値と隣接画面の画素P3の輝度値との差を取得し、その輝度差に基づいて輝度補正テーブルを作成する。
 隣接プロジェクタユニットが自プロジェクタユニットの右側に有る場合は、第3の光センサから自画面の画素P3の輝度値と隣接画面の画素P2の輝度値との差を取得し、その輝度差に基づいて輝度補正テーブルを作成する。
 隣接プロジェクタユニットが自プロジェクタユニットの下側に有る場合は、第4の光センサから自画面の画素P4の輝度値と隣接画面の画素P1の輝度値との差を取得し、その輝度差に基づいて輝度補正テーブルを作成する。
 上記の場合、画素P1と画素P4の第1の組と、画素P2と画素P3との第2の組をそれぞれ複数設けてもよい。この場合、隣接プロジェクタユニットが自プロジェクタユニットの上側または下側に有る場合は、第1の組毎に、画素P1、P4の輝度差を求め、その輝度差の平均値に基づいて輝度補正テーブルを作成する。隣接プロジェクタユニットが自プロジェクタユニットの左側または右側に有る場合は、第2の組毎に、画素P2、P3の輝度差を求め、その輝度差の平均値に基づいて輝度補正テーブルを作成する。これにより、自画面と隣接画面との間で、画面境界部分に隣接する画素間の輝度差をより小さくすることができるので、繋ぎ目はより視認され難くなる。
 以上説明した各実施形態のマルチプロジェクションディスプレイは、本発明の一例であり、その構成および動作については、発明趣旨を逸脱しない範囲で、当業者が理解し得る変更を加えることができる。
 例えば、第1乃至第3の実施形態において、主制御部82は、調整画像の特定画素の周辺の画素を非点灯状態としてもよい。
 主制御部82は、調整画像の、特定画素と周辺部の画素(非点灯状態の画素)とを除く画素領域を、入力映像信号(分割映像信号)に基づく画像の、上記の画素領域に対向する画素の信号で書き換えた映像信号を調整用映像信号として各プロジェクタユニット1~16に供給してもよい。
 図16に、図14に示した調整画像の特定画素の周辺部の画素を非点灯状態とした画像の一例を模式的に示す。
 図16を参照すると、走査方向における画素P1の前後の領域A1、A2は非点灯状態の画素よりなる。領域A1の画素数は、領域A2の画素数と同じである。領域A1、A2の画素数は、プロジェクタユニット1~16の間の水平方向の同期ずれに基づいて決定される。
 領域A3は、画素P2、P3を含む走査線と、該走査線の両側に隣接する2つの走査線とを含む。領域A3の画素P2、P3を除く画素が非点灯状態とされる。
 走査方向における画素P4の前後の領域A4、A5は非点灯状態の画素よりなる。領域A4の画素数は、領域A5の画素数と同じである。領域A4、A5の画素数は、プロジェクタユニット1~16の間の水平方向の同期ずれに基づいて決定される。
 主制御部82は、画素P1~P4と領域A1~A5の非点灯状態の画素とを除く領域S1、S2の各画素を、入力映像信号(分割映像信号)に基づく画像の対応する画素の信号で書き換えた映像信号を調整用映像信号として生成する。
 図17に、そのような調整用映像信号の一例を示す。
 図17には、プロジェクタユニット1、2、5、6により投射される調整用映像信号に基づく調整画像が模式的に示されている。画面61、62、65、66のそれぞれに図16に示した投射画像Pが表示されている。画面61では、領域S1、S2に第1の分割映像信号に基づく画像が表示される。画面62では、領域S1、S2に第2の分割映像信号に基づく画像が表示される。画面65では、領域S1、S2に第5の分割映像信号に基づく画像が表示される。画面66では、領域S1、S2に第6の分割映像信号に基づく画像が表示される。
 他のプロジェクタユニット3、4、7~16においても、上記と同様、図16に示した投射画像Pが表示され、領域S1、S2に、対応する分割映像信号に基づく画像が表示される。
 上記の構成によれば、プロジェクタユニット1~16において、第1乃至第16の分割映像信号に基づく画像を表示しながら、各色の輝度補正テーブルを作成することができる。
 また、第1乃至第3の実施形態において、スクリーン78は、赤、緑および青の各色のレーザ光を拡散する拡散層を有するスクリーンであってもよい。この場合は、プロジェクタユニット1~16はそれぞれ、各色のレーザ光を出射するレーザ光源を備え、レーザ光源毎に、図4に示した投射部を備える。
 また、第1乃至第3の実施形態において、プロジェクタユニット1~16のそれぞれは、隣接プロジェクタユニットの有無を検出する隣接情報取得部を備えていてもよい。
 図18に、隣接情報取得部の一例を示す。図18を参照すると、プロジェクタユニット1を収容した筐体231に、メカニカルスイッチ211-1~211-4が設けられている。隣接情報取得部は、メカニカルスイッチ211-1~211-4よりなる。
 メカニカルスイッチ211-1は、左側側面の内側に配置され、突起部がその面から外部に突出している。突起部が押下され、突起部の上端が側面まで押し下げられることで、オン状態となってその旨を示す第1の検出信号を出力する。
 メカニカルスイッチ211-2は、下面の内側に配置され、突起部がその面から外部に突出している。突起部が押下され、突起部の上端が下面まで押し下げられることで、オン状態となってその旨を示す第2の検出信号を出力する。
 メカニカルスイッチ211-3は、右側側面の内側に配置され、突起部がその面から外部に突出している。突起部が押下され、突起部の上端が側面まで押し下げられることで、オン状態となってその旨を示す第3の検出信号を出力する。
 メカニカルスイッチ211-4は、上面の内側に配置され、突起部がその面から外部に突出している。突起部が押下され、突起部の上端が上面まで押し下げられることで、オン状態となってその旨を示す第4の検出信号を出力する。
 第1乃至第4の検出信号は、映像信号補正部331に供給されている。映像信号補正部331は、第1乃至第4の検出信号に基づいて、隣接プロジェクタユニットの有無を検出する。
 図18に示した構成と同じ隣接情報取得部が、他のプロジェクタユニット2~16にも設けられている。
 以上、実施形態を参照して本発明を説明したが、本発明は上述した実施形態に限定されるものではない。本発明の構成および動作については、本発明の趣旨を逸脱しない範囲において、当業者が理解し得る様々な変更を行うことができる。
 この出願は、2011年3月3日に出願された日本出願特願2011-046795を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (14)

  1.  それぞれが光ビームを走査することでスクリーン上に入力映像信号に基づく画像を投射する複数のプロジェクタユニットを備え、各プロジェクタユニットが投射した投射画像をつなぎ合わせて1枚の画像として表示するマルチプロジェクションディスプレイであって、
     前記各プロジェクタユニットに設けられ、それぞれが、前記各プロジェクタユニットの投写画像をそれぞれの表示領域の端部にて表示する複数の特定画素からの光を検出する複数の光センサ部と、
     輝度を調整するための調整画像を前記各プロジェクタユニットにより表示させて、前記複数の特定画素を所定の輝度で点灯させるとともに、該各プロジェクタユニットの前記調整画像の表示の垂直同期をとる主制御部と、を有し、
     前記各プロジェクタユニットのそれぞれは、前記調整画像を表示したときの前記複数の特定画素の輝度値を前記光センサ部より取得し、該取得した輝度値の差に基づいて、自プロジェクタユニットにより投射される前記投射画像の輝度を他のプロジェクタユニットにより投射される前記投射画像の輝度に合わせるための輝度補正テーブルを作成し、その後、該輝度補正テーブルを用いて前記入力映像信号に基づく画像の各画素の輝度を補正する映像信号補正部を有する、マルチプロジェクションディスプレイ。
  2.  前記映像信号補正部は、自プロジェクタユニットに隣接して他のプロジェクタユニットが配置されていない場合は、前記輝度補正テーブルの代わりに、前記入力映像信号をそのまま出力する別の輝度補正テーブルを作成する、請求項1に記載のマルチプロジェクションディスプレイ。
  3.  前記他のプロジェクタユニットとして、第1の方向において自プロジェクタユニットと隣接する第1のプロジェクタユニットと、前記第1の方向と直交する第2の方向において自プロジェクタユニットと隣接する第2のプロジェクタユニットとがあり、
     前記複数の特定画素は、自プロジェクタユニットの投射画像と前記第1のプロジェクタユニットの投射画像とのそれぞれの表示領域の端部に配置された互いに隣接する第1および第2の特定画素と、自プロジェクタユニットの投射画像と前記第2のプロジェクタユニットの投射画像のそれぞれの表示領域の端部に配置された互いに隣接する第3および第4の特定画素と、を有し、
     前記映像信号補正部は、
     輝度調整の対象として前記第1のプロジェクタユニットを選択した場合は、前記調整画像を表示したときの前記第1および第2の特定画素を前記光センサ部より取得し、該取得した輝度値の差に基づいて前記輝度補正テーブルを作成し、
     輝度調整の対象として前記第2のプロジェクタユニットを選択した場合は、前記調整画像を表示したときの前記第3および第4の特定画素を前記光センサ部より取得し、該取得した輝度値の差に基づいて前記輝度補正テーブルを作成する、請求項1または2に記載のマルチプロジェクションディスプレイ。
  4.  前記第1および第2の特定画素の第1の組と、前記第3および第4の特定画素の第2の組とがそれぞれ複数あり、
     前記映像信号補正部は、
     輝度調整の対象として前記第1のプロジェクタユニットを選択した場合は、前記第1の組毎に、前記第1および第2の特定画素の前記輝度差を取得し、該輝度差の平均値に基づいて前記輝度補正テーブルを作成し、
     輝度調整の対象として前記第2のプロジェクタユニットを選択した場合は、前記第2の組毎に、前記第3および第4の特定画素の前記輝度差を取得し、該輝度差の平均値に基づいて前記輝度補正テーブルを作成する、請求項3に記載のマルチプロジェクションディスプレイ。
  5.  前記他のプロジェクタユニットとして、前記第1の方向とは反対の第3の方向において自プロジェクタユニットと隣接する第3のプロジェクタユニットと、前記第2の方向とは反対の第4の方向において自プロジェクタユニットと隣接する第4のプロジェクタユニットがさらにあり、
     前記複数の特定画素は、自プロジェクタユニットの投射画像と前記第3のプロジェクタユニットの投射画像とのそれぞれの表示領域の端部に配置された互いに隣接する第5および第6の特定画素と、自プロジェクタユニットの投射画像と前記第4のプロジェクタユニットの投射画像のそれぞれの表示領域の端部に配置された互いに隣接する第7および第8の特定画素と、をさらに有し、
     前記映像信号補正部は、
     輝度調整の対象として前記第3のプロジェクタユニットを選択した場合は、前記調整画像を表示したときの前記第5および第6の特定画素を前記光センサ部より取得し、該取得した輝度値の差に基づいて前記輝度補正テーブルを作成し、
     輝度調整の対象として前記第4のプロジェクタユニットを選択した場合は、前記調整画像を表示したときの前記第7および第8の特定画素を前記光センサ部より取得し、該取得した輝度値の差に基づいて前記輝度補正テーブルを作成する、請求項3または4に記載のマルチプロジェクションディスプレイ。
  6.  前記第5および第6の特定画素の第3の組と、前記第7および第8の特定画素の第4の組とがそれぞれ複数あり、
     前記映像信号補正部は、
     輝度調整の対象として前記第3のプロジェクタユニットを選択した場合は、前記第3の組毎に、前記第5および第6の特定画素の前記輝度差を取得し、該輝度差の平均値に基づいて前記輝度補正テーブルを作成し、
     輝度調整の対象として前記第4のプロジェクタユニットを選択した場合は、前記第4の組毎に、前記第7および第8の特定画素の前記輝度差を取得し、該輝度差の平均値に基づいて前記輝度補正テーブルを作成する、請求項5に記載のマルチプロジェクションディスプレイ。
  7.  前記主制御部は、前記各プロジェクタユニットに対して、輝度調整の対象となるプロジェクタユニットを示す識別情報を送信し、
     前記映像信号補正部は、前記主制御部からの前記識別情報に基づいて輝度調整の対象となる前記他のプロジェクタユニットを選択する、請求項1から6のいずれか1項に記載のマルチプロジェクションディスプレイ。
  8.  前記映像信号補正部は、自プロジェクタユニットに隣接するプロジェクタユニットを検出し、該検出したプロジェクタユニットから所定の手順で輝度調整の対象となる前記他のプロジェクタユニットを選択する、請求項1から6のいずれか1項に記載のマルチプロジェクションディスプレイ。
  9.  前記複数の光センサ部はそれぞれ、赤、緑、青の各色の光を色毎に検出し、
     前記各プロジェクタユニットは、前記投射画像として前記各色に対応する画像を時分割で前記スクリーン上に投射するように構成されており、前記映像信号補正部は、前記光センサ部から、前記特定画素の輝度差を前記色毎に取得し、該取得した輝度差に基づいて輝度補正テーブルを前記色毎に作成する、請求項1から8のいずれか1項に記載のマルチプロジェクションディスプレイ。
  10.  前記主制御部は、前記各プロジェクタユニットが前記調整画像を表示したときの前記複数の特定画素の周辺部の画素が黒色に対応する輝度とされた映像信号を前記各プロジェクタユニットに供給する、請求項1から9のいずれか1項に記載のマルチプロジェクションディスプレイ。
  11.  前記主制御部は、前記各プロジェクタユニットが前記調整画像を表示したときの前記複数の特定画素およびその周辺部の画素を除く他の画素の信号を、前記入力映像信号に基づく画像の対向する画素の信号で書き換えた映像信号を前記各プロジェクタユニットに供給する、請求項10に記載のマルチプロジェクションディスプレイ。
  12.  前記各プロジェクタユニットは、光ビームを走査する共振型走査ミラーを備える、請求項1~11のいずれか1項に記載のマルチプロジェクションディスプレイ。
  13.  前記複数の光センサ部のそれぞれは、少なくとも1つのフォトダイオードよりなる、請求項1から12のいずれか1項に記載のマルチプロジェクションディスプレイ。
  14.  それぞれが光ビームを走査することでスクリーン上に入力映像信号に基づく画像を投射する複数のプロジェクタユニットを備え、各プロジェクタユニットにより投射された投射画像をつなぎ合わせて1枚の画像として表示するマルチプロジェクションディスプレイにおいて行われる輝度調整方法であって、
     前記各プロジェクタユニットに、前記各プロジェクタユニットの投写画像をそれぞれの表示領域の端部にて表示する複数の特定画素からの光を検出する光センサ部を設けておき、
     主制御部が、輝度を調整するための調整画像を前記各プロジェクタユニットにより表示させて、前記複数の特定画素を所定の輝度で点灯させるとともに、該各プロジェクタユニットの前記調整画像の表示の垂直同期をとり、
     前記各プロジェクタユニットが、前記調整画像を表示したときの前記複数の特定画素の輝度値を前記光センサ部より取得し、該取得した輝度値の差に基づいて、自プロジェクタユニットにより投射される前記投射画像の輝度を他のプロジェクタユニットにより投射される前記投射画像の輝度に合わせるための輝度補正テーブルを作成し、その後、該輝度補正テーブルを用いて前記入力映像信号に基づく画像の各画素の輝度を補正する、輝度調整方法。
PCT/JP2012/053361 2011-03-03 2012-02-14 マルチプロジェクションディスプレイおよびその輝度調整方法 WO2012117845A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013502233A JP5949754B2 (ja) 2011-03-03 2012-02-14 マルチプロジェクションディスプレイおよびその輝度調整方法
US14/001,857 US20130335390A1 (en) 2011-03-03 2012-02-14 Multi-projection Display and Brightness Adjustment Method Thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011046795 2011-03-03
JP2011-046795 2011-03-03

Publications (1)

Publication Number Publication Date
WO2012117845A1 true WO2012117845A1 (ja) 2012-09-07

Family

ID=46757784

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/053361 WO2012117845A1 (ja) 2011-03-03 2012-02-14 マルチプロジェクションディスプレイおよびその輝度調整方法

Country Status (3)

Country Link
US (1) US20130335390A1 (ja)
JP (1) JP5949754B2 (ja)
WO (1) WO2012117845A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810957A (zh) * 2012-11-02 2014-05-21 索尼公司 图像输出装置及其操作方法、电子电路、电子装置及程序
CN110867150A (zh) * 2018-08-27 2020-03-06 捷扬光电股份有限公司 智能背投影电视墙及调控其色彩亮度均匀性的方法
JPWO2019111092A1 (ja) * 2017-12-07 2020-12-24 株式会社半導体エネルギー研究所 表示装置及びその動作方法
CN115118939A (zh) * 2021-03-17 2022-09-27 成都理想境界科技有限公司 一种图像亮度均匀化方法、计算机可读存储介质、电子设备及激光投影图像处理装置

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016170351A (ja) * 2015-03-13 2016-09-23 株式会社リコー 表示制御装置、表示制御システム、及び表示制御プログラム
KR102584423B1 (ko) * 2016-11-17 2023-09-27 엘지전자 주식회사 디스플레이 장치
JP7167503B2 (ja) * 2018-06-27 2022-11-09 セイコーエプソン株式会社 プロジェクター
KR102436020B1 (ko) * 2019-01-31 2022-08-24 삼성전자주식회사 전자 장치 및 그 제어 방법
CN115705810B (zh) * 2021-08-17 2024-11-08 极米科技股份有限公司 投影亮度调节方法、装置及存储介质
CN114363592A (zh) * 2021-12-10 2022-04-15 河南中光学集团有限公司 一种降低不同投影仪画面色差的方法
CN114241962B (zh) * 2021-12-15 2023-12-05 威创集团股份有限公司 一种cob屏墨色校验方法、装置、设备和介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0715692A (ja) * 1993-06-24 1995-01-17 Matsushita Electric Ind Co Ltd 投射型ディスプレイの画像補正装置
JP2003315914A (ja) * 2002-04-25 2003-11-06 Hitachi Ltd マルチプロジェクションシステム及びその画面調整方法
JP2006270461A (ja) * 2005-03-24 2006-10-05 Sony Corp 画像形成装置および方法
JP2009216857A (ja) * 2008-03-10 2009-09-24 Seiko Epson Corp プロジェクタ、画像表示システム、及び画像補正方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040150649A1 (en) * 2003-01-30 2004-08-05 Jerry Moscovitch Method and apparatus for matching multiple displays in a multi-display environment
WO2007065244A1 (en) * 2005-12-06 2007-06-14 Dolby Laboratories Licensing Corporation Modular electronic displays
WO2008008257A2 (en) * 2006-07-07 2008-01-17 It Au0801213 Oriented magnetic particle-fluorescence detectable moiety compositions and methods of making and using the same
US8218003B2 (en) * 2007-10-05 2012-07-10 Seiko Epson Corporation Optimization strategies for GPU view projection matrix implementation
EP2048642A1 (en) * 2007-10-10 2009-04-15 Barco NV Reducing visibility of display errors
JP2011102842A (ja) * 2009-11-10 2011-05-26 Sanyo Electric Co Ltd 映像表示装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0715692A (ja) * 1993-06-24 1995-01-17 Matsushita Electric Ind Co Ltd 投射型ディスプレイの画像補正装置
JP2003315914A (ja) * 2002-04-25 2003-11-06 Hitachi Ltd マルチプロジェクションシステム及びその画面調整方法
JP2006270461A (ja) * 2005-03-24 2006-10-05 Sony Corp 画像形成装置および方法
JP2009216857A (ja) * 2008-03-10 2009-09-24 Seiko Epson Corp プロジェクタ、画像表示システム、及び画像補正方法

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103810957A (zh) * 2012-11-02 2014-05-21 索尼公司 图像输出装置及其操作方法、电子电路、电子装置及程序
CN103810957B (zh) * 2012-11-02 2017-01-11 索尼公司 图像输出装置及其操作方法、电子电路及电子装置
JPWO2019111092A1 (ja) * 2017-12-07 2020-12-24 株式会社半導体エネルギー研究所 表示装置及びその動作方法
JP7289793B2 (ja) 2017-12-07 2023-06-12 株式会社半導体エネルギー研究所 表示装置およびその補正方法
CN110867150A (zh) * 2018-08-27 2020-03-06 捷扬光电股份有限公司 智能背投影电视墙及调控其色彩亮度均匀性的方法
CN115118939A (zh) * 2021-03-17 2022-09-27 成都理想境界科技有限公司 一种图像亮度均匀化方法、计算机可读存储介质、电子设备及激光投影图像处理装置
CN115118939B (zh) * 2021-03-17 2024-02-02 成都理想境界科技有限公司 一种图像亮度均匀化方法、计算机可读存储介质、电子设备及激光投影图像处理装置

Also Published As

Publication number Publication date
JP5949754B2 (ja) 2016-07-13
US20130335390A1 (en) 2013-12-19
JPWO2012117845A1 (ja) 2014-07-07

Similar Documents

Publication Publication Date Title
JP5949754B2 (ja) マルチプロジェクションディスプレイおよびその輝度調整方法
US10341626B2 (en) Image projection system, projector, and control method for image projection system
US8794765B2 (en) Projection apparatus, projection method, and medium storing program
CN100576925C (zh) 调整白平衡的图像投影设备及其方法
JP6019859B2 (ja) プロジェクター、及び、プロジェクターにおける発光制御方法
US8665179B2 (en) Projection apparatus, projection method, and storage medium having program stored thereon
JP5915035B2 (ja) 投影装置及び投影制御方法
US9621863B2 (en) Projector and light emission control method in the projector
JP5943707B2 (ja) 画像表示装置
JP2005208425A (ja) 液晶表示装置
CN104541321A (zh) 显示器、显示控制方法、显示控制装置以及电子装置
JP6623584B2 (ja) 画像生成装置、ヘッドアップディスプレイ
JPH1090645A (ja) 液晶表示装置
JP6707871B2 (ja) 画質補正方法、及び、画像投射システム
JP2006153914A (ja) 液晶プロジェクタ装置
JP2014032338A (ja) 画像表示装置及び画像表示方法
WO2008041477A1 (fr) Dispositif de génération de vidéo
JP2014066805A (ja) プロジェクター、及び、プロジェクターにおける発光制御方法
JP2017010057A (ja) プロジェクター、及び、プロジェクターにおける発光制御方法
JP6821914B2 (ja) プロジェクター、及び、プロジェクターの制御方法
KR100897652B1 (ko) 광원 출력 조절 장치 및 방법
JP2019041189A (ja) 画像投射装置およびその制御方法
JP2016184849A (ja) プロジェクター、プロジェクションシステム、及び、プロジェクターの制御方法
JP2022043498A (ja) 投射型表示装置および投射型表示システム
JP2012142224A (ja) バックライト装置及びその制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12752618

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013502233

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14001857

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12752618

Country of ref document: EP

Kind code of ref document: A1