WO1999031877A1 - Dispositif d'affichage d'images a projecteurs multiples - Google Patents

Dispositif d'affichage d'images a projecteurs multiples Download PDF

Info

Publication number
WO1999031877A1
WO1999031877A1 PCT/JP1997/004588 JP9704588W WO9931877A1 WO 1999031877 A1 WO1999031877 A1 WO 1999031877A1 JP 9704588 W JP9704588 W JP 9704588W WO 9931877 A1 WO9931877 A1 WO 9931877A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
image
display
screen
projection
Prior art date
Application number
PCT/JP1997/004588
Other languages
English (en)
French (fr)
Inventor
Masami Yamasaki
Haruo Takeda
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to PCT/JP1997/004588 priority Critical patent/WO1999031877A1/ja
Priority to JP2000539636A priority patent/JP3714163B2/ja
Priority to US09/581,077 priority patent/US6695451B1/en
Priority to EP97947921A priority patent/EP1039749A4/en
Publication of WO1999031877A1 publication Critical patent/WO1999031877A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers

Definitions

  • the present invention relates to a video display device that performs display by combining a plurality of images.
  • the present invention relates to a multi-projection image display device that composes one screen by combining a plurality of images projected by a plurality of projection display devices, and realizes a smooth connection of a plurality of images. And methods.
  • the images projected from the adjacent projectors are connected smoothly so that the seams of the images projected from the adjacent projectors cannot be recognized.
  • one (or more) screens could be constructed.
  • the image projection range of each projector must be physically specified in advance. For this reason, it is necessary to adjust the projector so that the projected image accurately overlaps the shape of the specified projection range.
  • This adjustment has been performed by adjusting the attitude of the projector and the optical system inside the projector, and furthermore, only in the case of the cathode ray tube projection type, by adjusting the deflection voltage waveform and changing the shape of the projected image.
  • the present invention has been made in view of such circumstances.
  • the present invention eliminates the need for a special screen structure to prevent the intrusion of projection light from an adjacent projector, or the need for precise optical adjustment of the projector, and then smoothes the image so that the seams of the image cannot be recognized.
  • image projection of a projector can be realized by video signal processing.
  • the present invention has the following constitution.
  • an image (signal) of a portion that is overlapped by a plurality of images on a projection plane is adjusted.
  • a projection plane for example, a screen
  • video signals supplied to the projectors are cut out for each partial image area handled by each projector, and a video signal is created. It processes the video signal and performs shape deformation and local color correction of the projected image. These processes may be performed by hardware or software.
  • the present invention provides a video display method in a multi-projection video display device having a plurality of video output devices, wherein the video output device projects an image projected from the video output device on a display screen displaying the video.
  • the display area of the video output device and the other video output device are displayed on the display area of the video output from another video output device so as to overlap each other.
  • a related video is output.
  • control parameter value set when performing shape deformation and color correction may be generated.
  • control parameter values it is possible to supply a video signal of an arbitrary image pattern to each projector, read the state of the image projected on the screen, and calculate the control parameter values from the read image.
  • the projector that is responsible for the image projection range adjacent to other images should be arranged and positioned so that the maximum image projection range on the screen overlaps the adjacent maximum image projection range by several percent at the boundary. It is better to set the attitude and optical system.
  • the portion where the adjacent maximum image projection ranges overlap is the portion where the projected images of the projectors that cover the adjacent maximum image projection ranges are optically additively combined.
  • Read the state of the image projected on the screen by reading the state of the optical image addition.
  • the connected solution is obtained from the above-mentioned model, the shape deformation and the local color correction of the projected image are executed based on the obtained geometric deformation and local color correction, and the processed video signal is supplied to each projector.
  • a multi-projection video display device having one or more screens on a screen, a video projector for projecting a video on the screen, and a video projector projected from the video projector.
  • the display range for displaying the video to be displayed has an overlapping area with the display range of another video projector, the video projector and the other video projector respectively enter the overlapping area on the screen.
  • a multi-projection video display device having a control device for outputting videos related to each other.
  • a computer-readable storage medium wherein a display area of an image projected from the image output device is displayed on a display screen on which the image output device displays an image.
  • a computer that stores a program that causes the video output device and the other video output device to output mutually related video images in an area that is displayed so as to be superimposed on the region and that is displayed in a superimposed manner. It is also a readable storage medium. Further, the configuration of the present invention is configured such that the video output device and the other video output devices can output mutually related video in an area where the video output from the plurality of video output devices are displayed in a superimposed manner.
  • a storage medium for dividing and storing video data corresponding to each video output device, and a supply device for supplying a video signal based on the video data read from the storage medium to each video output device are provided.
  • the video signal reproducing apparatus according to the present invention is also provided.
  • the present invention can be realized only by adjusting the overlapping portion of the image, it is not necessary to adjust the individual states of the components such as the screen and the projector.
  • a model of the optical image addition resulting from the state of various components such as screens and projectors is created, and the model is solved, if the optical image addition where the solution exists exists as a result, As long as the model can be obtained, it is not necessary to adjust individual states of components such as screens and projectors.
  • FIG. 1 is a diagram showing an arrangement of a plurality of projectors, a screen, and a screen state monitoring camera in one embodiment of the present invention.
  • FIG. 2 is a functional block diagram of the video signal control device.
  • FIG. 3 is a diagram illustrating a positional relationship on a screen between a maximum image projection range by a plurality of projectors and a projection range of an image processed by the video signal control device.
  • FIG. 4 is a diagram showing a positional relationship between a maximum image projection range of one projector and a projection range of an image processed by the video signal control device.
  • FIG. 5 is a functional block diagram of the image corrector.
  • FIG. 6 is a functional configuration diagram inside each functional block of the image corrector shown in FIG. FIG.
  • FIG. 7 is a diagram showing an operation procedure of the video signal digitizer.
  • FIG. 8 is a diagram showing a frame buffer write / read procedure.
  • FIG. 9 is a diagram showing a procedure for correcting a geometric shape of an image.
  • FIG. 10 is a diagram showing a data structure of a geometric deformation vector table.
  • FIG. 11 is a diagram showing a procedure of color conversion.
  • FIG. 12 is a diagram showing a data structure of a color conversion parameter table.
  • FIG. 13 is a diagram showing an example of a correction pattern image.
  • FIG. 14 is a diagram showing an image projection area before and after geometric shape correction of an image.
  • FIG. 15 is an example of four types of overlapping of two adjacent maximum image projection ranges.
  • Fig. 16 shows the geometric deformation system.
  • FIG. 17 is a diagram showing a procedure for generating a geometric deformation vector.
  • FIG. 18 is a diagram showing a procedure for generating a pixel value conversion parameter.
  • FIG. 19 is a diagram showing an example of quadrant division of an image having an overlapping portion.
  • FIG. 20 is a diagram showing a relationship between overlapping portions of adjacent divided images.
  • FIG. 21 is a diagram showing a weighting function used for brightness modulation of an overlapping portion of an image.
  • FIG. 22 is a block diagram of a projector incorporating a plane image corrector and a video signal control device.
  • FIG. 23 is a diagram showing an example of a multi-projection video display device using a curved screen.
  • FIG. 24 is a block diagram of a set of playback devices for playing back divided video signals in parallel and a video signal control device without an image correction device.
  • FIG. 25 is a diagram showing a video reproducing device having a built-in image correction device and a temporary image storage device.
  • FIG. 1 shows a system configuration of a projector array according to the present invention.
  • the four projectors 0121, 0122, 0123, 0124 are arranged so that the maximum image projection ranges 0151, 0152, 0153, 0154 on the rear projection screen 0140 slightly overlap each other.
  • An image signal is supplied to each of the four projectors 0121, 0122, 0123. 0124 from a video signal control device 0110.
  • the video signal control device 0110 processes the video signal supplied from the external video input 018 0 and supplies it to the four projectors 01 21, 0122, 0123, and 0124, and an image that determines the video processing method. Has a correction function.
  • FIG. 2 shows a functional block diagram of the video signal control device 0110.
  • the video signal control device has a single video input 0210, a split video input 0221, 0222, 0223, 0224, a screen state monitoring camera video input 0230, and a split video output 0241, 0242, 0243 as input / output terminals. , 0244.
  • the video signal supplied from the single video input 0210 is converted by the image division device 0250 into a video signal that is divided into images corresponding to the arrangement of the project connected to the divided video outputs 0241, 0242, 0243, and 0244.
  • the generated video signals are supplied to the video signal switch 0260.
  • the video signal switch 0260 selects an input from the image division device 0250, an input from the test pattern image generator 0270, or one of the divided video inputs 0221, 0222, 0223, and 0224, and selects it.
  • Each of the set of video signals is supplied to an image corrector 0281, 0282, 0283, 0284.
  • the image correction parameter generator 0290 controls the test pattern image generator 0270, selects the image signal of the geometric pattern by the video signal switch 0260, passes through the image correctors 0281, 0282, 0283, and 0284.
  • Screen status monitoring camera 0130 which supplies to the projectors 0121, 0122, 0123, 0124 connected to the divided video output 0241, 0242, 0243, 0244, and captures the appearance of the geometric pattern reflected on the screen. From the screen status monitoring camera video input 0230.
  • the image correction parameter generator 0290 continuously connects the images displayed by the projectors 0121, 0122, 0123, and 0124 on the screen based on the image of the screen state monitoring camera image input 0230. Then, calculate the image correction parameters so that the luminance distribution becomes smooth.
  • the calculated parameter values are set to the image correctors 0281, 0282, 0283, and 0284 through the image correction control line 0295.
  • FIG. 3 shows the relationship between the maximum image projection ranges 0151, 0152, 0153, and 0154 in FIG. 1 and the images processed and projected by the video signal control device 0110.
  • the maximum image projection ranges 0301, 0302, 0303, and 0304 are the maximum ranges in which the projectors 0121, 0122. 0123, and 0124 can display images on the screen 0140, respectively.
  • the projectors 0121, 0122, 0123, and 0124 are arranged such that the maximum image projection ranges 0301, 0302, 0303, and 0304 each have an overlapping area with the adjacent projection range.
  • the optimized image projection ranges 0311, 0312, 0313, and 0314 are located inside the maximum image projection ranges 0301, 0302, 0303, and 0304, respectively, and the images projected on adjacent projectors are connected to each other continuously.
  • O The image display area to be displayed in the state o
  • Fig. 4 shows an enlarged view of one of the maximum image projection ranges shown in Fig. 1.
  • Maximum image projection range boundary 0401 indicates the boundary of the range in which the projector can display an image.
  • the optimized image projection range boundary 0402 indicates a range 'for reducing the display of the image supplied to the projector so that the images projected to the adjacent projectors are displayed in a state of being connected to each other continuously.
  • the video signal controller 0110 processes the input video signal so that a portion 0403 surrounded by the maximum image projection range boundary 0401 and the optimized image projection range boundary 0402 has a pixel value having the darkest luminance. Because that part includes the area where the next projector projects the image. In order to prevent the projected image from being displayed in a multiplex manner, FIG.
  • FIG. 5 shows a functional block diagram of the image corrector.
  • An analog video signal is input from the video signal input terminal 05 01, and the video signal is converted into a digital representation inside the image corrector by the video signal digitizer 0510.
  • Each image frame data of the digitally expressed video data is stored in the frame not-a-block 0520 through the image data transfer line 0561.
  • Data of image geometric correction parameters and color correction parameters is input from the control parameter input terminal 0 5 0 2, and the geometric shape correction block 0 5 3 0 and the color conversion block 0 540 are respectively transmitted through the control parameter transfer line 0 5 67.
  • the geometric shape correction block 053 0 converts the address of the pixel output from the video signal output terminal 0 50 3 to the image data write address transfer line 0 5 so that the output image shape is deformed according to the set parameter value.
  • Reads from 63 calculates the address of the pixel of the input image to be output to that address, outputs it to the image data read address transfer line 0 565, and reads the pixel of the input image data stored in the frame buffer block 0520 .
  • the read pixel is subjected to color conversion of the pixel according to the set parameter value by the color conversion block 0 540, and is transferred to the video signal generator 0 550. It is output as a video signal.
  • the operation algorithm of each functional block in FIG. 5 will be described with reference to the configuration diagram of the realizing means inside each functional block in FIG. 5 and the PAD diagram in FIG.
  • Video signal digitizer 0 6 1 0 is from video signal input terminal 0 6 0 1 Separated synchronization with the signal separator 0 6 1 1 for separating the video color signal and the synchronization signal from the input signal, and the A / D converter 0 6 1 2 for quantizing the video color signal voltage value It has an address generator 0 6 13 which is a means for generating position information of the currently quantized pixel in the image based on the signal.
  • the frame knocker block 0 620 writes the input pixel values to the frame memory A 0 621 and the frame memory B 0 622, each of which stores one frame of image information, and writes the input pixel value to either of the frame memories.
  • Address, write address selector 0 6 25 that supplies the address to be written and the write timing to the frame memory to be written, and the frame memory to which writing is not currently performed. Is selected for reading, and a read address selector 0 626 of a means for supplying an address of a pixel to be read to the selected frame memory, and a pixel value output from the frame memory for reading are selected.
  • the geometric shape correction block 06300 outputs the pixel value stored in the address of the frame buffer selected for reading at the pixel position in the image at the output timing by the image corrector. It has an address generator 0 63 1 as a means for calculating the parameter, and an address displacement memory 0 632 as a means for storing all parameters required for the calculation for each output pixel position.
  • the color conversion block 0 640 is composed of a frame buffer block 0620, a pixel value converter 0 64 1 which is a means for calculating a pixel value output by the image corrector based on the pixel values read out from the frame buffer block 0 6 It has a pixel value conversion parameter memory 0 642 as a means for storing how to convert pixel values for each output pixel position.
  • the video signal generator 0 65 0 generates a synchronizing signal from the pixel output position information and the D / A converter 0 65 1, which converts the pixel value to be output to a video color signal, and synthesizes it with the video color signal. And a video signal synthesizer that converts the signal to a video signal.
  • FIG. 7 shows the operation procedure of the video signal digitizer 0610.
  • step 07000 the image signal and the synchronization signal are separated from the video signal.
  • the color signal of the image signal is quantized.
  • a pixel address (pixel row and column) is generated based on the synchronization signal.
  • the video numerical data quantized by this procedure is temporarily stored in a frame buffer block 0620.
  • the geometric shape correction block 0630 generates a read address for geometric shape correction with respect to the stored video numerical data, and the read pixel data is subjected to color correction by the color conversion block 0640. .
  • FIG. 8 shows the operation procedure of the frame buffer block 0620.
  • steps 0800 and 0801 set one of the frame buffer memories prepared for two screens for writing and the other for reading.
  • step 0802 the process waits for the write data at the write start position in the upper left corner of the screen to be supplied to the frame buffer block 0620.
  • step 0805 the pixel value is written to the write frame buffer.
  • step 08Q6 read the pixel value from the read frame buffer according to the address supplied from the geometric shape correction block 0630, and to the color conversion block 0640 via the read data selector 0627. Transfer the pixel value.
  • step 0807 the write frame memory and the read frame buffer memory are read. 7 7 7
  • Fig. 9 shows the operation procedure of the geometric shape correction block 0630.
  • step Q901 the geometric deformation vector table shown in FIG. 10 is read into the address displacement memory 0632.
  • the geometric deformation vector table is data in a two-dimensional array format composed of two-dimensional vector value elements corresponding one-to-one with each pixel of an image for one frame.
  • step 0903 for each address (r, c) sequentially supplied from the video signal digitizer 0610, the element (x [r, r) in the geometric deformation vector table stored in the address displacement memory 0632 c], y [r, c]) (
  • Step 0904 calculates (r, c) + (x [r, c], y [r, c]) and reads frame buffer block 0620 Output as address Repeat step 0903 and step 0904 unless the re-initialization request of the address displacement memory 0632 is from the control parameter input terminal 0602. If there is a re-initialization request, go to step 0901 Return.
  • step 1101 the color conversion parameter table shown in FIG. 12 is read into the pixel value conversion parameter memory 0642 and initialized.
  • the color conversion parameter table uses parameters obtained by approximating the conversion function for each of the three color components (red, blue, and green) of each pixel of an image for one frame with an N-segment linear function. This is a two-dimensional array of data for the plane.
  • step 1103 for each of the addresses (r, c) sequentially supplied from the video signal digitizer 0610, the red, blue, and green colors in the row r and column c of the color conversion parameter table stored in the pixel value conversion parameter memory 0642.
  • step 1104 the intensity converted by the conversion formula shown in Equation 1 is used as the intensity of each color component of the converted pixel.
  • Output to video signal generator 0650 the intensity converted by the conversion formula shown in Equation 1 is used as the intensity of each color component of the converted pixel.
  • Step 11-03 and step 1104 are required to reinitialize the pixel value conversion parameter memory 0642 Is repeated unless it is at control parameter input terminal 0602. If there is a reinitialization request, return to step 1101 o
  • the pixel value output from the color conversion block 0640 is converted into an analog video signal by the video signal generator 0650 and output from the video signal output terminal 0603.
  • the parameter information in Fig. 10 and Fig. 12 set in the geometric shape correction block 0630 and the color conversion block 0640 is based on the state of the image on the screen 0140 taken by the screen state monitoring camera 0130. , Image correction parameter generator 0290.
  • the parameter information of the geometric deformation in Fig. 10 is calculated as follows. The correction pattern shown in FIG.
  • Projections are projected from the respective projectors to the screen via 0283 and 0284, and the projected images are photographed by the screen state monitoring camera 0130, and vertices 1301 and the like are extracted as feature points in the image pattern. It is assumed that the position coordinate value q of such a feature point in the camera coordinate system is associated with the coordinate value p in the frame memory of the pixel corresponding to the point. At this time, this The method of finding the position coordinate P in the frame memory coordinate system corresponding to the arbitrary position q in the camera coordinate system in the portion where such a pattern is not displayed is as follows. Measure three points q_l, q_2, and q_3 near q that correspond to the coordinate values P-1, P_2, and p_3 in the frame memory coordinate system. Then, when the q forces q_l, q_2, q_3 and the appropriate real values a and .b are in the relationship of Equation 2, we express p as Equation 3.
  • the P Pc + (p a -p c) + b (p b one p c Number 3 first 4 maximum image projection range of four projectors as shown in FIG. 1401, 1402, 1403, 1404 from each other overlapping portion
  • the coordinates of the vertex 1421 of the maximum image projection range 1402 of the adjacent projector B existing within the maximum image projection range 1401 of the projector A are connected to the projector A by the above coordinate conversion method.
  • An isomorphism ⁇ ⁇ ⁇ — ⁇ AB ⁇ can be defined that associates the value X—B with the coordinate value x_A in the frame memory coordinate system of the image corrector connected to the projector A.
  • any position coordinate value in the projected image handled below is- It is assumed that the coordinates are in the frame memory coordinate system of the image corrector connected to any one of the projectors.
  • S—A and S_B be the maximum image projection ranges of the two projectors that are placed side by side or up and down.
  • the partial boundaries that must be in contact with each other in this adjacent area are B— ⁇ AB ⁇ and B_ ⁇ BA ⁇ , respectively.
  • this partial boundary is, for example, a partial boundary 1413 of a maximum image projection range 1401 having vertices 1411 and 1412 as end points, and a maximum image projection range 1402 having vertices 1421 and 1422 as end points.
  • the sub-boundaries B— ⁇ AB ⁇ and B— ⁇ BA ⁇ are the point sets shown in Equations 4 and 5, respectively.
  • Equation 8 ⁇ - ⁇ AB ⁇ and- ⁇ in Equation 6 for the four cases shown in Table 1.
  • Equation 8 corresponds to four types of overlapping of the two adjacent maximum image projection ranges as shown in Fig. 15.
  • the upper partial boundary connected to the partial boundary B— ⁇ BA ⁇ of the range B is B— ⁇ AB- ⁇
  • the lower partial boundary is B— ⁇ AB- ⁇ .
  • Equation 13 The movement vector of the end point of the effective partial boundary is defined by Equations 13 and 14.
  • G_ ⁇ AX ⁇ (1 ⁇ ⁇ , C, D, E ⁇ ) be the shared subboundary of G
  • Optimized image projection range for S-A is referred to as Q_A.
  • Equation 27 the definition of the continuous mapping ⁇ : D—2 E—2 on 3D—2 is defined by Equation 27. This:. E .2 is a two-dimensional vector space.
  • FIG. 16 shows the procedure for generating the geometric deformation control information of the image correction parameter generator 02900.
  • step 1600 the geometric deformation correction parameters of the image correctors G 281, 0282, 0283, and 0284 are set to zero. Perform steps 1602, 1603, 1604, 1605, and 1606 described below for each projector.
  • step 1602 project the image pattern shown in Fig. 13 at the maximum size that can be projected.
  • step 1603 the projection image in step 1602 is taken by the screen state monitoring camera 0130.
  • step 1604 the position corresponding to each vertex of the pine pattern in FIG. 13 is read from the captured image data in the camera coordinate system.
  • step 1605 the position coordinates of the feature points are converted to the coordinate system of the frame memory of the image corrector.
  • step 1606 the geometric deformation vector generation procedure shown in FIG. 17 is executed.
  • Figure 17 shows the procedure for generating the geometric deformation vector.
  • step 1700 a set of points on the boundary of the maximum image projection range defined by Equations 4 and 5 is created.
  • steps 1701 and 1702 the effective component boundary is calculated.
  • step 1703 the end point of the valid partial boundary line is calculated.
  • step 1704 the end point movement vector of the effective partial boundary line is calculated.
  • step 1705 the moving direction vector of the effective partial boundary line is calculated.
  • step 1706 the boundary of the optimized image projection range is calculated.
  • step 1707 the geometric deformation control parameters over the entire maximum image projection range are calculated.
  • the color reproducibility of a projected image of a projector varies depending on individual differences between a project and a projector, and varies depending on a position in a projected image.
  • the function of the color conversion block 0540 of the image corrector controls these two kinds of variations and controls the color reproducibility so that the projected images of the adjacent projectors are connected smoothly.
  • the generation of the pixel value conversion parameter information shown in FIG. 12 set in the color conversion block 0540 will be described below.
  • the actual color component value measured by the screen state monitoring camera 0130 with respect to z is defined as: f ⁇ X (z). Where X is A or B
  • the optimized color component function $ g (z) $ is defined by Equations 32 and 33.
  • ( z ) (VH-VL) L (h ⁇ z)-h (z 0 ), h (z N )) + y L number 32 x— b
  • Equation 34 Equation 35, and Equation 36, respectively.
  • VH min (f A (z H ) B (z H number 34
  • VL max ((R, ()) number 35 number 36
  • the color joining function at each point on the shared boundary is defined.
  • the color conversion function at each point (u, V) in D 2 is given by ⁇ JX [u, v] ⁇ (z), using the values on the boundary defined by Eq. 38, the values of the entire D-2 area are calculated by Eq. 39 in the same manner as Eq. (x [o] (, gu X [1] (; "),.
  • Equation 40 the color joining function 77— ⁇ X [x, y] ⁇ (z) at the position (x, y) within the maximum image projection range is defined by Equation 40.
  • ⁇ X [x, y] z )-0 Other defined as? 7—The approximation parameter of ⁇ X [x, y] ⁇ (z) is the pixel value conversion parameter at the position (x, y) within the maximum image projection range.
  • FIG. 18 shows the procedure of generating pixel value conversion parameters by the image correction parameter generator 0290.
  • the parameters corresponding to the identity conversion are set as initial values.
  • Step 1802 controls the repetition of steps 1803, 1804, 1805, and 1806 for each sample point of the boundary of the optimized image projection range.
  • the luminance of each color component is measured.
  • the actual color component function ⁇ _ ⁇ of the N-segment linear approximation is calculated.
  • step 1805 an optimized color component function is calculated.
  • a pixel value conversion parameter on the boundary is generated.
  • step 1807 pixel value conversion parameters for the entire optimized image projection range are generated.
  • the shape of the image can be changed so that the adjacent projected images can be arranged in contact with no gap or overlap, and the discontinuity of the color of the image at the joint of the adjacent images can be eliminated. effective.
  • the shape change amount and the pixel color conversion function are automatically generated, it has the effect of saving labor such as manual placement of projectors and color adjustment.
  • the image dividing device 0250 converts the image 1901 included in the input video signal into divided partial images 1911, 1912 1913 having a certain overlapping portion with the adjacent divided partial images. , And 1914 to generate video signals corresponding to the respective divided partial images.
  • the ratio L / W of the overlap width L of the image to the image width W is set smaller than the ratio of the overlap width of the adjacent maximum image projection ranges to the width of the maximum image projection range. Conversely, when the overlap ratio L / W is set, the projector 0121 is set so that the overlap ratio between the maximum image projection ranges 0151, 0152, 0153, and 015 is larger than the overlap ratio L / W between the divided partial images. , 0122, 0123, and 0124 are set.
  • the region surrounded by the division center lines 1921 and 1922 inside each divided partial image is called a divided main region.
  • the hatched areas 1931, 1932, 1933, and 1934 are the main split areas.
  • the calculation is performed by substituting the partial boundaries defined by Equations 4 and 5 with the boundaries of the divided main areas 1931, 1932, 1933, and 1934.
  • the transformation T of the geometric deformation with respect to the point in the divided main area can be calculated by Equation 30 in the same procedure as in the first embodiment, and the geometric deformation control parameter is calculated by Equation 31.
  • the calculation of the geometric deformation control parameters outside the divided main area is as follows.
  • C—B ⁇ and C— ⁇ BA ⁇ The mutually overlapping areas of the adjacent divided partial images A and B as shown in FIG. 20 are denoted by C—B ⁇ and C— ⁇ BA ⁇ . Areas that do not overlap each other are designated as F— ⁇ AB ⁇ and F_ ⁇ BA ⁇ . Furthermore, C— ⁇ AB ⁇ and C— ⁇ BA ⁇ are divided into two regions by the division center lines 2001 and 2002, and are expressed as 41 and 42 respectively.
  • C B A D BA UE BA ⁇ 42
  • the partial area of BA ⁇ is in contact with F— ⁇ AB ⁇ or F— ⁇ BA ⁇ .
  • the divided main areas of the divided partial images A and B are E— ⁇ AB ⁇ UF_ ⁇ AB ⁇ and E_ ⁇ BA ⁇ UF_ ⁇ BA ⁇ , respectively.
  • the function for converting the coordinate values in the coordinate system of the divided partial image B into the coordinate system of the divided partial image A ⁇ _ ⁇ and its inverse ⁇ — ⁇ can be defined.
  • the synthesis function V— ⁇ AB ⁇ defined on D_ ⁇ AB ⁇ is transformed into the geometric deformation function T—B of the divided sub-image B defined by Eq. 30 on E— ⁇ BA ⁇ U F_ ⁇ BA ⁇ . And is defined by Equation 43.
  • V A (x) ⁇ AB (TB ( ⁇ BA ⁇ ))) ⁇
  • U_A base-vector function
  • pixel value conversion parameters are calculated as follows. First, for each point in the overlap area C_ ⁇ AB ⁇ , a pixel value conversion function can be defined using a piecewise linear function defined by the parameters shown in Equation 38 as in the first embodiment.
  • the pixel value conversion function 77— ⁇ A [x, y] ⁇ (z) at the position (x, y) can be defined by Equation 46.
  • VA [x, y] ( z ) K A ⁇ x, y) A [C A (x, y) ⁇ ( z ) ...
  • JAB ⁇ (x, y) is defined on C_ ⁇ AB ⁇ and is a point x (t) on a line 2010 perpendicular to the division centerline 2001 in FIG.
  • the operation of 250, the method of calculating the geometric deformation control parameter, and the method of calculating the pixel value conversion parameter are different from those of the first embodiment.
  • the overlapping portion of the divided partial image with the adjacent image is converted into an image that disappears smoothly from the inside to the outside, and the overlapping portion of the adjacent image having such image characteristics is screened. Since the divided partial images are optically superimposed on each other and are pasted together, the influence of an error in the alignment of the divided images appears as blurring of the pasted portion between the adjacent images.
  • the influence of the error on the alignment of the divided images appears as a discontinuous change in the image connection part.
  • the human visual characteristics are characterized in that cognitive sensitivity to discontinuous changes in an image is more sensitive than cognitive sensitivity to continuous changes such as blurring of an image.
  • the second embodiment In other words, compared to the first embodiment, there is an effect that the deterioration of the synthesized image due to the position error is less likely to be recognized by humans.
  • a third embodiment of the present invention will be described below.
  • the only difference is the internal configuration of the video signal control device 0110 of FIG. 2 and the function of the projector connected to it. This will be described with reference to the drawings.
  • each of the projectors 2201, 2202, 2203, and 2204 with a built-in image correction device includes an image corrector having the function described in the first embodiment. Furthermore, the projector with a built-in image corrector has two types of input signal lines in addition to the video signal lines 2241, 2242, 2243, and 2244, and control signal lines 223 1, 2232, 2233, and 2234.
  • a fourth embodiment of the present invention will be described below.
  • a fourth embodiment is a system in which the screen shape is not planar. This will be described below with reference to FIG.
  • the curved screen 2300 is used when the projected image needs to be used to efficiently cover the visual field of the image viewer.
  • the projectors 2301, 2302 are arranged so that the adjacent side is included in the projection range of the other party, and the video signal control device 2310 having the function described in the first embodiment.
  • the fifth embodiment of the present invention which is an embodiment in which the video signal control device 0110 of the first embodiment does not have the image correctors 0281, 0282, 0283, and 028, will be described below. Shown in FIG. 24 shows a functional block diagram of the video signal control device of this embodiment.
  • the video signal control device has split-screen video input terminals 242 1, 2422, 242 3, 2424, a screen status monitoring camera video input terminal 2430, and split video output terminals 2442, 2442, It has 2443 and 2444.
  • Either the video signal from the divided video input terminal or the video signal of the test pattern image generator 2470 is selected by the video signal switch 2460 and supplied to the divided video output terminal.
  • Each of the divided video signals is divided by a video playback device 245 1, 2452, 245 3, and 245 connected to the divided video input terminal, such as a DVD-ROM or the like, in which the video data assigned to each projector is divided and stored. Supplied by playing video media 249 1, 249 2, 249 3, 2494.
  • the video signal control device shown in FIG. 24 may not have an image corrector.
  • the images of each project are seamlessly connected on the screen, and a uniform image is obtained.
  • some transformation of the image and conversion of the color characteristics of the image were necessary.
  • this image correction was performed by hardware that executes in real time.
  • video data obtained by performing image correction processing in advance on the divided video data corresponding to each projector is stored in a video medium such as a DVD-ROM.
  • the image reproducing devices 245 1, 2452, 2453, and 2454 realize a seamless image connection on a screen simply by supplying the image corrected video data to the projector.
  • the image correction processing device becomes unnecessary.
  • the sixth embodiment is different from the fifth embodiment in that the image reproducing apparatus 249 1, 249 2, 249 3, 24 94 is replaced with an image reproducing processing apparatus having an image correcting function constituted by a function block shown in FIG. Is replaced by
  • a pickup 252 1 for reading video data from the video storage medium 2511 and a video for decoding a signal detected by the pickup into video data.
  • An image reproducing apparatus including a video storage / reproduction circuit 2533 for reading out image-processed video data from the temporary storage medium 2541 and outputting the video data to the video output terminal 2552 is different from the projector in the fifth embodiment. System.
  • the image correction processing optimal for the projector end ray system is performed according to the image correction amount for each projector for the divided image data corresponding to each projector.
  • Offline image correction is performed beforehand according to 2 52 3 2, and the corrected video data is temporarily stored in the temporary storage medium 2 5 4 1. This is realized by reading out the image-corrected data from the temporary storage medium 254 1 and playing it back, when playing back images with a seamless image connection using the projector array.
  • a processing device that executes an image correction process for realizing a seamless image connection in real time is required. Even if an image correction circuit that is too slow to process the image or an image processing emulation using software can be used, the image can be correctly synthesized on the screen. Further, in the fifth embodiment, when the image correction amounts are different among a plurality of projector array systems, it is impossible to correctly synthesize images on a screen. The problem is solved by performing image processing with the optimal correction amount for each ray system.
  • a plurality of video projectors are arranged so that the maximum display range of the image projected on the screen by the video projector has an overlapping area having a certain width or more with the maximum display range of the adjacent projection video. Geometry and color appropriate for each input image data By simply supplying the converted image, the images projected by multiple image projectors can be connected smoothly and seamlessly to form a single screen as a whole. This has the effect of simplifying the accuracy required for position adjustment and optical system adjustment of the video projector.
  • each image projected by multiple video projectors is The problem of forming a single screen as a whole by smoothly connecting them can be solved only by controlling the image conversion means. In this way, a system configuration that can cope with fluctuations in the installation position of the image projector and the adjustment point of the optical system only by signal processing can be realized, and the implementation cost is lower than control of the signal processing circuit system. Since there is no need for optical and mechanical control means that are difficult to achieve high control accuracy, an economical and highly reliable multi-projection video display device can be realized.
  • each image projected by multiple video projectors is connected seamlessly and smoothly, and the geometrical shape of the image and the amount of color conversion to solve the problem of composing one screen as a whole are automatically calculated, Since there is a means for automatically controlling the image conversion means, there is an effect that the adjustment can be performed economically and with high precision as compared with the conventional method in which the image adjustment work is performed visually and manually.
  • the problem of seamlessly connecting each image projected by a plurality of video projectors seamlessly to compose one screen is described as follows: the image projected by the video projector and the adjacent image So that the overlap in the part connects smoothly with the non-overlap Since the images of the multiple parts are realized by optical addition of the light beams from both video projectors, the effect of the placement position error of the video projector and the control error of the image geometric deformation means may cause blurring of the image at the overlapping part of the image. Appears. For this reason, image degradation due to errors in image connection parts is reduced due to the human visual characteristic that cognitive sensitivity to continuous changes such as image blur is less sensitive than cognitive sensitivity to discontinuous changes in the image. This has the effect of making it difficult for humans to detect.
  • a data converter having a function of converting at least a geometric shape and a color characteristic to video signal data obtained by digitally converting an input video signal by a video projector, and an arithmetic and control unit for controlling the data converter
  • the effect on the system capability of the multi-projection video display device is the same as above, but even when the video projector alone is used, the projected image can be geometrically deformed or the brightness can be changed.
  • the distribution can be converted, and even if the optical axis of the image projector is not perpendicular to the screen, an image having an accurate image shape and brightness distribution can be reproduced on the screen. This has the effect of reducing restrictions on the arrangement relationship with the projector.
  • a plurality of image data can be combined into one (or a plurality of) images with a simpler video device. At this time, it is possible to make the seams generated between the image data less noticeable.
  • the present invention is applicable to a plurality of image data such as a multi-projection. This allows the data to be displayed as one (or more) images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Description

明 細 書 マルチプロジヱクシヨン映像表示装置
技術分野
本発明は、 複数の画像を組み合わせて表示を行う映像表示 装置に関する。 その中でも特に、 複数の投射型表示装置によ り投写された複数の画像を組み合せて一つの画面を構成する マルチプロジヱクシヨン映像表示装置に係り、 複数の画像の 滑らかな接続を実現する装置および方法に関する。
背景技術
複数の画像を組み合わせる場合、 例えば複数のプロジェク 夕からなるマルチプロジェクタ装置では、 隣接するプロジェ クタから投写された画像の継目が判らないように、 その継目 で画像を滑らかに接続して、 全体として一つ (または複数) の画面を構成出来ることが理想である。
そのために、 従来は特開平 8 — 9 4 9 7 4号公報に記載の ような手法が取られていた。 例えば、 各プロジェクタのスク リーン上での画像投写範囲が隣接するプロジェクタの画像投 写範囲に侵入しないように、 隣接する画像投写範囲の境界位 置に、 スク リーンに垂直に隣接プロジヱク夕の光が侵入して く るのを防止する遮光板を設けている。 また、 隣接する投写 範囲毎に異なる向きの偏光特性を持つ透過型スク リーンを用 いて、 隣接するプロジェクタの投写光が物理的に観賞者に届 かないように工夫されている。
しかし、 上記光学的手段による隣接する画像の継ぎ合せでは、 各プロ ジェクタの画像投写範囲を事前に物理的に規定しなければならない。 こ のため、 規定投写範囲の形状に、 投写画像が正確に重なるように、 プロ ジヱクタを調整する必要が生じる。 この調整は、 プロジェクタの姿勢と プロジェクタ内部の光学系の調整と、 さらには、 ブラウン管式プロジェ クション型の場合のみ偏向電圧波形の調整による投写画像の形状変形な どにより行なわれてきた。
ただし、 液晶プロジェクタの場合には投写画像形状の変形は、 ブラウ ン管式プロジェクタほど容易ではない。 光学的な調整のみで、 画像の投 写位置移動と変形自由度の少ない画像形状変形を行うことになる。
しかし、 このような調整は繁雑であるばかりでなく、 調整後のプロ ジェクタ設置環境の温度や磁場の変化で、 容易に、 最適な調整点が変化 してしまい、 プロジェクタの再調整を頻繁に行なう必要が生じる。 つま り、 従来の手法では、 複数の画像を自然な形で 1つ (または複数の) 画 面 (画像) に見せることは極めて困難であった。
また、 スクリーンに遮光板を設けるなどの加工をすると、 スクリーン 自体の均一性が損なわれ、 その影響が投写された画像にも反映し、 滑ら かに接続された合成画像が得られない。 発明の開示
本発明は、 かかる事情に鑑みてなされたものである。 本発明では、 隣 接するプロジェクタからの投写光の侵入防止のためのスクリーンの特別 な構造や、 プロジェクタの光学的な精密調整を不要とし、 その上で画像 の継目が判らないように、 画像を滑らかに接続する。 本発明によれば、 プロジェクタの画像投写を、 映像信号処理で実現することも可能になる。 上記目的を達成するために、 本発明は以下の構成とした。
本発明では、 投影面上 (例えば、 スクリーン) で複数の画像で重複す る部分の画像 (信号) を調整する。 例えば、 スクリーンの背面あるいは 正面からスクリーン上に画像を投写する複数のプロジェクタに対して、 プロジェクタへ供給された映像信号を、 各プロジェクタが担当する部分 画像領域毎に切り出した映像信号を作成し、 その映像信号を加工して投 写する画像の形状変形と局所的色補正を行う。 これらの処理は、 ハード ウェアにより行ってもよいし、 ソフトウェアにより行ってもよい。
さらに、 本発明は、 複数の映像出力器を有するマルチプロジェクショ ン映像表示装置での映像表示方法において、 前記映像出力器が映像を表 示する表示画面上で、 前記映像出力器から投写させる映像の表示領域が 他の映像出力器から出力される映像の表示領域と重ねて表示し、 重ねら れて表示される領域に、 前記映像出力器および前記他の映像出力器それ ぞれから、 互いに関連する映像を出力することを特徴とする。
この時、 形状変形と色補正を行う際に設定する制御パラメタ値を生成 してもよい。 制御パラメタ値を生成する時には、 各プロジェクタに任意 画像パターンの映像信号を供給し、 スクリーン上に投写されている画像 の状態を読み取り、 '読み取った画像から制御パラメタ値を計算して実施 してもよレ、。
他の画像と隣接する画像投写範囲を受け持つプロジェクタは、 そのス クリーン上での最大画像投写範囲が、 その境界部で隣接する最大画像投 写範囲と数パーセント程度重なる領域を持つように、 配置と姿勢と光学 系を設定するとよりよい。 隣接する最大画像投写範囲が重複する部分は、 隣接する最大画像投写範囲を受け持つプロジェクタそれぞれの投写映像 、 光学的に加算合成されている部分である。 その光学的な映像加算の 状態を、 スクリーン上に投写されている画像の状態を読み取り、 読み 取った画像から制御パラメタ値を計算し、 光学的映像加算のモデル化と、 供給映像信号の幾何変形と局所色補正の制御変数について、 光学的な映 像加算の結果として隣接する画像が滑らかに接続される解を、 前述のモ デルから求め、 求めた幾何変形と局所色補正に基づいて投写する画像の 形状変形と局所的色補正を実行し、 加工した映像信号を各プロジェクタ へ供給する。
本発明の構成は、 またスク リ ーン上に 1以上の画面を構成 するマルチプロジェクシヨン映像表示装置において、 前記ス ク リーン上に映像を投写する映像投写器と、 前記映像投写器 から投写される映像を表示する表示範囲が、 他の映像投写器 の表示範囲と重複領域を有する場合、 前記映像投写器および 前記他の映像投写器それぞれから、 前記スク リ ーン上の前記 重複領域内には互いに関連する映像を出力させる制御装置を 有することを特徴とするマルチプロジェクショ ン映像表示装 置である。
また、 コンピュータ読み取り可能な記憶媒体であって、 映像出力器が 映像を表示する表示画面上で、 前記映像出力器から投写させる映像の表 示領域が他の映像出力器から出力される映像の表示領域と重ねて表示さ せ、 重ねられて表示される領域に、 前記映像出力器および前記他の映像 出力器それぞれから、 互いに関連する映像を出力させるプログラムが格 納されたことを特徴とするコンピュータ読み取り可能な記憶媒体でもあ る。 また、 本発明の構成は、 複数の映像出力器から出力される映像が重 ねられて表示される領域に、 映像出力器および他の映像出力器それぞれ 力 、 互いに関連する映像を出力可能なように、 各映像出力器に対応さ せて映像データを分割して格納している記憶媒体と、 前記記憶媒体読み 出した映像データに基づく映像信号を各映像出力器に供給する供給器を 有することを特徴とする映像信号再生装置でもある。
本発明は、 画像の重複部分を調整するのみで実現できるので、 スク リーンやプロジェクタ等の構成部品の個々の状態調整が不要になる。 特 に、 スクリーンやプロジェクタ等のさまざまな構成部品の状態に依存し た結果の光学的映像加算のモデルを作り、 それを解く形態とすれば、 結 果的に解の存在する光学的映像加算のモデルが得られる範囲で、 スク リーンやプロジェクタ等の構成部品の個々の状態調整が不要になる。 図面の簡単な説明
第 1図は、 本発明の一実施例における複数のプロジェクタとスクリー ンとスクリーン状態監視カメラの配置を示す図である。 第 2図は、 映像 信号制御装置の機能ブロック図である。 第 3図は、 複数のプロジェクタ による最大画像投写範囲と映像信号制御装置で処理された画像の投写範 囲とのスクリーン上での位置関係を示す図である。 第 4図は、 一台のプ ロジェクタによる最大画像投写範囲と映像信号制御装置で処理された画 像の投写範囲との位置関係を示す図である。 第 5図は、 画像補正器の機 能ブロック図である。 第 6図は、 第 5図に示した画像補正器の各機能ブ ロック内部の機能構成図である。 第 7図は、 ビデオ信号デジタイザの動 作手順を示す図である。 第 8図は、 フレームバッファ書き込み '読み出 し手順を示す図である。 第 9図は、 画像の幾何形状の補正手順を示す図 である。 第 1 0図は、 幾何変形べクトルテーブルのデータ構造を示す図 である。 第 1 1図は、 色変換の手順を示す図である。 第 1 2図は、 色変 換パラメタテーブルのデータ構造を示す図である。 第 1 3図は、 補正パ ターン画像の例を示す図である。 第 1 4図は、 画像の幾何形状補正前と 後の画像投写領域を示す図である。 第 1 5図は、 隣接する 2つの最大画 像投写範囲の 4種類の重なり方の例示である。 第 1 6図は、 幾何変形制 御情報の生成手順を示す図である。 第 1 7図は、 幾何変形べクトルの生 成手順を示す図である。 第 1 8図は、 画素値変換パラメタの生成手順を 示す図である。 第 1 9図は、 重複部分を持つ画像の四分割の 1例を示す 図である。 第 20図は、 隣接する分割画像の重複部分の関係を示す図で ある。 第 2 1図は、 画像重複部分の明度変調に用いる重み関数を示す図 である。 第 22図は、 面像補正器を内蔵するプロジェクタと映像信号制 御装置のブロック図である。 第 23図は、 曲面スクリーンを用いたマル チプロジヱクシヨン映像表示装置の 1例を示す図である。 第 24図は、 分割映像信号を並列に再生する再生装置の組と画像補正装置を持たない 映像信号制御装置のブロック図である。 第 25図は、 画像補正装置と画 像一時蓄積装置を内蔵する映像再生装置を示す図である。 発明を実施するための最良の形態
第 1図 に、 本発明によるプロジェクタアレーのシステム 構成を示す。 4台のプロジェクタ 0121、 0122、 0123、 012 4を、 背面投射用のスク リーン 0140 上の最大画像投写範囲 0151、 0152、 0153、 0154が互いに少しずつ重なるように 配置する。 4台のプロジェクタ 0121、 0122、 0123. 0124 には、 映像信号制御装置 0110 より、 それぞれ画像信号を 供給する。 映像信号制御装置 0110 は、 外部映像入力 018 0より供給された映像信号を加工し、 4台のプロジェクタ 01 21、 0122、 0123、 0124に供給する機能と、 映像の加工の仕 方を決定する画像補正機能を持つ。 映像信号制御装置 0110 の画像補正の仕方は、 スク リーン 0140に投写された画像 の状態を読み取るスク リーン状態監視カメラ 0130からの映 像信号を元に決定する。 映像信号制御装置 0110の機能構成プロックダイアグラム を、 第 2図 に示す。 映像信号制御装置は、 入出力端子とし て、 単一映像入力 0210と、 分割映像入力 0221、 0222、 0 223、 0224 と、 スク リーン状態監視カメラ映像入力 0230 と、 分割映像出力 0241、 0242、 0243、 0244 とを持つ。 単一映像入力 0210より供給される映像信号は、 画像分割 装置 0250により、 分割映像出力 0241、 0242、 0243、 024 4に接続されるプロジェク夕の配置に対応した画像に分割さ れた映像信号を生成し、 そのそれぞれの映像信号は、 映像信 号切替器 0260に供給される。
映像信号切替器 0260は、 画像分割装置 0250からの入力 か、 テス トパターン画像生成器 0270 からの入力か、 分割 映像入力 0221、 0222、 0223、 0224かのいずれか一つの組 を選択し、 選択した組の映像信号のそれぞれを、 画像補正器 0281、 0282、 0283、 0284に供給する。
画像補正パラメタ生成器 0290は、 テス トパターン画像生 成器 0270 を制御して、 幾何パターンの画像信号を、 映像 信号切替器 0260により選択し画像補正器 0281、 0282、 0 283、 0284を経由して分割映像出力 0241、 0242. 0243、 0 244に接続されたプロジェクタ 0121、 0122 , 0123、 0124 へ供給し、 その幾何パターンがスク リーンに映った様子を撮 影しているスク リーン状態監視カメラ 0130からの映像信号 を、 スク リーン状態監視カメラ映像入力 0230より読み込む。 画像補正パラメタ生成器 0290は、 スク リーン状態監視カメ ラ映像入力 0230の映像を基に、 各プロジェクタ 0121、 01 22、 0123、 0124の表示する映像がスク リーン上で連続に接 続され、 輝度分布も滑らかになるような画像補正パラメ夕を 計算する。 計算したパラメタ値を、 画像補正制御線 0295を 通して画像補正器 0281、 0282、 0283、 0284へセッ トする。
第 1図の最大画像投写範囲 0151、 0152、 0153、 0154と、 映像信号制御装置 0110で加工され投写された画像との関係 を、 第 3図に示す。 最大画像投写範囲 0301、 0302、 0303、 0304は、 プロジェクタ 0121、 0122. 0123、 0124がスク リ 一ン 0140上にそれぞれ画像を表示できる最大の範囲である。 プロジェクタ 0121、 0122、 0123、 0124は、 最大画像投写 範囲 0301、 0302、 0303、 0304がそれぞれ隣接する投写範 囲と互いに重複領域を持つように配置する。
最適化画像投写範囲 0311、 0312、 0313、 0314は、 それ ぞれ最大画像投写範囲 0301、 0302、 0303、 0304の内側に 位置し、 隣接するプロジェクタに投写された画像同士が互い に連続に接続した状態で表示されるための画像表示領域であ o
第 4図に、 第 1図の最大画像投写範囲の一つを拡大して示 す。 最大画像投写範囲境界 0401は、 プロジェクタが画像を 表示可能な範囲の境界を示す。 最適化画像投写範囲境界 04 02は、 隣接するプロジェクタに投写された画像同士が互いに 連続に接続した状態で表示されるように、 プロジェクタへの 供給された映像を縮小表示する範囲'を示す。 最大画像投写範 囲境界 0401 と最適化画像投写範囲境界 0402 に囲まれた 部分 0403には、 最も暗い輝度を持つ画素値を持つように、 映像信号制御装置 0110は入力映像信号を加工する。 なぜな ら、 その部分は隣のプロジェクタが画像を投写する範囲を含 むので、 投写映像が多重に表示されないようにするためであ 第 5図に、 画像補正器の機能ブロック図を示す。 映像信号 入力端子 05 0 1よりアナログ映像信号を入力し、 その映像信 号をビデオ信号デジタイザ 0 5 1 0が、 画像補正器内部でのデ ジタル表現に変換する。 デジタル表現された映像データの各 画像フレームデ一夕は、 画像データ転送線 0 5 6 1を通してフ レームノ ッ フアブロック 0 52 0に格納する。
制御パラメタ入力端子 0 5 0 2から画像の幾何補正パラメ夕 と色補正パラメタのデータを入力し、 制御パラメタ転送線 0 5 67を通してそれぞれ、 幾何形状補正ブロック 0 5 3 0 と色変 換ブロック 0 540に各パラメタ値を設定する。 幾何形状補正 ブロック 053 0 は、 設定されたパラメタ値に従って出力画 像形状を変形するように、 映像信号出力端子 0 50 3カヽら出力 される画素のア ドレスを画像データ書込みア ドレス転送線 0 5 63より読み込み、 そのア ドレスに出力する入力画像の画素 のア ドレスを計算し、 画像データ読み出しア ドレス転送線 0 565に出力し、 フレームバッファブロック 052 0に格納され た入力画像データの画素を読み出す。
読み出された画素は、 色変換ブロック 0 540により、 設定 されたパラメタ値に従った画素の色変換を施され、 ビデオ信 号生成器 0 550に転送され、 ビデオ信号生成器 0 55 0より、 ビデオ信号として出力される。 第 5図 の各機能ブロックの 動作アルゴリズムを、 第 6図 に示す第 5図 の各機能ブロッ ク内部の実現手段構成図と、 PA D 図を用いて説明する。 ビ デォ信号デジタイザ 0 6 1 0は、 映像信号入力端子 0 6 0 1より 入力された信号から映像色信号と同期信号を分離する手段の 信号分離器 0 6 1 1と、 映像色信号電圧値を量子化する手段の A / D 変換器 0 6 1 2と、 分離した同期信号を基に、 現在量子化 した画素の画像内での位置情報を生成する手段のァ ドレス生 成器 0 6 1 3を持つ。
フ レームノ ッ フアブロック 0 620は、 それぞれ 1フ レーム の画像情報を格納する手段のフ レームメモリ A 0 62 1とフレ ームメモリ B 0 622と、 入力された画素値をどちらのフ レー ムメモリに書込むかを選択し、 書込む方のフレームメモリに、 書込むァ ドレスと書込みタイ ミ ングを供給する手段の書き込 みア ドレス選択器 0 6 25と、 現在書込みをしていない方のフ レームメモリを読み出し用として選択して、 選択したフ レー ムメ モ リ に、 読み出す画素のア ドレスを供給する手段の読み 出しア ドレス選択器 0 626と、 読み出し用フ レームメモ リか ら出力された画素値を選択し出力する手段の読み出しデータ 選択器 0 627を持つ。 幾何形状補正ブロック 0 6 3 0は、 画像 補正器が出力タイ ミ ングにある画素の画像内位置に、 読み出 し用として選択したフ レームバッ フ ァのどのァ ドレスに格納 した画素値を出力するかを計算する手段の ア ドレス生成器 0 6 3 1と、 計算に必要なパラメタを出力画素位置毎に全て記 憶する手段のア ドレス変位メ モリ 0 6 32を持つ。 色変換プロ ック 0 640は、 フ レームバッ フ ァブロック 0 62 0力、ら読み出 した画素値を基に、 画像補正器が出力する画素値を計算する 手段の画素値変換器 0 64 1と、 出力画素位置毎に画素値の変 換の仕方を記憶する手段の画素値変換パラメタメモリ 0 642 を持つ。 ビデオ信号生成器 0 65 0は、 出力する画素値を映像色信号 に変換する手段の D / A変換器 0 65 1と、 画素出力位置情報か ら同期信号を生成し、 映像色信号と合成してビデオ信号に変 換する デォ信号合成器 0 6 52を持つ。 ビデオ信号デジタイ ザ 0 6 1 0の動作手順を第 7図 に示す。 手順 0 70 0 で映像信 号から画像信号と同期信号を分離する。 手順 0 70 1 で画像 信号の色信号を量子化する。 手順 0 70 2 で同期信号を基準 に画素ァ ドレス(画素の行と列)を生成する。
この手順で量子化された映像数値データは、 フ レームバッ ファブロック 0 62 0 に一旦格納される。 格納された映像数 値データに対し、 幾何形状補正ブロック 0 6 3 0は幾何形状補 正用の読み出しア ドレスを発生し、 読み出された画素データ は、 色変換ブロック 0 640により色補正を施す。
フレームバッ ファブロック 0 62 0の動作手順を第 8図 に 示す。 手順 0 8 0 0 と 0 80 1 で、 2画面分用意したフレーム バッファメモリの一方を書き込み用、 他方を読み込み用と設 定する。 手順 0 8 0 2 で、 画面の左上隅の書き込み開始位置 の書込みデータが、 フ レームバッ ファブロック 0 620へ供給 されるのを待つ。 手順 0 8 0 5 で、 書き込み用フ レームバフ ァに画素値を書き込む。 手順 08 Q 6 で、 幾何形状補正プロ ック 0 6 30から供給されるア ドレスに従って、 読み出し用フ レームバファから画素値を読み出し、 読み出しデータ選択器 0 6 27を経由して色変換プロック 0 640へ画素値を転送する。 手順 08 05と 080 6を、 画像 1フ レーム分全ての画素につい て行うまで繰り返した後、 手順 0 80 7 で、 書き込み用フレ — ムノ ッ ファメモリ と読み出し用フ レームノくッ フ ァメモリの 7 7
12
役割を入れ替え、 手順 0805 以降を繰り返す。
幾何形状補正ブロック 0630の動作手順を、 第 9図 に示 す。 手順 Q901 で、 第 1 0図に示す幾何変形べク トルテー ブルを、 ア ドレス変位メモリ 0632に読み込みむ。
幾何変形べク トルテーブルは、 1フレーム分の画像の各画 素と一対一に対応した 2次元べク トル値の要素から構成され る 2次元配列形式のデータである。 手順 0903 で、 ビデオ信 号デジタイザ 0610より順次供給されるア ドレス(r, c) 毎 に、 ア ドレス変位メモリ 0632に格納した幾何変形べク トル テーブルの r 行 c 列の要素 (x[r, c], y[r, c])を読み出す ( 手順 0904 で、 (r, c) + (x[r, c], y[r, c]) を計算し、 フレームバッファブロ ッ ク 0620の読み出しア ドレスと して 出力する。 手順 0903と手順 0904 を、 ア ドレス変位メモ リ 0632の再初期化要求が、 制御パラメタ入力端子 0602よ りない限り繰り返す。 再初期化要求があると、 手順 0901 へ戻る。
色変換ブロック 0640の動作手順を、 第 1 1図 に示す。 手順 1101で、 第 1 2図に示す色変換パラメ夕テーブルを、 画素値変換パラメタメ モリ 0642に読み込み初期化する。 色 変換パラメタテーブルは、 1フ レーム分の画像の各画素の 3色 (赤、 青、 緑)の色成分それぞれに対する変換関数を、 N区分 線型関数で近似したときのパラメタを要素とする、 3プレー ン分の 2次元配列形式のデータである。 手順 1103 で、 ビデ ォ信号デジタイザ 0610より順次供給されるァ ドレス(r, c) 毎に、 画素値変換パラメタメモリ 0642に格納した色変換 パラメタテーブルの r 行 c 列の赤 · 青 ·緑の各色に対応し た要素を読み出す。 フ レームバッ フ ァブロック 0620力ヽら出 力された画素の各色成分の強度を z とすると、 手順 1104 で、 数 1に示す変換式で変換した強度を、 変換された画素の 各色成分の強度とし、 ビデオ信号生成器 0650へ出力する。
%
f(z) = - c) 1+1 + , c i e 'c'p 1}— 数 1 r^c 一 Pr、c 手順 11-03と手順 1104 を、 画素値変換パラメタメモリ 0642の再初期化要求が、 制御パラメタ入力端子 0602よりな い限り繰り返す。 再初期化要求があると、 手順 1101 へ戻 る o
色変換ブロック 0640から出力された画素値は、 ビデオ信 号生成器 0650により、 アナログビデオ信号に変換され、 映 像信号出力端子 0603より出力される。 幾何形状補正ブロッ ク 0630や 色変換ブロック 0640に設定される 第 1 0図 と 第 1 2図 のパラメ夕情報は、 スク リーン状態監視カメラ 0130により撮影したスク リーン 0140上の映像の状態を基 に、 画像補正パラメタ生成器 0290により作成される。 第 1 0図 の幾何変形のパラメタ情報は、 つぎの様に計算する。 第 1 3図に示す補正パターンを、 画像補正器 0281、 0282
0283、 0284を経由して各プロジヱクタから スク リーンに投 写し、 その投写画像をスク リーン状態監視カメラ 0130によ り撮影し、 頂点 1301などを画像パターン中の特徴点として 抽出する。 このような特徴点の、 カメラ座標系での位置座標 値 q と、 その点に対応する画素のフレームメモリ内の座標 値 p との対応付けが出来ているとする。 このとき、 このよ うなパターンが表示されていない部分でのカメラ座標系の任 意の位置 q に対応するフ レームメモリの座標値系での位置 座標 P を求める方法は、 以下のようにする。 qの近傍の 3点 q_l 、 q_2 、 q_3 で、 フ レームメモリの座標値系での 座標値 P— 1 、 P_2 、 p_3 との対応がついている点を計 測する。 そして、 q 力 q_l 、 q_2 、 q_3 と適当な実 数値 a と. b により 数 2 の関係にあるとき、 p を 数 3 と して表わす。
Q = qc + (qa - qc) + b{qb - q.
数 2
P = Pc + (pa -pc) +b (pb一 pc 数 3 第 1 4図に示すように 4台のプロジェクタの最大画像投写 範囲 1401、 1402、 1403、 1404 が互いに重複部分を持つ て配置されている場合、 プロジェクタ Aの最大画像投写範囲 1401 内に存在する隣接プロジェクタ B の最大画像投写範 囲 1402 の頂点 1421の座標を、 上記の座標変換方法によ り、 プロジェクタ A に接続されている画像補正器のフ レーム メモリ座標系での座標値として読み取る。 すなわち、 スク リ ーン上の任意の点のプロジヱクタ B に接続されている 画像 補正器のフ レームメモリ座標系での座標値 X— B を、 プロジ ェクタ A に接続されている 画像補正器のフ レームメモリ座 標系での座標値 x_A へ対応付ける同型写像 Ψ— {AB} が定 義できる。
したがって、 以下で扱う投写画像内の任意の位置座標値は- どれか一つのプロジェクタに接続しある 画像補正器のフ レ ームメモリ座標系での座標値と仮定する。 左右または上下に 接して配置されている 2台のプロジェクタ の最大画像投写範 囲 を S— A と S_B とする。 この隣接する範囲の本来接し いていなくてはならない部分境界線を、 それぞれ B— {AB} と B_{BA} とする。
この部分境界線は第 1 4図 においては、 例えば、 頂点 1 411 と頂点 1412 を端点とする最大画像投写範囲 1401の 部分境界線 1413 と、 頂点 1421 と頂点 1422 を端点と する最大画像投写範囲 1402の部分境界線 1423 とに対応 する。 部分境界線 B— {AB} と B— {BA} は、 それぞれ 数 4 と 数 5に示す点集合とする。
{&AHW e[0,l]} ■ · · 数 4
Figure imgf000017_0001
. · · 数 5 次に、 境界線 B— {AB} と B— {BA} のうち、 隣接する最 大画像投写範囲に含まれているか、 あるいは接している境界 線部分を有効部分境界線という。 ここでそれぞれの境界線部 分を、 数 6と数 7に示すように定義する。
{b'AB(t) = bAB((l一 t) αΑΒ + ίβΑΒ) I ί e [0, 1]} 数 6
{b'BA(t) = bBA((l - t) aBA + ίβΒΑ) I ί G [0, 1]} -.. 数了 ただし、 数 6の α— {AB} と — {ΑΒ} は、 表 1に示す 4通り の場合について、 それぞれ、 数 8 に示す定義とする。
表 1
Figure imgf000018_0002
数 8
Figure imgf000018_0001
— {BA} と /3— {BA} も、 同様に定義する。
数 8の 4つの場合は、 第 1 5図に示ように、 隣接する 2つの 最大画像投写範囲の 4種類の重なり方に対応する。
ただし、 範囲 B の部分境界線 B— {BA} に接続する上方 の部分境界線を B— {AB- } とし、 下方の部分境界線を B— {A B-} とした。
隣接する最大画像投写範囲 S_B が空の場合も含めて、 部 分境界線の端点
b_{AB} (a) (aE {0, 1 } )の状態には 表 2 に示す 4通りの 場合が存在する。 表 2
Figure imgf000019_0002
この時、 境界線の端点 b. AB (a)の移動先 e_{AB} (a )を数 9 で定義する。
数 9
Figure imgf000019_0001
ただし、 数 9において、 b— {AB} ( 1- a) カ case 5の場 合、 Δ— 1 b— {AB} U- a) = 0 とし、 その他の場合には、 数 1 0と数 11とする。
^lbAB{ - a) = . · · 数 10 p(e B(l - a) - bAB(l― a), bAC(l - a) - bAC{a)) s
s 数 11 s b _{AC} (a) 力 case <5の場合、 Δ_2 b _{ AB} (a) = 0 で、 その他の場合には、 数 12とする。 △2& Β(α) = P(eAC( ) - bAC(a), bAB(l - a) - bAB(a)} · 数 12
有効部分境界線の端点の移動べク トルを数 13、 数 14 で定 義" 5 る o
^ΒΑ 0 = - bBA(a) · · . 数14 ただし、 a = 0 または a =l とする。 有効部分境界線全体の 移動方向べク トル を数 15、 数 16、 数 17で定義する。 dAB(i) = I(dAB(0),dAB(l);t) … 数 15 dBA{t) = I{dBA^)1dBA l) t) · · · 数16
I(p,q;t) = (l ~ t)p+ tq 数 17 続いて、 数 18 の A(t) と B(l-t) に関するべク トル方 程式の解を用いて、 部分境界線 B_{AB} と B— {BA} に対 応する共有境界線 G— UB} と G— {BA} は、 数 19と数 20に 示す g— {AB} (t)と g— {BA} (t) で定義する。 b'AB{t) + A(t) dAB(t) = b'BA(l - t) + B(l一 t) dBA(l一 数 18 9AB(t) = b'AB{t) + A{t) dAB(t) ■■■ 数 19
9BA{i) = h'BA(t) + B(t) dBA(t) ■■■ 数 20 第 1 4図に示す例では、 プロジェクタ Aと Bの最大画像投 写範囲の部分境界線 1413 と部分境界線 1423 に対する共 有境界線は 1430 になる。 この様に計算した共有境界線で 囲まれた範囲は、 最適化画像投写範囲といい、 第 1 4図の 1 441、 1442、 1443、 1444 である。
最大画像投写範囲 S— A の部分境界線で、 S_A に接する 4 つの隣接投写範囲 S— B 、 S— C 、 S_D 、 S_E の部分境 界線と、 本来一致した位置にあるべき部分境界線を、 それぞ れ B— {AB} 、 B_{AC} 、 B_{ AD} 、 B_{ AE} と記すこと ίこすな。
B_{AX} (1≡ { , C, D, E} ) に対する共有部分境界線 を G
_{AX} と記し、 数 21 ·で定義する。
GAx = {9Ax(t) \ t [0,1]} ... 数 21
境界線 $G_{AX}$で囲まれる範囲を、 最大画像投写範囲
S— A に対する最適化画像投写範囲とよび Q_A と記す。
最大画像投写範囲 S— A から最適化画像投写範囲 Q— A の上 への画像変換 T— A : S— A → Q_A を以下のように定義する。
まず 、 S— A =[ 0, 640 ] X CO, 480 ] カヽら D— 2 =[0, 1] x [ 0, 1] への同型写像を 7 — A とし、 数 22で定義する。 vA(x,y) = (x/640,y/320) 数 22 次に、 Q— A から D— 2 への同型写像 ξ の 5 Q— Α 上 での定義を、 数 23、 数 24、 数 25、 数 26 とする。 (9AB(i)) = M 数 23 A ( AC )) =ひ, ) 数 24 数 25
Figure imgf000022_0001
数 26
このとき、 連続な写像 Φ: D— 2 E— 2 の 3 D— 2 上 での定義を、 数 27で定義する。 こ : . E .2 は 2次元べク トル空間とする。
ΦΑ(^,ν) = ξΑ u.v)— π一 1,
u. V , 数 27 すると、 D 2 内部での (u, v)を、 数 28 で定義する 0, υ) = Ι{Ι(φΑ{η, 0), φΑ(η, 1); ν),
数 28
Figure imgf000022_0002
ただし、 p (x)は、 x = 0 と x =l で零となる連続函数で たとえば 数 29 で定義する。 X ) = X X 数 29
このとき、 幾何変形の変換 T_A : S A Q A を 数 3 0 で定義する。 数 30
さらに、 第 1 0図 の幾何変形べクテルテーブルの各要素 は、 数 3 1 に定義する変形べク トル関数 ϋ— A によって生成 する。 ひ ) =
Figure imgf000023_0001
画像補正パラメタ生成器 02 9 0の幾何変形制御情報生成手 順を、 第 1 6図 に示す。
手順 1 60 0 で、 画像補正器 G 28 1、 0 282、 0 28 3、 0 284 の幾何変形補正パラメタを零に設定する。 各プロジェクタ毎 に、 以下に説明する手順 1 60 2、 1 60 3、 1 604、 1 6 05、 1 60 6 を実行する。 手順 1 60 2 で、 第 1 3図 に示す画像パター ンを投写できる最大サイズで投写する。 手順 1 6 0 3 で、 ス ク リーン状態監視カメラ 0 1 30により、 手順 1 60 2 の投写画 像を撮影する。 手順 1 604 で、 撮影した画像データから、 第 1 3図 の一松模様の各頂点に対応する位置を、 カメラの 座標系で読み取る。 手順 1 605 で、 特徴点の位置座標を 画 像補正器のフレームメモリの座標系に変換する。 手順 1 60 6 で、 第 1 7図に示す幾何変形べク トル生成手順を実行する。 幾何変形べク トル生成の手順を、 第 1 7図に示す。 手順 1 700 で、 数 4と数 5で定義される最大画像投写範囲の境界線 上の点集合を作成する。 手順 1701 と手順 1702 で有効部 分境界線を計算する。 手順 1703 で有効部分境界線の端点 移動先を計算する。 手順 1704 で有効部分境界線の端点移 動べク トルを計算する。
手順 1705 で有効部分境界線の移動方向べク トルを計算 する。 手順 1706 で最適化画像投写範囲の境界線を計算す る。 手順 1707 で最大画像投写範囲全体に渡る幾何変形制 御パラメタを計算する。
プロジェクタの投写画像の色再現性は、 一般にプロジェク 夕の個体差によるバラツキと、 投写画像内の位置によるバラ ツキとがある。 この二種類のバラツキを抑制し、 隣接するプ ロジェクタの投写画像が滑らかに接続するように、 色再現性 を制御するのが、 画像補正器の色変換ブロック 0540の機能 である。 色変換ブロック 0540に設定する、 第 1 2図 に示 す画素値変換パラメタ情報の生成について以下説明する。
隣接する 2台のプロジェクタ $A$と $B$の最大画像投写範 囲の重なり部分にある、 前述の共有境界線上で、 本来双方の 画像が一致する位置に対応する表示画像データの色成分値 z に対するスク リーン状態監視カメラ 0130による実測色成 分値 を : f— X (z)とする。 ただし、 X は A または B とす
Ό o
このとき、 最適化色成分函数 $g(z)$を数 32、 数 33で定 義する。 (z) = (VH一 VL) L(h{z)- h(z0), h(zN)) + yL 数 32 x— b
L{x a, b) = 数 33
a b ただし、 y— H 、 y_L 、 h(z) は、 それぞれ 数 34、 数 35 数 36 で定義する。
VH = min(fA(zH) B(zH 数 34
VL = max ( ( リ, ( )) 数 35 数 36
Figure imgf000025_0001
このとき、 境界上での色接合函数 X (z)を数 37 で定義 する。
9^) = ίχ(ζχ(ζ 数 37 この色接合関数 ζ (ζ) を 数 1 で表わされる Ν 区分線 型函数として近似する。 この場合、 N' 区分線型函数の第 i 区間のパラメタ値は、 数 38で与えられる。 数 38
上記のようにして、 共有境界線上の各点での色接合関数を定 義する。 D 2 内の各点(u, V)での色変換関数を、 ^JX[u, v] } (z)とすると、 数 38で定義する境界線上での値を用いて D— 2-領域全体での値を、 数 28と同様の方法で、 数 39 により 疋 feする。 ( x [ o]( ,ぐ X [ 1]( ;"), . · . 数 39
Figure imgf000026_0001
このとき、 最大画像投写範囲内の位置 (x, y) での色接合 関数 77— {X[x, y] } (z) を、 数 40 で定義する。
^X[x,y] z) - 0 : その他 このように定義した ?7— {X[x, y] } (z) の区分線型近似パ ラメタを、 最大画像投写範囲内の位置 (x, y)での画素値変 換パラメタとする。
画像補正パラメタ生成器 0290の画素値変換パラメタ生成 の手順を、 第 1 8図 に示す。 手順 1800 で、 初期値として 恒等変換に対応するパラメタを設定する。 以下に説明する手 順 1802 から 手順 1807 までを、 各プロジェクタ毎に実 行する。 手順 1802で、 最適化画像投写範囲の境界線のサン プル点毎の手順 1803、 1804、 1805、 1806 の繰り返し実 行を制御する。 手順 1803 で、 各色成分の輝度を計測する。 手順 1804 で、 N 区分線型近似の実測色成分関数 ί_Χ を 計算する。 手順 1805 で、 最適化色成分関数 を計算する。 手順 1806 で、 境界線上での画素値変換パラメタを生成す る。 手順 1807 で、 最適化画像投写範囲全域での画素値変 換パラメ夕を生成する。 本実施例によれば、 隣接する投写画像を、 隙間も重複もな く接して配置できるように、 画像の形状を変更出来、 隣接す る画像の継ぎ目での画像の色の不連続を解消できる効果があ る。 なおかつ、 形状の変更量や画素の色の変換関数を自動的 に生成するので、 人手によるプロジニクタの配置や色調整な どの作業を省力化する効果を持つ。
本発明の第二の実施例として、 第一の実施例と同一の手段 を備えながら、 第 2図の画像分割装置 0250の機能と、 幾何 変形制御パラメ夕の計算方法と、 画素値変換パラメ夕の計算 方法が異なる実施例を以下に示す。
画像分割装置 0250は、 第 1 9図 に示すように、 入力さ れた映像信号に含まれる画像 1901を、 隣接する分割部分画 像と一定の重複部分を持つような分割部分画像 1911、 1912 1913、 1914に分割し、 それぞれの分割部分画像に対応した 映像信号を生成する。
画像の重複幅 Lの画像幅 Wに対する比率 L/W は、 隣接す る最大画像投写範囲同士の重複幅と最大画像投写範囲の幅の 比率より小さ く設定する。 逆に、 重複比率 L/W を設定する と、 最大画像投写範囲 0151、 0152、 0153、 015 間の重 複比率が、 分割部分画像同士の重複比率 L/W より大き くな るようにプロジェクタ 0121、 0122、 0123、 0124の配置と 姿勢を設定する。
各分割部分画像の内側で、 分割中心線 1921、 1922 によ り囲まれる領域を分割主領域 と呼ぶ。 第 1 9図 においては. 斜線で示した領域 1931、 1932、 1933、 1934 が分割主領 域である。 第一の実施例における幾何変形制御パラメ夕の計算におい て、 数 4や数 5 で定義する部分境界線を、 分割主領域 1931、 1932、 1933、 1934の境界線に置き換えて計算する。 すると、 分割主領域内の点に対する幾何変形の変換 T は、 第一の実 施例と同様の手順で数 30により計算出来るので、 幾何変形制 御パラメタは、 数 31 で計算する。 分割主領域の外側におけ る幾何変形制御パラメタの計算は、 次のようにする。
第 2 0図 に示すような隣接する分割部分画像 Aと B の互 いに重複する領域を C— B} と C— {BA} とする。 互いに 重複していない領域 を F— {AB} と F_{BA} とする。 さら に、 C— {AB} と C— {BA} は、 分割中心線 2001、 2002 に より、 それぞれ二つの領域に分けられ数 41と数 42 と表され
CAB = DAB U EAB · · · 数 41
CBA = DBA U EBA · · · 数 42 ここに、 E— {AB} と E— {BA} は、 分割中心線 2001、 2 002 により分割された重複領域 C— B} と C— {BA} の部分 領域のうち、 F— {AB} または F— {BA} に接している方と する。 このとき、 分割部分画像 A と B の分割主領域はそ れぞれ、 E— {AB} U F_{ AB} と E_{BA} U F_{BA} とな る。
第一の実施例で述べたように、 分割部分画像 B の座標系 における座標値を分割部分画像 A の座標系に変換する関数 Ψ_{ΑΒ} とその逆関数 Ψ— {ΒΑ} を定義できる。 すると、 D_{AB} 上で定義される合成関数 V— {AB} を、 E— {BA} U F_{BA} 上で数 30 により定義される分割部分画像 B の 幾何変形関数 T— B を用いて数 43 で定義する。
VA(x) = ^AB(TB(^BA^))) ··· 数43 また、 数 31に相当する変形べク トル関数 U_A を、 数 44 で疋 feする。
UA(X … 数 44
Figure imgf000029_0001
0 その他 次に画素値変換パラメタを、 次のよう して計算する。 まず、 重複領域 C_{AB} の各点では、 第一の実施例と同様に 数 3 8 に示すパラメタで定義される区分線型関数を用いて、 画素 値変換関数を定義できる。
^4 = Π FAX … 数 45
X 次に、 隣接する全ての分割部分画像 X について数 45 と表 わされる隣接するどの分割部分画像とも重複しない領域 F— A 内部では、 前述のように境界上では定義されている画素値 変換関数を用いて、 数 39 による内挿を用いて定義する。 し たがって、 位置 (x, y) での画素値変換関数 77— {A[x, y] } (z) は、 数 46 で定義出来る。 VA[x,y](z) = KA{x,y) A[CA(x,y)}(z) … 数 46 ただし、 重み関数 /c— {A} (x, y) は数 47 で定義し、 分割 部分画像 Aに 隣接する全ての分割部分画像 X についての σ_{ΑΧ} (χ, y) の積とする。 ·· , ^ 4
κ ,^ : ( , ) eョ ■ · · 数 47
Figure imgf000030_0001
ここに、 び JAB} (x, y) は、 C_{AB} 上で定義され、 第 2 0図の分割中心線 2001に垂直な線 2010上の点 x(t) で、 第 2 1図 に示す値を持ち、 分割中心線 2001に平行な方向 には一定値を持つ関数とする。
第二の実施例は、 以上のように、 第 2図の画像分割装置 0
250の作用と、 幾何変形制御パラメ タの計算方法と、 画素値 変換パラメ夕の計算方法が第一の実施例とは異なる。
本実施例によれば、 分割部分画像の隣接画像との重複部分 を内側から外側に向かって滑らかに消えていく画像へ変換し、 このような画像特性を持つ隣接画像の重複部分同士をスク リ 一ン上で光学的に重ね合せて分割部分画像同士を貼り合せて いるので、 分割画像の位置合せの誤差の影響は、 隣接画像と の貼り合わせ部分のボケとして現れる。
一方、 第一の実施例では、 分割画像の位置合せに誤差の影 響は、 画像接続部分の不連続な変化として現れる。 人間の視 覚特性には、 画像の不連続な変化に対する認知感度の方が、 画像のボケのような連続的な変化に対する認知感度より も敏 感であるという特徴があるため、 本発明の第二の実施例によ りば、 第一の実施例より も位置誤差による合成画像の劣化が 人間に認知されにく くなるという効果がある。
本発明の第三の実施例を以下に示す。 第一の実施例におけ る、 第 2図の 映像信号制御装置 0 1 1 0の内部構成と、 それ に接続するプロジェクタの機能のみが異なり、 他の構成が同 一の実施例を第 2 2図を用いて説明する。
第三の実施例においては、 映像補正装置内蔵プロジェクタ 220 1、 2202、 220 3、 2204がそれぞれ、 第一の実施例で説 明した機能を持つ画像補正器を内蔵している。 さらに、 画像 補正器内蔵プロジェクタは、 その入力信号線として、 映像信 号線 2241、 2242、 2243、 2244の他に、 制御信号線 223 1、 2232、 2233、 2234の 2種類を持つ。
第三に実施例によっても、 第一の実施例と同様に、 隣接す る投写画像を、 隙間も重複もなく隣接して配置することが可 能となる効果がある。
本発明の第四の実施例を以下に示す。 第四の実施例は、 ス ク リーン形状が平面でないシステムである。 以下、 第 2 3図 を用いて説明する。
曲面スク リーン 2300は、 投写画像が映像観賞者の視野を 効率良く覆うために用いる必要がある場合に用いる。 通常、 曲面上に平面への投写を考慮して設計されたプロジエタ夕に より画像を投写すると、 最大画像投写範囲 232 1、 2322のよ うに、 頂点角の和が 360度より大きい四角形の形状となる。 そのため通常は、 隣接する最大画像投写範囲 232 1、 2322を 隙間も重複もなく配置することは不可能である。
隣接する最大画像投写範囲 232 1、 2322同士を 第 1 9図 のように、 隣接する辺が相手の投写範囲に含まれるように、 プロジェクタ 2 30 1、 2 3 0 2を配置し、 第一の実施例において 説明した機能を持つ映像信号制御装置 2 3 1 0を用いてプロジ ェクタ 2 3 0 1、 2 3 0 2へ供給する映像信号を制御し、 隣接して 投写する画像を、 最適化画像投写範囲 23 3 1、 2 3 32上に表示 する。 第一の実施例の映像信号制御装置 0 1 1 0が、 画像補 正器 0 28 1、 0282、 0 283、 0 28 を持たない場合の実施例 である本発明の第五の実施例を以下に示す。 本実施例の映像 信号制御装置の機能ブロック図を第 2 4図 に示す。 映像信 号制御装置は、 入出力端子として、 分割映像入力端子 242 1、 2422、 242 3、 2424 と、 スク リ一ン状態監視カメラ映像入 力端子 243 0 と、 分割映像出力端子 2442、 2442、 2443、 2444を持つ。 分割映像入力端子からの映像信号かテス トパ ターン画像生成器 2470の映像信号のどちらかが、 映像信号 切替器 246 0 により選択され、 分割映像出力端子に供給さ れる。 それぞれの分割映像信号は、 分割映像入力端子に接続 した画像再生装置 245 1、 2452、 245 3、 245 により、 そ れぞれのプロジェクタが担当する映像データを分割格納した D VD - RO Mなどの映像メディア 249 1、 249 2、 249 3、 2494 を再生することで供給される。
第 2 4図に示す映像信号制御装置では、 画像補正器を持た なくてもよい。 前記したように、 スク リーンの形状やプロジ ェクタとスク リーンの位置関係やプロジェクタ個々の表示特 性などに起因して、 スク リーン上で各プロジェク夕の画像を シームレスに接続し、 均一な画像を生成するには、 画像の幾 何変形や画像の色の特性変換が必要であった。 第一の実施例 では、 この画像補正を実時間で実行するハー ドウェアにより 実行した。 本実施例では、 各プロジェクタに対応した分割映 像データに対して、 画像補正処理を事前に実施した映像デー 夕を D V D - R O M などの映像メディアに格納しておく。 そして、 画像再生装置 245 1、 2452、 2453、 2454は、 単純に画像補 正済の映像データをプロジェクタに供給することで、 スク リ ーン上でシ一ムレスな画像接続を実現する。
本発明の第五の実施例によれば、 画像補正処理装置が不要 となる。
次に第六の実施例について説明する。 第六の実施例は、 第 五の実施例における画像再生装置 249 1、 249 2、 249 3、 24 94 を、 第 2 5図に示す機能プロックで構成された画像補正 機能を有する画像再生処理装置に置き換えたものである。
第六の実施例においては、 第 2 5図に示すように、 映像デ 一夕格納メディア 2 5 1 1 から映像データを読み取るピック アップ 252 1 と、 ピックアップにより検出した信号を映像 データに復号する映像再生回路 253 1 と、 再生された映像 データを画像補正情報入力端子 255 1 より入力した画像補 正情報に基づいて画像処理する画像補正回路 2532と、 画像 処理した映像データを蓄積する媒体 254 1 と、 画像処理し た映像データを一時蓄積媒体 254 1 から読み出し、 映像出 力端子 2552 へ出力する映像蓄積再生回路 25 33 とからな る画像再生装置が、 第五の実施例と異なるプロジェクタァレ 一システムとする。
シームレスな画像接続を実現するための画像補正量が、 プ ロジヱクタアレーシステムの個体毎に異なる場合に、 第五の 実施例では対応できない問題点を解決するために、 プロジェ クタ了レーシステムにとって最適な画像補正処理を、 各プロ ジェクタに対応した分割画像データに対して、 プロジェクタ 毎の画像補正量に従って、 画像補正回路 2 5 3 2 により、 事 前にオフラインでの画像補正を行い、 補正後の映像データを 一時蓄積媒体 2 5 4 1 に一旦蓄積する。 プロジヱクタアレー によるシ一ムレスな画像接続された映像再生時は、 画像補正 されたデータを一時蓄積媒体 2 5 4 1 から読み出して再生す ることで、 実現する。
第六の実施例によれば、 第一の実施例では、 シームレスな 画像接続を実現するための画像補正処理を実時間で実行する 処理装置が必要であつたが、 本実施例では、 実時間処理が間 に合わない程に遅い画像補正回路あるいは、 ソフ トウエアに よる画像処理ェミ ュレ一シヨ ンを用いても、 正しくスク リ一 ン上での画像合成が可能となる。 更に、 第五の実施例におい ては、 複数のプロジヱクタアレーシステムの間で画像補正量 が異る場合には、 正しくスク リーン上での画像合成が出来な いという問題点が、 プロジェクタァレーシステム毎に最適な 補正量で画像処理することで解決する。
以上のそれぞれの実施例によれば、 曲面スク リーン上への 投写画像を、 なめらかに接続し配置することが可能となる効 果がある。
また、 映像投写器により前記スク リーン上に投写される映 像の最大表示範囲が隣接する投写映像の最大表示範囲と一定 幅以上の重複領域も持つように配置するために、 複数の映像 投写器各々への入力画像データに対して適当な幾何形状と色 の変換を施した画像を供給するだけで、 複数の映像投写器に より投写した各画像を、 継目なく滑かに接続し全体として一 つの画面を構成することができるので、 映像投写器の設置位 置調整と映像投写器の光学系調整に要求される精度の簡略化 がはかられるという効果がある。
また、 映像投写器の特性とスク リーンの特性に応じた画像 の幾何形状と色の変換を実時間処理可能な画像信号変換手段 を有するので、 複数の映像投写器による投写した各画像を、 継目なく滑かに接続し全体として一つの画面を構成する課題 を、 画像変換手段の制御のみで解決できる。 このように、 映 像投写器の設置位置と光学系の調整点の変動に対して、 信号 処理のみで対処できるシステム構成が実現できるので、 信号 処理回路系の制御に比べて、 実現コス トが高く制御精度を上 げ難い光学系や機械系の制御手段が不要になるので、 経済的 で信頼性の高いマルチプロジェクショ ン映像表示装置を実現 できるという効果がある。
また、 複数の映像投写器により投写した各画像を、 継目な く滑かに接続し全体として一つの画面を構成する課題を解決 するための画像の幾何形状と色の変換量を自動算出し、 画像 変換手段を自動制御する手段を有するので、 画像調整作業を 目視と手作業で行っていた従来の方法に比較して、 経済的か つ高精度の調整が可能になるという効果がある。
また、 複数の映像投写器により投写した各画像を、 継目な く滑かに接続し全体として一つの画面を構成する課題を、 映 像投写器により投写した画像と隣接する画像とを、 その周辺 部での重複部分が、 非重複部分と滑かに接続するように、 重 複部の画像を両映像投写器からの光線の光学的加算で実現し ているので、 映像投写器の配置位置誤差や画像幾何変形手段 の制御誤差の影響が、 画像重複部分では画像のボケとして現 われる。 このため、 画像の不連続な変化に対する認知感度よ り、 画像のボケのような連続的な変化に対する認知感度の方 が鈍感であるという人間の視覚特性により、 画像接続部分の 誤差による画質劣化を、 人間に検知されにく くなるという効 果がある。
映像投写器が、 入力された映像信号をディ ジタル変換した 映像信号データに対して、 少く とも幾何形状と色特性を変換 する機能を持つデータ変換器と、 該データ変換器を制御する 演算制御装置を内蔵している場合には、 マルチプロジェクシ ョ ン映像表示装置のシステム能力における、 効果は前記と同 様であるが、 該映像投写器単体の使用においても、 投写画像 を幾何変形したり明度分布の変換が可能となり、 該映像投写 器の光軸がスク リーンに対して垂直でない場合でも、 スク リ 一ン上に正確な画像形状と明度分布を持つ映像を再生できる ので、 スク リーンと映像投写器との配置関係の制約が減少す るという効果力 ある。
産業上の利用可能性
本発明によれば、 より簡易な映像装置で複数の画像データを 1つ (ま たは複数) の画像に組み合わせることができる。 この際、 各画像データ 同士の間に発生する継ぎ目をより目立たなくすることが可能である。 以上の通り、 本発明は、 マルチプロジェクシヨンなど複数の画像デー タを 1つ (または複数の) 画像として表示することを可能とするもので ある。

Claims

- 請 求 の 範 囲 -
1 . 複数の映像出力器を有するマルチプロジヱクシヨ ン映像 表示装置での映像表示方法において、
前記映像出力器が映像を表示する表示画面上で、 前記映像 出力器から投写させる映像の表示領域が他の映像出力器から 出力される映像の表示領域と重ねて表示し、
重ねられて表示される領域に、 前記映像出力器および前記 他の映像出力器それぞれから、 互いに関連する映像を出力す ることを特徴とする映像表示方法。
2 . 請求の範囲第 1項に記載の映像表示方法において、 前記関連する映像は、 前記映像出力器および前記他の映像 出力器それぞれから出力される同一の映像内容であることを 特徴とする映像表示方法。
3 . 請求の範囲第 2項に記載の映像表示方法において、 同一の映像内容を重ね合わせて表示させることを特徴とす る映像表示方法。
4 . 請求の範囲第 2項に記載の映像表示方法において、 前記同一の映像内容を、 前記映像出力器および他の映像出 力器から出力が、 前記重ねられて表示される領域以外の領域 での表示内容と整合が取られるように表示することを特徴と する映像表示方法。
5 . 請求の範囲第 4項に記載の映像表示方法において、 前記重ねられて表示される領域以外の領域での表示と色の 整合をと り表示することを特徴とする映像表示方法。
6 . 請求の範囲第 1項に記載の映像表示方法において、 前記映像出力器は、 スク リ ーン上に映像を投写するこ と を 特徴とする映像表示方法。
7 . 請求の範囲第 1項に記載の映像表示方法において、
前記複数の映像出力器は、 前記表示画面上で 1 つの表示内 容を表示することを特徴とする映像表示方法。
8 . スク リーン上に 1 以上の画面を構成するマルチプロジェ クショ ン映像表示装置において、
前記スク リーン上に映像を投写する映像投写器と、
前記映像投写器から投写される映像を表示する表示範囲が、 他の映像投写器の表示範囲と重複領域を有する場合、 前記映 像投写器および前記他の映像投写器それぞれから、 前記スク リーン上の前記重複領域内には互いに関連する映像を出力さ せる制御装置を
有することを特徴とするマルチプロジェクショ ン映像表 示装置。
9 . 請求の範囲第 8項に記載のマルチプロジヱクシヨ ン映像 表示装置において、
前記制御装置は、 前記スク リーン上の前記重複領域内には 複数の前記映像投写器の投写光が光学的に加算されて投写 させるこ とを特徴とするマルチプロジヱクショ ン映像表示装 置。
1 0 . 請求の範囲第 9項に記載のマルチプロジヱクショ ン映像 表示装置において、
前記制御装置は、
前記映像投写器毎にディ ジタル変換した映像信号データを、 前記複数の映像投写器の特性と前記スク リーンの特性に応じ て、 少く と も投写画像の幾何形状と色の表示特性を変換する 機能を持つデータ変換器と、
該複数のデータ変換器を制御する演算制御装置を設けたこ とを特徴とするマルチプロジェクショ ン映像表示装置。
1 1 . 請求の範囲第 1 0項に記載のマルチプロジヱクショ ン映 像表示装置において、
前記スク リーン上に投写された画像を撮像する手段を設け 前記データ変換器を制御する前記演算制御装置内に、 前記撮 像手段で撮像された画像情報に基づいて、 スク リ ーン上の場 所を、 前記複数の映像投写器それぞれによ り投写される画像 の画素位置を表わす座標系での座標値に対応付けるこ とを特 徴とするマルチプロジェクシヨ ン映像表示装置。
1 2 . 請求の範囲第 1 0項に記載のマルチプロジェクシヨ ン映 像表示装置において、
前記制御装置は、
前記重複領域では、 複数の前記映像投写器から投写した光 線の光学的加算によ り結像した映像が、 前記映像投写器の映 像投写範囲で前記重複領域以外の領域内に結像した映像と、 同等の画質が得られるよ うに、 画像データを変換することを 特徴とするマルチプロジ クショ ン映像表示装置。
1 3 . 映像をスク リ ーン上に投影する映像投写器において、 前記映像投写器への入力映像信号をディ ジタル変換した映 像信号データに対して、 少く と も幾何形状と色特性を変換す るデータ変換器と、
前記データ変換器で変換されたデータを出力する出力器を 有することを特徴とする映像投写器。
1 4 . 複数の映像出力器から出力される映像が重ねられて表示 される領域に、 映像出力器および他の映像出力器それぞれか ら、 互いに関連する映像を出力可能なように、 各映像出力器 に対応させて映像データを分割して格納していることを特徴 とする記憶媒体。
1 5 . 請求の範囲第 1 4項に記載の記憶媒体において、
前記分割された映像データは、 対応する映像出力器毎の特 性に対応した画像処理が施されていることを特徴とする記憶 媒体。
1 6 . コンピュータ読み取り可能な記憶媒体であって、
映像出力器が映像を表示する表示画面上で、 前記映像出力 器から投写させる映像の表示領域が他の映像出力器から出力 される映像の表示領域と重ねて表示させ、
重ねられて表示される領域に、 前記映像出力器および前記 他の映像出力器それぞれから、 互いに関連する映像を出力さ せるプログラムが格納されたことを特徴とするコ ンピュータ 読み取り可能な記憶媒体。
1 7 . 複数の映像出力器から出力される映像が重ねられて表示 される領域に、 映像出力器および他の映像出力器それぞれか ら、 互いに関連する映像を出力可能なように、 各映像出力器 に対応させて映像データを分割して格納していることを特徴 とする記憶媒体と、
前記記憶媒体読み出した映像データに基づく映像信号を各 映像出力器に供給する供給器を有することを特徴とする映像 信号再生装置。
1 8 . スク リーンの背面あるいは正面からスク リ一ン上に画像 を投写する複数のプロジェクタに対して、 プロジェクタへ供 給された映像信号を、 各プロジェク夕が担当する部分画像領 域毎に切り出した映像信号を作成し、
作成された映像信号を加工して投写する画像の形状変形と 局所的色補正を行うことを特徴とする映像投写方法。
PCT/JP1997/004588 1997-12-12 1997-12-12 Dispositif d'affichage d'images a projecteurs multiples WO1999031877A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP1997/004588 WO1999031877A1 (fr) 1997-12-12 1997-12-12 Dispositif d'affichage d'images a projecteurs multiples
JP2000539636A JP3714163B2 (ja) 1997-12-12 1997-12-12 映像表示システム
US09/581,077 US6695451B1 (en) 1997-12-12 1997-12-12 Multi-projection image display device
EP97947921A EP1039749A4 (en) 1997-12-12 1997-12-12 MULTIPLE PROJECTION IMAGE DISPLAY DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1997/004588 WO1999031877A1 (fr) 1997-12-12 1997-12-12 Dispositif d'affichage d'images a projecteurs multiples

Publications (1)

Publication Number Publication Date
WO1999031877A1 true WO1999031877A1 (fr) 1999-06-24

Family

ID=14181645

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/004588 WO1999031877A1 (fr) 1997-12-12 1997-12-12 Dispositif d'affichage d'images a projecteurs multiples

Country Status (4)

Country Link
US (1) US6695451B1 (ja)
EP (1) EP1039749A4 (ja)
JP (1) JP3714163B2 (ja)
WO (1) WO1999031877A1 (ja)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007376A1 (en) * 1998-07-31 2000-02-10 Massachusetts Institute Of Technology Super-resolution display
WO2000018139A1 (en) * 1998-09-23 2000-03-30 Honeywell Inc. Method and apparatus for calibrating a tiled display
JP2001184040A (ja) * 1999-12-24 2001-07-06 Hitachi Ltd 画像データ表示システム及び画像データ生成方法
EP1134610A2 (en) * 2000-03-17 2001-09-19 Olympus Optical Co., Ltd. Projection system with plural projectors
EP1185110A2 (en) * 2000-08-31 2002-03-06 Texas Instruments Incorporated Automated color matching for tiled projection system
WO2002019704A2 (en) * 2000-08-30 2002-03-07 Honeywell International Inc. Electronic calibration for seamless tiled display using optical function generator
JP2002072359A (ja) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd 画像投影表示装置
EP1187471A2 (en) * 2000-08-30 2002-03-13 Matsushita Electric Industrial Co., Ltd. Video projecting system
US6377306B1 (en) 1998-09-23 2002-04-23 Honeywell International Inc. Method and apparatus for providing a seamless tiled display
WO2002007431A3 (en) * 2000-07-17 2002-07-04 Matsushita Electric Ind Co Ltd Multidisplay apparatus and chromaticity adjustment method for in the multidisplay apparatus
JP2002278507A (ja) * 2001-03-19 2002-09-27 Ricoh Co Ltd 画像処理装置および画像表示装置
JP2003153133A (ja) * 2001-07-30 2003-05-23 Sony Corp プロジェクタおよび画像補正方法
EP1134973A3 (en) * 2000-03-06 2003-06-04 Olympus Optical Co., Ltd. Image calibration device and method
JP2003174602A (ja) * 2001-12-05 2003-06-20 Olympus Optical Co Ltd 画像表示システム
JP2003522497A (ja) * 2000-02-09 2003-07-22 クヌット クロッグスタッド 映像プロジェクタ用デジタル補正モジュール
JP2003209769A (ja) * 2002-01-15 2003-07-25 Canon Inc 画像生成装置および方法
JP2003219324A (ja) * 2002-01-17 2003-07-31 Olympus Optical Co Ltd 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム
JP2004165944A (ja) * 2002-11-13 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> 投影情報補正方法、投影情報補正装置、プログラム、および記録媒体
JP2005039788A (ja) * 2003-05-23 2005-02-10 Katsuyaku Dokan Kagi Kofun Yugenkoshi 投影システム
JP2005051375A (ja) * 2003-07-31 2005-02-24 Hitachi Ltd 映像表示装置
JP2005102277A (ja) * 2004-11-08 2005-04-14 Hitachi Ltd スタックプロジェクション装置及びその調整方法
JP2005269528A (ja) * 2004-03-22 2005-09-29 Seiko Epson Corp マルチプロジェクションシステムのための画像補正方法
JP2005286574A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2005286573A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2005286575A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2006033672A (ja) * 2004-07-21 2006-02-02 Victor Co Of Japan Ltd 曲面マルチスクリーン投射方法及び曲面マルチスクリーン投射装置
JP2006332975A (ja) * 2005-05-25 2006-12-07 Mitsubishi Electric Corp 映像信号処理回路
US7338175B2 (en) 2003-12-01 2008-03-04 Seiko Epson Corporation Front projection type multi-projection display
US7410263B2 (en) 2003-11-06 2008-08-12 Seiko Epson Corporation Rear projection type multi-projection display
US7517089B2 (en) 2004-03-29 2009-04-14 Seiko Epson Corporation Image processing system, projector, information storage medium, and image processing method
US7564501B2 (en) 2005-02-23 2009-07-21 Seiko Epson Corporation Projection system, projector, method of controlling projectors and program therefor
JP2009531957A (ja) * 2006-03-28 2009-09-03 トムソン ライセンシング プロダクション切換器を使ってエッジ・ブレンドを実行するための方法および装置
US7857464B2 (en) 2005-06-27 2010-12-28 Seiko Epson Corporation Projection image position adjustment method
US7926957B2 (en) 2003-10-15 2011-04-19 Seiko Epson Corporation Multi-projection display
JP2011123136A (ja) * 2009-12-08 2011-06-23 Canon Inc マルチプロジェクションシステムの制御装置、制御方法、プログラム
JP2012242430A (ja) * 2011-05-16 2012-12-10 Nippon Seiki Co Ltd 表示装置
US8777418B2 (en) 2006-01-26 2014-07-15 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
JP2014235295A (ja) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド マルチプロジェクタシステム、投射装置、調整装置および画像調整方法、ならびに、画像調整プログラム
JP2017083672A (ja) * 2015-10-29 2017-05-18 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
JP2018109725A (ja) * 2017-01-06 2018-07-12 三菱電機株式会社 表示装置及び表示システム

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2376411C (en) 2000-03-31 2009-01-20 Imax Corporation Digital projection equipment and techniques
CA2414359C (en) * 2000-07-03 2011-04-19 Imax Corporation Equipment and techniques for providing invisible seaming of multiple projection displays
JP3707371B2 (ja) * 2000-08-28 2005-10-19 セイコーエプソン株式会社 画像表示システム、画像処理方法および情報記憶媒体
US6864921B2 (en) * 2000-10-17 2005-03-08 Sony Corporation Display control system for controlling a display screen formed of multiple display units
US20060007406A1 (en) * 2002-10-21 2006-01-12 Sean Adkins Equipment, systems and methods for control of color in projection displays
EP1414239A1 (en) * 2002-10-24 2004-04-28 Barco N.V. Bundled light based alignment and maintenance tool for projection systems
US7038727B2 (en) * 2002-10-30 2006-05-02 The University Of Chicago Method to smooth photometric variations across multi-projector displays
DE10347388A1 (de) * 2003-10-08 2005-05-04 Zeiss Carl Jena Gmbh Anordnung zur Korrektur der visuellen Darstellung von Bildinformationen
US7738036B2 (en) 2003-12-30 2010-06-15 Thomson Licensing System and method for smoothing seams in tiled displays
US8251512B2 (en) * 2004-07-08 2012-08-28 Imax Corporation Equipment and methods for the display of high resolution images using multiple projection displays
TWI262716B (en) * 2005-03-11 2006-09-21 Benq Corp System and method for aligning sub-images projected on screen
US7334901B2 (en) * 2005-04-22 2008-02-26 Ostendo Technologies, Inc. Low profile, large screen display using a rear projection array system
EP3169059B1 (en) * 2005-04-26 2018-06-13 Imax Corporation Electronic projection systems and methods
US7717574B1 (en) 2005-09-30 2010-05-18 Obscura Digital, Inc. Method for simplifying the imaging of objects with non-Lambertian surfaces
US20070133794A1 (en) * 2005-12-09 2007-06-14 Cloutier Frank L Projection of overlapping sub-frames onto a surface
DE102006002602A1 (de) * 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
US7866832B2 (en) * 2006-02-15 2011-01-11 Mersive Technologies, Llc Multi-projector intensity blending system
US7773827B2 (en) * 2006-02-15 2010-08-10 Mersive Technologies, Inc. Hybrid system for multi-projector geometry calibration
NO330155B1 (no) * 2006-02-28 2011-02-28 3D Perception As Fremgangsmate og anordning til bruk ved kalibrering av en projektors bildevisning mot en fremviserskjerm, og fremviserskjerm til slik bruk.
US7499214B2 (en) * 2006-03-20 2009-03-03 Hewlett-Packard Development Company, L.P. Ambient light absorbing screen
US20080180467A1 (en) * 2006-04-13 2008-07-31 Mersive Technologies, Inc. Ultra-resolution display technology
US20070242240A1 (en) * 2006-04-13 2007-10-18 Mersive Technologies, Inc. System and method for multi-projector rendering of decoded video data
US7740361B2 (en) * 2006-04-21 2010-06-22 Mersive Technologies, Inc. Alignment optimization in image display systems employing multi-camera image acquisition
US7763836B2 (en) * 2006-04-21 2010-07-27 Mersive Technologies, Inc. Projector calibration using validated and corrected image fiducials
US7893393B2 (en) * 2006-04-21 2011-02-22 Mersive Technologies, Inc. System and method for calibrating an image projection system
US9137504B2 (en) * 2006-06-16 2015-09-15 Hewlett-Packard Development Company, L.P. System and method for projecting multiple image streams
US7800628B2 (en) * 2006-06-16 2010-09-21 Hewlett-Packard Development Company, L.P. System and method for generating scale maps
US20070291184A1 (en) * 2006-06-16 2007-12-20 Michael Harville System and method for displaying images
US7854518B2 (en) * 2006-06-16 2010-12-21 Hewlett-Packard Development Company, L.P. Mesh for rendering an image frame
US7907792B2 (en) * 2006-06-16 2011-03-15 Hewlett-Packard Development Company, L.P. Blend maps for rendering an image frame
US20080002160A1 (en) * 2006-06-30 2008-01-03 Nelson Liang An Chang System and method for generating and displaying sub-frames with a multi-projector system
US20080001977A1 (en) * 2006-06-30 2008-01-03 Aufranc Richard E Generating and displaying spatially offset sub-frames
US20080007700A1 (en) * 2006-07-10 2008-01-10 Vanbaar Jeroen Method and system for aligning an array of rear-projectors
JP5145664B2 (ja) * 2006-07-18 2013-02-20 富士ゼロックス株式会社 遠隔指示システム
US20080024469A1 (en) * 2006-07-31 2008-01-31 Niranjan Damera-Venkata Generating sub-frames for projection based on map values generated from at least one training image
US20080024683A1 (en) * 2006-07-31 2008-01-31 Niranjan Damera-Venkata Overlapped multi-projector system with dithering
US7835079B2 (en) * 2007-03-06 2010-11-16 Ostendo Technologies, Inc. Micro-structure based screen system for use in rear projection array display systems
DE102007027420B9 (de) 2007-06-14 2008-12-11 Airbus Deutschland Gmbh Innenraumprojektion für Luftfahrzeuge
KR20090022053A (ko) * 2007-08-29 2009-03-04 삼성전자주식회사 자동으로 영상을 조정하는 빔 프로젝트 장치 및 방법
US8164600B2 (en) * 2007-12-06 2012-04-24 Barco Nv Method and system for combining images generated by separate sources
US20090262260A1 (en) * 2008-04-17 2009-10-22 Mersive Technologies, Inc. Multiple-display systems and methods of generating multiple-display images
WO2009142503A1 (en) * 2008-05-19 2009-11-26 Global Control Center Design As Device and system for projecting images onto a screen
US20100066689A1 (en) * 2008-06-17 2010-03-18 Jung Edward K Y Devices related to projection input surfaces
US8376558B2 (en) * 2008-06-17 2013-02-19 The Invention Science Fund I, Llc Systems and methods for projecting in response to position change of a projection surface
US20090313152A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems associated with projection billing
US8944608B2 (en) * 2008-06-17 2015-02-03 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8608321B2 (en) * 2008-06-17 2013-12-17 The Invention Science Fund I, Llc Systems and methods for projecting in response to conformation
US20100066983A1 (en) * 2008-06-17 2010-03-18 Jun Edward K Y Methods and systems related to a projection surface
US8723787B2 (en) * 2008-06-17 2014-05-13 The Invention Science Fund I, Llc Methods and systems related to an image capture projection surface
US20090310103A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving information associated with the coordinated use of two or more user responsive projectors
US8820939B2 (en) * 2008-06-17 2014-09-02 The Invention Science Fund I, Llc Projection associated methods and systems
US20090310040A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for receiving instructions associated with user parameter responsive projection
US8262236B2 (en) * 2008-06-17 2012-09-11 The Invention Science Fund I, Llc Systems and methods for transmitting information associated with change of a projection surface
US20090310039A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for user parameter responsive projection
US8936367B2 (en) * 2008-06-17 2015-01-20 The Invention Science Fund I, Llc Systems and methods associated with projecting in response to conformation
US8384005B2 (en) * 2008-06-17 2013-02-26 The Invention Science Fund I, Llc Systems and methods for selectively projecting information in response to at least one specified motion associated with pressure applied to at least one projection surface
US20110176119A1 (en) * 2008-06-17 2011-07-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for projecting in response to conformation
US8733952B2 (en) 2008-06-17 2014-05-27 The Invention Science Fund I, Llc Methods and systems for coordinated use of two or more user responsive projectors
US8641203B2 (en) * 2008-06-17 2014-02-04 The Invention Science Fund I, Llc Methods and systems for receiving and transmitting signals between server and projector apparatuses
US20090313150A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods associated with projection billing
US20090309826A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Systems and devices
US20090313151A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods associated with projection system billing
US20090310098A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for projecting in response to conformation
US8602564B2 (en) * 2008-06-17 2013-12-10 The Invention Science Fund I, Llc Methods and systems for projecting in response to position
US20090312854A1 (en) * 2008-06-17 2009-12-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for transmitting information associated with the coordinated use of two or more user responsive projectors
JP2010134396A (ja) * 2008-11-10 2010-06-17 Seiko Epson Corp マルチディスプレイシステム、情報処理装置及びマルチディスプレイシステムにおける画像データ処理方法
EP2394438A2 (en) * 2009-02-03 2011-12-14 Robe Lighting Inc. Improvements to digital image projection luminaire systems
US7901095B2 (en) * 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
US8328365B2 (en) 2009-04-30 2012-12-11 Hewlett-Packard Development Company, L.P. Mesh for mapping domains based on regularized fiducial marks
US20100321382A1 (en) * 2009-06-18 2010-12-23 Scalable Display Technologies, Inc. System and method for injection of mapping functions
US9465283B2 (en) * 2009-11-06 2016-10-11 Applied Minds, Llc System for providing an enhanced immersive display environment
US9235575B1 (en) 2010-03-08 2016-01-12 Hewlett-Packard Development Company, L.P. Systems and methods using a slideshow generator
JP5471830B2 (ja) 2010-05-25 2014-04-16 セイコーエプソン株式会社 光変調装置の位置調整方法、光変調装置の位置調整量算出装置、及びプロジェクター
CN102053812B (zh) * 2010-10-09 2012-09-05 清华大学 多投影仪组合显示的自反馈亮度校正方法
CN102231099B (zh) * 2011-07-06 2014-06-18 清华大学 多投影仪自由立体显示的逐像素响应的亮度校正方法
IL216515A (en) 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
US8786788B2 (en) * 2012-04-20 2014-07-22 Mersive Technologies, Inc. System and method for image aspect preservation in multiple projector alignment
US9377673B2 (en) * 2012-07-20 2016-06-28 Prysm, Inc. Closed loop verification of rendered content
CN102929572B (zh) * 2012-10-29 2015-11-25 浙江大学 一种实现大屏幕多投影无缝拼接的方法及其拼接融合器
JP6255663B2 (ja) * 2012-11-19 2018-01-10 カシオ計算機株式会社 投影装置、投影状態調整方法、及び投影状態調整プログラム
JP6525570B2 (ja) * 2014-12-04 2019-06-05 キヤノン株式会社 画像表示システム、制御装置、制御方法及びプログラム
JPWO2016204068A1 (ja) * 2015-06-19 2018-04-26 ソニー株式会社 画像処理装置および画像処理方法、ならびにプロジェクションシステム
JP2017182110A (ja) * 2016-03-28 2017-10-05 セイコーエプソン株式会社 表示システム、表示装置、情報処理装置及び情報処理方法
JP6798163B2 (ja) * 2016-07-05 2020-12-09 セイコーエプソン株式会社 プロジェクションシステム、及び、プロジェクションシステムの調整方法
CN106647130B (zh) * 2017-03-07 2018-09-28 海信集团有限公司 背投影拼接单元、系统及背投影拼接单元调节方法
CN113709387A (zh) * 2021-08-16 2021-11-26 中国农业银行股份有限公司苏州分行 一种基于rfid物联网的服务内容查询方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58125986A (ja) * 1982-01-22 1983-07-27 Mitsubishi Electric Corp 投写形ビデオデイスプレイ装置
JPS62195984A (ja) * 1986-02-24 1987-08-29 Sony Corp プロジエクタ
JPH02273790A (ja) * 1989-04-17 1990-11-08 Nippon Telegr & Teleph Corp <Ntt> 大画面表示装置の制御方法
JPH0358082A (ja) * 1989-07-27 1991-03-13 Fujitsu General Ltd マルチcrtの投写型プロジェクタ
JPH06178244A (ja) * 1992-12-11 1994-06-24 Matsushita Electric Ind Co Ltd 投写型ディスプレイの画像処理方法およびその装置
JPH06178327A (ja) * 1992-12-08 1994-06-24 Matsushita Electric Ind Co Ltd 高臨場映像表示方法とその装置
JPH07239504A (ja) * 1994-03-01 1995-09-12 Mitsubishi Heavy Ind Ltd 大型表示装置
JPH0850469A (ja) * 1994-08-05 1996-02-20 Hitachi Denshi Ltd 高解像度大画面拡大表示装置
JPH08294073A (ja) * 1995-04-21 1996-11-05 Sony Corp 合成画像投影装置及び画像調整方法
JPH09326981A (ja) * 1996-06-06 1997-12-16 Olympus Optical Co Ltd 画像投影システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5136390A (en) * 1990-11-05 1992-08-04 Metavision Corporation Adjustable multiple image display smoothing method and apparatus
JP3488314B2 (ja) * 1995-04-21 2004-01-19 ソニー株式会社 映像信号処理装置及び画像調整方法
EP0786687A1 (en) * 1996-01-29 1997-07-30 Hughes-Jvc Technology Corporation Projected image blending for multiple images
US5956000A (en) * 1997-05-12 1999-09-21 Scitex Corporation Ltd. Digital image display system and method
US6456339B1 (en) * 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
US6310650B1 (en) * 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
JP4309549B2 (ja) * 2000-03-17 2009-08-05 オリンパス株式会社 マルチディスプレイ装置、マルチディスプレイシステム、マルチディスプレイ装置の調整方法
JP4950376B2 (ja) * 2000-11-07 2012-06-13 ガリストロフ ソフトウェア エルエルシー マルチディスプレイ装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58125986A (ja) * 1982-01-22 1983-07-27 Mitsubishi Electric Corp 投写形ビデオデイスプレイ装置
JPS62195984A (ja) * 1986-02-24 1987-08-29 Sony Corp プロジエクタ
JPH02273790A (ja) * 1989-04-17 1990-11-08 Nippon Telegr & Teleph Corp <Ntt> 大画面表示装置の制御方法
JPH0358082A (ja) * 1989-07-27 1991-03-13 Fujitsu General Ltd マルチcrtの投写型プロジェクタ
JPH06178327A (ja) * 1992-12-08 1994-06-24 Matsushita Electric Ind Co Ltd 高臨場映像表示方法とその装置
JPH06178244A (ja) * 1992-12-11 1994-06-24 Matsushita Electric Ind Co Ltd 投写型ディスプレイの画像処理方法およびその装置
JPH07239504A (ja) * 1994-03-01 1995-09-12 Mitsubishi Heavy Ind Ltd 大型表示装置
JPH0850469A (ja) * 1994-08-05 1996-02-20 Hitachi Denshi Ltd 高解像度大画面拡大表示装置
JPH08294073A (ja) * 1995-04-21 1996-11-05 Sony Corp 合成画像投影装置及び画像調整方法
JPH09326981A (ja) * 1996-06-06 1997-12-16 Olympus Optical Co Ltd 画像投影システム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1039749A4 *

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000007376A1 (en) * 1998-07-31 2000-02-10 Massachusetts Institute Of Technology Super-resolution display
US6456339B1 (en) 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
US6377306B1 (en) 1998-09-23 2002-04-23 Honeywell International Inc. Method and apparatus for providing a seamless tiled display
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
US6525772B2 (en) 1998-09-23 2003-02-25 Honeywell Inc. Method and apparatus for calibrating a tiled display
WO2000018139A1 (en) * 1998-09-23 2000-03-30 Honeywell Inc. Method and apparatus for calibrating a tiled display
JP2001184040A (ja) * 1999-12-24 2001-07-06 Hitachi Ltd 画像データ表示システム及び画像データ生成方法
US7855753B2 (en) 2000-02-09 2010-12-21 Randi Litleskare, legal representative Digital correction module for video projector
JP2003522497A (ja) * 2000-02-09 2003-07-22 クヌット クロッグスタッド 映像プロジェクタ用デジタル補正モジュール
EP1134973A3 (en) * 2000-03-06 2003-06-04 Olympus Optical Co., Ltd. Image calibration device and method
EP1134610A2 (en) * 2000-03-17 2001-09-19 Olympus Optical Co., Ltd. Projection system with plural projectors
EP1134610A3 (en) * 2000-03-17 2004-03-10 Olympus Optical Co., Ltd. Projection system with plural projectors
WO2002007431A3 (en) * 2000-07-17 2002-07-04 Matsushita Electric Ind Co Ltd Multidisplay apparatus and chromaticity adjustment method for in the multidisplay apparatus
JP2002072359A (ja) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd 画像投影表示装置
US6753923B2 (en) 2000-08-30 2004-06-22 Matsushita Electric Industrial Co., Ltd. Video projecting system
WO2002019704A3 (en) * 2000-08-30 2002-06-13 Honeywell Int Inc Electronic calibration for seamless tiled display using optical function generator
EP1187471A3 (en) * 2000-08-30 2002-12-04 Matsushita Electric Industrial Co., Ltd. Video projecting system
EP1187471A2 (en) * 2000-08-30 2002-03-13 Matsushita Electric Industrial Co., Ltd. Video projecting system
US6804406B1 (en) 2000-08-30 2004-10-12 Honeywell International Inc. Electronic calibration for seamless tiled display using optical function generator
WO2002019704A2 (en) * 2000-08-30 2002-03-07 Honeywell International Inc. Electronic calibration for seamless tiled display using optical function generator
EP1185110A3 (en) * 2000-08-31 2005-11-02 Texas Instruments Incorporated Automated color matching for tiled projection system
US7515746B2 (en) 2000-08-31 2009-04-07 Texas Instruments Incorporated Automated color matching for tiled projection system
EP1185110A2 (en) * 2000-08-31 2002-03-06 Texas Instruments Incorporated Automated color matching for tiled projection system
JP4737852B2 (ja) * 2001-03-19 2011-08-03 株式会社リコー 画像処理装置および画像表示装置
JP2002278507A (ja) * 2001-03-19 2002-09-27 Ricoh Co Ltd 画像処理装置および画像表示装置
JP2003153133A (ja) * 2001-07-30 2003-05-23 Sony Corp プロジェクタおよび画像補正方法
JP2003174602A (ja) * 2001-12-05 2003-06-20 Olympus Optical Co Ltd 画像表示システム
JP2003209769A (ja) * 2002-01-15 2003-07-25 Canon Inc 画像生成装置および方法
JP2003219324A (ja) * 2002-01-17 2003-07-31 Olympus Optical Co Ltd 画像補正データ算出方法、画像補正データ算出装置及びマルチプロジェクションシステム
JP2004165944A (ja) * 2002-11-13 2004-06-10 Nippon Telegr & Teleph Corp <Ntt> 投影情報補正方法、投影情報補正装置、プログラム、および記録媒体
JP2005039788A (ja) * 2003-05-23 2005-02-10 Katsuyaku Dokan Kagi Kofun Yugenkoshi 投影システム
JP2005051375A (ja) * 2003-07-31 2005-02-24 Hitachi Ltd 映像表示装置
US7926957B2 (en) 2003-10-15 2011-04-19 Seiko Epson Corporation Multi-projection display
US7410263B2 (en) 2003-11-06 2008-08-12 Seiko Epson Corporation Rear projection type multi-projection display
US7338175B2 (en) 2003-12-01 2008-03-04 Seiko Epson Corporation Front projection type multi-projection display
JP2005269528A (ja) * 2004-03-22 2005-09-29 Seiko Epson Corp マルチプロジェクションシステムのための画像補正方法
JP4501481B2 (ja) * 2004-03-22 2010-07-14 セイコーエプソン株式会社 マルチプロジェクションシステムのための画像補正方法
JP2005286574A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
JP2005286575A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US7517089B2 (en) 2004-03-29 2009-04-14 Seiko Epson Corporation Image processing system, projector, information storage medium, and image processing method
US7661827B2 (en) 2004-03-29 2010-02-16 Seiko Epson Corporation Image processing system, projector, computer-readable storage medium, and image processing method
JP2005286573A (ja) * 2004-03-29 2005-10-13 Seiko Epson Corp 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
US7270422B2 (en) 2004-03-29 2007-09-18 Seiko Epson Corporation Image processing system, projector, program, information storage medium, and image processing method
JP2006033672A (ja) * 2004-07-21 2006-02-02 Victor Co Of Japan Ltd 曲面マルチスクリーン投射方法及び曲面マルチスクリーン投射装置
JP2005102277A (ja) * 2004-11-08 2005-04-14 Hitachi Ltd スタックプロジェクション装置及びその調整方法
US7564501B2 (en) 2005-02-23 2009-07-21 Seiko Epson Corporation Projection system, projector, method of controlling projectors and program therefor
JP2006332975A (ja) * 2005-05-25 2006-12-07 Mitsubishi Electric Corp 映像信号処理回路
US7857464B2 (en) 2005-06-27 2010-12-28 Seiko Epson Corporation Projection image position adjustment method
US8777418B2 (en) 2006-01-26 2014-07-15 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
US9479769B2 (en) 2006-01-26 2016-10-25 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
JP2009531957A (ja) * 2006-03-28 2009-09-03 トムソン ライセンシング プロダクション切換器を使ってエッジ・ブレンドを実行するための方法および装置
JP4914491B2 (ja) * 2006-03-28 2012-04-11 ジーブイビービー ホールディングス エス.エイ.アール.エル. プロダクション切換器を使ってエッジ・ブレンドを実行するための方法および装置
JP2011123136A (ja) * 2009-12-08 2011-06-23 Canon Inc マルチプロジェクションシステムの制御装置、制御方法、プログラム
JP2012242430A (ja) * 2011-05-16 2012-12-10 Nippon Seiki Co Ltd 表示装置
JP2014235295A (ja) * 2013-05-31 2014-12-15 株式会社Jvcケンウッド マルチプロジェクタシステム、投射装置、調整装置および画像調整方法、ならびに、画像調整プログラム
JP2017083672A (ja) * 2015-10-29 2017-05-18 セイコーエプソン株式会社 画像投射システム、プロジェクター、及び、画像投射システムの制御方法
JP2018109725A (ja) * 2017-01-06 2018-07-12 三菱電機株式会社 表示装置及び表示システム

Also Published As

Publication number Publication date
EP1039749A4 (en) 2002-06-26
US6695451B1 (en) 2004-02-24
JP3714163B2 (ja) 2005-11-09
EP1039749A1 (en) 2000-09-27

Similar Documents

Publication Publication Date Title
WO1999031877A1 (fr) Dispositif d&#39;affichage d&#39;images a projecteurs multiples
JP3620537B2 (ja) 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
Bimber et al. Embedded entertainment with smart projectors
JP3497805B2 (ja) 画像投影表示装置
JP3925521B2 (ja) スクリーンの一部の辺を用いたキーストーン補正
US20030067587A1 (en) Multi-projection image display device
JP3719317B2 (ja) 補間方法、補間回路、画像表示装置
Harville et al. Practical methods for geometric and photometric correction of tiled projector
US7431462B2 (en) Projector, image data converting method, and image data converting program
WO2003071794A1 (fr) Procede et dispositif de calcul de donnees de correction d&#39;image et systeme de projection
JPH0530520A (ja) 表示調整方式
JP2017050616A (ja) 表示装置及び制御方法
JP2019161397A (ja) 制御装置、プログラム、及び制御方法
WO2007029997A1 (en) Display system utilising multiple display units
JP2004228824A (ja) スタックプロジェクション装置及びその調整方法
JP3757979B2 (ja) 映像表示システム
JP2002014611A (ja) プラネタリウムのまたは球面スクリーンへのビデオ投映方法と装置
JP2006074805A (ja) マルチプロジェクション映像表示装置
JPH06178244A (ja) 投写型ディスプレイの画像処理方法およびその装置
JP3959740B2 (ja) プロジェクタおよび画像補正方法
JP3709395B2 (ja) 画像投影システム
JP2018159838A (ja) 画像投影装置とその制御方法、プログラム及び記憶媒体
JP4762412B2 (ja) 画像再生システムの欠陥を判定し且つ少なくとも部分的に補正する方法及び該方法を実施するための装置
JP2002108322A (ja) 投影システム及び投影方法
JP6700955B2 (ja) 投影装置及び投影方法

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 1997947921

Country of ref document: EP

Ref document number: 09581077

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: KR

WWP Wipo information: published in national office

Ref document number: 1997947921

Country of ref document: EP